Professor da USP é um dos dois únicos brasileiros a integrar comitê responsável por relatório internacional sobre segurança em inteligência artificial

Professor da USP é um dos dois únicos brasileiros a integrar comitê responsável por relatório internacional sobre segurança em inteligência artificialASSESSORIA DE IMPRENSA

A inteligência artificial (IA) está transformando o mundo em uma velocidade impressionante. Se, por um lado, fascina por tudo o que pode fazer, por outro, levanta preocupações como, por exemplo, seu impacto no mercado de trabalho, ameaças à segurança cibernética e os riscos de se sobrepor ao ser humano. Para discutir essas questões, o governo britânico lançou, no dia 29 de janeiro, o International AI Safety Report, um documento que sintetiza, de maneira inédita, as evidências científicas sobre os principais riscos e capacidades da IA de propósito geral – tecnologia que está por trás de ferramentas como o ChatGPT, LLaMA e PaLM.

O relatório foi presidido pelo cientista da computação Yoshua Bengio, vencedor do Prêmio Turing, e contou com a colaboração de 100 especialistas internacionais. Entre eles, está o professor André Ponce de Leon Ferreira de Carvalho, diretor do Instituto de Ciências Matemáticas e de Computação (ICMC) da USP, em São Carlos. Uma equipe formada por 100 especialistas em IA de 30 países, da União Européia, da ONU e da  Organização para a Cooperação e Desenvolvimento Econômico ou Econômico (OECD) participaram da escrita do relatório, divididos em 3 comitês: Painel Consultivo de Especialistas, Redatores e Conselheiros Seniores. O docente foi o representante brasileiro no painel consultivo de especialistas, e a professora Teresa Ludermir, da Universidade Federal de Pernambuco (UFPE), participou do grupo de Conselheiros Seniores.

O convite para integrar o Painel Consultivo de Especialistas surgiu no final de 2023, quando o governo britânico realizou uma reunião com representantes de 29 países, entre eles o Brasil. Ao final da reunião, foi divulgada a Declaração de Bletchley e foi solicitado a cada país que indicasse um especialista para compor o grupo de trabalho focado na segurança da IA. Devido à sua expertise na área, o professor André foi convidado pelo Ministério da Ciência, Tecnologia e Inovação (MCTI). “O encontro foi motivado pela crescente preocupação com as IAs de propósito geral, que apresentam capacidades cada vez mais sofisticadas e trazem desafios significativos para a sociedade”, destaca o diretor.

A segurança da IA é um problema que precisa ser tratado em escala global, e essa diversidade de perspectivas foi um dos pontos fortes do relatório. O professor André compara esse desafio à disseminação de vírus biológicos: “Se um país não adota medidas preventivas eficazes, a ameaça pode se espalhar rapidamente pelo mundo. Com a IA, acontece o mesmo: sem uma política global coordenada, sempre haverá o risco de um elo fraco na corrente, comprometendo a segurança de todos”.

Como o relatório foi organizado – Segundo o professor André, a equipe responsável pela elaboração do International AI Safety Report iniciou os trabalhos em 2024, com reuniões periódicas para revisar e aprimorar o documento. “Os rascunhos eram revisados regularmente, e cada especialista tinha que sugerir  ajustes, inclusões e alterações. Em um segundo momento, foram criados dois novos comitês: um de especialistas seniores e outro de redatores. O comitê de redatores ficou responsável pela redação final, enquanto os especialistas garantiam a precisão técnica. Depois, uma revisão mais ampla assegurava a coerência e a clareza do relatório final”, explica.

O documento foi desenvolvido de forma independente, sem influência da indústria ou de governos, e tem caráter exclusivamente consultivo – ou seja, não faz recomendações políticas aos países, apenas disponibiliza o que é conhecido sobre o estado atual da IA, seus riscos e abordagens para reduzi-los. “O relatório apresenta um panorama do estado do conhecimento e das discussões científicas sobre IA – incluindo incertezas e divergências que ainda persistem”, ressalta o brasileiro.

No que diz respeito à segurança, o documento destaca três principais preocupações:

  • Empoderamento de indivíduos mal-intencionados: a IA pode ser usada para potencializar ataques cibernéticos, disseminação de desinformação e manipulação de conteúdo, criando um ambiente digital mais vulnerável.
  • Facilitação da criação de armas químicas e biológicas: o desenvolvimento dessas armas, antes, exigia um alto nível de conhecimento técnico. Agora, a IA pode tornar essas informações mais acessíveis, ampliando os riscos globais.
  • Armas autônomas e decisões independentes: com o avanço da IA, sistemas autônomos podem tomar decisões sem intervenção humana, o que representa um risco significativo para a segurança internacional.

O relatório também aborda outras questões importantes, como:

  1. Impacto no mercado de trabalho: a IA pode automatizar muitas funções, levando muitos trabalhadores ao desemprego. No entanto, o relatório defende que esse impacto irá depender da velocidade dos avanços tecnológicos, da adesão das empresas e de como a demanda por trabalho humano se ajustará. Os especialistas divergem em relação à questão: será que os empregos criados pela IA serão suficientes para fazer frente às perdas? O relatório também alerta para o aumento da desigualdade socioeconômica, beneficiando principalmente profissionais altamente qualificados.
  2. Desafios ambientais: o alto consumo energético dos sistemas de IA é uma preocupação central. O documento sugere priorizar a produção de energia limpa e o desenvolvimento de algoritmos mais eficientes. Por outro lado, a IA é vista como uma aliada na preservação ambiental, ajudando a combater o desmatamento ilegal e prevendo eventos climáticos extremos.
  3. Desinformação e influência política: a IA pode ser usada na disseminação de fake news e campanhas de desinformação, comprometendo a confiança pública e enfraquecendo democracias. O relatório aponta que algoritmos podem amplificar vieses sociais e políticos, resultando em decisões discriminatórias. Para mitigar esses riscos, os especialistas defendem a necessidade de mecanismos de monitoramento e transparência das ferramentas de IA.
  4. Desigualdade no acesso à IA: países emergentes podem enfrentar dificuldades para acompanhar o desenvolvimento da IA avançada devido a barreiras como infraestrutura limitada, falta de talentos especializados e investimentos insuficientes.
  5. Privacidade e proteção de dados: a IA pode ser usada para vigilância em massa, violação de dados e criação de deepfakes, aumentando os desafios relacionados à privacidade.
  6. Concentração de mercado: o desenvolvimento de IA está concentrado em poucos países, como Estados Unidos e China, criando uma dependência global dessas nações. Isso pode deixar setores críticos, como saúde e finanças, vulneráveis a prioridades e decisões externas.

Desafios e oportunidades para o Brasil – Para o diretor do ICMC, o país precisa investir fortemente em educação, pesquisa e capacitação para garantir o uso seguro e ético da IA. “É essencial que as pessoas compreendam seu funcionamento, seus riscos e suas implicações. Somente com um investimento massivo em educação e pesquisa será possível garantir que a IA traga benefícios para toda a sociedade”, opina.

Para ele, a capacitação em IA não deve se restringir apenas à área tecnológica,  deve incluir todas as áreas do conhecimento. Dessa forma, profissionais de diferentes setores saberão aplicar a tecnologia estrategicamente. O professor alerta: “Se o Brasil não investir nessa qualificação de forma ampla, corre o risco de criar um novo abismo profissional, em que apenas uma parcela da população terá acesso às oportunidades geradas pela IA”.

Para o pesquisador, o impacto no mercado de trabalho já pode ser sentido mais intensamente em países com sistemas educacionais de qualidade inferior, e o  Brasil precisa se planejar para evitar um cenário de desemprego e desamparo para sua população. “O mundo está interconectado, e as empresas competem em um cenário global. Um dos fatores determinantes nessa competição internacional é a produtividade dos trabalhadores. Se um país não qualifica sua força de trabalho para acompanhar essa evolução tecnológica, perde competitividade, o que resulta em perda de empregos e oportunidades socioeconômicas”, salienta.

Além do impacto no mercado de trabalho, há também questões ambientais a serem consideradas. O Brasil possui um setor energético relativamente mais eficiente do que muitos países da Europa, e esse fator pode ser um ponto estratégico para o Brasil. No que concerne à regulação da IA, o relatório propõe  um equilíbrio, já que regras excessivamente rígidas podem sufocar a inovação, enquanto a ausência de diretrizes claras pode gerar riscos imprevisíveis. Nesse sentido, André explica que qualquer legislação pode se tornar obsoleta em pouco tempo já que essa tecnologia avança muito rapidamente. “O ideal é adotar um modelo flexível de regulação, capaz de acompanhar os avanços tecnológicos”, reflete.

Para o diretor do ICMC, o lançamento do Plano Brasileiro de Inteligência Artificial (PBIA) em 2024 demonstrou a intenção do país de não ficar para trás na corrida global, embora ele apoie muito mais a infraestrutura do que pesquisas e a formação de pessoal qualificado, a principal razão para os avanços da IA. Por fim, o professor diz que, apesar dos desafios, a IA de propósito geral pode trazer benefícios significativos para a educação, saúde, meio ambiente e pesquisa científica, além de ser capaz de impulsionar a inovação e o desenvolvimento econômico do país. 

Fonte: São Carlos Agora. Leia o artigo original: Professor da USP é um dos dois únicos brasileiros a integrar comitê responsável por relatório internacional sobre segurança em inteligência artificial

Adicionar aos favoritos o Link permanente.