Neto de Oppenheimer pede medidas de controle no uso da IA

O neto do físico estadunidense Julius Robert Oppenheimer, Charles Oppenheimer, é um dos autores de uma carta aberta que clama por medidas que buscam conter as maiores ameaças à humanidade, como o uso indiscriminado da Inteligência Artificial (IA) e a crise climática. Outros riscos, como futuras pandemias e retorno das armas nucleares, também são mencionadas no apelo. 

  • Quem foi o físico Julius Robert Oppenheimer, o pai da bomba atômica?
  • ChatGPT deve complementar o trabalho, não destruí-lo, aposta ONU

Vale lembrar que o seu avô, J. Robert Oppenheimer, foi um importante físico estadunidense, conhecido por ter liderado o Projeto Manhattan. A iniciativa possibilitou o desenvolvimento das primeiras armas nucleares durante a Segunda Guerra Mundial.

Embora seja considerado popularmente o pai da bomba nuclear, Oppenheimer foi crítico ao uso da arma e atuou ativamente no controle dessa tecnologia com enorme potencial de destruição. Recentemente, parte de sua história foi contada nos cinemas, sob a direção de Christopher Nolan.


Siga no Instagram: acompanhe nossos bastidores, converse com nossa equipe, tire suas dúvidas e saiba em primeira mão as novidades que estão por vir no Canaltech.

Soluções para os problemas globais

“Nosso mundo está em grave perigo. Enfrentamos um conjunto de ameaças que colocam em risco toda a humanidade”, afirmam os autores da carta aberta, enviada aos líderes globais. 

Além de Charles Oppenheimer, outras figuras importantes assinam o documento, como Fernando Henrique Cardoso, ex-presidente do Brasil, e Ellen Johnson Sirleaf e Juan Manuel Santos, ganhadores do Prêmio Nobel da Paz.

Segundo os autores, o impacto de algumas dessas ameaças já é visível, como os efeitos das mudanças climáticas, as milhões de mortes provocadas pela pandemia da covid-19, o risco de novas pandemias e a possibilidade de bombas nucleares serem novamente usadas.

Neto de Oppenheimer alerta para os riscos atuais à humanidade, como a IA e a crise climática (Imagem: Pete Linforth/Pixabay)

“Algumas destas ameaças colocam em risco a própria existência da vida na Terra”, pontuam. “Ainda não sabemos quão significativos serão os riscos emergentes associados à Inteligência Artificial”, acrescentam.

Ações contra as mudanças climáticas e controle da IA

Para impedir que esses problemas afetem o futuro da humanidade, a ideia é que os governos e os líderes globais começam “a trabalhar agora para chegar a um acordo sobre como financiar a transição para um futuro seguro e saudável alimentado por energia limpa, relançar debates sobre controle de armas para reduzir o risco de uma guerra nuclear e salvar milhões de vidas através da conclusão de um tratado pandêmico equitativo”. 

Os autores também recomendam a criação de uma aliança global “para tornar a IA uma força para o bem e não um risco descontrolado”. Isso poderia limitar os efeitos danosos da IA generativa para criação de novas armas ou para outros fins obscuros, por exemplo.

“Os maiores riscos que enfrentamos não podem ser combatidos por nenhum país sozinho”, lembram. “Quando as nações trabalham em conjunto, todos esses desafios podem ser enfrentados, para o bem de todos nós”, completam.

Carta por futuro melhor

A carta assinada pelo neto de Oppenheimer foi divulgada na última quinta-feira (15) pela The Elders, uma organização não governamental criada por Nelson Mandela, com o objetivo de defender a paz mundial e proteger os direitos humanos. O documento é endossado pelo Future of Life Institute, instituição que trabalha para garantir que a IA seja usada em benefício da humanidade.

Leia a matéria no Canaltech.

Trending no Canaltech:

  • Semana do Cinema 2024 traz ingressos a R$ 12 em todo o Brasil
  • Artigo científico com imagens esdrúxulas de IA é retirado do ar
  • 🤑 BARATO | Aproveite Galaxy S23 de 512 GB em super oferta
  • Adobe lança assistente de IA para analisar e resumir PDFs
  • 1º paciente com chip da Neuralink controla mouse pelo pensamento
  • Tinder vai verificar identidade de usuários no Brasil
Adicionar aos favoritos o Link permanente.