Terapia no ChatGPT oferece riscos e preocupa o Conselho Federal de Psicologia

O Conselho Federal de Psicologia (CFP) está criando, neste ano, um grupo de trabalho para discutir o uso da inteligência artificial (IA) com fins terapêuticos — esforço vem em meio a alta no uso da tecnologia para simular sessões de terapias, incluindo IAs que não foram desenvolvidas para isso.

  • IA “traz de volta” pessoas que já morreram e isso não é bom
  • Os perigos da IA são mais sutis do que robôs armados, apontam especialistas

À Agência Brasil, o especialista em engenharia de teleinformática da Universidade Federal do Ceará, Victor Hugo Albuquerque, explicou que os chats estão bastante sofisticados, sendo treinados para reconhecer os padrões usados na fala dos usuários. Eles são bons em prever palavras ou frases que devem ser usadas em sequência, entendendo tom e intenção. O problema é que as IAs respondem baseadas em padrões, e não em raciocínios, limitando sua habilidade. Elas simulam humanos, mas estão longe de serem um.

Humanização da IA e terapia

Na revista Harvard Business Review, cientistas publicaram um artigo revelando que o uso de IA como se fosse um terapeuta é o principal objetivo dos usuários em 2025, ao lado de busca por companhia. Em seguida, vem a organização da vida pessoal, busca por propósito e por uma vida mais saudável. No Brasil, o CFP recebe, diariamente, consultas sobre o uso de IA na psicologia.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

A preocupação dos psicólogos é que as IAs não consigam ajudar pessoas em momentos de crise, quando acolhimento e acompanhamento de profissionais é mais necessário (Imagem: korneevamaha/envato)
A preocupação dos psicólogos é que as IAs não consigam ajudar pessoas em momentos de crise, quando acolhimento e acompanhamento de profissionais é mais necessário (Imagem: korneevamaha/envato)

O grupo de trabalho do conselho, com base nisso, estuda formas de regulamentar novas ferramentas terapêuticas que se baseiam em métodos e técnicas reconhecidas pela psicologia, desenvolvidas por profissionais habilitados e que possam ser responsabilizados pelo seu uso. Segundo a conselheira do CFP, Maria Carolina Roseiro, parte do problema é que a tecnologia em si, como o ChatGPT, não pode ser responsabilizada, e, se não foi criada para fins terapêuticos, está ainda mais sujeita ao erro.

A opinião dos profissionais é que ferramentas de IA podem servir bem como diários, para compartilhar relatos, emoções e desejos, gerando reflexões e ideias. O uso em momentos de crise, no entanto, não é seguro, mesmo porque os modelos tendem a responder o que acham que irá agradar o usuário, concordando com ele em tudo. Sem o filtro das relações humanas, que podem acolher, mas também reconhecer comportamentos prejudiciais, um grande espaço de melhora é perdido.

Por último, mas não menos importante, há o risco da privacidade: mesmo que atestem anonimato e relatem apagar os dados após o uso, IAs podem acabar guardando informações temporárias sujeitas a vazamento, podendo cair nas mãos de terceiros. No contexto da saúde mental, isso é perigoso. A lição, no geral, é que IAs não substituem profissionais de saúde mental — especialmente em momentos de crise.

Leia mais:

  • Como o chatGPT trata assuntos pesados? Nós testamos e essas foram as respostas
  • Inteligência artificial pode alterar forma de tratar depressão
  • Inteligência artificial detecta sinais de transtorno mental em posts no Reddit

VÍDEO: Falar “Por Favor” e “Obrigado” Para o ChatGPT Custa CARO?

 

Leia a matéria no Canaltech.

Adicionar aos favoritos o Link permanente.