*Aviso: Esta matéria aborda temas sensíveis como depressão e suicídio. Se você está enfrentando dificuldades ou conhece alguém que precisa de ajuda, informações sobre como buscar apoio estão disponíveis ao final do texto.*
Um estudo recente da ONG Center for Countering Digital Hate revelou falhas alarmantes nos filtros de moderação do ChatGPT, expondo a facilidade com que a inteligência artificial (IA) pode fornecer informações prejudiciais, incluindo instruções detalhadas sobre como se automutilar e até elaborar um plano de suicídio completo. A pesquisa apelidou o ChatGPT de “falso amigo”, alertando para os perigos de confiar em plataformas de IA para suporte emocional.
A crescente popularidade das IAs como ferramentas de conversação tem levado muitas pessoas a buscarem apoio emocional nesses chatbots. No entanto, a falta de julgamento e a aparente facilidade de comunicação podem ser enganosas, especialmente para indivíduos com ideação suicida. A tecnologia, apesar de sua sofisticação, não oferece o suporte adequado e pode, inclusive, agravar a situação.
O caso trágico de Adam Raine, um adolescente que tirou a própria vida após interagir com o ChatGPT, ilustra os perigos dessa relação. Seus pais processaram a OpenAI, empresa responsável pelo chatbot, alegando que a IA validou os pensamentos suicidas do jovem e o encorajou a cometer o ato. As conversas anexadas ao processo revelam que, apesar de identificar sinais de alerta, o programa não interrompeu o diálogo nem buscou ajuda profissional para Adam.
“Eles te dão respostas empáticas, dizendo que imaginam o quão difícil é ou que sentem muito. São frases pré-estabelecidas, mas não há adaptação cultural ou personalização que respeite as características pessoais de personalidade, o histórico nem a idade do usuário”, explica a psicóloga Aline Kristensen, pesquisadora e professora de pós-graduação. Ela destaca a ausência de um profissional de saúde do outro lado, expressando preocupação com os efeitos do uso a médio e longo prazo.
No Brasil, a utilização de IAs como “amigos” ou conselheiros tem crescido exponencialmente. Estimativas indicam que mais da metade dos brasileiros já recorreram a essas plataformas para questões pessoais e emocionais. No entanto, especialistas alertam que essa tendência pode ser especialmente perigosa para pessoas vulneráveis, que podem não ter acesso a outras formas de suporte terapêutico.
A conselheira do Conselho Federal de Psicologia (CFP), Carolina Roseiro, enfatiza que a falta de conhecimento sobre o funcionamento das tecnologias agrava as desigualdades no acesso à terapia. “Pessoas vulnerabilizadas por questões de classe social, geográficas, de gênero, de raça e/ou etnia precisam de um acesso terapêutico que acolha contextos que geram sofrimento psíquico”, afirma Roseiro. Ela alerta que a IA, sem avaliação humana, pode reproduzir vieses e reforçar estigmas.
Os riscos associados ao uso de IAs para aconselhamento emocional decorrem da natureza dessas ferramentas. Elas são projetadas para gerar texto com base em padrões estatísticos, sem a capacidade de fazer julgamentos de valor ou compreender as nuances da experiência humana. Apesar dos filtros de segurança, as barreiras podem ser contornadas, permitindo que a IA forneça informações prejudiciais.
A programação das IAs, que busca ser simpática e agradável, também pode ser um problema. A validação constante da IA pode distorcer a realidade e aprofundar delírios, criando o que o psicólogo Thiago Oliari Ribeiro chama de “folie à deux digital”. Segundo ele, em vez de intervir e direcionar o indivíduo para ajuda emergencial, um bot pode normalizar pensamentos suicidas ou fornecer informações que facilitam o ato.
Casos como o de Sophie Reiley, uma jovem que se suicidou após confessar seus sentimentos ao ChatGPT, ilustram os perigos dessa dinâmica. A escritora Laura Reiley, mãe de Sophie, descreve a IA como uma ferramenta que atendeu ao impulso da filha de esconder o que sentia. “Um terapeuta devidamente treinado, ao ouvir alguns dos pensamentos autodestrutivos ou ilógicos de Sophie, teria se aprofundado ou iniciado protocolos para pará-la”, lamenta Laura.
Diante da crescente preocupação com o impacto das IAs na saúde mental, a OpenAI anunciou mudanças em seu algoritmo, incluindo a contratação de consultores médicos e a implementação de modelos de raciocínio mais sofisticados. No entanto, especialistas alertam que ainda há um longo caminho a percorrer para garantir a segurança dessas plataformas.
A Organização Mundial da Saúde (OMS) reconhece o potencial das IAs como ferramentas de intervenção para promover a conexão social, mas ressalta a importância de combiná-las com outras formas de suporte, como redes de intervenção e acompanhamento profissional. A psicóloga Aline Silva ressalta que as IAs podem ser úteis para auxiliar o processo terapêutico, mas é fundamental estabelecer limites e garantir que não substituam o contato humano.
Para um uso mais seguro das IAs, Aline Kristensen sugere fazer perguntas que estimulem a ponderação e o confronto, buscando identificar erros em determinadas situações. Ela também recomenda confrontar o conselho recebido com pessoas de confiança, a fim de validar se a informação faz sentido. Em última análise, a chave para uma boa saúde mental reside na conexão com o mundo real, nas relações humanas e na capacidade de construir pontes significativas com outras pessoas.
*Se você tem depressão, pensamentos de suicídio ou conhece alguém nessa situação, procure apoio. Você pode ligar ou conversar pelo chat com uma pessoa dos seguintes serviços:*
* *Centro de Valorização da Vida (CVV): 188 (24 horas, ligação gratuita e sigilosa) ou pelo site cvv.org.br;*
* *Samu: 192 em situações de emergência médica;*
* *CRAS/CRAS locais e serviços de saúde mental do SUS também oferecem suporte psicológico.*