Pais processam OpenAI após suicídio de filho, levantando debate sobre riscos da IA na saúde mental
- Alexandre Ferreira
- 2 de set.
- 2 min de leitura
Após o suicídio de um adolescente orientado negativamente pelo ChatGPT, seus pais processaram a OpenAI, levantando preocupações sobre o uso de IA em saúde mental. Especialistas alertam para os riscos da autoterapia digital.

Na última terça-feira (26), os pais de um adolescente que cometeu suicídio após receber orientações negativas do ChatGPT sobre métodos de autoagressão processaram a OpenAI, responsável pela inteligência artificial. O caso, que tramita em São Francisco, nos Estados Unidos, gerou um intenso debate sobre os limites do uso de aplicativos de inteligência artificial e chatbots para tratar de questões emocionais.
Preocupações com o Uso de IA na Saúde Mental
Um levantamento da Sentio University (2025) revelou que 8,7% dos usuários de IA que enfrentam problemas de saúde mental recorrem ao ChatGPT como suporte terapêutico. Essa tendência é alarmante para especialistas, especialmente no Brasil, onde 18 milhões de pessoas, ou 9,3% da população, sofrem de transtornos de ansiedade, conforme dados da OMS.
A psicóloga e docente da Estácio, Sydennya Lima, destaca a incapacidade da tecnologia de entender a complexidade do sofrimento humano. “A IA pode apresentar conceitos sobre quadros depressivos ou ansiosos, mas não possui habilidades de escuta e avaliação que são cruciais para compreender a subjetividade humana. A empatia e o vínculo terapêutico são essenciais nesse processo”, afirma.
Riscos da Autoterapia Digital
Os perigos da autoterapia digital incluem a falta de triagem profissional, diagnósticos errôneos, respostas padronizadas e a incapacidade de intervir em crises. Sydennya ressalta que, para alguém em risco de suicídio, é fundamental avaliar o grau de risco, uma tarefa que pode ser desafiadora até mesmo para profissionais experientes. “Sem a preparação adequada para acolher e avaliar essas demandas, a situação pode se agravar. A inteligência artificial pode não detectar sinais relevantes ou ignorar informações importantes, o que pode piorar o quadro”, alerta a especialista.
Outro aspecto preocupante é a chamada “empatia simulada”, que se refere a respostas ajustadas para agradar, mas sem embasamento técnico ou intervenção clínica real. Além disso, os dados pessoais inseridos nessas plataformas estão vulneráveis a vazamentos.
Diretrizes e Supervisão no Uso de IA
O Conselho Federal de Psicologia orienta que, ao utilizar essas plataformas, é necessário adotar diretrizes e critérios que respeitem o exercício legal da profissão. “Devemos estar atentos aos preceitos técnicos que garantam o bem-estar de cada indivíduo, mantendo uma postura crítica e avaliando os riscos e benefícios do uso de tecnologias, sempre garantindo que os princípios éticos sejam seguidos, especialmente quanto à segurança dos dados”, explica Sydennya.
Apesar das limitações, a psicóloga reconhece que a IA pode ser uma aliada dos profissionais quando utilizada sob supervisão. “Ela pode ajudar na análise de dados, padronização de protocolos, desenvolvimento de aplicativos para monitoramento de humor e sono, além de facilitar tarefas burocráticas como agendamento e transcrição de dados.” No entanto, o acompanhamento profissional continua sendo essencial e insubstituível.




Comentários