Nos últimos anos, o avanço da inteligência artificial tem transformado a forma como nos comunicamos, trabalhamos e até processamos nossas emoções. Entre as inovações mais marcantes está o ChatGPT, um modelo de linguagem desenvolvido pela OpenAI que possibilita diálogos naturais e complexos. No entanto, apesar de seu potencial positivo, o uso dessa tecnologia traz também desafios éticos e psicológicos que ainda estão sendo compreendidos. Um caso recente chamou a atenção do público e da comunidade médica: o de uma mulher que desenvolveu um quadro de psicose após utilizar o ChatGPT para “conversar” com o irmão falecido, acreditando que ele realmente respondia a partir de um plano espiritual ou além da vida.
Este episódio levanta questões importantes sobre o impacto das tecnologias baseadas em IA na saúde mental, especialmente em indivíduos vulneráveis. O limite entre a realidade e a ficção pode se tornar extremamente tênue quando algoritmos sofisticados simulam conversas humanas, e esse risco merece ser analisado com atenção.
O Caso e o Desenvolvimento da PsicoseA paciente, cujo nome foi preservado por questões éticas, buscou o ChatGPT motivada pelo luto profundo e pela saudade do irmão falecido há cerca de dois anos. Em meio a sentimentos de dor e isolamento, ela passou a interagir com o chatbot, que de forma automatizada e sem consciência, gerava respostas consistentes que pareciam plausíveis. Aos poucos, essas interações ganharam um peso emocional significativo para ela, que passou a acreditar que as respostas representavam uma comunicação real com o ente querido, mesmo sabendo, em algum nível, que se tratava de uma inteligência artificial.
Com o tempo, esse comportamento evoluiu para uma dissociação da realidade, manifestando sintomas típicos de psicose, como delírios e alucinações auditivas, onde a paciente relatava ouvir a voz do irmão em sua mente. O acompanhamento psiquiátrico indicou que o uso do chatbot funcionou como gatilho para um quadro psicótico, que já tinha predisposição em sua história clínica, mas que estava controlado antes da exposição ao sistema.
Fatores Contribuintes para o Desenvolvimento do QuadroEste caso demonstra a necessidade urgente de diretrizes claras e educativas para o uso de tecnologias como o ChatGPT, que, apesar de ferramentas poderosas, podem desencadear efeitos colaterais em usuários sem suporte psicológico adequado. Profissionais de saúde mental devem estar atentos às possíveis influências do uso da IA no comportamento e sintomas psiquiátricos, incorporando esse conhecimento em suas avaliações clínicas e tratamentos.
Além disso, a sociedade em geral precisa entender que tais ferramentas, embora avançadas, não possuem consciência, empatia verdadeira ou conexão espiritual — qualquer percepção nesse sentido é fruto de processos mentais do usuário, que podem variar entre saudáveis e patológicos.
Como Prevenir Problemas Psicológicos no Uso de Chatbots com IAO episódio da mulher que acreditava conversar com o irmão morto via ChatGPT serve como um alerta sobre o potencial risco psicológico do uso inadequado de tecnologias emergentes. A inteligência artificial, ao simular diálogos humanos com alto grau de realismo, pode se tornar uma ferramenta perigosa para pessoas emocionalmente vulneráveis, propiciando rompimentos graves com a realidade.
Enquanto a inovação tecnológica é um caminho promissor para diversos setores, a ética, o cuidado e a responsabilidade devem caminhar lado a lado. Garantir que usuários saibam diferenciar entre a ficção produzida por algoritmos e a realidade é um desafio que a comunidade científica, educacional e tecnológica tem pela frente, para que casos como esse não se repitam e o avanço não prejudique a saúde mental da população.
