Suzana Herculano-Houzel, renomada neurocientista brasileira, é conhecida por suas análises profundas sobre o cérebro humano e os limites da inteligência artificial. Em suas recentes declarações, ela alertou para os cuidados e reflexões necessários quando interagimos com sistemas como o ChatGPT, um modelo de linguagem avançado que vem ganhando espaço no cotidiano das pessoas. Mas afinal, por que ela sugere que não devemos perguntar ao ChatGPT? Neste artigo, exploraremos as razões e o contexto dessa opinião, trazendo uma visão crítica e fundamentada sobre o tema.
Em tempos em que a inteligência artificial (IA) se torna cada vez mais acessível e integrada a diversas esferas da vida, desde o trabalho até o lazer, o fascínio pelo ChatGPT é natural. Essa ferramenta consegue, com impressionante fluidez, gerar textos, respostas e até conteúdos criativos que muitas vezes parecem ter sido elaborados por um humano. No entanto, Suzana destaca que essa qualidade não deve ser confundida com compreensão verdadeira ou sabedoria real.
Primeiramente, para entendermos sua opinião, é importante compreender o que o ChatGPT realmente faz. Ele é um modelo treinado em uma enorme quantidade de textos retirados da internet e outras fontes. Seu funcionamento baseia-se em reconhecer padrões e prever qual a próxima palavra mais provável em uma sequência. Isso significa que o modelo não “entende” o que está dizendo; ele simplesmente reproduz combinações de palavras que fazem sentido estatisticamente. Trata-se de uma simulação de conversação, sem consciência, emoção ou reflexão crítica.
O risco da supervalorização
Um dos pontos principais levantados por Suzana é o perigo de supervalorizar as respostas geradas pelo ChatGPT como se fossem fruto de uma inteligência comparável à humana. Muitas pessoas podem cair na armadilha de acreditar que estão recebendo orientações seguras, precisas ou até éticas quando interagem com a IA. Isso pode levar a decisões equivocadas, especialmente em áreas sensíveis como saúde, educação e direito, onde conhecimento aprofundado e contextualizado é essencial.
A neurocientista ressalta que, apesar do vasto conhecimento disponível nos bancos de dados, o ChatGPT não tem a capacidade de avaliar a veracidade ou a moralidade das informações fornecidas. Ele pode apresentar fatos desatualizados, incorretos ou mesmo tóxicos sem distinção. Além disso, não possui senso crítico para questionar a pertinência da pergunta nem para contrastar informações. Portanto, o usuário que simplesmente “pergunta” ao ChatGPT está sujeito a receber respostas que, embora pareçam confiáveis, podem ser incorretas ou imprecisas.
Limitações cognitivas da IA frente ao cérebro humano
Suzana chama a atenção também para as diferenças fundamentais entre o cérebro humano e as máquinas de IA. O cérebro é um órgão complexo, capaz de aprendizado contínuo, adaptação, raciocínio abstrato e emoções que influenciam decisões. Ele integra conhecimento factual com experiência e intuição — algo que a máquina ainda não conhece.
Enquanto o ChatGPT pode gerar textos coerentes, ele não possui consciência, não testemunha o mundo nem sente. Isso evidencia um abismo entre a inteligência artificial atual e o tipo de inteligência que define os seres humanos. A neurocientista incentiva que as pessoas valorizem mais o potencial criativo e reflexivo de suas próprias mentes ao invés de se apoiarem cegamente nas respostas das IAs.
Uso consciente e educativo da tecnologia
No entanto, Suzana não é contra o uso das inteligências artificiais — pelo contrário. Ela defende o uso consciente, crítico e educativo dessas ferramentas, lembrando que elas são ótimos auxiliares para diversas tarefas, tais como:
Segundo a neurocientista, o problema ocorre quando o ChatGPT é visto como um oráculo infalível, capaz de substituir conhecimento humano e julgamento. Essa expectativa não condiz com a realidade das máquinas atuais e pode causar frustração e desinformação.
A responsabilidade do usuário
Outro aspecto destacado por Suzana é a responsabilidade do usuário ao interagir com a IA. Cabe a cada um entender as limitações do modelo e buscar sempre a validação das respostas. Ela incentiva a educação digital e o desenvolvimento de pensamento crítico para que as pessoas possam aproveitar os benefícios da tecnologia sem criar dependência prejudicial.
Além disso, reforça que perguntar ao ChatGPT é aceitável para dúvidas simples ou temas triviais, mas não para obter diagnósticos, orientações jurídicas, ou qualquer assunto que requeira análise especializada. Nesses casos, a consulta a profissionais qualificados é insubstituível.
Futuro da inteligência artificial e ética
Por fim, Suzana Herculano-Houzel também levanta questões éticas relevantes para o futuro da IA. Ela alerta para os perigos de utilizar a tecnologia sem regulamentação adequada, o que pode alimentar falsidades e preconceitos presentes nos dados que alimentam os modelos. Como seres humanos, temos o dever de criar um ambiente tecnológico seguro e benéfico, promovendo transparência, controle e responsabilidade.
A reflexão proposta por Suzana é um chamado para que não percamos o controle e a autonomia sobre as informações e os processos de tomada de decisão. Aprender sobre como essas tecnologias funcionam e quais são suas verdadeiras capacidades é fundamental para que possamos integrá-las de forma saudável no nosso cotidiano.
Conclusão
Em suma, a opinião de Suzana Herculano-Houzel reforça a necessidade de cautela e consciência ao usar o ChatGPT e ferramentas similares. Embora esses recursos sejam revolucionários e muito úteis, é essencial que saibamos como e quando utilizá-los, evitando confiar cegamente em suas respostas. O conhecimento humano, a análise crítica e o senso ético continuam sendo insubstituíveis diante da inteligência artificial atual.
Portanto, da próxima vez que estiver tentado a fazer uma pergunta importante ao ChatGPT, pense duas vezes. Use a tecnologia para auxiliar, mas jamais para substituir sua própria capacidade de raciocínio e julgamento. Dessa forma, poderemos crescer juntos, humanos e máquinas, rumo a um futuro mais consciente e equilibrado.
