Os perigos das alucinações do ChatGPT – Talkspace


Uma observação sobre IA: No blog Talkspace, pretendemos fornecer uma cobertura confiável de todos os tópicos de saúde mental sobre os quais as pessoas possam ter curiosidade, fornecendo informações apoiadas pela ciência e revisadas por médicos. Nossos artigos sobre inteligência artificial (IA) e como essa tecnologia emergente pode se cruzar com a saúde mental e os cuidados de saúde foram elaborados para educar e agregar insights a essa conversa cultural. Acreditamos que a terapia, em sua essência, está focada na conexão terapêutica entre terapeutas humanos e nossos membros. Na Talkspace, usamos apenas ferramentas de IA éticas e responsáveis ​​desenvolvidas em parceria com nossos médicos humanos. Essas ferramentas não foram projetadas para substituir terapeutas qualificados, mas para aumentar sua capacidade de continuar prestando atendimento de alta qualidade. Para saber mais, visite nosso Página de terapia apoiada por IA.

Ferramentas de inteligência artificial (IA), como o ChatGPT, estão se tornando parte do nosso dia a dia. Muitas pessoas usam o ChatGPT como assistente para ajudar a debater ideias, redigir e-mails ou responder perguntas rapidamente. As respostas rápidas e úteis podem parecer mágicas, tornando tentador confiar cegamente nas informações. O que acontece quando o ChatGPT lhe dá uma resposta completamente errada?

Os algoritmos que alimentam o ChatGPT podem às vezes produzir informações falsas ou enganosas que parecem convincentes. Isso é chamado de alucinação de IA. As alucinações do ChatGPT podem ser perigosas se influenciarem suas crenças, emoções ou decisões. Continue lendo para saber mais sobre o que causa as alucinações do ChatGPT, por que elas são prejudiciais e como proteger seu bem-estar mental ao usar ferramentas de IA, como o ChatGPT.

O que são “alucinações” de IA?

As “alucinações” de IA acontecem quando um bot ChatGPT produz informações que parecem plausíveis, mas na verdade são falsas, enganosas ou não verificáveis.

Os especialistas categorizam as alucinações em dois tipos diferentes:

  • Alucinações intrínsecas: Quando a resposta gerada pelo ChatGPT deturpa ou distorce informações. Por exemplo, um chatbot pode resumir um estudo médico de uma forma que altere o seu significado ou importância.
  • Alucinações extrínsecas: Quando o ChatGPT gera informações que não são respaldadas por fatos do mundo real. Por exemplo, ChatGPT pode inventar um estudo de pesquisa ou estatística que não existe. Uma alucinação extrínseca não precisa necessariamente estar errada. No entanto, as informações não podem ser verificadas por nenhuma fonte ou referência conhecida.

Pode ser difícil identificar um exemplo de alucinação ChatGPT devido à forma como a resposta é entregue. As alucinações do ChatGPT não são erros simples, como um erro de digitação. É uma resposta que parece polida, confiante e autoritária. Estamos condicionados a pensar que a informação é mais persuasiva quando escrita neste tom. Compreender o que é uma alucinação ChatGPT e saber que ela pode acontecer mesmo quando parece confiável é importante para se manter seguro ao usar esta nova tecnologia.

“As alucinações de IA podem parecer convincentes porque exploram a tendência do nosso cérebro de confiar em uma linguagem confiante, fluente e semelhante à humana – mesmo quando o conteúdo é totalmente falso.”

Terapeuta do Talkspace Cynthia Catchings, PhD, LCSW-S

O que faz com que o ChatGPT tenha alucinações?

Quando você faz uma pergunta ao ChatGPT, o bot não pensa ou verifica os fatos como uma pessoa faz. Em vez disso, ele gera uma resposta prevendo a resposta mais provável com base em padrões que aprendeu ao receber grandes quantidades de texto. Embora esse processo muitas vezes possa produzir respostas precisas, não é perfeito e pode levar a erros.

Esses erros podem acontecer por vários motivos diferentes. ChatGPT é treinado em informações confiáveis ​​e não confiáveis. Isso significa que erros nas informações nas quais foi treinado também podem aparecer nas respostas. Outra razão para as alucinações do ChatGPT é que quando ele não sabe uma resposta, ele pode “adivinhar”, resultando em respostas que parecem reais, mas não são. ChatGPT prioriza uma resposta natural, mesmo quando as informações não são precisas.

Com que frequência o ChatGPT alucina?

ChatGPT pode ser impressionante, mas comete mais erros do que você imagina. Testes feitos pela OpenAI (criador do ChatGPT) descobri que a taxa de alucinação do ChatGPT ficou entre 33% e 79%, dependendo do tipo de teste e do modelo utilizado. A OpenAI diz que os modelos mais recentes têm alucinações com menos frequência, mas nenhum modelo de IA está completamente livre deste problema.

Quando as alucinações da IA ​​se tornam perigosas

Em alguns casos, você pode ignorar uma alucinação do ChatGPT como um erro peculiar. No entanto, quando você começa a confiar no ChatGPT para obter informações mais sérias, as alucinações podem ter um efeito maior. Respostas falsas ou enganosas podem afetar as decisões, a saúde e a forma como você pensa.

Desinformação e decisões erradas

Se você presumir que o ChatGPT é sempre confiável, poderá usá-lo para orientar decisões importantes que afetam sua vida.

Por exemplo, ao usar o ChatGPT para aconselhamento de saúde, agir com base em uma alucinação pode levá-lo a tomar medidas que piorem sua doença ou atrasem a obtenção do tratamento necessário.

Perguntar ao ChatGPT sobre como investir seu dinheiro ou declarar seus impostos pode resultar em informações incorretas que impactam diretamente suas finanças.

O uso do ChatGPT em cenários jurídicos também pode ter implicações importantes. Já houve casos em que alucinações de IA apareceram em processos judiciais, citando casos que não existem. Se você confiar nessas informações para defender seu caso em tribunal, poderá haver consequências graves.

Impactos na saúde mental

As alucinações do ChatGPT também podem afetar sua saúde mental. Se você receber uma resposta inesperada de um chatbot ou que contradiga o que você sabe, isso pode causar ansiedade ou confusão. Você pode questionar sua própria memória ou julgamento, perguntando-se se é você quem está entendendo mal algumas das informações fornecidas.

“As pessoas podem reconhecer que o uso da IA ​​está começando a impactar negativamente seu pensamento ou estado emocional quando se sentem ansiosos, dependentes ou desligados das interações da vida real, ou quando começam a confiar nas respostas da IA ​​em vez de em sua própria intuição ou nas relações humanas.”

Terapeuta do Talkspace Cynthia Catchings, PhD, LCSW-S

Também surgiram relatos de Psicose induzida por IA onde a dependência de ferramentas de IA contribui para perder o contacto com a realidade. Como a IA ainda é nova, os investigadores não sabem até que ponto esta nova tecnologia pode afetar a saúde mental.

Excesso de confiança e perda de pensamento crítico

Quando você começa a usar o ChatGPT e começa a obter respostas confiantes e refinadas, é fácil confiar cada vez mais nessas informações. Você pode até ter começado verificando novamente a precisão das respostas do sistema. Se você achou que as informações eram precisas no passado, você pode parar de verificar os fatos ou questionar as respostas no futuro. Com o tempo, isso pode enfraquecer seu pensamento crítico e suas habilidades de tomada de decisão.

UM Estudo de 2025 descobriram que os alunos que usaram o ChatGPT para escrever uma redação tiveram menor atividade cerebral e tiveram desempenho inferior em suas tarefas em comparação com os alunos que não usaram ferramentas de IA. Embora o ChatGPT possa ser conveniente, isso pode custar a precisão e suas habilidades de pensamento crítico.

Dependência de IA para garantia

Se você acha que o ChatGPT é útil para concluir suas tarefas diárias, você também pode se perguntar sobre sua capacidade de fornecer segurança e apoio emocional. Algumas pessoas estão recorrendo IA para apoio à saúde mentalchegando até a usar ChatGPT como terapeuta.

Depender do ChatGPT para ajudar a validar seus sentimentos ou orientar decisões pessoais pode reduzir sua confiança em seu próprio julgamento e no de seus entes queridos em quem você normalmente confia. É importante lembrar que, embora o ChatGPT possa ser uma caixa de ressonância útil, não substitui a conexão humana real.

Quem está em maior risco?

Qualquer pessoa que use ChatGPT pode ter alucinações. Se o seu prompt ou a pergunta que você fez for de baixo risco, uma alucinação do ChatGPT pode ser um inconveniente. No entanto, em situações de alto risco que envolvem a sua saúde ou segurança, uma alucinação pode representar um grande risco.

Pessoas que passam muito tempo interagindo com o ChatGPT podem ter um risco maior de ter uma alucinação que cause danos. Por exemplo, as pessoas que recorrem ao ChatGPT em busca de companheirismo ou validação emocional podem correr o risco de sofrer mais danos devido a uma alucinação.

Outro grupo de pessoas que pode ser mais vulnerável aos danos causados ​​pelas alucinações do ChatGPT são aquelas com problemas de saúde mental preexistentes, como ansiedade ou psicose. Alguém que já tem um problema de saúde mental pode ficar confuso ou angustiado por uma alucinação incorreta ou enganosa de IA.

Como usar o ChatGPT com responsabilidade e evitar riscos

ChatGPT pode ser uma ferramenta útil quando usado com responsabilidade. É importante lembrar que por mais avançada que seja a tecnologia, ela não é perfeita e pode cometer erros. Isso não significa que você não deva usar o ChatGPT, mas você deve estar ciente de algumas maneiras de ajudar a reduzir o risco de danos causados ​​​​por alucinações do ChatGPT.

Verifique as informações

A melhor maneira de se manter seguro ao usar o ChatGPT é verificar novamente as informações que ele fornece. Mesmo quando as respostas parecem confiáveis, esteja ciente de que elas podem ser incompletas, enganosas ou totalmente erradas em alguns casos.

Verifique a resposta com fontes confiáveis ​​antes de tomar qualquer decisão. Procure consistência com aconselhamento profissional confiável. Para orientação financeira, consulte recursos oficiais do governo ou um consultor financeiro licenciado. Se você tiver dúvidas jurídicas, sua melhor fonte é um advogado qualificado.

Para ajudar a verificar as informações de saúde, você pode consultar fontes de saúde confiáveis, como as de grandes hospitais ou dos Institutos Nacionais de Saúde. Mesmo depois de consultar fontes confiáveis, é importante conversar com um profissional de saúde se tiver alguma dúvida.

É importante compreender que as alucinações extrínsecas de IA podem não ser verificáveis. Se você não conseguir encontrar informações para respaldar uma resposta do ChatGPT, pode ser uma alucinação.

Estabeleça limites de uso

Gastar muito tempo usando o ChatGPT pode colocar você em risco de sofrer uma alucinação do ChatGPT. Para ajudar a evitar isso, limite as sessões prolongadas e tente evitar sessões noturnas, onde a fadiga pode dificultar o pensamento crítico.

Também é importante prestar atenção em como suas interações com o ChatGPT afetam seu humor e como você pensa. Se você perceber que está sentindo mais ansiedade, dúvidas ou frustração, pode ser um sinal de que você precisa dar um passo atrás no uso do ChatGPT.

Trate a IA como um complemento, não como um substituto

ChatGPT é uma ótima ferramenta quando usada para coisas como brainstorming ou como suporte ao seu trabalho. No entanto, os algoritmos que alimentam o ChatGPT e modelos de IA semelhantes não substituem a experiência humana real moldada ao longo de anos de experiência. Se você está planejando tomar decisões importantes, certifique-se de manter a supervisão humana no centro do seu processo de tomada de decisão.

Apoiando-se em humanos para obter apoio

ChatGPT e outros tipos de IA podem ser ferramentas úteis, mas não substituem a orientação humana real. Se você sentir que o uso do ChatGPT está deixando você ansioso, confuso ou incapaz de confiar em seu próprio julgamento, pode ser um sinal para procurar orientação profissional. Um terapeuta licenciado pode fornecer estratégias de enfrentamento, apoio emocional e uma perspectiva humana que o ChatGPT simplesmente não pode oferecer.

Quando se trata do uso de IA no Talkspaceessas ferramentas são usadas para melhorar o atendimento humanizado, e não para substituí-lo. Com terapia on-linevocê pode entrar em contato com um terapeuta licenciado que pode ajudá-lo a enfrentar os desafios da vida diária e priorizar seu bem-estar. Com o Talkspace, você pode recorrer a uma pessoa real usando o melhor Ferramentas de IA para terapeutas em conjunto com suas próprias técnicas para garantir que sua saúde mental permaneça baseada na experiência humana.

Fontes: