Estudo alerta sobre crescente dependência de adolescentes em companheiros de IA



Estudo alerta sobre crescente dependência de adolescentes em companheiros de IA

Estima-se que mais da metade de todos os adolescentes dos EUA usam regularmente chatbots complementares alimentados por grandes modelos de linguagem e tecnologia de inteligência artificial (IA) generativa. Os programas, como Character.AI, Replika e Kindroid, têm como objetivo proporcionar companheirismo, segundo as empresas que os fabricam. Mas um estudo recente da Universidade Drexel sugere que os adolescentes estão preocupados com o facto de estes apegos estarem a tornar-se prejudiciais e a afetarem as suas vidas offline.

O estudo, que será apresentado na conferência da Association of Computing Machinery sobre Fatores Humanos na Computação em abril, analisou uma amostra de mais de 300 postagens do Reddit de usuários, identificando-se como tendo entre 13 e 17 anos de idade, que postaram especificamente sobre sua dependência e excesso de confiança no Character.AI. Descobriu-se que, em muitos casos, os adolescentes começaram a usar a tecnologia para apoio emocional e psicológico ou entretenimento, mas o seu uso evoluiu para dependência e até mesmo para padrões associados ao vício. Alguns relataram que o uso excessivo interrompeu o sono, causou dificuldades acadêmicas e relacionamentos tensos.

“Este estudo fornece um dos primeiros relatos centrados em adolescentes sobre a dependência excessiva de companheiros de IA”, disse Afsaneh Razi, PhD, professor assistente na Faculdade de Computação e Informática de Drexel, cujo laboratório ETHOS, que estuda como as interações das pessoas com a computação e os sistemas de IA afetam seu comportamento social, bem-estar e segurança, liderou a pesquisa. “Ele destaca como essas interações estão afetando a vida dos jovens usuários e introduz uma estrutura para o design do chatbot que promove interações saudáveis”.

Cerca de um quarto das postagens sugeria que os adolescentes estavam usando Character.AI para algum tipo de apoio emocional ou psicológico, desde lidar com o sofrimento até a solidão e o isolamento ou buscar aconselhamento para problemas de saúde mental. Pouco mais de 5% relataram usá-lo para brainstorming, atividades criativas ou para entretenimento.

E embora as postagens pareçam indicar que essas interações começaram como inofensivas, ou mesmo úteis, elas evoluíram para um apego mais forte que se tornou tão difícil de quebrar quanto um vício, segundo os pesquisadores.

Ao mapear as experiências dos adolescentes com os componentes conhecidos do vício comportamental, pudemos ver padrões claros como conflito, retraimento e recaída aparecendo em suas postagens, o que sugere que isso é mais do que apenas uso frequente ou entusiástico. Muitos adolescentes descreveram ter começado com algo que parecia útil ou inofensivo, mas com o tempo tornou-se algo do qual eles lutaram para se afastar, mesmo quando queriam.”

Matt Namvarpour, doutorando no departamento de Ciência da Informação e laboratório ETHOS, primeiro autor da pesquisa

Nas 318 postagens analisadas, os pesquisadores encontraram evidências de todos os seis componentes associados ao vício comportamental:

  • Conflito –– desejos concorrentes de continuar interagindo com o chatbot enquanto se sentem mal pelo uso excessivo.
  • Saliência – sentir um apego emocional cada vez mais profundo aos bots no lugar das pessoas.
  • Cancelamento – sentir-se triste, ansioso ou incompleto quando não interage com os bots.
  • Tolerância – desenvolver um padrão de uso crescente e uma necessidade de continuar usando mais os bots para se sentir satisfeito ou emocionalmente fundamentado.
  • Recaída – tentar parar apenas para voltar a usar o bot dias ou semanas depois.
  • Modificação de humor – recorrer aos bots em momentos de estresse ou solidão para melhorar seu humor ou encontrar alívio temporário.

“O que torna isso especialmente complicado é que os chatbots são interativos e respondem emocionalmente, de modo que a experiência pode parecer mais um relacionamento do que uma ferramenta”, disse Namvarpour. “Por causa disso, afastar-se não é apenas abandonar um hábito, pode parecer um distanciamento de algo significativo, o que torna o excesso de confiança mais difícil de reconhecer e abordar”.

Embora o vício em tecnologia, como os videojogos, tenha sido estudado e identificado como uma condição psicológica, a interatividade única dos chatbots de IA torna os utilizadores particularmente suscetíveis à formação de ligações problemáticas, de acordo com os investigadores. E por isso sugerem que é preciso ter cuidado extra com seu design para proteger os usuários.

“Personalização, multimodalidade e memória diferenciam os companheiros de IA das tecnologias anteriores e tornam mais difícil separar o excesso de confiança dos relacionamentos de sentimento autêntico”, escreveram os pesquisadores. “Isso ressalta a necessidade de mais pesquisas sobre as características únicas desses relacionamentos e como os desafios específicos dos chatbots complementares devem ser abordados”.

A equipe ofereceu uma estrutura de design para ajudar a resolver essa preocupação. Ele se concentra em compreender as necessidades dos usuários do chatbot, como e por que eles podem formar anexos e como os bots podem ser treinados para restringi-los e, ao mesmo tempo, serem respeitosos e solidários. Eles também recomendam que os programas forneçam uma saída fácil e limpa para os usuários.

“É importante que os designers garantam que os chatbots ofereçam orientações que ajudem os utilizadores a construir confiança nas suas capacidades de estabelecer relacionamentos offline, como uma forma saudável de encontrar apoio emocional, sem usar pistas que possam levá-los a antropomorfizar a tecnologia e a desenvolver apegos a ela”, disse Razi. “Nossa estrutura também exige que os designers forneçam uma variedade de rampas para que os usuários se desliguem facilmente do programa em seus próprios termos e sem uma sensação de brusquidão ou finalidade”.

Incluir recursos como rastreamento de uso, avisos emocionais de check-in e limites de uso personalizados também podem ser formas eficazes de restringir cuidadosamente o uso, sugeriram os pesquisadores. Eles também recomendaram incluir contribuições de usuários e profissionais de saúde mental no processo de design.

“Os designers agora têm a responsabilidade de construir sistemas com empatia, nuances e atenção aos detalhes, não apenas para proteger os adolescentes de perigos, mas também para ajudá-los a cultivar resiliência, crescimento e maior realização em suas vidas”, concluíram.

Para expandir esta pesquisa, a equipe apontou para o estudo de comunidades maiores de usuários de uma faixa demográfica mais ampla, potencialmente por meio de pesquisas ou entrevistas, bem como usuários de outros chatbots e de plataformas de mensagens diferentes do Reddit.

Fonte:

Referência do diário:

Namvarpour, M., e outros. (2026). Compreendendo a dependência excessiva dos adolescentes em chatbots de IA por meio de narrativas auto-relatadas do Reddit. CHI ’26: Procedimentos da Conferência CHI 2026 sobre Fatores Humanos em Sistemas Computacionais. DOI: 10.1145/3772318.3790597. https://dl.acm.org/doi/10.1145/3772318.3790597

Leave a Reply

Your email address will not be published. Required fields are marked *