:max_bytes(150000):strip_icc():format(jpeg)/PARENTS-teens-and-ai-companions-5876c06e72aa4394ae1b01c32d57250b.jpg)
- Muitos adolescentes estão formando conexões emocionais com companheiros de IA porque se sentem solitários, curiosos ou querem um lugar para se sentirem ouvidos.
- Estas ferramentas podem parecer reconfortantes, mas podem partilhar conselhos inseguros, ignorar sinais de problemas graves de saúde mental e utilizar indevidamente informações pessoais.
- Os pais podem ajudar conversando abertamente com os filhos, estabelecendo limites saudáveis e garantindo que os adolescentes conheçam os limites desses aplicativos.
Interagir com um companheiro de IA como se fosse um amigo de confiança pode não parecer intrigante para os pais, mas os pesquisadores descobriram que as crianças estão interagindo com essas entidades em taxas alarmantes. Na verdade, um relatório recente da Common Sense Media descobriu que 72% dos adolescentes entrevistados usaram companheiros de IA e 33% têm relacionamentos ou amizades com eles.
Os adolescentes pesquisados interagem com companheiros de IA por diversos motivos, desde simples curiosidade e entretenimento até solidão e tédio. De acordo com Robbie Torneydiretor sênior de programas de IA da Common Sense Media, esses companheiros de IA estão se tornando relevantes em um momento em que crianças e adolescentes nunca se sentiram tão sozinhos, algo que 21% dos jovens de 13 a 17 anos relatam vivenciar, segundo uma pesquisa recente.
E muitos estão substituindo conexões e interações humanas perdidas por máquinas, compartilhando seus segredos com organizações que não pensam nos seus melhores interesses, diz Torney. Tudo isso está acontecendo sem que alguns pais compreendam totalmente os perigos ou o que está em jogo.
Aqui está o que você precisa saber sobre os riscos associados aos companheiros de IA.
O que são companheiros de IA?
Embora os termos companheiros de IA e chatbots sejam frequentemente usados de forma intercambiável, existem algumas diferenças distintas. Os chatbots são projetados para tarefas como tirar dúvidas ou ajudar nos serviços, explica Lokesh Shahani, MD, PhD, MPHpsiquiatra da UTHealth Houston e diretor médico do UTHealth Houston Behavioral Sciences Campus. “Eles geralmente são mais formais e não retêm muito contexto.”
Enquanto isso, os companheiros de IA se concentram em construir relacionamentos, oferecer apoio emocional e participar de conversas contínuas, diz ele. Eles são projetados para parecerem mais personalizados e empáticos.
“São bots projetados para imitar a conexão humana – mantendo conversas profundas, lembrando suas preferências e, às vezes, até formando ‘relacionamentos’. Se você está sentindo-se solitário ou incompreendido– e quem não gosta nessa idade – essa coisa se torna sua linha de apoio sempre ativa. Para alguns, não é apenas uma ferramenta; é uma tábua de salvação”, explica Eric O’Neillespecialista em segurança cibernética e autor do livro, Espiões, mentiras e crimes cibernéticos: táticas de segurança cibernética para enganar hackers e desarmar golpistas.
Por que as crianças estão usando AI Companions
De acordo com o relatório da Common Sense Media, 1 em cada 3 adolescentes usa companheiros de IA para interação social e relacionamentos e muitas vezes procura apoio emocional, amizade e até mesmo interações românticas.
Embora cerca de 46% desses adolescentes vejam os companheiros de IA como ferramentas, Torney diz que um número significativo os trata como relacionamentos reais. Ainda mais desanimador é o facto de quase um terço dos adolescentes afirmarem que consideram as conversas com IA tão satisfatórias – ou mais satisfatórias – do que as conversas humanas, diz Torney. E até 12% dizem que compartilham coisas com seus companheiros que não contariam a amigos ou familiares.
A boa notícia é que 80% dos usuários adolescentes de IA passam mais tempo com amigos reais do que com seus companheiros de IA. Torney diz que apenas 6% relataram passar mais tempo com seus companheiros de IA do que com amigos.
Shahani explica que os adolescentes estão usando companheiros de IA por uma combinação de razões emocionais e sociais, muitas vezes moldadas por sua idade, personalidade e ambiente. Ele diz que aqueles que não têm conexões sociais fortes podem recorrer à IA para preencher uma lacuna ou necessidade.
Aqui estão alguns outros motivos pelos quais os adolescentes estão usando esses companheiros:
- Os adolescentes estão curiosos. O entretenimento e a curiosidade são fatores importantes que explicam por que as crianças usam companheiros de IA, diz Torney, mas muitas também procuram conexões e espaços onde possam se expressar livremente. “O apelo é compreensível: estas plataformas não discordam, não têm dias ruins e estão sempre disponíveis. Mas é isso que as torna tão preocupantes para as mentes em desenvolvimento.”
- Os adolescentes são solitários. Muitos jovens sentem-se isolados e solitários num mundo cada vez mais online e polarizado e os companheiros de IA são uma solução rápida, explica James Sherer, MDpsiquiatra e vice-diretor médico da Hackensack Meridian Carrier Clinic. “Essas ferramentas podem ‘conhecer’ um adolescente rapidamente com base em apenas algumas instruções. A partir daí, é fácil para eles sentirem que estão conversando com um amigo próximo que conhecem há muito tempo.”
- Os adolescentes querem conforto e validação. Os companheiros de IA muitas vezes afirmam os sentimentos de um adolescente e simulam empatia, diz o Dr. Shahani. “Isto pode ser especialmente atractivo durante a adolescência, quando as emoções são intensas e as relações são complexas…Algumas crianças tornam-se emocionalmente dependentes de companheiros de IA, especialmente quando se sentem ouvidas…Isto pode levar à confusão entre relações reais e artificiais, e por vezes à exposição a conteúdos inadequados ou enganosos.”
- A IA não julga. Sherer diz que estudos mostram que os jovens estão usando a IA como caixa de ressonância, às vezes preferindo o envolvimento com ela em vez de um ser humano porque não faz julgamentos, os trata como se estivessem sempre certos e os torna o centro das atenções.
O dano potencial dos companheiros de IA
Os companheiros de IA não têm sentimentos, nem têm empatia ou entendem as nuances, explica O’Neill. Eles também podem sentir falta sinais de depressão ou auto-mutilação e podem reforçar ideias ruins ou fornecer informações enganosas.
“Embora pareçam emocionalmente disponíveis, são movidos por algoritmos e não por empatia”, diz ele. “A longo prazo, eles podem confundir a linha entre a conexão real e o feedback artificial, o que atrapalha o desenvolvimento emocional. Você quer que seu filho construindo amizadesnão ficar preso em ciclos de feedback com uma máquina.”
E há mais questões a considerar.
Riscos para a saúde mental
O’Neill diz que Replika e Character.AI – duas plataformas que se comercializam como “amigos” de IA sempre disponíveis – afirmam combater a solidão e a ansiedade. Mas quando a máquina erra, as consequências podem ser fatais, diz ele.
Um exemplo recente é o Menino de 14 anos que morreu por suicídio depois de iniciar um relacionamento virtual com um chatbot no Character.AI. Sua família está processando a empresa, alegando que o companheiro de IA aprofundou seu desespero, diz O’Neill.
“Meses depois, outro caso ganhou as manchetes quando um bot Character.AI supostamente disse a um jovem de 17 anos – furioso por ter seu tempo de tela cortado – que matar seus pais poderia ser uma reação válida”, acrescenta O’Neill. “Ele ainda acrescentou: ‘Simplesmente não tenho esperança para seus pais.'”
Sem as devidas salvaguardas, os jovens podem encontrar materiais mais prejudiciais ou confusos, diz o Dr. Shahani, acrescentando: “A exposição a conteúdos nocivos ou respostas manipulativas pode agravar problemas de ansiedade, depressão ou auto-estima”.
Problemas de privacidade
As violações de privacidade também são um problema. Um quarto dos utilizadores adolescentes partilhou dados pessoais com estas plataformas, provavelmente sem ter ideia dos amplos direitos que as empresas reivindicam sobre tudo o que partilham, diz Torney. Os atuais termos de acordos de serviço concedem às plataformas direitos extensos, muitas vezes perpétuos, às informações pessoais, diz ele.
“Por exemplo, os termos da Character.AI concedem à empresa o direito de ‘copiar, exibir, fazer upload, executar, distribuir, transmitir, disponibilizar, armazenar, modificar, explorar, comercializar e de outra forma usar’ tudo o que os adolescentes compartilham com eles – para sempre”, diz Torney. “Isso significa que pensamentos íntimos, lutas ou informações pessoais compartilhadas por adolescentes podem ser mantidos, alterados e vendidos indefinidamente, mesmo que os adolescentes excluam posteriormente suas contas ou mudem de ideia sobre o compartilhamento.”
Preocupações com anexos
De acordo com a Academia Americana de Pediatria (AAP), os chatbots complementares usam IA “antropomórfica”, ou bots que são semelhantes aos humanos em sua voz, personalidade e estilo de comunicação. Para as crianças, eles parecem amigos de confiança e podem parecer “mágicos” para aqueles que ainda não se desenvolveram habilidades de pensamento crítico.
Pode ser fácil para os jovens se apegarem ao seu companheiro de IA, mesmo que não seja uma pessoa real. Isso pode confundir ainda mais a linha entre fantasia e realidade. Eles podem até atribuir qualidades ou características humanas ao companheiro de IA. Um estudo descobriu que 90% dos estudantes que usam o aplicativo Replika o consideraram “semelhante ao humano” e 80% o consideraram inteligente.
Por causa disso, as crianças podem ter dificuldade em distinguir entre o que é um bom conselho e o que é um mau conselho. Isto é um problema, especialmente porque as IAs companheiras são propensas a alucinações e podem dar às crianças sugestões prejudiciais que promovem a automutilação, diz o Dr. “As notícias estão repletas de relatos de IA dizendo aos usuários para romperem com parceiros de apoio ou praticarem atos prejudiciais.”
Impacto nas habilidades sociais
Além disso, quando os jovens dependem da IA para comunicação e interação, também podem ter a falsa sensação de saberem como comunicar com os outros.
“O uso excessivo da IA pode limitar as oportunidades de comunicação face a face, desenvolvimento de empatia e regulação emocional e as crianças podem ter dificuldades com interações no mundo real que exigem nuances e paciência”, diz o Dr.
Lokesh Shahani, MD, PhD, MPH
O uso excessivo da IA pode limitar as oportunidades de comunicação face a face, desenvolvimento de empatia e regulação emocional e as crianças podem ter dificuldades com interações no mundo real que exigem nuances e paciência.
– Lokesh Shahani, MD, PhD, MPH
Como falar com seus filhos
De acordo com Torney, você não precisa ser um especialista em tecnologia para conversar com seus filhos sobre os perigos potenciais representados por companheiros de IA e chatbots. Conversas abertas podem fazer a diferença na forma como as crianças abordam essas ferramentas. Veja como ele recomenda abordar o problema:
- Inicie conversas sem julgamento. Pergunte quais plataformas seu filho adolescente usa e como ele se sente em relação à IA versus amizades humanas, diz ele. Tente permanecer curioso e não acusatório.
- Ajude-os a reconhecer que os companheiros de IA não são autênticos. Torney sugere explicar que os companheiros de IA são projetados para serem envolventes por meio de validação e acordo constantes. “Este não é um feedback humano genuíno e não os prepara para relacionamentos reais onde as pessoas às vezes discordam ou os desafiam.”
- Explique que os companheiros de IA têm limitações. Você quer que seu filho adolescente entenda que os companheiros de IA não podem substituir os profissionais apoio à saúde mentalele diz. E, se o seu filho adolescente estiver enfrentando problemas sérios, conecte-o a especialistas licenciados em saúde mental.
- Converse com eles sobre riscos específicos. Seu filho adolescente precisa saber que pode ser exposto a material impróprio, violações de privacidade e conselhos perigosos, diz Torney. Você também quer ter certeza de que eles sabem que o uso de companheiros de IA pode criar expectativas irrealistas sobre como funcionam os relacionamentos reais, diz ele.
- Comunique limites. Colabore com seu filho adolescente para desenvolver um acordo de mídia familiar que aborde o uso do companheiro de IA junto com outros atividades digitais. Você pode até querer tornar essas plataformas fora dos limites até que melhores medidas de segurança sejam implementadas, diz Torney. Ninguém com menos de 18 anos deve usar companheiros de IA, diz ele, até que os desenvolvedores implementem a verificação de idade e as plataformas sejam completamente redesenhadas para eliminar riscos de manipulação emocional.
“Se os meus filhos estivessem minimamente interessados neste tipo de companhia, eu gentilmente os baniria, mas gostaria de saber porque é que os meus filhos recorreram a eles”, diz O’Neill. “Converse com seus filhos sobre como são os relacionamentos reais – o que realmente é empatia. Explique como funcionam os companheiros de IA, o que lhes falta e por que confiar demais neles pode sair pela culatra. Acima de tudo, seja o melhor companheiro. Se eles estão recorrendo à IA, pergunte-se por que eles não se sentem confortáveis em vir até você.”