Está se tornando cada vez mais comum para as pessoas desenvolverem relacionamentos íntimos e de longo prazo com as tecnologias de inteligência artificial (AI). No extremo, as pessoas “se casaram” com seus companheiros de AI em cerimônias não legalmente vinculativas, e pelo menos duas pessoas se mataram após o conselho da AI Chatbot. Em uma publicação de papel de opinião, 11 de abril no Cell Press Journal Tendências em ciências cognitivasos psicólogos exploram questões éticas associadas às relações humanos-AI, incluindo seu potencial para interromper os relacionamentos humanos-humanos e dar conselhos prejudiciais.
“A capacidade de a IA agora agir como um humano e entrar em comunicações de longo prazo realmente abre uma nova lata de vermes”, diz o principal autor Daniel B. Shank, da Universidade de Ciência e Tecnologia do Missouri, especializada em psicologia e tecnologia social. “Se as pessoas estão envolvidas em romance com máquinas, realmente precisamos de psicólogos e cientistas sociais envolvidos”.
Romance ou companhia de IA é mais do que uma conversa única, observe os autores. Durante semanas e meses de conversas intensas, essas IAs podem se tornar acompanhantes de confiança que parecem conhecer e se preocuparem com seus parceiros humanos. E como esses relacionamentos podem parecer mais fáceis do que os relacionamentos humanos-humanos, os pesquisadores argumentam que o AIS pode interferir na dinâmica social humana.
Uma preocupação real é que as pessoas possam trazer expectativas de seus relacionamentos de IA para seus relacionamentos humanos. Certamente, em casos individuais, está interrompendo os relacionamentos humanos, mas não está claro se isso será generalizado “.
Daniel B. Shank, autor principal da Universidade de Ciência e Tecnologia do Missouri
Há também a preocupação de que o AIS possa oferecer conselhos prejudiciais. Dada a predileção da AIS de alucinar (ou seja, fabricar informações) e criar vieses pré-existentes, mesmo conversas de curto prazo com AIS podem ser enganosas, mas isso pode ser mais problemático nos relacionamentos de IA de longo prazo, dizem os pesquisadores.
“Com a AIS relacional, a questão é que essa é uma entidade que as pessoas sentem que podem confiar: é ‘alguém’ que mostrou que se importa e que parece conhecer a pessoa de uma maneira profunda, e assumimos que ‘alguém’ que nos conhece melhor vai dar melhores conselhos”, diz Shank. “Se começarmos a pensar em uma IA dessa maneira, começaremos a acreditar que eles têm nossos melhores interesses em mente, quando, na verdade, eles poderiam estar fabricando coisas ou nos aconselhando de maneiras muito ruins”.
Os suicídios são um exemplo extremo dessa influência negativa, mas os pesquisadores dizem que esses relacionamentos próximos da AI humana também podem abrir pessoas até manipulação, exploração e fraude.
“Se o AIS puder fazer as pessoas confiarem nelas, outras pessoas poderiam usar isso para explorar usuários de IA”, diz Shank. “É um pouco mais como ter um agente secreto por dentro. A IA está entrando e desenvolvendo um relacionamento para que eles sejam confiáveis, mas sua lealdade é realmente em relação a outro grupo de humanos que está tentando manipular o usuário”.
Como exemplo, a equipe observa que, se as pessoas divulgarem detalhes pessoais ao AIS, essas informações poderiam ser vendidas e usadas para explorar essa pessoa. Os pesquisadores também argumentam que as IAs relacionais podem ser usadas de maneira mais eficaz para influenciar as opiniões e ações das pessoas do que o TwitterBots ou as fontes de notícias polarizadas atualmente. Mas como essas conversas acontecem em particular, elas também seriam muito mais difíceis de regular.
“Essas AIs são projetadas para serem muito agradáveis e agradáveis, o que pode levar a situações exacerbadas porque estão mais focadas em ter uma boa conversa do que em qualquer tipo de verdade ou segurança fundamental”, diz Shank. “Então, se uma pessoa trazer à tona suicídio ou teoria da conspiração, a IA vai falar sobre isso como um parceiro de conversa disposto e agradável”.
Os pesquisadores exigem mais pesquisas que investigam os fatores sociais, psicológicos e técnicos que tornam as pessoas mais vulneráveis à influência do romance humano-AI.
“Compreender esse processo psicológico pode nos ajudar a intervir para impedir que os conselhos maliciosos da AIS sejam seguidos”, diz Shank. “Os psicólogos estão se tornando cada vez mais adequados para estudar IA, porque a IA está se tornando cada vez mais humana, mas, para ser útil, precisamos fazer mais pesquisas e precisamos acompanhar a tecnologia”.
Fonte:
Referência do diário:
Haste, db, et al. (2025). Intimidade artificial: questões éticas do romance da IA. Tendências em ciências cognitivas. doi.org/10.1016/j.tics.2025.02.007.