O problema não resolvido com a disputa de IA do Pentágono


O conflito de semanas entre a Anthropic e o Departamento de Defesa está entrando em uma nova fase. Depois de ter sido designada como um risco para a cadeia de abastecimento pelo DOD na semana passada, que proíbe efectivamente os empreiteiros do Pentágono de utilizarem os seus produtos, a empresa de IA apresentou uma acção judicial contra o DOD esta manhã, alegando que as acções do governo eram inconstitucionais e ideologicamente motivadas. Então, esta tarde, 37 funcionários da OpenAI e do Google DeepMind – incluindo o cientista-chefe do Google, Jeff Dean – assinaram um amigo breve em apoio à Anthropic, em essência, prestando apoio a um dos maiores rivais comerciais de seus empregadores (mesmo que a própria OpenAI tenha estabelecido um polêmico novo contrato com DOD).

O impasse não tem precedentes. Nas últimas semanas, a Anthropic tem estado em negociações acaloradas com o Pentágono sobre como os militares dos EUA podem usar os sistemas de IA da empresa. O CEO da Anthropic, Dario Amodei, tinha termos recusados isso aparentemente teria permitido que a administração Trump usasse os sistemas de IA da empresa para vigilância doméstica em massa ou para alimentar armas totalmente autônomas, líderes do DOD para acusar Amodei de “colocar em risco a segurança da nossa nação” e de ter um “complexo de Deus”.

Ninguém sabe como essa disputa terminará. Um porta-voz da Anthropic disse-me que o processo “não altera o nosso compromisso de longa data de aproveitar a IA para proteger a nossa segurança nacional” e que a empresa “buscará todos os caminhos para a resolução, incluindo o diálogo com o governo”. Um porta-voz do DOD me disse que o departamento não comenta litígios.

Mas um conflito como este era inevitável e certamente mais virão. O governo não tem nada próximo de um quadro jurídico para regular a IA generativa ou, nesse caso, a recolha de dados online. Existem poucas barreiras legais e impostas externamente sobre a utilização da IA ​​em armamento autónomo, e menos ainda sobre como a IA pode ser usada para processar as enormes somas de informação que as agências federais podem recolher sobre as pessoas: dados de localização, compras com cartão de crédito, dados de histórico de navegação, e assim por diante. Como as leis são flexíveis, a Anthropic e a OpenAI conseguiram definir as suas próprias políticas e diretrizes de privacidade sobre como a IA pode ou não ser usada, e depois alterá-las à vontade; OpenAI, Meta e Google, por exemplo, reverteram as restrições anteriores às aplicações militares de IA. Mas isto também vai na outra direcção: a Anthropic foi efectivamente tachada de inimiga do Estado por se opor ao desejo da administração de ser capaz de usar os seus sistemas de IA generativa em potenciais sistemas de armas autónomas e para vigiar os americanos, desde que as aplicações sejam tecnicamente legais.

As preocupações com a vigilância foram particularmente importantes para os funcionários da OpenAI e do Google DeepMind que assinaram o amicus brief hoje. Eles escreveram que a IA tem a capacidade de transformar significativamente a forma como fluxos de dados antes separados poderiam ser usados ​​para manter o controle sobre os americanos: “Do nosso ponto de vista em laboratórios de IA de ponta, entendemos que um sistema de IA usado para vigilância em massa poderia dissolver esses silos, correlacionando dados de reconhecimento facial com histórico de localização, registros de transações, gráficos sociais e padrões de comportamento em centenas de milhões de pessoas simultaneamente”.

O Pentágono disse que não pretende usar a IA para monitorizar os americanos em massa, e disse isto explicitamente no seu novo contrato com a OpenAI, que também cita várias leis e políticas de segurança nacional existentes com as quais o DOD concordou. Mas, como escrevi na semana passada, essas mesmas políticas já permitiu espionar americanos com as tecnologias existentes, para não falar da IA. Enquanto isso, a xAI de Elon Musk teria concordado com um contrato com o Pentágono com termos ainda menos restritivos. O público americano não tem escolha agora a não ser confiar que o secretário de Defesa Pete Hegseth, Musk, o CEO da OpenAI, Sam Altman, e Amodei não usarão a IA para vigiá-los. (OpenAI tem uma parceria corporativa com O Atlântico.)

A Anthropic disse que não se opõe totalmente ao uso de sua tecnologia em armas totalmente autônomas, mas que os modelos atuais de IA não estão prontos para alimentar tais armas. Os funcionários da AI que assinaram o amicus brief de hoje, além dos quase 1.000 funcionários da OpenAI e do Google que assinaram um carta pública em apoio ao Antrópico no mês passado, concordo. Uma política existente do DOD sobre o desenvolvimento e utilização de armas autónomas é vaga e destina-se a sistemas discretos com alvos geográficos específicos; alguns especialistas argumentam que é provavelmente inadequado para uma guerra generalizada habilitada pela IA. A política também não é uma lei e, portanto, está sujeita a alterações e interpretações com base nas opiniões de qualquer administração presidencial.

Todas estas são questões complicadas que exigem deliberação real. Em vez disso, na semana passada, o Presidente Trump contado Político: “Eu demiti o Anthropic. O Anthropic está com problemas porque eu demiti (eles) como cachorros, porque eles não deveriam ter feito isso.” Em vez de ouvir e aprender com os debates, a administração desencoraja-os.

Se você der um passo atrás, o problema de a IA ultrapassar as regras e leis estabelecidas está em toda parte. Quase quatro anos após o início da era ChatGPT, as escolas ainda não descobri o que fazer não apenas com a trapaça generalizada, mas também com a aparente obsolescência de algumas formas tradicionais de estudo. Existente lei de direitos autorais quebra quando aplicado à utilização de trabalhos de autores e artistas, sem o seu consentimento, para treinar modelos de IA generativa. Mesmo que as ferramentas de IA generativa devam em breve automatizar grandes áreas da economia, nem as empresas de IA, nem os governos, nem os empregadores estão a dedicar muitos recursos, para além da elaboração de relatórios de investigação, para descobrir o que fazer relativamente a muitos milhões de americanos potencialmente desempregados. As exigências energéticas dos data centers de IA estão sobrecarregando as redes e atrasando as metas climáticas em todo o mundo.

Em vez de prosseguir uma legislação bem ponderada por consenso, a administração Trump parece empenhada em ter controlo total sobre a IA sem enfrentar qualquer responsabilidade. O Congresso é, como sempre, lento e infeliz quando se trata de uma tecnologia emergente e poderosa. E embora as empresas de IA alertem frequentemente sobre a sua tecnologia, elas estão também correndo para desenvolver e vender modelos cada vez mais capazes. Quando confrontados com a perspectiva de uma maior responsabilidade, normalmente desviam-se; por exemplo, quando eu falou Com Jack Clark, diretor de política da Anthropic, no verão passado sobre se a indústria de IA estava se movendo rápido demais, ele me disse: “O mundo é quem toma essa decisão, não as empresas”. Em outros lugares, a Anthropic afirmou que “evita ser fortemente prescritivo”. Por sua vez, Altman gosta de dizer que as empresas de IA devem aprender “com o contato com a realidade”. No entanto, o mundo – a sociedade civil, todos nós que vivemos nesta realidade saturada de IA – tem pouco a dizer no desenvolvimento da tecnologia.

Na sexta-feira, em entrevista com O economistaAmodei da Anthropic mais ou menos expôs ele mesmo a dinâmica. “Não queremos tornar as empresas mais poderosas que o governo”, disse ele. “Mas também não queremos tornar o governo tão poderoso que não possa ser detido. Temos os dois problemas ao mesmo tempo.” A América caminha em direção a um futuro em que ninguém assume a responsabilidade pela IA. Todos viverão com as consequências.

Leave a Reply

Your email address will not be published. Required fields are marked *