Até agora não intervencionista, a Casa Branca está agora a explorar a possibilidade de validar modelos de inteligência artificial antes de serem tornados públicos.
Donald Trump está se preparando para uma nova reviravolta. Desde o início do seu segundo mandato, o presidente dos EUA fez da inteligência artificial o seu mantra. É utilizado em todos os níveis da administração, inclusive na preparação para o rapto de um chefe de Estado estrangeiro ou para o conflito em curso no Irão. Mas o New York Times revela que se a Casa Branca deixar as amostras até agora sem maiores verificações, poderá surgir uma ordem executiva para mudar a situação.
Segundo o jornal norte-americano, o objetivo seria criar uma força-tarefa dedicada à inteligência artificial. Será desenvolvido por executivos técnicos e funcionários do governo. Diferentes modelos devem ser testados antes de cada um deles chegar ao mercado.
De “criança” em liberdade a mais controle
Uma das ideias em debate é um “processo formal de revisão governamental”, que foi apresentado aos executivos da Anthropic, Google e OpenAI na semana passada.
O processo poderia ser semelhante ao que está em desenvolvimento no Reino Unido, acrescenta o New York Times, e seria possível garantir que os novos modelos de IA respeitassem as normas de segurança atuais.
Se confirmado, seria uma reviravolta para Donald Trump nesta área. Até agora, o presidente dos EUA deu grande liberdade à indústria de IA, decidindo que as restrições poderiam retardar a inovação e permitir que a China assumisse a liderança.
Em julho de 2025, declarou que tinha que “fazer crescer este bebé e fazê-lo prosperar”, argumentando que era impossível “travar isto com a política”.
Mas os acontecimentos recentes tornaram clara esta posição não intervencionista. Na verdade, a Anthropic introduziu seu modelo Mythos, que é muito poderoso para identificar falhas de segurança. Até agora, a start-up recusou-se a tornar o modelo público, embora tenha aberto o acesso a um número seleto de empresas.
A Casa Branca quer reforçar a sua autoridade reguladora para evitar que tais modelos apareçam na natureza. Algumas testemunhas entrevistadas pelo The New York Times observaram que muitos funcionários preferem não bloquear a divulgação pública dos modelos mais poderosos, mas fornecê-los primeiro às agências governamentais, como um segundo passo.
A questão antropológica no centro do ponto de viragem
Apesar desta mudança de tom, as empresas tecnológicas estão a avançar de forma fragmentada. Nenhum deles poderia decidir sobre a regulamentação se concordasse que mais regulamentação prejudicaria a inovação e que permitiria à China recuperar o atraso, tornando-a cada vez menos importante.
Dean Ball, ex-conselheiro de Donald Trump em IA – que sairá no final de 2025 – explica que é um “equilíbrio delicado”. Questionada sobre o assunto, a Casa Branca esclareceu que o assunto era “especulação”, referindo-se à imprensa para o possível anúncio de Trump.
Quando David Sachs, descrito como o “czar da IA” na Casa Branca, saiu em Março, o assunto foi abordado pela Chefe de Gabinete, Susie Wiles, e pelo Secretário do Tesouro, Scott Bessant. Mesmo assim, a dupla teve que enfrentar uma batalha entre a administração norte-americana e a Anthropic, cujo Claude AI foi utilizado por diversas agências governamentais, incluindo o Pentágono, até agora.
Desde então, a Anthropic foi deixada de lado, com Donald Trump considerando a startup “em alerta máximo” porque não quer que sua IA seja usada para espionar os americanos. Novos acordos foram assinados com várias grandes empresas, incluindo Google, OpenAI, Nvidia e Amazon. No entanto, isto não impediu a Agência de Segurança Nacional (NSA) de utilizar o Mythos, particularmente para avaliar vulnerabilidades em software utilizado pelo governo. Embora a NSA estivesse numa boa posição para supervisionar a análise de futuros modelos de IA, esta agência contestada tem riscos de vigilância inerentes.



