Jacarta, CNN Indonésia —
GoogleDiz-se que a Microsoft e a xAI estão permitindo que o governo dos Estados Unidos teste o modelo IA antes de divulgá-los ao público. Esta etapa é vista como uma tentativa de conter ameaças à segurança cibernética.
A mudança ocorre depois que o modelo Mythos AI da Anthropic levantou sérias preocupações sobre seu impacto na segurança cibernética, levando a Casa Branca a considerar um processo formal de revisão para IA. O anúncio foi feito pelo Instituto Nacional de Padrões e Tecnologia dos Estados Unidos (NIST) nesta terça-feira (5/5).
Anúncio
Role para continuar com o conteúdo
Este novo acordo entre o gigante da IA e o governo dos EUA permite que o Centro de Qualidade e Inovação da IA (CAISI) do Departamento de Comércio dos EUA avalie novos modelos de IA e o seu impacto potencial na segurança nacional e pública antes de serem lançados.
A organização também realiza pesquisas e testes após a implementação do modelo de IA. Até o momento, o CAISI concluiu mais de 40 avaliações de modelos de IA.
“Métodos de medição independentes e rigorosos são essenciais para a compreensão da inteligência artificial (IA) avançada e suas implicações para a segurança nacional”, disse o diretor da CAISI, Chris Fall, em um comunicado. CNNQuarta-feira (5/6).
“Esta colaboração alargada da indústria irá ajudar-nos a expandir o âmbito do nosso trabalho no interesse público nesta conjuntura crítica”, disse ele.
O Mythos, que a Anthropic afirma ser melhor do que outros modelos em termos de segurança cibernética, gerou uma onda de preocupação entre governos, bancos e empresas de serviços públicos desde o mês passado.
Segundo a Anthropic, ainda não se sente confortável em divulgar o modelo publicamente e tem acesso limitado apenas a um seleto grupo de organizações aprovadas. Ele informou altos funcionários do governo dos EUA sobre suas capacidades.
Enquanto isso, a OpenAI disse na semana passada que está fornecendo seus sofisticados modelos de IA a todos os níveis de governo, avaliados para antecipar ameaças impulsionadas pela IA.
Jessica Ji, analista de pesquisa sênior do Centro de Segurança e Tecnologia Avançada da Universidade de Georgetown, disse que a parceria tornaria mais fácil para o CAISI testar modelos de IA, fornecendo mais recursos.
“Eles simplesmente não têm os mesmos recursos (que as grandes empresas de tecnologia), mão de obra, pessoal técnico e acesso à infraestrutura computacional, para otimizar esses modelos e realizar testes rigorosos”, disse ele.
Além disso, a Casa Branca está actualmente a planear consultar um grupo de especialistas para obter aconselhamento sobre o processo de revisão do governo para novos modelos de IA.
A medida marca uma mudança na abordagem negligente da administração Trump à regulamentação da IA.
“Qualquer anúncio político vem diretamente do presidente. A discussão sobre possíveis ordens executivas é apenas especulação”, disse um porta-voz da Casa Branca.
A diretora de IA da Microsoft, Natasha Crompton, testa rotineiramente seus próprios modelos, enquanto a CAISI oferece conhecimento técnico, científico e de segurança nacional adicional.
Enquanto isso, o Google se recusou a comentar mais sobre o acordo e a xAI não respondeu a um pedido de comentário.
(lom/dmi)
adicionar
Como preferido
Fonte no Google
(Gambas: Vídeo CNN)



