Home Ciência e Tecnologia Google e outros permitem que o governo teste modelos de IA antes...

Google e outros permitem que o governo teste modelos de IA antes do lançamento

6
0


Jacarta, CNN Indonésia

GoogleDiz-se que a Microsoft e a xAI estão permitindo que o governo dos Estados Unidos teste o modelo IA antes de divulgá-los ao público. Esta etapa é vista como uma tentativa de conter ameaças à segurança cibernética.

A mudança ocorre depois que o modelo Mythos AI da Anthropic levantou sérias preocupações sobre seu impacto na segurança cibernética, levando a Casa Branca a considerar um processo formal de revisão para IA. O anúncio foi feito pelo Instituto Nacional de Padrões e Tecnologia dos Estados Unidos (NIST) nesta terça-feira (5/5).

Anúncio

Role para continuar com o conteúdo

Este novo acordo entre o gigante da IA ​​e o governo dos EUA permite que o Centro de Qualidade e Inovação da IA ​​(CAISI) do Departamento de Comércio dos EUA avalie novos modelos de IA e o seu impacto potencial na segurança nacional e pública antes de serem lançados.

A organização também realiza pesquisas e testes após a implementação do modelo de IA. Até o momento, o CAISI concluiu mais de 40 avaliações de modelos de IA.

“Métodos de medição independentes e rigorosos são essenciais para a compreensão da inteligência artificial (IA) avançada e suas implicações para a segurança nacional”, disse o diretor da CAISI, Chris Fall, em um comunicado. CNNQuarta-feira (5/6).

“Esta colaboração alargada da indústria irá ajudar-nos a expandir o âmbito do nosso trabalho no interesse público nesta conjuntura crítica”, disse ele.

O Mythos, que a Anthropic afirma ser melhor do que outros modelos em termos de segurança cibernética, gerou uma onda de preocupação entre governos, bancos e empresas de serviços públicos desde o mês passado.

Segundo a Anthropic, ainda não se sente confortável em divulgar o modelo publicamente e tem acesso limitado apenas a um seleto grupo de organizações aprovadas. Ele informou altos funcionários do governo dos EUA sobre suas capacidades.

Enquanto isso, a OpenAI disse na semana passada que está fornecendo seus sofisticados modelos de IA a todos os níveis de governo, avaliados para antecipar ameaças impulsionadas pela IA.

Jessica Ji, analista de pesquisa sênior do Centro de Segurança e Tecnologia Avançada da Universidade de Georgetown, disse que a parceria tornaria mais fácil para o CAISI testar modelos de IA, fornecendo mais recursos.

“Eles simplesmente não têm os mesmos recursos (que as grandes empresas de tecnologia), mão de obra, pessoal técnico e acesso à infraestrutura computacional, para otimizar esses modelos e realizar testes rigorosos”, disse ele.

Além disso, a Casa Branca está actualmente a planear consultar um grupo de especialistas para obter aconselhamento sobre o processo de revisão do governo para novos modelos de IA.

A medida marca uma mudança na abordagem negligente da administração Trump à regulamentação da IA.

“Qualquer anúncio político vem diretamente do presidente. A discussão sobre possíveis ordens executivas é apenas especulação”, disse um porta-voz da Casa Branca.

A diretora de IA da Microsoft, Natasha Crompton, testa rotineiramente seus próprios modelos, enquanto a CAISI oferece conhecimento técnico, científico e de segurança nacional adicional.

Enquanto isso, o Google se recusou a comentar mais sobre o acordo e a xAI não respondeu a um pedido de comentário.

(lom/dmi)


adicionar

Como preferido
Fonte no Google


(Gambas: Vídeo CNN)


Fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here