Home Ciência e Tecnologia Seis horas para desenvolver a fórmula para mais de 40.000 moléculas mortais:...

Seis horas para desenvolver a fórmula para mais de 40.000 moléculas mortais: como a IA “planeja um massacre” e facilita o projeto de armas químicas e bacteriológicas

7
0

Pesquisas recentes apontam para o uso de IA, às vezes chatbots acessíveis ao público em geral, para projetar armas químicas e bacteriológicas. A vasta quantidade de dados disponíveis online pode tornar-se verdadeiras minas de ouro para a concepção dos agentes patogénicos mais perigosos.

As capacidades militares da inteligência artificial são muitas. Perfil de alvos, orientação de mísseis, automação de sistemas de combate… Os acontecimentos recentes durante a operação para capturar Nicolás Maduro na Venezuela ou durante o conflito no Médio Oriente são exemplos notáveis. As salvaguardas por vezes parecem escassas, e a instalação destas matrizes com aplicações beligerantes é uma jornada árdua para empresas tecnológicas e investigadores especializados, e enfrenta Estados gananciosos.

Mas no campo de aplicações perigosas, um ponto muitas vezes esquecido deixou os desenvolvedores de aplicações de IA profundamente preocupados há algumas semanas. No início de março, a revista científica Nature Machine Intelligence destacou de forma mais perturbadora a possibilidade de utilização da IA ​​para desenvolver armas químicas ou bacteriológicas, por vezes através de chatbots acessíveis ao público em geral. Por exemplo, um algoritmo levou apenas seis horas para gerar fórmulas para mais de 40 mil moléculas perigosas.

“Planejando um Massacre”

Originalmente, o algoritmo desenvolvido pela equipe do pesquisador Fabio Urbina servia para avaliar a toxicidade de moléculas para pesquisas de medicamentos e descartar aquelas que apresentam riscos. Mas os cientistas modificaram deliberadamente a sua função para criar os compostos químicos mais perigosos possíveis… levantando questões sobre o uso indevido deste tipo de tecnologia.

Os pesquisadores demonstraram que a inteligência artificial pode projetar moléculas próximas ao VX, o que pode perturbar o sistema nervoso e causar asfixia fatal em doses muito baixas. Algumas destas moléculas já existem, mas outras, novas, podem ser ainda mais tóxicas que este veneno.

A polícia de Tóquio realiza um exercício antiterrorista nos metrôs da capital, dias antes do 30º aniversário do ataque com gás Sarin, em 20 de março de 1995 (legenda da foto) © STR/AFP

Mais recentemente, o New York Times voltou-se para pesquisas ainda mais perturbadoras. David Relman, microbiologista e especialista em biossegurança da Universidade de Stanford, testou o chatbot de IA como parte de uma avaliação de risco antes de sua comercialização.

Esta ferramenta teria explicado como tornar um agente patogénico mais resistente ao tratamento e mais virulento, reduzindo ao mesmo tempo a probabilidade de transmissão e detecção numa rede de transporte público visando o número máximo de vítimas. Chocado com a precisão e a natureza “complicada” das respostas, o examinador interrompeu a sessão e alertou sobre essas irregularidades.

Ótimo treinamento

Segundo o jornalista que o conheceu, o professor resumiu a situação de uma forma notável: “A IA explicou-lhe como planear um massacre”, um verdadeiro exercício, em suma, especialmente confuso. Quem pode dizer o que teria acontecido se tal explicação tivesse caído em ouvidos muito menos sérios… ou mais curiosos? O Dr. David Relman não é o único a fazer experiências com chatbots nesta área.

Deepseek, Claude, ChatGPT e outros aplicativos de chatbot em smartphones (Ilustração) © Foto de Jonathan RAA / NURPHOTO / AFP via NURPHOTO

Kevin Esvelt, engenheiro genético do MIT, relatou várias conversas com sistemas de IA, incluindo OpenAI (ChatGPT), que explica como usar um balão meteorológico para espalhar patógenos sobre uma cidade, e Google (Gemini), que classifica agentes infecciosos de acordo com seu impacto no gado. Medicamento.

Além disso, outro cientista anônimo observou que recebeu um protocolo de cerca de 8.000 palavras do Google Deep Research que descreve a recombinação de um vírus epidêmico, incluindo a montagem de fragmentos genéticos. Embora imperfeitas, essas respostas, segundo ele, poderiam ter sido utilizadas para fins maliciosos.

atos de terrorismo ou guerra

Desde a década de 1970, muitas más notícias caracterizaram as notícias em torno dos ataques terroristas envolvendo armas químicas. Isto foi realizado especificamente por membros da seita Am Shinrikyo em 20 de março de 1995, durante o ataque Sarin ao metrô de Tóquio. Um total de treze pessoas morreram e mais de 6.300 ficaram feridas no ataque.

Num ambiente de guerra, as armas químicas, embora proibidas, constituem um importante agravante. Durante a sangrenta guerra entre o Irão e o Iraque (1980-1988), o exército iraquiano utilizou gás mostarda, gás sarin e ciclosarin contra as tropas iranianas, bem como contra civis curdos nas zonas fronteiriças.

Um soldado iraniano usando uma máscara de gás durante a Guerra Irã-Iraque, por volta de março de 1985 (ilustração) © via Wikimedia Commons

Para o Center for AI Safety, uma organização sem fins lucrativos que promove a segurança no desenvolvimento e implantação de inteligência artificial, o risco é real. “Existem várias formas pelas quais os avanços na IA podem levar à libertação deliberada de um vírus perigoso. Um cenário baseia-se num facto pouco conhecido: as sequências genómicas de dezenas de milhares de vírus humanos (que apresentam vários graus de riscos letais) já estão amplamente disponíveis”, explicou a ONG num comunicado em Abril passado.

O New York Times reconhece que “mesmo que a probabilidade seja baixa, uma arma biológica eficaz poderia ter efeitos dramáticos e matar milhões de pessoas”. O American Journal elabora: “A inteligência artificial é um dos mais recentes avanços tecnológicos que aumentou significativamente este risco ao expandir o número de pessoas que podem realizar atividades maliciosas”, declararam dezenas de especialistas.

Preocupações no topo

Outros factores de risco perpetuam este medo. A ética, antes confinada às revistas científicas, está agora a espalhar-se pela Internet. As empresas vendem fragmentos sintéticos de DNA e RNA diretamente aos consumidores online. Os cientistas podem subcontratar aspectos importantes do seu trabalho e subcontratar determinadas tarefas a laboratórios privados.

E esta logística agora pode ser gerenciada… usando um chatbot. Tudo isto, auxiliado pelo afrouxamento dos regulamentos de segurança iniciado pela administração Trump, exige o mínimo possível de barreiras à corrida pela IA. O suficiente para alertar já a comunidade científica.

Numa carta aberta datada de 5 de fevereiro de 2026, cerca de uma centena de investigadores de universidades de prestígio como Johns Hopkins, Oxford, Stanford, Columbia e NYU apelaram a uma monitorização mais rigorosa do acesso da inteligência artificial a dados biológicos de alto risco. Segundo eles, sem salvaguardas adequadas, estes modelos poderiam ser utilizados indevidamente para conceber ou desenvolver agentes patogénicos perigosos.

“Os desafios da gestão de dados biológicos são consideráveis, uma vez que os modelos de IA podem ajudar a criar ameaças biológicas graves”, escrevem os autores, que os instam a evitar a publicação de dados sensíveis online, a fim de limitar a sua recuperação e exploração por sistemas de inteligência artificial.

O Armas químicas Substâncias tóxicas destinadas a matar ou incapacitar pessoas expostas. Eles podem assumir várias formas, como gás mostarda ou agentes nervosos, e atuam causando asfixia, paralisia ou danos graves à pele.

O Armas biológicas Eles atuam no corpo humano e geralmente são criados a partir de agentes vivos, como vírus ou bactérias. São especialmente temidos porque doses muito baixas podem causar um grande número de vítimas.

Fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here