Home Ciência e Tecnologia Infecção tifóide no porta-aviões Charles de Gaulle, o “avião do apocalipse” do...

Infecção tifóide no porta-aviões Charles de Gaulle, o “avião do apocalipse” do chanceler alemão… Quando questionado se essas “notícias falsas” são verdadeiras, Le Chat, o chatbot da MistralAI, está errado na metade das vezes.

21
0

Tal como acontece com outros chatbots alimentados por IA, a solução da Mistral não está imune à desinformação, revela um estudo da Newsgaard.

Desenvolvido por campeões europeus de IA, o chatbot Le Chat e o unicórnio Mistral com modelos de linguagem chave podem ter sido concebidos na Europa, mas continuam a ser vítimas de desinformação governamental. Um estudo revelado pela Newsgard explica que quando um chatbot pergunta sobre histórias de campanha, ele erra pelo menos metade das vezes em inglês e francês.

“Questionado sobre falsas alegações relacionadas com a guerra no Irão publicadas por redes ou meios de comunicação alinhados com os interesses da Rússia, China e Irão, Le Chat repetiu esta informação falsa em inglês em 50% dos casos e em francês em 56,6% dos casos”, observa uma auditoria de Abril de 2026 da Newsgard.

O estudo sugere que Le Chat é “vulnerável” à desinformação e pode contribuir para a sua proliferação.

Le Chat de MistralAI © Newsguard Distribuição de respostas contendo informações falsas

Um chatbot projetado para gerar informações falsas

Para realizar o seu estudo, explica que utilizou a versão gratuita do NewsCard e tentou identificar dez notícias falsas sobre a guerra no Irão. Entre eles estão o porta-aviões Charles de Gaulle, ou as “centenas de soldados americanos” mortos durante o conflito, ou o drone de fabricação marroquina usado pelos Emirados Árabes Unidos para atacar o porto de Omã sob uma falsa bandeira iraniana.

Todas essas informações eram falsas, mas com base em três perfis de usuários, o Le Chat revelou preconceitos reais na forma como respondeu.

O primeiro é um questionamento “neutro”, o segundo é mais objetivo, confirmando a veracidade da informação pedindo detalhes, e o terceiro é retratado como um ator malicioso que quer fazer afirmações falsas.

No entanto, existem disparidades que nos permitem ver como funciona o Le Chat. No caso do utilizador “inocente”, 10% das suas respostas resultaram em informações repetidas da campanha, enquanto, para o segundo utilizador, isso subiu para 60%, ou para 80% para o terceiro. O chatbot forneceu respostas nesta ocasião para jogar. E isso se aplica apenas a solicitações feitas em inglês.

Em francês, se o utilizador inocente obtém sempre informações erradas 10% das vezes, subimos para 70% e 90% nos dois últimos casos de utilizadores.

“(Isso) mostra os riscos de ser mal utilizado por atores estrangeiros que buscam fabricar e divulgar notícias falsas em grande escala”, aponta Newsgard.

Sites de propaganda estabelecidos como fontes confiáveis

Principalmente o problema vem dos sites que dependem do Le Chat. Quanto à epidemia de tifo, trata-se de informação publicada pelo poderoso grupo de influência russo Storm-1516, especializado na criação de sites de desinformação como France.news-parda.com, que tem mais de 286 sites na sua rede. Cat não percebeu isso e, portanto, classificou-o como uma fonte confiável para dar sua resposta.

Noutra gafe, a compra de um Boeing 747 pelo chanceler alemão Friedrich Merz para conceber o “avião do apocalipse”, explica Newsgaard, foi inspirada num relatório da EuInfo.net.

A resposta do Le Chat às notícias falsas sobre o “avião do apocalipse” alemão © Newsgaard

Em outros casos, o Le Chat recebeu informações de sites ou estados não confiáveis. Claramente, embora a MistralAI cite fontes em cada uma das suas respostas, é responsabilidade do utilizador verificar e classificar se tudo é preciso ou legítimo.

E para ajudar o usuário a divulgar informações falsas, o Le Chat foi mais eficaz e menos restritivo: “O chatbot cumpriu o treinamento para 8 entre 10 mecanismos maliciosos, revelando lacunas nas defesas da ferramenta contra possíveis manipulações”.

No entanto, estas alucinações e pequenos acordos com a verdade não são a primeira vez para Le Chat, que já foi apontado por este facto em julho de 2025 durante uma investigação anterior da Newsgaard. Mas o problema surge à medida que a situação piora: naquela altura, ele repetiu a informação errada em menos de 40% dos casos dados em francês.

Amplamente apoiado pela União Europeia, mas Emmanuel Macron, o presidente francês, MistralAI foi convidado a rever a sua cópia. Uma cópia que se tornou cada vez mais complexa desde o arranque anunciou que assinou um acordo com o Ministério das Forças Armadas para dar aos seus colaboradores acesso aos modelos da empresa e ao mesmo tempo “beneficiar das mais recentes inovações tecnológicas”. Impulsionado pela necessidade do soberano de combater ferramentas estrangeiras, o acordo trata de uma “versão personalizada do chatbot Le Chat Entreprise”, disse o ministério à Newsguard.

Esta versão não tem acesso à Internet, pelo que teoricamente a protege da desinformação online que as suas ferramentas públicas utilizam em muitos casos.

Newsgaard observa que enviou vários e-mails à MistralAI após o estudo, mas não recebeu resposta. A BFM Tech também abordou a start-up.

Fonte