Sete queixas foram apresentadas contra a OpenAI pelas famílias das vítimas do tiroteio em fevereiro passado, dias depois de Sam Altman se desculpar por não fornecer à polícia uma descrição do assassino de Tumbler Ridge (Canadá).
Famílias de vítimas de um tiroteio em fevereiro no Canadá apresentaram sete queixas contra a empresa de inteligência artificial OpenAI no tribunal dos EUA na quarta-feira.
A empresa norte-americana está sendo criticada por não denunciar à polícia as mensagens perturbadoras que Jesse Van Rootselaar, um homem transgênero de 18 anos, escreveu no ChatGPT antes de matar oito pessoas na cidade de Tumbler Ridge, no oeste do Canadá.
Sua conta foi suspensa em junho de 2025, mas a OpenAI disse que não informou a polícia porque não havia sinal de ação imediata. “Denunciar um significa denunciar milhares”, diz um comunicado da equipe jurídica da OpenAI.
Os casos apontam ainda que a ferramenta de inteligência artificial da Open AI explica aos usuários como eles podem continuar suas atividades mesmo que sua conta seja suspensa. De acordo com o comunicado de imprensa, a ferramenta destaca a capacidade de “criar instantaneamente uma nova conta usando um endereço de e-mail diferente”.
No entanto, Jesse van Roetselaar abriu uma segunda conta ChatGPT após o encerramento da primeira conta.
Processos judiciais em ondas
A equipe jurídica dos EUA disse estar trabalhando com advogados canadenses que já haviam entrado com uma ação judicial em nome de uma menina de 12 anos que ficou gravemente ferida nos assassinatos, dizendo que a promotoria dos EUA “teria precedência” sobre o caso canadense.
“Outras queixas se seguirão. Nas próximas semanas, (…) mais de vinte queixas serão apresentadas em nome das vítimas dos assassinatos de Tumbler Ridge. Essas ações legais serão lançadas em uma onda”, dizia o comunicado de imprensa.
O CEO da OpenAI, Sam Altman, pediu desculpas à cidade de Tumblr Ridge em abril, dizendo que “lamenta profundamente” o fracasso de sua empresa em denunciar as comunicações ChatGPT de Jessie van Roetzelaar à polícia.
Sua empresa afirma ter feito diversas mudanças para permitir conversas com chatbots para identificar de forma confiável situações perigosas e denunciá-las à polícia.
Questionado sobre as reclamações apresentadas na quarta-feira, um porta-voz da OpenAI disse que a empresa tem uma “política de tolerância zero” e “melhorou a forma como o ChatGPT responde aos sinais de perigo”.



