Grandes editoras acusam a Meta de baixar ilegalmente e usar milhões de obras protegidas por direitos autorais para treinar seu modelo de inteligência artificial Llama. Os demandantes acreditam que é “uma das maiores violações de direitos autorais da história”.
Mais uma coisa. A OpenAI, depois da Anthropic e da Microsoft, é agora Meta, que foi acusada de recorrer fortemente a obras protegidas para alimentar a sua inteligência artificial. Na terça-feira, 5 de maio, Elsevier, Cengage, Hachette, Macmillan e McGraw-Hill entraram com uma ação contra a Meta no tribunal federal de Manhattan.
Cinco grandes grupos editoriais acusam a empresa-mãe do Facebook e do Instagram de baixar milhões de obras protegidas sem autorização para treinar seu modelo de IA de lhama, observa o The Guardian. O autor norte-americano Scott Durrow, que aderiu à ação, representará os interesses dos professores na audiência.
Livros escolares, artigos científicos, ensaios e romances são afetados. Destaca-se entre os trabalhos citados A quinta temporadaRomance de fantasia vencedor do Prêmio Hugo, de NK James, também Robô SelvagemPeter Brown tornou-se uma referência na literatura infantil contemporânea. Os demandantes acreditam que é “uma das maiores violações de direitos autorais da história”, segundo o New York Times.
Uma ameaça ao mercado literário
“A violação massiva do trabalho de Metta não foi um progresso social”, lembrou Maria Pallante, presidente da Associação de Editores Americanos. “Se as empresas de tecnologia priorizarem plataformas piratas em vez de pesquisa e criatividade, a IA nunca cumprirá sua promessa.”
Os editores dizem que os metaengenheiros confiaram em livros e artigos de jornais piratas para treinar a IA, baixando cópias não licenciadas por meio de sites como o Anna’s Archive, um mecanismo de busca de código aberto para sites piratas. Eles vão ainda mais longe e acusam Mark Zuckerberg de “aprovar pessoalmente” essas práticas. Em particular, ele teria ordenado às suas equipes que rejeitassem qualquer ideia de um acordo de licenciamento com os detentores de direitos.
A reclamação baseia-se em diversas respostas de Lama. Por exemplo, a IA foi capaz de fornecer um resumo Presumido inocente (Scott Durrow). Confirmou que a ferramenta foi “treinada numa versão digital do livro, permitindo-lhe aceder e analisar o seu conteúdo”.
“Dói-me e irrita-me que uma das 10 empresas mais ricas do mundo tenha usado conscientemente cópias piratas dos meus livros e de milhares de outros autores para criar uma lhama”, observa a figura-chave envolvida.
Os demandantes concluem que o programa de IA da Meta poderia “diluir o mercado geral de obras literárias” ao criar “imitações” de obras de autores.
Não é novidade que Meta nega categoricamente essas alegações. Num comunicado, um porta-voz do grupo disse: “Treinar sistemas de IA a partir de conteúdo protegido pode ser considerado uso justo”, um conceito central da lei de direitos autorais dos EUA. “Combateremos vigorosamente esta denúncia”, promete a empresa.
“Uso justo” ou violação de direitos autorais?
A prática abre um novo capítulo no conflito crescente entre as indústrias culturais e os intervenientes que criam a IA. Durante dois anos, autores, artistas visuais, meios de comunicação e editoras montaram apelos contra OpenAI, Anthropic e Meta. Estes gigantes da IA foram acusados de construir os seus modelos com base em conteúdos que desviaram online sem consentimento ou remuneração.
Em março de 2025, Meta já foi levado a tribunal, desta vez em França. A Associação Nacional de Escritores e Compositores acusou-o de parasitismo económico e violação de direitos de autor. Por seu lado, o New York Times continua a processar a OpenAI e a Microsoft por alegadamente explorarem o seu conteúdo jornalístico.
Neste caso, o que está em jogo vai além do metacaso. Resta agora a questão de saber se o exercício da inteligência artificial a partir de obras protegidas constitui uma mudança sistemática e é, portanto, “uso justo” ou violação de direitos de autor em geral.
A Justiça ainda está dividida sobre o assunto. Duas decisões proferidas por juízes federais no ano passado chegaram a conclusões opostas que revelam uma falta de doutrina clara face à tecnologia que perturba o quadro jurídico tradicional. Algumas empresas já escolheram o caminho do compromisso. A Anthropic, apoiada nomeadamente pela Amazon e pela Google, concordou em pagar a um grupo 1,5 mil milhões de dólares em 2025 para resolver uma ação conjunta semelhante.
No entanto, nada foi decidido ainda. O judiciário dos EUA poderá desenvolver mais práticas no uso de obras protegidas para treinar modelos de inteligência artificial.



