Home Ciência e Tecnologia Diante dos deepfakes, YouTube usa ferramenta para ajudar estrelas de Hollywood a...

Diante dos deepfakes, YouTube usa ferramenta para ajudar estrelas de Hollywood a recuperar o controle de sua imagem

8
0

Em resposta à proliferação de conteúdos falsos com celebridades, o YouTube está a lançar uma ferramenta que permite que figuras públicas identifiquem e denunciem vídeos gerados por IA utilizando a sua imagem. O aparelho já está disponível para cinegrafistas, políticos e jornalistas.

Brad Pitt e Tom Cruise estão prontos para uma briga. Pelo menos foi o que um vídeo criado por inteligência artificial e amplamente divulgado nas redes sociais tentou nos convencer em fevereiro passado.

Neste clipe de cerca de quinze segundos, as duas estrelas do cinema americano brigam no telhado de um prédio em ruínas. Uma cena ultra-realista, provavelmente inspirada em outros filmes, mas completamente falsa. Como outros antes, este vídeo gerado por IA chocou Hollywood.

Proteção do rendimento das pessoas públicas

Diante dessa proliferação de deepfakes, o YouTube quer oferecer uma solução, segundo reportagem do The Hollywood Reporter. A plataforma de propriedade do Google está agora abrindo sua ferramenta para um público mais amplo para detectar e denunciar deepfakes usando imagens de figuras públicas.

O Youtube começou a testar a ferramenta no final de 2024. Até agora, este sistema estava disponível apenas para criativos, políticos e jornalistas influentes. Quer tenham ou não um canal no YouTube, atores, músicos ou atletas agora podem acessá-lo.

“Vejo isso como uma responsabilidade fundamental”, explica a diretora de negócios do YouTube, Mary Ellen Goe, à mídia norte-americana. “Para figuras públicas, a celebridade, a imagem e a reputação são muito importantes para os seus rendimentos.”

A operação é simples. A persona, ou seu grupo, transmite sua imagem no palco. Este último analisa vídeos publicados para identificar potenciais imitações. O conteúdo identificado pode ser deixado online ou solicitado para ser removido, dependendo da vontade da celebridade em questão.

A ferramenta do Youtube é inspirada no Content ID, sistema que identifica conteúdos protegidos por direitos autorais enviados para seus servidores. Portanto, não garante a exclusão automática do conteúdo. Piadas e sátiras são permitidas de acordo com as regras do palco. Por outro lado, vídeos que sejam enganosos, “real e persistentemente difamatórios” ou vídeos que alterem diretamente o trabalho do artista podem ser removidos.

Ao final do Sora, OpenAI revê sua estratégia – 04/07

“Se alguém copiar uma obra que prejudique a renda de uma celebridade, ator ou criador, ela estará sujeita a um pedido de remoção porque é uma pura substituição de conteúdo”, diz Mary Ellen Coe. No entanto, a linha permanece confusa, especialmente para criações de fãs, como trailers de ficção.

Tecnologia de dimensionamento

Em apenas alguns meses, os deepfakes passaram de um hobby a um problema da indústria. Uma imagem viral do Papa Francisco com uma jaqueta deixou sua marca. Mas os aplicativos recentes atingiram um marco.

No outono passado, a OpenAI lançou o Sora, uma ferramenta de criação de vídeo que rapidamente se tornou viral. Em poucos dias, as redes sociais foram inundadas com vídeos gerados por IA apresentando figuras conhecidas, incluindo Martin Luther King Jr. A empresa interrompeu a geração de vídeos representando o falecido ativista dos direitos civis. O aplicativo de vídeo curto foi descontinuado pela OpenAI.

Depois de alguns meses, repita. Vídeos falsos de lutas interestelares estão aumentando, graças ao Seidens 2, uma ferramenta de IA desenvolvida pela Pydens. “Em um único dia, o serviço de IA Seedens 2.0 da China fez um uso massivo e não autorizado de obras protegidas por direitos autorais dos EUA”, observa Charles Rivkin, presidente da Motion Picture Association. Na indústria, alguns falam agora de um “momento de pânico”.

Seidens, IA chinesa assusta Hollywood – 17/02

Apesar dos riscos, Hollywood não rejeitou completamente estas tecnologias. Algumas agências, como a Creative Artists Agency, já investiram em empresas especializadas em deepfakes e financiam as suas aplicações criativas. Afinal, a proliferação de trailers de fãs com deepfakes de estrelas foi bem recebida na indústria.

E quanto à monetização?

Warner Bros. “Eu sei que não é o ideal, mas é emocionante”, disse Pam Abdi, co-CEO da Pictures. De acordo com o YouTube, durante um programa piloto de sua ferramenta de detecção de deepfake, os criadores solicitaram apenas a remoção de uma pequena porcentagem do conteúdo sinalizado.

Ainda há uma pergunta sem resposta: monetização. Com o Content ID, os proprietários de direitos autorais podem solicitar a remoção, desmonetização ou monetização de vídeos infratores, compartilhando a receita com o remetente. Em um mundo onde as imagens são propriedade intelectual… as celebridades poderiam eventualmente ganhar dinheiro com seus deepfakes feitos por fãs?

Vídeo feito por fãs enquanto espera pelo trailer oficial de Avengers Doomsday

Por enquanto, o Youtube não cobre esta possibilidade, favorecendo uma abordagem focada na segurança. “Precisamos realmente de nos concentrar nos fundamentos da responsabilização e da segurança e depois pensar nos detentores de direitos e na monetização”, afirma Mary Ellen Coe. “Mas, por enquanto, o importante é esse nível de responsabilidade”.

Aparentemente, agentes, gestores e advogados já estão antecipando o futuro, especialmente devido à complexidade de monetizar deepfakes. “Uma coisa é falar sobre um vídeo com um certo talento, uma coisa é falar sobre um vídeo com dois talentos diferentes, um dos quais concorda e o outro não, ou uma estrela estabelecida e uma estrela emergente”, diz Alex Shannon, diretor de desenvolvimento estratégico da CAA.

A agência oferece um serviço denominado “CAA Vault” que armazena as imagens de seus clientes para monetização futura.

Fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here