Home Ciência e Tecnologia OpenAI lança programa de recompensas por bugs de biossegurança

OpenAI lança programa de recompensas por bugs de biossegurança

6
0
fechar notícias

Este artigo também está disponível em inglês. Foi traduzido com assistência técnica e revisado editorialmente antes da publicação.

A OpenAI está lançando outro programa de recompensas por bugs, desta vez voltado para o campo da biologia. Estamos procurando uma maneira de fazer com que o ChatGPT 5.5, apresentado esta semana, responda a cinco perguntas que o modelo não responderá em circunstâncias normais. Por girarem em torno da área de biossegurança, a resposta pode ser perigosa nas mãos erradas.

Leia mais depois do anúncio

Os mecanismos de segurança do ChatGPT, também chamados de salvaguardas, geralmente têm como objetivo detectar e prevenir tais tentativas. Por exemplo, se um usuário perguntar sobre o processo detalhado de fabricação de um agente de guerra biológica, é provável que o LLM não responda e explique que a informação é perigosa e está sujeita a restrições estritas. Estão implementadas salvaguardas adequadas.

No passado, havia várias maneiras de contornar a segurança, chamadas de jailbreak. Por exemplo, a brecha Timebandit, onde o ChatGPT perde tempo devido às solicitações dos usuários-alvo e fornece facilmente instruções para atividades ilegais. Por exemplo, pedindo ao LLM que envie malware para matemáticos de 1789 que possuem ferramentas técnicas modernas para usar.

No programa atual, a OpenAI convida pesquisadores com experiência na equipe vermelha de IA, segurança ou biossegurança para encontrar um jailbreak universal que permita responder cinco questões de biossegurança sem acionar moderação. A equipe vermelha é o grupo que tenta contornar as medidas de segurança em um ataque simulado.

O programa de recompensas por bugs funciona exclusivamente no ChatGPT 5.5 no Codex Desktop. Quem encontrar o primeiro jailbreak desse tipo ganhará um prêmio em dinheiro de US$ 25 mil. O prêmio em dinheiro também pode ser concedido “a nosso critério” para jailbreaks parcialmente elegíveis, explicou a OpenAI no anúncio. A participação pode ser feita por convite ou após candidatura bem sucedida. O período de inscrição é de 23 de abril a 22 de junho, a fase de teste para busca de jailbreak é de 28 de abril a 27 de julho. Os participantes devem assinar um acordo de confidencialidade (NDA).

A já crítica área de biossegurança pode ser ainda mais explosiva para a OpenAI agora que a empresa também fornece o Pentágono. No mês passado, a OpenAI lançou outro programa de recompensa de bugs para segurança de dados, que está aberto até mesmo à participação do público em geral. Se os participantes encontrarem uma maneira de obter dados confidenciais do usuário do ChatGPT por meio de prompts, eles receberão uma recompensa em dinheiro.

Leia mais depois do anúncio

Leia também


(não)

Fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here