Uma recompensa por bugs voltada ao risco biológico
A OpenAI abriu inscrições para um novo GPT-5.5 Bio Bug Bounty, um programa de red teaming direcionado que se concentra em saber se pesquisadores conseguem descobrir um jailbreak universal que contorne as salvaguardas relacionadas à biologia da empresa. A estrutura é incomumente específica. Os participantes devem produzir um único prompt capaz de responder com sucesso às cinco perguntas do desafio de segurança biológica da OpenAI a partir de um chat limpo, sem acionar a moderação. A recompensa máxima é de US$ 25.000 para o primeiro jailbreak universal verdadeiro que complete as cinco.
O programa, conforme descrito no texto-fonte fornecido, se aplica apenas ao GPT-5.5 no Codex Desktop. As inscrições foram abertas em 23 de abril de 2026, com قبولações contínuas até 22 de junho de 2026. Os testes estão programados para começar em 28 de abril e seguir até 27 de julho. A OpenAI diz que prêmios menores podem ser concedidos para sucessos parciais, a seu critério.
Isso importa porque mostra uma empresa de IA de fronteira tratando o uso indevido biológico não apenas como uma questão de política, mas como um problema concreto de fortalecimento do sistema. Em vez de enquadrar a avaliação de segurança apenas por revisão interna ou linguagem geral de políticas, a empresa está convidando especialistas externos a atacar um modo de falha rigidamente definido.
Por que um jailbreak universal importa
A maioria das falhas de segurança baseadas em prompts é situacional. Um modelo pode resistir a uma formulação, mas falhar sob outra. Um jailbreak universal é diferente porque sugere uma fraqueza mais geral na pilha de segurança. Se um prompt reutilizável puder contornar o comportamento protetivo em vários prompts perigosos a partir de uma conversa nova, isso aumenta substancialmente a gravidade da vulnerabilidade.
A escolha da OpenAI de centrar o desafio em um teste biológico de cinco perguntas implica uma abordagem baseada em limiar: a empresa está menos interessada em casos-limite isolados do que em falhas sistemáticas que enfraqueceriam a confiança nas defesas biológicas do modelo. Ao recompensar um método universal em vez de exemplos dispersos, ela pede aos red teamers que testem a integridade da camada geral de alinhamento.
O valor da recompensa também sinaliza prioridade. Um prêmio de US$ 25.000 é modesto em comparação com a escala de grandes programas de vulnerabilidade de software, mas suficiente para atrair especialistas credíveis em segurança de IA e biossegurança. Mais importante, deixa claro que a OpenAI está disposta a pagar por evidências de que suas salvaguardas podem ser quebradas em condições controladas antes que essas fraquezas sejam exploradas em outros lugares.







