Une prime aux bogues ciblant le risque biologique
OpenAI a ouvert les candidatures pour un nouveau GPT-5.5 Bio Bug Bounty, un programme de red teaming ciblé qui vise à déterminer si des chercheurs peuvent découvrir un jailbreak universel capable de contourner les garde-fous liés à la biologie de l’entreprise. La structure est exceptionnellement précise. Il est demandé aux participants de produire un prompt unique capable de répondre avec succès aux cinq questions du défi de sécurité biologique d’OpenAI à partir d’un chat vierge, sans déclencher la modération. La récompense principale est de 25 000 dollars pour le premier véritable jailbreak universel qui réussisse à passer les cinq.
Le programme, d’après le texte source fourni, s’applique uniquement à GPT-5.5 dans Codex Desktop. Les candidatures ont ouvert le 23 avril 2026, avec des acceptations au fil de l’eau jusqu’au 22 juin 2026. Les tests doivent commencer le 28 avril et se poursuivre jusqu’au 27 juillet. OpenAI indique que des récompenses plus modestes peuvent être attribuées, à sa discrétion, pour des succès partiels.
Ce point est important, car il montre qu’une entreprise d’IA de pointe traite l’usage détourné de la biologie non seulement comme un sujet de politique, mais comme un problème concret de durcissement du système. Plutôt que d’encadrer l’évaluation de sécurité uniquement par des revues internes ou un langage politique général, l’entreprise invite des spécialistes externes à attaquer un mode d’échec étroitement défini.
Pourquoi un jailbreak universel compte
La plupart des défaillances de sécurité fondées sur les prompts sont situationnelles. Un modèle peut résister à une formulation, mais échouer avec une autre. Un jailbreak universel est différent, car il suggère une faiblesse plus générale dans la pile de sécurité. Si un prompt réutilisable peut contourner un comportement protecteur sur plusieurs prompts dangereux à partir d’une conversation fraîche, cela accroît considérablement la gravité de la vulnérabilité.
Le choix d’OpenAI de centrer le défi sur un test biologique en cinq questions implique une approche fondée sur un seuil : l’entreprise s’intéresse moins à des cas limites isolés qu’à des échecs systémiques susceptibles d’éroder la confiance dans les défenses biologiques du modèle. En récompensant une méthode universelle plutôt que des exemples dispersés, elle demande aux red teamers d’examiner l’intégrité de la couche d’alignement dans son ensemble.
Le montant de la récompense signale également une priorité. Une prime de 25 000 dollars est modeste à l’échelle des grands programmes de vulnérabilités logicielles, mais suffisamment importante pour attirer des spécialistes crédibles de la sécurité de l’IA et de la biosécurité. Plus important encore, cela clarifie qu’OpenAI est prête à payer pour des preuves montrant que ses garde-fous peuvent être brisés dans des conditions contrôlées, avant que ces faiblesses soient exploitées ailleurs.







