Cybersécurité : OpenAI fait sauter les garde-fous de l’IA pour GPT-5.4-Cyber
La cybersécurité, c’est le domaine où les géants de l’IA s’affrontent actuellement, en particulier Anthropic et OpenAI. D’ailleurs, OpenAI vient de dévoiler GPT-5.4-Cyber, une déclinaison optimisée pour la cybersécurité défensive. À quoi sert-il ? Peut-on en profiter ? Voici l’essentiel à savoir.
Une IA pour la cybersécurité défensive
Jusqu’à présent, les modèles standards d’OpenAI intégraient des garde-fous stricts. En effet, par défaut, l’IA bloque toute requête qui s’apparente de près ou de loin à la préparation d’une attaque (action malveillante) ou à la recherche d’une vulnérabilité. Si c’est nécessaire pour éviter que l’IA soit “détournée” par les cybercriminels, cela bloque aussi le travail des chercheurs en sécurité susceptibles d’en avoir besoin, notamment pour l’analyse de malwares.
Avec GPT-5.4-Cyber, OpenAI adopte une approche que l’on pourrait qualifier de cyber-permissive. Autrement dit, OpenAI accepte de lever quelques barrières de sécurité pour débrider GPT-5.4 afin de mieux répondre aux besoins des équipes défensives et de recherche. Cela permet notamment d’utiliser les outils d’OpenAI pour accomplir des tâches comme :
- Le reverse engineering de binaires : le modèle permet d’analyser des logiciels compilés pour en évaluer les risques, et ce, sans même avoir besoin d’accéder au code source.
- La recherche de vulnérabilités : l’IA est capable de tester un logiciel pour identifier des faiblesses inconnues.
- Détection de logiciels malveillants : l’analyse d’applications pour identifier la présence d’un logiciel malveillant dans le code, en particulier en s’intéressant aux comportements.
“Il s’agit d’une version de GPT-5.4 qui abaisse le seuil de rejet pour les travaux légitimes en matière de cybersécurité.”, précise OpenAI.
En contrepartie, les utilisateurs de GPT-5.4-Cyber doivent accepter que l’historique des requêtes soit conservé par OpenAI. Autrement dit, la traçabilité des échanges est obligatoire.
“L’accès à des modèles permissifs et compatibles avec le cyberespace peut s’accompagner de certaines restrictions, notamment en ce qui concerne les utilisations sans visibilité telles que la Zero-Data Retention“, précise OpenAI.
Un accès restreint : qui peut l’utiliser ?
Ne cherchez pas GPT-5.4-Cyber sur votre interface ChatGPT habituelle : OpenAI refuse d’ouvrir ce modèle au grand public. Son accès est réservé à certaines personnes dans le cadre du programme Trusted Access for Cyber (TAC). À l’heure actuelle, le déploiement se fait de manière progressive et se limite à une poignée de chercheurs certifiés et d’organisations validées.
OpenAI devrait toutefois étendre l’accès à d’autres personnes, sans préciser de calendrier précis. “Nous étendons notre programme « Trusted Access for Cyber » (TAC) à des milliers de défenseurs individuels vérifiés et à des centaines d’équipes chargées de protéger les logiciels critiques.”, peut-on lire dans l’annonce.
En tant qu’utilisateur, vous pouvez demander un accès en accédant à cette page, tandis que les entreprises doivent compléter un formulaire spécifique.
Enfin, ce lancement opéré par OpenAI semble être une première réponse à Anthropic, qui a dévoilé récemment Claude Mythos.