- OpenAI a réduit de manière significative les ressources allouées à la sécurité de ses modèles d’IA : vendredi, le Financial Times a confirmé la rumeur qui circulait dans la Silicon Valley depuis quelques semaines.
- Les équipes de redteaming pour o3 n’auraient eu que quelques jours pour mener leurs évaluations.
- En parallèle, la firme de cybersécurité SentinelOne a montré qu’AkiraBot, un réseau de spam d’origine inconnue, a utilisé pendant des mois l’API d’OpenAI avec le modèle gpt-4o-mini pour générer des messages uniques,
- Akirabot a ciblé plus de 400 000 sites web entre septembre 2024 et janvier 2025, via des formulaires de contact et des widgets de chat, en contournant les Captcha grâce à ChatGPT.
- RÉACTIVITÉ. OpenAI,qui a immédiatement démenti les informations du Financial Times, a également révoqué le compte utilisateur d’AkiraBot après avoir été informée par SentinelOne, mais les abus ont tout de même perduré pendant au moins quatre mois, laissant planer un doute sur la réactivité, ou les moyens, de ses équipes.
- EN FILIGRANE : L’évolution d’AkiraBot. ChatGPT n’est pas le seul modèle d’IA disponible et les chercheurs de SentinelOne estiment que cette infrastructure modulaire pourrait être réutilisée pour des campagnes de phishing, de diffusion de malwares ou d’ingénierie sociale à grande échelle.
- À SURVEILLER : Le futur grand modèle d’OpenAI. o3, le modèle qui anime Deepsearch et qui devrait converger avec GPT-5, devrait être présenté cette semaine, d’après le FT, mais le journal n’exclut pas que le lancement soit reporté. Au cas où de nouveaux tests de sécurité s’avéreraient nécessaires.
OpenAI apprend le prix de la sécurité

Alors qu’o3 pourrait être lancé dès cette semaine, les polémiques gonflent autour d’OpenAI sur le redteaming et la réactivité de ses équipes de sécurité.