Failles dans ChatGPT : un rappel des défis de sécurité autour des secrets et accès dans le cloud et l’IA
« La vulnérabilité SSRF signalée dans la fonctionnalité Custom GPT d’OpenAI met en lumière la difficulté persistante de sécuriser les secrets, jetons et identifiants dans des environnements cloud complexes.
Les secrets exposés constituent l’une des principales causes de violations de données. Dans ce cas précis, la faille exploitait la frontière de confiance entre les actions externes d’une application d’IA et son environnement cloud interne. Cela souligne la nécessité d’une gestion rigoureuse des secrets, d’une séparation des privilèges et d’un contrôle d’accès strict dans les systèmes manipulant des données sensibles ou automatisant des tâches.
Cet exemple offre plusieurs enseignements pour les RSSI et les équipes cybersécurité.
Premièrement, il faut minimiser la confiance implicite dans la conception des API et valider rigoureusement les URL fournies par les utilisateurs afin de prévenir les accès latéraux fondés sur des attaques SSRF.
Deuxièmement, il est essentiel de mettre en œuvre le principe du moindre privilège et l’isolation des secrets : les jetons et identifiants ne doivent pas être accessibles aux composants non critiques ni exposés à des fonctions contrôlées par l’utilisateur.

Troisièmement, auditer et renouveler en continu les identifiants permet de réduire le risque d’exposition, même si un composant est compromis.
À mesure que les applications pilotées par l’IA s’intègrent davantage aux processus des organisations, la gestion des identités et des accès (IAM) doit évoluer en parallèle avec les contrôles de gestion des accès privilégiés (PAM), aussi bien pour les identités humaines que non humaines.
L’adoption d’une architecture zero trust et zero knowledge, où aucun système, utilisateur ou processus n’est considéré comme digne de confiance par défaut, est essentielle pour limiter le périmètre des vulnérabilités potentielles et renforcer la résilience au sein des écosystèmes cloud et IA. »




