Comprendre les menaces qui pèsent sur les applications de l'IA générative dans le cloud et savoir comment les contrer est essentiel. C’est ce qu’explique Kennedy Torkura, cofondateur et directeur technique de Mitigant, partenaire de Sopra Steria Ventures.
L'IA générative transforme nos vies dans beaucoup de domaines, notamment au niveau professionnel. Les entreprises exploitent de plus en plus ses capacités pour améliorer leur productivité, innover et obtenir un avantage concurrentiel. Mais son utilisation n’est pas à la portée de toutes les entreprises.
Pour répondre à ce besoin, les fournisseurs de services cloud (CSP) proposent des offres d’"IA générative en tant que service" (GenAI-as-a-Service), comme Amazon Bedrock, Azure AI Services ou Google Vertex AI.
Ces services facilitent grandement l’adoption de l'IA générative en simplifiant le développement, le déploiement et la maintenance des applications, sans exiger de lourdes infrastructures ou compétences techniques. Mais cela n’empêche pas les entreprises de faire face à d’autres défis, notamment en matière de sécurité et de conformité (EU AI Act).
Les principales menaces pour les applications de l'IA générative dans le cloud
Piratage de modèles LLM (LLMJacking)
Le piratage LLM consiste à voler des identifiants cloud (des clés API AWS par exemple) pour accéder illégalement à des modèles de langage étendus (LLM). Les cybercriminels exploitent ensuite ces accès pour effectuer des opérations coûteuses, telles que des requêtes massives aux modèles. Cela peut engendrer des factures allant jusqu’à 46 000 dollars par jour pour les victimes.
Un rapport récent de KrebsonSecurity, basé sur une enquête de Permiso Security, montre que ce type d’attaque est très lucratif. Une organisation criminelle a déjà généré jusqu’à 1 million de dollars en revenus annuels grâce à des chatbots frauduleux. Et pourtant, cette technique est toute récente, elle a été détectée pour la première fois cette année par l’équipe de recherche de Sysdig.
Empoisonnement des données
Les attaques par empoisonnement des données visent à injecter des informations malveillantes ou incohérentes dans les bases de données d’entraînement des modèles et donc, à fausser les résultats produits par ces derniers.
Les modèles LLM fournis par les CSP sont généralement préentraînés, mais il faut ensuite les personnaliser en y intégrant des données de formation supplémentaires fournies par les entreprises. Elles sont souvent stockées dans des environnements exposés comme des seaux S3. Ces espaces sont vulnérables à des attaques de ce type.
Exfiltration des données
Les données utilisées pour entraîner les modèles d’IA générative sont particulièrement recherchées par les attaquants. En récupérant ces informations, ils peuvent accéder à des secrets commerciaux ou des éléments de propriété intellectuelle, et donc obtenir un avantage concurrentiel significatif.
Attaques par injection de requêtes
Ces attaques utilisent des requêtes malveillantes qui manipulent le modèle LLM et provoquent des résultats inattendus, comme la divulgation d’informations sensibles. Bien que ces attaques visent principalement la couche applicative, elles peuvent également affecter l’infrastructure cloud, en particulier lorsque les applications sont déployées à grande échelle.
Vulnérabilités des modèles
Lorsque les modèles d’IA générative sont gérés par les clients et non les fournisseurs, ils deviennent plus exposés. Ils sont généralement stockés dans des environnements plus exposés comme les registres de conteneurs ou les clusters Kubernetes et peuvent faire l’objet d’attaques ciblées répertoriées dans MITRE ATLAS.
Mauvaise configuration du cloud
Les failles de sécurité dans le cloud sont souvent dues à des erreurs de configuration : une gestion inadéquate des identités et des accès (IAM), l’absence de chiffrement, une mauvaise gestion des clés d’accès et secrets… Les applications d’IA générative sont particulièrement vulnérables à ces enjeux.
Solutions pour protéger les applications de l'IA générative
Plusieurs menaces contre les applications d'IA générative dans le cloud sont bien connues, et des stratégies d'atténuation des risques ont été mises en place. Cependant, il est important de rester innovant car, qui dit IA dit spécificités et évolution des menaces. Examinons deux de ces stratégies essentielles pour sécuriser les applications d'IA générative dans le cloud.
Gestion de la posture de sécurité de l’IA (AISPM)
Des outils comme la gestion de posture de sécurité pour le cloud (CSPM) ou les données (DSPM) existent, mais ils ne répondent pas aux besoins spécifiques de l’IA. La gestion de posture de sécurité de l’IA (AISPM) comble cette lacune en vérifiant les configurations, en appliquant les meilleures pratiques et en répondant aux exigences réglementaires telles que l’EU AI Act.
Tests d’intrusion spécifiques à l’IA (AI Red Teaming)
Bien que l’AISPM soit utile, elle ne suffit pas à garantir une sécurité complète. Les tests d’intrusion, réalisés par des "équipes rouges" spécialisées, permettent de valider que les applications de l'IA générative ne produisent pas de contenu biaisé, toxique ou incorrect. Ces tests sont essentiels pour respecter les lignes directrices en matière d’IA responsable.