Les menaces liées à l’utilisation de la GenAI dans le cloud

par Kenedy Torkura - cofondateur et directeur technique de Mitigant, partenaire de Sopra Steria Ventures
| minutes de lecture

Comprendre les menaces qui pèsent sur les applications de l'IA générative dans le cloud et savoir comment les contrer est essentiel. C’est ce qu’explique Kennedy Torkura, cofondateur et directeur technique de Mitigant, partenaire de Sopra Steria Ventures. 

L'IA générative transforme nos vies dans beaucoup de domaines, notamment au niveau professionnel. Les entreprises exploitent de plus en plus ses capacités pour améliorer leur productivité, innover et obtenir un avantage concurrentiel. Mais son utilisation n’est pas à la portée de toutes les entreprises. 

Pour répondre à ce besoin, les fournisseurs de services cloud (CSP) proposent des offres d’"IA générative en tant que service" (GenAI-as-a-Service), comme Amazon Bedrock, Azure AI Services ou Google Vertex AI.  
Ces services facilitent grandement l’adoption de l'IA générative en simplifiant le développement, le déploiement et la maintenance des applications, sans exiger de lourdes infrastructures ou compétences techniques. Mais cela n’empêche pas les entreprises de faire face à d’autres défis, notamment en matière de sécurité et de conformité (EU AI Act). 

Les principales menaces pour les applications de l'IA générative dans le cloud 

Piratage de modèles LLM (LLMJacking) 

Le piratage LLM consiste à voler des identifiants cloud (des clés API AWS par exemple) pour accéder illégalement à des modèles de langage étendus (LLM). Les cybercriminels exploitent ensuite ces accès pour effectuer des opérations coûteuses, telles que des requêtes massives aux modèles. Cela peut engendrer des factures allant jusqu’à 46 000 dollars par jour pour les victimes. 

Un rapport récent de KrebsonSecurity, basé sur une enquête de Permiso Security, montre que ce type d’attaque est très lucratif. Une organisation criminelle a déjà généré jusqu’à 1 million de dollars en revenus annuels grâce à des chatbots frauduleux. Et pourtant, cette technique est toute récente, elle a été détectée pour la première fois cette année par l’équipe de recherche de Sysdig. 

Empoisonnement des données 

Les attaques par empoisonnement des données visent à injecter des informations malveillantes ou incohérentes dans les bases de données d’entraînement des modèles et donc, à fausser les résultats produits par ces derniers. 

Les modèles LLM fournis par les CSP sont généralement préentraînés, mais il faut ensuite les personnaliser en y intégrant des données de formation supplémentaires fournies par les entreprises. Elles sont souvent stockées dans des environnements exposés comme des seaux S3. Ces espaces sont vulnérables à des attaques de ce type. 

Exfiltration des données 

Les données utilisées pour entraîner les modèles d’IA générative sont particulièrement recherchées par les attaquants. En récupérant ces informations, ils peuvent accéder à des secrets commerciaux ou des éléments de propriété intellectuelle, et donc obtenir un avantage concurrentiel significatif. 

Attaques par injection de requêtes 

Ces attaques utilisent des requêtes malveillantes qui manipulent le modèle LLM et provoquent des résultats inattendus, comme la divulgation d’informations sensibles. Bien que ces attaques visent principalement la couche applicative, elles peuvent également affecter l’infrastructure cloud, en particulier lorsque les applications sont déployées à grande échelle. 

Vulnérabilités des modèles 

Lorsque les modèles d’IA générative sont gérés par les clients et non les fournisseurs, ils deviennent plus exposés. Ils sont généralement stockés dans des environnements plus exposés comme les registres de conteneurs ou les clusters Kubernetes et peuvent faire l’objet d’attaques ciblées répertoriées dans MITRE ATLAS. 

Mauvaise configuration du cloud 

Les failles de sécurité dans le cloud sont souvent dues à des erreurs de configuration : une gestion inadéquate des identités et des accès (IAM), l’absence de chiffrement, une mauvaise gestion des clés d’accès et secrets… Les applications d’IA générative sont particulièrement vulnérables à ces enjeux. 

Solutions pour protéger les applications de l'IA générative 

Plusieurs menaces contre les applications d'IA générative dans le cloud sont bien connues, et des stratégies d'atténuation des risques ont été mises en place. Cependant, il est important de rester innovant car, qui dit IA dit spécificités et évolution des menaces. Examinons deux de ces stratégies essentielles pour sécuriser les applications d'IA générative dans le cloud. 

Gestion de la posture de sécurité de l’IA (AISPM) 

Des outils comme la gestion de posture de sécurité pour le cloud (CSPM) ou les données (DSPM) existent, mais ils ne répondent pas aux besoins spécifiques de l’IA. La gestion de posture de sécurité de l’IA (AISPM) comble cette lacune en vérifiant les configurations, en appliquant les meilleures pratiques et en répondant aux exigences réglementaires telles que l’EU AI Act. 

Tests d’intrusion spécifiques à l’IA (AI Red Teaming) 

Bien que l’AISPM soit utile, elle ne suffit pas à garantir une sécurité complète. Les tests d’intrusion, réalisés par des "équipes rouges" spécialisées, permettent de valider que les applications de l'IA générative ne produisent pas de contenu biaisé, toxique ou incorrect. Ces tests sont essentiels pour respecter les lignes directrices en matière d’IA responsable. 

Search

cybersecurity

cloud

artificial-intelligence

Contenus associés

SNCF propulse sa transformation numérique via une adoption multi-cloud massive, industrielle et sélective

Le Programme Renouveau du Socle Numérique de la SNCF intègre un volet Cloud visant à accélérer la transformation digitale via l’émergence de nouvelles applications IoT, Big Data/Analytics tout en maitrisant les coûts.

Schréder éclaire l'ensemble de son système informatique avec des services de Cloud

Pour effectuer sa migration dans le Cloud et opérer l'ensemble de son infrastructure, de ses espaces de travail numérique et de sa cybersécurité au niveau mondial, Schréder a de nouveau choisi Sopra Steria, son précédent prestataire de services.

Sopra Steria reconnu parmi les leaders en matière de services de développement agile et DevOps par NelsonHall

Le rapport NEAT de NelsonHall reflète la capacité de Sopra Steria à offrir des bénéfices immédiats et à répondre aux besoins futurs de ses clients. Cette évaluation portait sur les principaux fournisseurs de services de développement agile et DevOps à l’échelle internationale.