Table des matières
Overview

Création d'une IA fiable : comparaison du guide d'assurance MITRE AI, du RMF NIST AI et de l'AICM de la CSA

Création d'une IA fiable : comparaison du guide d'assurance MITRE AI, du RMF NIST AI et de l'AICM de la CSA

Alors que les systèmes d'IA sont de plus en plus intégrés dans les opérations des entreprises, la discussion est passée de l'opportunité d'adopter l'IA à la manière de le faire de manière responsable. Les organisations sont aujourd'hui confrontées à de nouveaux défis : comment garantir que les systèmes d'IA sont sécurisés, explicables et conformes à nos valeurs et à nos obligations réglementaires ? Trois des cadres les plus influents de l'écosystème des risques liés à l'IA : le MITRE AI Assurance Guide, le NIST AI Risk Management Framework (RMF) et le CSA AI Control Management (AICM) offrent des réponses complémentaires à cette question.

Chaque cadre aborde le problème d'un point de vue différent. Le guide d'assurance MITRE AI est ancré dans les pratiques d'assurance technique. Il s'agit d'un manuel pratique destiné aux ingénieurs en IA, aux équipes rouges et aux testeurs, conçu pour évaluer si les systèmes d'IA sont robustes, résilients et vérifiables. Il est profondément inspiré par des scénarios de menaces réels, en particulier ceux documentés dans le MITRE ATLAS, et se concentre principalement sur les tests de modèles, la robustesse contradictoire et la surveillance opérationnelle. Fait important, MITRE souligne risques liés à l'intégrité, à la provenance et à la manipulation des données en tant que principaux modes de défaillance susceptibles de dégrader les performances du modèle ou d'introduire un comportement contradictoire, mettant en évidence le rôle fondamental de la sécurité des données dans la garantie de l'IA.

En revanche, le RMF sur l'IA du NIST fournit une base stratégique pour la gestion des risques liés à l'IA au sein d'une organisation. Développé dans le cadre d'un processus multipartite, le cadre introduit quatre fonctions de haut niveau (cartographier, mesurer, gérer et gouverner) pour aider les organisations à définir leur posture face aux risques liés à l'IA, à identifier les dommages potentiels, à évaluer l'impact et à intégrer les principes d'IA responsable dans la gouvernance. Dans ce modèle, la sécurité des données est considérée à la fois comme un facteur fondamental et comme une source de risque, répondant à des préoccupations telles que les violations de la confidentialité, les accès non autorisés, la qualité des données et la gestion du cycle de vie. Le RMF aide les organisations à cartographier les dépendances des données et à s'assurer que des contrôles sont en place pour atténuer les risques à chaque étape, de la collecte au déploiement.

Si le NIST décrit le « pourquoi » et le MITRE indique le « comment », alors le cadre de gestion du contrôle de l'IA de la CSA fournit le « quoi ». Le CSA AICM est un catalogue robuste de contrôles spécialement conçus pour les systèmes d'IA, y compris des garanties techniques, procédurales et au niveau de la gouvernance. Ces contrôles couvrent l'ensemble de la pile d'IA, des pipelines de données et des environnements de formation au déploiement de modèles et aux intégrations tierces. Le framework AICM comprend des domaines de contrôle spécifiques dédiés à classification des données, découverte, généalogie, contrôles d'accès et validation de l'intégrité, ce qui en fait la plus prescriptive des trois lorsqu'il s'agit de mettre en œuvre des pratiques de sécurité des données de niveau entreprise pour les systèmes d'IA.

Bien que la portée et la structure de ces cadres varient, il ne s'agit pas de philosophies concurrentes. Au contraire, ils se renforcent mutuellement. Un programme de gouvernance de l'IA mature pourrait commencer par le RMF du NIST pour définir les objectifs de l'entreprise et la tolérance au risque, puis utiliser l'AICM de la CSA pour mettre en œuvre des garanties concrètes, et appliquer le guide d'assurance MITRE AI pour tester ces systèmes sous pression dans des conditions réelles. Ce faisant, les organisations peuvent aller au-delà des principes de haut niveau et adopter un état d'assurance actif et mesurable, en particulier dans les domaines où la sécurité des données est essentielle au maintien de la confiance, de la confidentialité et de la fiabilité du système.

Cadres de sécurité/assurance de l'IA fiables

La fiabilité de l'IA n'est pas le produit d'une politique à elle seule et ne peut pas être garantie par des tests techniques isolés. Elle est le résultat d'une gouvernance réfléchie à plusieurs niveaux qui couvre l'intention stratégique, le contrôle opérationnel et l'intégrité technique, avec la sécurité des données au cœur. En comprenant comment le MITRE, le NIST et la CSA s'intègrent, les responsables de la sécurité peuvent mieux gérer la complexité des risques liés à l'IA et créer des systèmes qui suscitent la confiance dès la conception.

Découvrez Cyera

Pour protéger votre dataverse, vous devez d'abord découvrir ce qu'il contient. Laissez-nous vous aider.

Demandez une démo →
Decorative