Les coûts cachés de l'IA parallèle : pourquoi les contrôles d'accès et d'audit sont importants aujourd'hui

Pour les professionnels de la sécurité, l'IA est une arme à double tranchant. Il introduit de nouveaux vecteurs de risques, qu'il s'agisse de menaces internes, de risques liés à des tiers ou de campagnes de phishing plus sophistiquées. Mais elle améliore également les outils utilisés pour identifier et contenir les incidents. La chose la plus importante que vous puissiez faire pour vous orienter dans la direction que vous souhaitez est peut-être de comprendre quels outils d'IA existent dans votre environnement, qui les utilise et quelles données ils ingèrent.
C'est le principal point à retenir du rapport d'IBM sur le coût d'une violation de données en 2025. Sur la base de plus de trois mille entretiens avec des personnes issues de plus de six cents organisations, le rapport révèle un paysage industriel où le plus grand fossé se situe entre les entreprises qui ont une visibilité et un contrôle sur leurs déploiements d'IA, et celles qui n'en ont pas.
Commençons par les points positifs. Au cours de l'année écoulée, le coût moyen d'une violation de données a en fait diminué de 9 %, pour atteindre environ 4,4 millions de dollars. Cela est dû en grande partie à de fortes réductions du temps moyen d'intervention (MTTI) et du temps moyen de confinement (MTTC). Et l'IA y est pour beaucoup. Le rapport a révélé que les organisations qui ont largement utilisé l'IA dans le domaine de la sécurité ont réduit leur MTTI d'environ 80 jours, économisant en moyenne 1,9 million de dollars.
Mais si nous regardons l'autre côté de l'échelle, nous constatons que l'IA cause des problèmes tout en les résolvant. Treize pour cent, soit un peu plus d'une organisation sur huit, ont déclaré avoir été victimes d'une violation de données liée à l'IA. Parmi celles-ci, 60 % ont vu leurs données compromises et 31 % ont subi des interruptions opérationnelles.
L'IA fantôme était en grande partie à l'origine du problème. Vingt pour cent des entreprises ont déclaré avoir découvert l'IA fantôme dans leur environnement. Il est probable que beaucoup d'autres hébergent des outils d'IA sans le savoir et ne le découvriront que lorsque l'un d'entre eux provoquera un incident. Et bien sûr, car le rapport a également révélé que 63 % des organisations n'ont mis en place aucune politique de gouvernance en matière d'IA.
Ce n'est pas durable. Selon Suja Viswesan, vice-présidente des produits de sécurité et d'exécution d'IBM, l'IA va amplifier l'impact de toute faille dans les cyberdéfenses de votre organisation. Et en raison de l'augmentation rapide des risques liés à l'IA, les secteurs hautement réglementés ne sont plus les seuls à devoir maintenir une posture stricte en matière de sécurité des données. Tout le monde doit améliorer la sécurité des données, notamment en matière de chiffrement et de gestion des identités et des accès (IAM).
Tout commence par une découverte. Vous devez découvrir les principaux outils d'IA de votre environnement, et vous devez découvrir et classer les données qu'ils sont susceptibles d'ingérer. Sans cette étape cruciale, vous volez à l'aveugle.
Mais tu ne peux pas t'arrêter là. Tu dois utilisation sécurisée de l'IA, surveillant les instructions et les sorties en temps réel. Et vous devez être capable de lier les outils et les données d'IA à l'identité. L'accès humain aux outils d'IA doit respecter le principe du moindre privilège. Mais il en va de même pour l'accès de l'IA aux données sensibles. Les politiques IAM traditionnelles telles que les contrôles d'accès basés sur les rôles (RBAC) ne sont peut-être pas à la hauteur du défi que représente la sécurisation des identités non humaines (NIH). Au lieu de cela, des contrôles d'accès basés sur les attributs (ABAC) et des analyses avancées du comportement des utilisateurs et des entités (UEBA) peuvent être nécessaires pour contrôler les agents d'IA.
Chez Cyera, nous nous engageons à créer un monde dans lequel une IA sûre et fiable aide les entreprises à se développer, les communautés à prospérer et les individus à poursuivre leurs passions en toute sérénité. Cyera est l'entreprise de sécurité des données qui connaît la croissance la plus rapide au monde, car elle a été la première à résoudre le problème de la découverte rapide et à l'échelle des données des entreprises, et de leur classification précise.
Nous ne nous sommes pas contentés de protéger les données au repos, mais nous avons utilisé notre conception native de l'IA pour résoudre les problèmes de DLP. Découverte et protection des données en transit avec une précision inégalée, L'Omni DLP de Cyera réduit considérablement le nombre de faux positifs, permettant ainsi aux équipes de sécurité de se libérer de la lassitude liée aux alertes et de consacrer plus de temps au triage des problèmes réellement importants.
Maintenant, nous montons à nouveau la barre. Avec Cyera's Gardien de l'IA, les entreprises peuvent adopter les outils d'IA en toute confiance, qu'il s'agisse d'une IA intégrée comme Microsoft Copilot, d'outils tiers tels que ChatGPT ou d'applications d'IA développées en interne sur des plateformes comme Amazon Bedrock.
AI Guardian comprend deux produits : AI Security Posture Management (AISPM) et AI Runtime Protection. Le premier identifie tous les outils d'IA de votre environnement, les données auxquelles ces outils accèdent et les identités qui les utilisent. Le second surveille l'utilisation de l'IA et protège les données sensibles en temps réel, en bloquant les invites abusives et en empêchant les fuites de données via les sorties de l'IA. Il enregistre également les interactions de l'IA pour aider les équipes de sécurité à enquêter sur les dérives politiques, les abus ou les hallucinations.
AI Guardian aide les organisations à résoudre le problème de l'IA fantôme et veille à ce que votre maturité en matière d'IA corresponde à vos aspirations en matière d'IA. Pour découvrir comment Cyera peut vous aider à faire sortir l'IA de l'ombre, planifiez une démonstration dès aujourd'hui sur cyera.com.
Obtenez une visibilité complète
avec notre évaluation des risques liés aux données.

.png)

