Table des matières

DSPM vs Outils Traditionnels de Découverte de Données

DSPM vs Outils Traditionnels de Découverte de Données

La quantité de données générées, utilisées et stockées atteindra 180 zettaoctets d'ici 2025. Ce chiffre est impressionnant, d'autant plus que 59 % des responsables de la sécurité déclarent avoir du mal à garder une vue d'ensemble de leurs données.

Pouvez-vous découvrir et classifier un patrimoine de données en croissance avec des outils et processus manuels ?

Dans une enquête menée auprès de responsables de la sécurité, la réponse est probablement non. 47 % déclarent que les processus manuels existants pour la sécurité des données sont lourds, tandis que 39 % estiment que les technologies héritées sont insuffisantes pour répondre aux exigences actuelles.

Les technologies traditionnelles de découverte et de classification des données qui s'appuient sur des connecteurs configurés manuellement, une classification basée sur des règles et des efforts initiés par l'homme sont en inadéquation significative avec les volumes et la variété considérables de données que détiennent les organisations.

Ci-dessous, nous examinons pourquoi il est temps de laisser les outils traditionnels de découverte de données dans le passé et pourquoi il est temps d'adopter la Gestion de la Posture de Sécurité des Données (DSPM).

7 problèmes liés aux outils traditionnels de découverte et de classification des données

Lorsque nous parlons des « outils traditionnels de découverte de données », nous faisons référence à des technologies de découverte et de classification des données qui nécessitent des connexions manuelles aux bases de données, utilisent des processus de balayage lents et reposent sur une classification basée sur des règles, ce qui prend des mois, voire des années, à mettre en œuvre.

Ce sont les types d'\"outils de découverte intelligente des données\" qui sont arrivés sur le marché au milieu des années 2010. Ils n'ont pas la capacité de suivre le rythme à l'ère du cloud, où les données sont constamment créées, copiées et déplacées. Au moment où un outil traditionnel termine l'analyse d'un entrepôt de données, les données ont déjà changé plusieurs fois.

Malheureusement, de nombreuses technologies actuelles intègrent des fonctionnalités de découverte et de classification des données qui utilisent cette approche traditionnelle, même si elles sont commercialisées comme étant « automatisées ». Ces technologies comprennent la DLP (prévention contre la perte de données), la confidentialité des données, les catalogues de données, la sécurité des données héritée, et même la gestion de la posture de sécurité dans le cloud (CSPM).

Plus précisément, ces méthodes traditionnelles de découverte et de classification des données ne répondent pas aux défis de sécurité modernes pour les raisons suivantes :

1. Constatations incomplètes

Les outils traditionnels ont une capacité limitée à découvrir différents types de données.

Ces outils ne sont pas conçus pour découvrir les « inconnues inconnues ». Les administrateurs qui utilisent ces outils doivent dresser la liste des bases de données qu'ils prévoient d'analyser et obtenir les identifiants d'accès pour chacune d'elles. Si les administrateurs ne connaissent pas l'existence d'une base de données, celle-ci ne sera pas analysée et les données qu'elle contient ne seront pas découvertes.

Certains de ces outils sont conçus pour un seul type de données, comme les données non structurées mais pas les données structurées. Par conséquent, les équipes qui s'appuient sur ces outils peuvent se retrouver sans visibilité sur 20 % des données dans leur écosystème de données.

Les outils traditionnels ne sont pas capables d’interpréter les données propres à une entreprise. Ces types de données ne suivent pas un schéma spécifique et prédéfini que ces outils utilisent pour identifier les données. Par exemple, un « identifiant employé » peut être unique et différent selon les organisations. Certaines peuvent utiliser 10 chiffres pour ce numéro, d’autres peuvent y ajouter un mélange de symboles, de chiffres et de lettres, ce qui complique la compréhension par des règles statiques.

2. Processus de mise en œuvre prolongés et techniques

L'implémentation peut impliquer l'installation d'agents et la configuration manuelle d'un mélange de matériel et de logiciel, selon l'emplacement des données. Cela peut signifier des mois de déploiement et de temps de configuration avant de constater une quelconque valeur.

Ajoutez à cela le fait que la qualité des connecteurs peut varier selon les sources. Pour effectuer une analyse de certaines sources, les administrateurs doivent faire appel à des développeurs pour établir une connexion. Cela signifie plus de temps et de ressources nécessaires pour initier le processus d'analyse.

3. Classification manuelle chronophage et imprécise

Les processus de classification traditionnelle des données reposent sur des expressions régulières (Regex) pour étiqueter les données. Les Regex nécessitent que des spécialistes consacrent beaucoup de temps à élaborer puis à valider des règles. Il n’est pas rare que des organisations disposent de spécialistes dédiés à la création de règles regex. Ces spécialistes peuvent passer des semaines à construire des dizaines de règles regex pour un seul classificateur.

Les centaines de classificateurs prédéfinis proposés par ces technologies peuvent vous faire gagner du temps en vous évitant de créer vos propres règles, mais ils produisent des résultats largement inexacts. Il n'est pas rare que des équipes adoptent ces classificateurs prédéfinis, pour se rendre compte ensuite que la majorité des résultats sont erronés et nécessitent une validation humaine.

Certaines technologies exigent que les utilisateurs étiquettent manuellement les données. Tout système d'étiquetage appliqué manuellement ne reflète au mieux qu'un instant donné, et au pire, conduit inévitablement à des faux négatifs susceptibles de provoquer des violations.

4. Manque d'évolutivité

Les limites de performance des outils traditionnels font qu'ils peuvent mettre des jours à analyser un seul datastore, à moins de limiter la taille des analyses. Cependant, cela ne fonctionne que si le datastore analysé est petit et que ses données sont uniformément structurées. Un outil qui utilise des analyses limitées pour examiner des datastores plus grands ou plus complexes, contenant des données non structurées, finira par fournir des résultats peu fiables. Ce n'est pas une approche qui pourra évoluer avec l'augmentation des volumes de données.

5. Manque de contexte sur les risques

Les outils traditionnels ne comblent pas le manque d'informations dont les équipes de sécurité ont besoin pour gérer les risques : comprendre le contexte qui expose les données à des risques accrus de sécurité et de confidentialité.

Le contexte concernant la sécurité des données vous indique si des données confidentielles, restreintes ou autrement sensibles sont exposées en clair, violant ainsi les règles de sécurité ou de confidentialité des données. Le contexte concernant le rôle du sujet des données vous informe s'il s'agit d'un client ou d'un employé, afin que vous sachiez comment traiter ces données. Le contexte peut également vous indiquer si les données appartiennent à un résident d'Allemagne par exemple, afin que vous puissiez respecter les exigences de souveraineté des données du RGPD. De nombreux outils traditionnels prétendent que les métadonnées ou les balises cloud fournissent du contexte, mais lorsque les métadonnées et les balises sont appliquées manuellement ou dérivées de la correspondance de modèles, la compréhension des données est basée sur des hypothèses qui induisent les équipes en erreur.

6. Opinions dépassées

Les processus de classification basés sur des règles utilisés par les outils traditionnels ne fournissent que des instantanés statiques de vos données. Lorsque les données évoluent, cette vue reste inchangée. Cela signifie que vous ne disposez que de vues obsolètes des données, même lorsque les niveaux de risque associés à ces données changent.

Lorsque la découverte ou la classification des données n'est pas en mesure d'identifier les changements dans les données, les organisations ne peuvent pas appliquer les contrôles les plus appropriés aux données, par exemple, limiter l'accès ou chiffrer les données au repos.

7. Coûts opérationnels élevés

Les technologies qui reposent sur la découverte de données traditionnelle peuvent rapidement engendrer des coûts élevés rien que pour l'utilisation de l'outil. Pour obtenir une compréhension précise des données, ces outils nécessitent de scanner de grands volumes de données. Lorsque les fournisseurs facturent en fonction du volume, cela peut rendre les coûts de scan imprévisibles, entraînant un décalage entre les objectifs de sécurité et de maîtrise des coûts.

L'avantage DSPM

La gestion de la posture de sécurité des données est l’alternative automatisée aux outils traditionnels. Cyera propose une plateforme alimentée par l’IA avec DSPM pour vous aider à comprendre et à sécuriser vos données sensibles.

L'approche de Cyera présente plusieurs avantages par rapport à la technologie traditionnelle en :

  • Connexion aux magasins de données via des API cloud natives, sans avoir à dépendre d'agents
  • Identifier divers types de données, y compris les données structurées et non structurées, les données connues et inconnues, ainsi que des classes de données uniques
  • Couvrant les données à travers différents modèles de services sur site et cloud (IaaS, SaaS, PaaS/DBaaS)
  • Fournir de la valeur en quelques jours et semaines, au lieu de mois et d'années 
  • Fournir une visibilité continue et une identification dynamique des modifications de données 
  • Assurer une classification hautement précise grâce à la technologie alimentée par l'IA
  • Enrichir la compréhension des données grâce au contexte sur ce que représentent les données 

DSPM contre les outils traditionnels de découverte et de classification des données

Illustration représentant DSPM par rapport aux outils traditionnels de découverte et de classification des données

Votre solution traditionnelle peut-elle relever ces 9 défis ?

Dans un autre article de blog, nous explorons les capacités dont les organisations ont désormais besoin pour prévenir et réagir aux expositions de données. Si vous utilisez déjà un outil de gestion des données traditionnel, il vaut la peine de vous demander s'il peut :

  1. Découvrez automatiquement vos données multi-cloud et sur site sans agents.
  2. Obtenez des résultats instantanés, même dans des endroits ou pour des données dont vous ne saviez pas que vous disposiez.
  3. Affichez le contexte concernant les données, comme le lieu de résidence de la personne concernée (c'est-à-dire si elle est soumise au RGPD ou au CCPA) et si les données sont synthétiques.
  4. Afficher les risques d'exposition des informations personnelles (PII), en fonction de la combinaison et de la proximité des données.
  5. Fournissez une source unique de référence pour la supervision des données destinée aux équipes de sécurité.
  6. Affichez des informations intelligentes grâce à l'IA, comme les raisons pour lesquelles un utilisateur a accès à certaines données.
  7. Fournissez-vous les informations dont vous avez besoin pour prioriser les questions de sécurité des données ou de conformité.
  8. Trouvez les données connues et inconnues.
  9. Adaptez-vous à la croissance de vos données pour analyser des pétaoctets de données rapidement.

Si la réponse à l'une de ces questions est négative, il est temps de planifier une démo et de découvrir comment un DSPM cloud-native de Cyera peut vous offrir la visibilité sur les données dont vous avez besoin pour sécuriser vos informations.

Découvrez Cyera

Pour protéger votre dataverse, vous devez d'abord découvrir ce qu'il contient. Laissez-nous vous aider.

Demandez une démo →
Decorative