83% nutzen KI; nur 13% haben Einblick — Cyeras State of AI Data Security Report 2025

CyberSecurity Insider befragten in Zusammenarbeit mit Cyera Research Labs, der Forschungsabteilung für Daten- und KI-Sicherheit von Cyera, mehr als 900 IT-Führungskräfte, um die Beweise zu liefern, nach denen die Kunden immer wieder gefragt haben.

Wichtige Erkenntnisse:

  • 83% der Unternehmen nutzen bereits KI — doch nur 13% geben an, dass sie genau wissen, wie sie mit ihren Daten umgehen.
  • 76% geben an, dass autonome KI-Agenten am schwierigsten zu schützen sind, und nur 9% überwachen KI-Aktivitäten in Echtzeit.
  • Kontrollverzögerungen: 66 Prozent haben festgestellt, dass KI zu oft auf sensible Daten zugreift, während nur 11 Prozent riskante Aktivitäten automatisch blockieren können.

Die erste Warnung kam nicht von einem SIEM. Sie kam von einem Vertriebsleiter, der fragte, warum ein KI-Copilot „auf magische Weise“ ein Preisdeck finden könnte, das er nicht kennen sollte. Kein Exploit. Kein Zero-Day. Nur Standardzugriff, fehlende Leitplanken und niemand beobachtet die Eingabeaufforderungsebene.

Diese Geschichte tauchte im State of AI Data Security Report 2025 immer wieder auf: KI ist bereits ein fester Bestandteil der täglichen Arbeit, aber die Kontrollen, die den Schutz der Daten gewährleisten, haben nicht aufgeholt. Das Ergebnis ist, dass die Bereitschaftslücken groß sind, die Aufsicht gering ist und sie sich genau an den Rändern vergrößert, die Angreifer und Unfälle lieben.

Von Fragen zu Beweisen: Warum (und wie) wir die Umfrage durchgeführt haben

Die Kunden stellten immer wieder dieselben Fragen: Wo stehen wir im Vergleich zu Mitbewerbern? Welche Leitplanken gehören eigentlich zum Standard? Wie messen wir die Bereitschaft? Es gab keine neutrale, branchenübergreifende Ausgangsbasis. Also, in Zusammenarbeit mit Cybersicherheits-Insider, haben wir eine strukturierte Multiple-Choice-Umfrage durchgeführt von 921 IT- und Sicherheitsexperten aller Branchen und Größen (CISOs, Sicherheitsverantwortliche, Architekten, SOC-Leiter, Rollen im Bereich Data Governance). Die Ergebnisse sind statistisch robust (± 3,2% bei 95% CI). Wir konzentrierten uns auf Akzeptanz und Reifegrad, Sichtbarkeit und Überwachung, Kontrollen an der Prompt-/Agentenebene, Identität und Zugriff für KI sowie auf Governance und Einsatzbereitschaft, abgestimmt auf OWASP Top 10 für LLM-Anwendungen.

Was wir gefragt haben (und warum)

Wir wollten wissen, ob KI mit der gleichen Strenge gesteuert wird, die wir bei Benutzern, Systemen und Daten anwenden. Also fragten wir nach:

  • Wo KI lebt (Tools, Modelle und Workflows)
  • Welche Sichtbarkeit gibt es (Protokolle, Echtzeitsignale, Überprüfbarkeit)
  • Welche Steuerelemente sind aktiv (Aufforderungsfilter, Ausgabeschwärzung, automatisches Blockieren)
  • So wird der Zugriff gewährt (KI als erstklassige Identität oder „nur ein weiterer Nutzer“)
  • Wem gehört die Regierungsführung (und ob die Politik dem Beweis entspricht)

Das sagen die Daten

Adoption übertrifft Kontrolle. KI ist Mainstream-83% benutze es bei der täglichen Arbeit — aber nur 13% geben an, dass sie einen guten Überblick darüber haben, wie es mit Unternehmensdaten umgeht. Die meisten Teams sind noch dabei Piloten oder“aufstrebende“ Reife, aber die Nutzung umfasst bereits Inhalte/Wissen, Arbeit und Zusammenarbeit. So skalieren blinde Flecken.

Das Risiko konzentriert sich an den Rändern. Das Vertrauen ist am höchsten, wenn KI in vertrauten SaaS vergraben ist. Es bricht zusammen, wenn Autonomie oder öffentliche Aufforderungen ins Spiel kommen. 76% Mitspracherecht autonome Agenten sind am schwersten zu sichern; 70% Fahne externe Eingabeaufforderungen zu öffentlichen LLMs. Fast ein Viertel (23%) haben nein Eingabeaufforderungs- oder Ausgabesteuerungen überhaupt. Das ist kein Modellfehler, das ist ein Politikfehler an der Schnittstelle.

KI ist eine neue Identität, die wie eine alte behandelt wird. Nur 16% behandeln Sie KI als eigene Identitätsklasse mit speziellen Richtlinien. 21% gewähren Sie standardmäßig einen breiten Datenzugriff. 66% haben bereits beobachtet, wie KI zu häufig auf Informationen zugreift (oft, nicht selten). Und obwohl Least-Privilegien an Folgendes gebunden sein sollten Datenklassifizierung nur in Echtzeit 9% sagen, dass ihre Datensicherheit und Identitätskontrollen für KI wirklich integriert sind.

KI-Governance hinkt der Realität hinterher. Nur 7% einen eigenen KI-Governance-Ausschuss haben und nur 11% fühlen Sie sich voll und ganz auf die neue KI-Regulierung vorbereitet. Logs sind zu oft nach dem Vorfall Artefakte; automatisches Blockieren existiert nur in 11% von Programmen. Mit anderen Worten: Wir beobachten im Nachhinein und setzen es von Hand durch.

Erkenntnisse für CISOs, Architekten und Datenmanager

Wenn Sie KI wie eine App behandeln, verpassen Sie das eigentliche Risiko. Wenn du sie wie einen Menschen behandelst, übertriffst du sie. Wenn Sie die Eingabeaufforderungs- und Ausgabeebene ignorieren, werden Sie das Leck nie sehen.

Hier ist der pragmatische Weg in die Zukunft:

  1. Instrument aus dem ersten Piloten
    Einschalten Entdeckung von KI-Tools/Modellen, zentral Protokollierung von Aufforderung/Ausgabe, und Echtzeit Anomalie-Signale (Exil-Versuche, Jailbreaks, übermäßiger Konsum). Machen Sie keine Staatsschulden, für die Sie später zahlen müssen.
  2. Verhärten Sie die Schnittstelle
    Standardeinstellung Eingabefilterung und Redaktion der Ausgabe an Gateways. Behalten Gültigkeitsbereiche für Agenten eng eingrenzen, Genehmigungen für Autonomie erfordern und durchsetzen Ratenbegrenzungen und Kill-Switches. Zielen Sie auf automatisches Blockieren wo die Risikomuster klar sind.
  3. Machen Sie KI zu einer erstklassigen Identität
    Stellen Sie KI einen eigenen Identitätstyp und Lebenszyklus zur Verfügung. Durchsetzen Least-Privilegien, die an Datenklassifizierung und Kontext gebunden sind, kontinuierlich — nicht vierteljährlich. Überprüfen Sie Gültigkeitsbereiche und lassen Sie sie ablaufen, wie Sie es bei Produktionstoken tun würden.
  4. Verankern Sie Regierungsführung an Beweisen
    Benennen Sie einen benannten Eigentümer für KI-Governance. Ordnen Sie Richtlinien Protokollen, Entscheidungen und Ergebnissen zu, die Sie tatsächlich anzeigen können (DPIAs/TRAs, falls zutreffend). Verfolgen Sie Kennzahlen auf Vorstandsebene: Reichweite, Auto-Block-Rate, Überzugriffsrate und Zeit bis zur Erkennung/Eindämmung von Vorfällen auf der Prompt-Ebene.

Wir stellen vor: Cyera Research Labs (und was kommt als Nächstes)

Dieser Beitrag wird eingeweiht Cyera-Forschungslabore-unser Forschungszweig widmet sich der klaren, datengestützten Beratung an der Schnittstelle von AI und Datensicherheit. Erwarten Sie präzise Briefings, schnell reagierende Analysen, wenn sich die Situation ändert, und praktische Playbooks, die Sie in die Produktion umsetzen können. Wenn Sie den nächsten Bericht wünschen, teilen Sie uns dies mit. Wir teilen Ihnen Benchmarks und Leitplanken mit, die Sie am Montag verwenden können.

Letztes Wort: KI wartet nicht darauf, dass die Regierungsführung aufholt. Die Führer, die gewinnen, werden nicht die Lautesten sein — sie werden diejenigen sein, die es können beweisen Sichtbarkeit, Eindämmung und geringste Privilegien für nichtmenschliche Akteure, ab sofort.

Lesen Sie die Bericht zum Stand der KI-Datensicherheit 2025.

Download Report

83% nutzen KI; nur 13% haben Einblick — Cyeras State of AI Data Security Report 2025

CyberSecurity Insider befragten in Zusammenarbeit mit Cyera Research Labs, der Forschungsabteilung für Daten- und KI-Sicherheit von Cyera, mehr als 900 IT-Führungskräfte, um die Beweise zu liefern, nach denen die Kunden immer wieder gefragt haben.

Wichtige Erkenntnisse:

  • 83% der Unternehmen nutzen bereits KI — doch nur 13% geben an, dass sie genau wissen, wie sie mit ihren Daten umgehen.
  • 76% geben an, dass autonome KI-Agenten am schwierigsten zu schützen sind, und nur 9% überwachen KI-Aktivitäten in Echtzeit.
  • Kontrollverzögerungen: 66 Prozent haben festgestellt, dass KI zu oft auf sensible Daten zugreift, während nur 11 Prozent riskante Aktivitäten automatisch blockieren können.

Die erste Warnung kam nicht von einem SIEM. Sie kam von einem Vertriebsleiter, der fragte, warum ein KI-Copilot „auf magische Weise“ ein Preisdeck finden könnte, das er nicht kennen sollte. Kein Exploit. Kein Zero-Day. Nur Standardzugriff, fehlende Leitplanken und niemand beobachtet die Eingabeaufforderungsebene.

Diese Geschichte tauchte im State of AI Data Security Report 2025 immer wieder auf: KI ist bereits ein fester Bestandteil der täglichen Arbeit, aber die Kontrollen, die den Schutz der Daten gewährleisten, haben nicht aufgeholt. Das Ergebnis ist, dass die Bereitschaftslücken groß sind, die Aufsicht gering ist und sie sich genau an den Rändern vergrößert, die Angreifer und Unfälle lieben.

Von Fragen zu Beweisen: Warum (und wie) wir die Umfrage durchgeführt haben

Die Kunden stellten immer wieder dieselben Fragen: Wo stehen wir im Vergleich zu Mitbewerbern? Welche Leitplanken gehören eigentlich zum Standard? Wie messen wir die Bereitschaft? Es gab keine neutrale, branchenübergreifende Ausgangsbasis. Also, in Zusammenarbeit mit Cybersicherheits-Insider, haben wir eine strukturierte Multiple-Choice-Umfrage durchgeführt von 921 IT- und Sicherheitsexperten aller Branchen und Größen (CISOs, Sicherheitsverantwortliche, Architekten, SOC-Leiter, Rollen im Bereich Data Governance). Die Ergebnisse sind statistisch robust (± 3,2% bei 95% CI). Wir konzentrierten uns auf Akzeptanz und Reifegrad, Sichtbarkeit und Überwachung, Kontrollen an der Prompt-/Agentenebene, Identität und Zugriff für KI sowie auf Governance und Einsatzbereitschaft, abgestimmt auf OWASP Top 10 für LLM-Anwendungen.

Was wir gefragt haben (und warum)

Wir wollten wissen, ob KI mit der gleichen Strenge gesteuert wird, die wir bei Benutzern, Systemen und Daten anwenden. Also fragten wir nach:

  • Wo KI lebt (Tools, Modelle und Workflows)
  • Welche Sichtbarkeit gibt es (Protokolle, Echtzeitsignale, Überprüfbarkeit)
  • Welche Steuerelemente sind aktiv (Aufforderungsfilter, Ausgabeschwärzung, automatisches Blockieren)
  • So wird der Zugriff gewährt (KI als erstklassige Identität oder „nur ein weiterer Nutzer“)
  • Wem gehört die Regierungsführung (und ob die Politik dem Beweis entspricht)

Das sagen die Daten

Adoption übertrifft Kontrolle. KI ist Mainstream-83% benutze es bei der täglichen Arbeit — aber nur 13% geben an, dass sie einen guten Überblick darüber haben, wie es mit Unternehmensdaten umgeht. Die meisten Teams sind noch dabei Piloten oder“aufstrebende“ Reife, aber die Nutzung umfasst bereits Inhalte/Wissen, Arbeit und Zusammenarbeit. So skalieren blinde Flecken.

Das Risiko konzentriert sich an den Rändern. Das Vertrauen ist am höchsten, wenn KI in vertrauten SaaS vergraben ist. Es bricht zusammen, wenn Autonomie oder öffentliche Aufforderungen ins Spiel kommen. 76% Mitspracherecht autonome Agenten sind am schwersten zu sichern; 70% Fahne externe Eingabeaufforderungen zu öffentlichen LLMs. Fast ein Viertel (23%) haben nein Eingabeaufforderungs- oder Ausgabesteuerungen überhaupt. Das ist kein Modellfehler, das ist ein Politikfehler an der Schnittstelle.

KI ist eine neue Identität, die wie eine alte behandelt wird. Nur 16% behandeln Sie KI als eigene Identitätsklasse mit speziellen Richtlinien. 21% gewähren Sie standardmäßig einen breiten Datenzugriff. 66% haben bereits beobachtet, wie KI zu häufig auf Informationen zugreift (oft, nicht selten). Und obwohl Least-Privilegien an Folgendes gebunden sein sollten Datenklassifizierung nur in Echtzeit 9% sagen, dass ihre Datensicherheit und Identitätskontrollen für KI wirklich integriert sind.

KI-Governance hinkt der Realität hinterher. Nur 7% einen eigenen KI-Governance-Ausschuss haben und nur 11% fühlen Sie sich voll und ganz auf die neue KI-Regulierung vorbereitet. Logs sind zu oft nach dem Vorfall Artefakte; automatisches Blockieren existiert nur in 11% von Programmen. Mit anderen Worten: Wir beobachten im Nachhinein und setzen es von Hand durch.

Erkenntnisse für CISOs, Architekten und Datenmanager

Wenn Sie KI wie eine App behandeln, verpassen Sie das eigentliche Risiko. Wenn du sie wie einen Menschen behandelst, übertriffst du sie. Wenn Sie die Eingabeaufforderungs- und Ausgabeebene ignorieren, werden Sie das Leck nie sehen.

Hier ist der pragmatische Weg in die Zukunft:

  1. Instrument aus dem ersten Piloten
    Einschalten Entdeckung von KI-Tools/Modellen, zentral Protokollierung von Aufforderung/Ausgabe, und Echtzeit Anomalie-Signale (Exil-Versuche, Jailbreaks, übermäßiger Konsum). Machen Sie keine Staatsschulden, für die Sie später zahlen müssen.
  2. Verhärten Sie die Schnittstelle
    Standardeinstellung Eingabefilterung und Redaktion der Ausgabe an Gateways. Behalten Gültigkeitsbereiche für Agenten eng eingrenzen, Genehmigungen für Autonomie erfordern und durchsetzen Ratenbegrenzungen und Kill-Switches. Zielen Sie auf automatisches Blockieren wo die Risikomuster klar sind.
  3. Machen Sie KI zu einer erstklassigen Identität
    Stellen Sie KI einen eigenen Identitätstyp und Lebenszyklus zur Verfügung. Durchsetzen Least-Privilegien, die an Datenklassifizierung und Kontext gebunden sind, kontinuierlich — nicht vierteljährlich. Überprüfen Sie Gültigkeitsbereiche und lassen Sie sie ablaufen, wie Sie es bei Produktionstoken tun würden.
  4. Verankern Sie Regierungsführung an Beweisen
    Benennen Sie einen benannten Eigentümer für KI-Governance. Ordnen Sie Richtlinien Protokollen, Entscheidungen und Ergebnissen zu, die Sie tatsächlich anzeigen können (DPIAs/TRAs, falls zutreffend). Verfolgen Sie Kennzahlen auf Vorstandsebene: Reichweite, Auto-Block-Rate, Überzugriffsrate und Zeit bis zur Erkennung/Eindämmung von Vorfällen auf der Prompt-Ebene.

Wir stellen vor: Cyera Research Labs (und was kommt als Nächstes)

Dieser Beitrag wird eingeweiht Cyera-Forschungslabore-unser Forschungszweig widmet sich der klaren, datengestützten Beratung an der Schnittstelle von AI und Datensicherheit. Erwarten Sie präzise Briefings, schnell reagierende Analysen, wenn sich die Situation ändert, und praktische Playbooks, die Sie in die Produktion umsetzen können. Wenn Sie den nächsten Bericht wünschen, teilen Sie uns dies mit. Wir teilen Ihnen Benchmarks und Leitplanken mit, die Sie am Montag verwenden können.

Letztes Wort: KI wartet nicht darauf, dass die Regierungsführung aufholt. Die Führer, die gewinnen, werden nicht die Lautesten sein — sie werden diejenigen sein, die es können beweisen Sichtbarkeit, Eindämmung und geringste Privilegien für nichtmenschliche Akteure, ab sofort.

Lesen Sie die Bericht zum Stand der KI-Datensicherheit 2025.

Download Report

Experience Cyera

To protect your dataverse, you first need to discover what’s in it. Let us help.

Get a demo  →
Decorative