Von KI bis Identität: 5 Erkenntnisse der Black Hat 2024 über moderne Datensicherheit

Bei der Black Hat 2024 standen Datensicherheit, Identität und KI im Mittelpunkt, da Unternehmen mit den Herausforderungen der Integration von KI-Technologien wie Microsoft Copilot kämpfen und gleichzeitig robuste Maßnahmen für Datensicherheit und Identitätszugriff sicherstellen müssen. Es besteht eindeutig eine kritische Spannung: Der Wunsch, modernste KI-Technologien zu nutzen, steht im Gegensatz zu den tatsächlichen Sicherheitsrisiken, die sie mit sich bringen.
Wir erläutern die KI-Probleme und mehr im Folgenden mit unseren 5 wichtigsten Erkenntnissen von der Black Hat 2024.
1. Das KI-Dilemma: Innovation und Sicherheit im Gleichgewicht
Es herrschte breite Einigkeit und großes Interesse an der Tatsache, dass KI-Sicherheit im Kern Datensicherheit bedeutet. Organisationen sind bestrebt, KI-Technologien einzuführen, bleiben jedoch angesichts der Risiken vorsichtig, insbesondere wenn es an ausreichender Datentransparenz mangelt. Die Vorstellung, dass ein einziges kompromittiertes Konto oder ein unregulierter KI-Trainingsprozess zu einer erheblichen Datenpanne, einem Verstoß gegen Compliance-Vorgaben oder einer Fehlsteuerung von KI-Ergebnissen führen könnte, ist eine reale Sorge. Dieses Risiko veranlasst viele dazu, den Einsatz von KI-Tools ohne angemessene Schutzmaßnahmen, einschließlich Datenbereinigungsprozessen und strikten Zugriffskontrollen, zu überdenken.
Eines der dringendsten Themen, die besprochen wurden, war das unbeabsichtigte Einspeisen sensibler Informationen wie geistiges Eigentum (IP) oder personenbezogene Daten (PII) in KI-Modelle. Wenn solche Daten zum Trainieren von KI verwendet werden, kann dies zu unbeabsichtigten Folgen führen, wie zum Beispiel der Generierung von Ausgaben, die diese sensiblen Informationen offenlegen.
Vor diesem Hintergrund wurde eine weitere wiederkehrende Sorge angesprochen: das Risiko, dass ein Bedrohungsakteur Zugriff auf ein Benutzerkonto erhält und beginnt, Copilot zu nutzen, um sensible Informationen wie IP-Adressen oder personenbezogene Daten (PII) in großem Umfang zu extrahieren.
Es gibt auch eine anhaltende Besorgnis über die langfristigen Auswirkungen, wenn sensible Daten in KI-Modelle eingebettet werden. Sobald Daten für das Training verwendet wurden, kann es schwierig – wenn nicht sogar unmöglich – sein, sie vollständig aus dem Modell zu entfernen. Diese Beständigkeit stellt ein dauerhaftes Risiko dar, insbesondere wenn die Daten ursprünglich gar nicht hätten einbezogen werden sollen. Da KI immer stärker in Geschäftsprozesse integriert wird, müssen Unternehmen wachsam sein und sicherstellen, dass ihre Datensicherheitspraktiken sich weiterentwickeln, um diesen neuen Herausforderungen gerecht zu werden.
Darüber hinaus veranschaulichte Nvidia dies anhand einer Fallstudie mit einem KI-gesteuerten Kundenservice-Chatbot, bei dem ein unsicheres Plugin zu unbefugtem Datenzugriff führte. Dieses Beispiel unterstrich die entscheidende Bedeutung einer sicheren Integration bei der Implementierung von Plugins in KI-Systemen.
Zusammenfassend gab es vier Anwendungsfälle für KI-Sicherheit, die wir immer wieder gehört haben.
- Sicherstellen, dass Copilot und andere KI-Assistenten keinen Zugriff auf sensible Daten haben: Organisationen möchten verhindern, dass generative KI-Tools mit regulierten oder sensiblen Daten interagieren, um so das Risiko versehentlicher Datenlecks zu minimieren.
- Bereinigung von Trainingsdaten: Bevor Daten zum Trainieren oder Feinabstimmen von KI-Modellen verwendet werden, ist es entscheidend, sicherzustellen, dass sie keine regulierten Daten oder personenbezogenen Informationen (PII) enthalten. Dieser Schritt ist unerlässlich, um die Einhaltung von Vorschriften zu gewährleisten und sensible Informationen zu schützen.
- Steuerung von KI-Ausgaben: Es gibt eine wachsende Nachfrage nach Mechanismen, die sicherstellen, dass KI-generierte Ausgaben ordnungsgemäß gekennzeichnet und kontrolliert werden, insbesondere wenn sie sensible oder regulierte Daten betreffen.
- KI-Inventar: Viele Organisationen äußerten den Wunsch, einfach zu wissen, wo KI in ihren Systemen eingesetzt wird. Ein Inventar von KI-Tools und -Anwendungen kann dabei helfen, diese Technologien effektiver zu verwalten und abzusichern.
Weitere Informationen zu Cyeras Ansatz zur Absicherung von KI-Tools finden Sie in unserem aktuellen Webinar, „From Artificial to Intelligent: Securing Data for AI“.
2. MFA-Implementierung: Das Entscheidungsbaum-Dilemma
Multi-Faktor-Authentifizierung (MFA) ist ein Grundpfeiler der modernen Cybersicherheit, aber ihre Implementierung in großen Unternehmen ist alles andere als einfach. Viele Organisationen arbeiten mit einem komplexen Entscheidungsbaum, bei dem einige Nutzer zur Verwendung von MFA verpflichtet sind, während andere davon ausgenommen sind. Dieser uneinheitliche Ansatz resultiert oft aus einem Mangel an Kontext über die Nutzer und die Arten von Daten, auf die sie zugreifen können.
Es wird zunehmend erkannt, dass das Verständnis des Nutzerkontexts und ihrer Datenzugriffsmuster den Entscheidungsprozess für MFA vereinfachen könnte. Mit besseren Einblicken darin, wer auf was zugreift, können Organisationen ihre MFA-Richtlinien optimieren und sicherstellen, dass Personen mit Zugang zu sensiblen Informationen angemessen geschützt sind. Letztlich handelt es sich hierbei um eine Herausforderung im Bereich Identitäts- und Zugriffsmanagement.
3. Identität und externes Teilen mit Microsoft 365
Bei der Black Hat haben wir gesehen, dass Microsoft 365 nach wie vor ein unverzichtbares Werkzeug für die Zusammenarbeit ist, aber das externe Teilen von Daten stellt eine erhebliche Sicherheitsherausforderung dar. Sicherheitsteams stehen vor dem Dilemma, einerseits die betriebliche Effizienz aufrechtzuerhalten und andererseits sensible Informationen zu schützen. Zwar ist es technisch möglich, das externe Teilen zu unterbinden, doch kann dies Geschäftsprozesse stören und die Zusammenarbeit behindern.
Um dies zu verwalten, greifen viele Sicherheitsteams auf eigene PowerShell-Skripte zurück, um geteilte Dateien und Domains nachzuverfolgen. Es besteht jedoch ein klarer Bedarf an einer effizienteren Lösung – einer „Easy Button“-Lösung, die erkennen kann, wer Zugriff auf Dateien hat, wie sie geteilt werden und mit wem.
Das Szenario, in dem externe Nutzer, wie ehemalige Beratungsfirmen oder ausgegliederte Geschäftsbereiche, weiterhin Zugriff auf sensible Dateien haben, war ein häufig angesprochenes Thema. Die Tatsache, dass diese externen Nutzer bei der Aktualisierung von Identitäts- und Zugriffskontrollen oft übersehen werden, verdeutlicht eine erhebliche Sicherheitslücke.
Obwohl dies kein neues Problem ist, rücken aufkommende Datensicherheitstechnologien wie das Cyera Identity Module dieses Thema in den Vordergrund. Organisationen konzentrieren sich zunehmend darauf, sicherzustellen, dass externe Nutzer umgehend aus den Zugriffsliste entfernt werden, sobald ihre Verbindung zum Unternehmen endet, um potenzielle Datenlecks zu verhindern.
4. Der Kampf mit veralteten Datenklassifizierungs-Tools
Der Konsens auf der Black Hat war eindeutig: Herkömmliche Tools zur Datenklassifizierung haben die Erwartungen nicht erfüllt. Sicherheitsverantwortliche äußerten ihren Unmut über die lange Zeit, die benötigt wird, um einen Mehrwert aus diesen Tools zu ziehen, die Komplexität der Implementierung und den hohen Wartungsaufwand. In vielen Fällen fehlte es an Support, und die Kosten überwogen den Return on Investment.
Diese Unzufriedenheit veranlasst Unternehmen dazu, nach Alternativen zu suchen, die schnellere Implementierungen, einfachere Wartung und besseren Support bieten. Gefragt sind Lösungen, die einen unmittelbaren Mehrwert liefern und den Zeit- sowie Arbeitsaufwand für die Absicherung sensibler Daten verringern.
5. Der Weg nach vorn
Die Erkenntnisse von der Black Hat 2024 unterstreichen die Komplexität, mit der moderne Unternehmen bei der Sicherung ihrer Daten und der Einführung neuer Technologien wie KI konfrontiert sind. Organisationen suchen nach Datenschutzlösungen, die Kontext bieten, Prozesse optimieren und sofortigen Mehrwert liefern. Während sich KI, Identitäts- und Datensicherheit weiterhin annähern, wird der Fokus zunehmend auf Lösungen liegen, die sensible Informationen schützen, ohne Innovationen zu behindern.
Für Organisationen, die der Zeit voraus sein wollen, ist jetzt der richtige Moment zum Handeln. Ob es darum geht, die Datensicherheitslage zu verbessern, Identitäts- und MFA-Probleme zu untersuchen, bessere Möglichkeiten für den sicheren Informationsaustausch mit Microsoft 365 zu finden oder KI-Initiativen abzusichern – die heute getroffenen Entscheidungen werden die Sicherheitslandschaft von morgen prägen.
Interessieren Sie sich dafür, wie Cyera bei diesen Herausforderungen helfen kann? Fordern Sie noch heute eine Demo an.
Erhalten Sie vollständige Transparenz
mit unserer Data Risk Assessment.