Inhaltsverzeichnis
Overview

SafeType™ von Cyera Labs unterstützt sicheres Experimentieren mit generativer KI

SafeType™ von Cyera Labs unterstützt sicheres Experimentieren mit generativer KI

Als Entwickler liebe ich es, mit neuer Technologie zu experimentieren. Außerdem ist es meine Leidenschaft, meine Teams dazu zu ermutigen, komplexe Probleme an der Spitze der Innovation zu lösen. In letzter Zeit wurde die kollektive Vorstellungskraft der Technologiebranche von den Versprechen (und möglichen Nachteilen) der generativen KI erfasst, wobei ChatGPT im Mittelpunkt der Diskussionen steht. Generative KI-Plattformen bergen ein enormes Potenzial, Unternehmen zu verändern.

Heute hat das Sicherheitsteam von Cyera Labs SafeType veröffentlicht. Diese Erweiterung für die Chrome- und Edge-Browser informiert Sie, wenn Ihre ChatGPT-Sitzung sensible Daten enthält, die Sie nicht an OpenAI senden sollten, und ermöglicht es Ihnen, die Informationen zu anonymisieren. SafeType ist eine Open-Source-Browsererweiterung, die statische Klassifizierer für eine Reihe häufig verwendeter Datenklassen bündelt. SafeType ist nicht mit Cyeras Datensicherheitsplattform verbunden, teilt keinen Code mit der Plattform und interagiert in keiner Weise mit Cyera oder den Systemen unserer Kunden. Das Ziel von Cyera Labs ist es, versehentliche Offenlegungen zu verhindern, während mit der Technologie experimentiert wird.

SafeType von Cyera Labs
SafeType von Cyera Labs

Es besteht kein Zweifel daran, dass ChatGPT für Schlagzeilen sorgt und die Fantasie beflügelt. Investoren haben das Potenzial klar erkannt: Microsoft soll schätzungsweise rund 10 Milliarden US-Dollar investiert haben, und kürzlich haben Risikokapitalfirmen wie Sequoia Capital, Andreessen Horowitz, Thrive, K2 Global und Founders Fund etwas mehr als 300 Millionen US-Dollar investiert – bei einer Bewertung zwischen 27 und 29 Milliarden US-Dollar. Wenig überraschend hat das Technologie-Ökosystem schnell begonnen, Technologien zu entwickeln, die die KI-Plattform nutzen. Beim Winter 2023 YC Demo Day behaupteten vier Start-ups, das „ChatGPT für X“ zu bauen, und generative KI war Thema vieler Diskussionen auf der diesjährigen RSA-Konferenz in San Francisco.

Derzeit zeichnet ChatGPT alles auf, was Sie eingeben. In den Datenschutzbestimmungen heißt es, dass ChatGPT bei der Nutzung persönliche Informationen aus Ihren Nachrichten, hochgeladenen Dateien und Ihrem Feedback sammeln kann. Diese Informationen können mit Anbietern und Dienstleistern sowie anderen Unternehmen, verbundenen Unternehmen, juristischen Personen und KI-Trainern, die Gespräche überprüfen, geteilt werden. Das wirft deutliche Bedenken hinsichtlich Datenschutz, dem Teilen von Geheimnissen und Missbrauch auf, die zu Datenlecks und Betrug führen können.

Diese Bedenken veranlassten Italien und andere Länder, Verbote zu erlassen und von Open AI zu verlangen, Schutzmaßnahmen zu ergreifen. Mehrere US-Schulbezirke (K-12) und einige internationale Universitäten haben die Nutzung von ChatGPT durch Schüler und Mitarbeiter verboten. Und Berichten zufolge ist es Mitarbeitenden von JPMorgan Chase, Amazon, Verizon und Accenture untersagt worden, ChatGPT bei der Arbeit zu verwenden, da befürchtet wird, dass Angestellte sensible Informationen in den Chatbot eingeben könnten.

Seit unserer Gründung arbeitet Cyera daran, die Möglichkeiten von Machine Learning, KI und großen Sprachmodellen zu nutzen. Während wir mit dieser Technologie gearbeitet haben, diskutieren wir häufig darüber, wie wir Schutzmaßnahmen einführen können, um die Privatsphäre zu wahren und eine übermäßige Weitergabe von Informationen zu vermeiden. Als wir die oben beschriebenen Ereignisse beobachteten, wurde uns klar, dass wir Unternehmen dabei unterstützen können, das Bewusstsein zu schärfen und Verfahren einzuführen, die es ihren Teams ermöglichen, sicher mit ChatGPT zu experimentieren.

OpenAI hat angekündigt, ChatGPT Business auf den Markt zu bringen, als Lösung „für Fachleute, die mehr Kontrolle über ihre Daten benötigen, sowie für Unternehmen, die ihre Endnutzer verwalten möchten.“ Eine der wichtigsten Maßnahmen wird darin bestehen, zu verhindern, dass die Daten der Endnutzer zum Trainieren der KI-Modelle verwendet werden. Und auch wenn dies ein positiver Schritt hin zu einer sichereren Nutzung der Technologie in der Zukunft zu sein scheint, wollte unser Team Unternehmen, die ihren Teams schon heute ein sicheres Experimentieren mit ChatGPT ermöglichen möchten, einige unmittelbare Vorteile bieten.

SafeType™ befindet sich derzeit in der Community-Vorschau. Wir möchten das Interesse einschätzen und suchen nach Feedback, wie dieses Tool für Sie und Ihr Team noch wertvoller werden kann. Möchten Sie die Möglichkeit haben, eigene Definitionen für sensible Daten hinzuzufügen? Wäre es hilfreich, SafeType mit Cyeras Data-Security-Plattform zu verbinden, um die volle Power von Cyera für die Absicherung Ihrer ChatGPT-Sitzungen zu nutzen? Wir möchten diese Gespräche mit Ihnen führen. Treten Sie unserer öffentlichen Slack-Community #cyeralabs bei und teilen Sie uns Ihre Gedanken mit.

Und falls Sie SafeType noch nicht haben, laden Sie es hier herunter!

Erlebe Cyera

Um Ihr Datenversum zu schützen, müssen Sie zunächst herausfinden, was darin enthalten ist. Lassen Sie uns helfen.

Holen Sie sich eine Demo →
Decorative