SafeType™ de Cyera Labs admite la experimentación segura con IA generativa

Como desarrollador, me encanta experimentar con nuevas tecnologías. También me apasiona motivar a mis equipos a resolver problemas complejos en la vanguardia de la innovación. Recientemente, la imaginación colectiva de la industria tecnológica ha sido cautivada por las promesas (y los posibles aspectos negativos) de la IA generativa, con ChatGPT tomando un papel protagónico en las conversaciones. Las plataformas de IA generativa representan un enorme potencial para transformar los negocios.
Hoy, el equipo de investigación de seguridad de Cyera Labs lanzó SafeType. Esta extensión para los navegadores Chrome y Edge te avisa cuando tu sesión de ChatGPT incluye datos sensibles que no deberías enviar a OpenAI y te permite anonimizar la información. SafeType es una extensión de navegador de código abierto que incluye clasificadores estáticos para varias clases de datos comúnmente utilizadas. SafeType no está conectada a la plataforma de seguridad de datos de Cyera, no comparte código con la plataforma y no interactúa con Cyera ni con los sistemas de nuestros clientes de ninguna manera. El objetivo de Cyera Labs es ayudar a mitigar las divulgaciones accidentales mientras se experimenta con la tecnología.

No hay duda de que ChatGPT está acaparando titulares y capturando la imaginación. Los inversionistas claramente han visto el potencial: se estima que Microsoft ha invertido aproximadamente 10 mil millones de dólares, y recientemente firmas de capital de riesgo como Sequoia Capital, Andreessen Horowitz, Thrive, K2 Global y Founders Fund aportaron un poco más de 300 millones de dólares, con una valuación de entre 27 mil millones y 29 mil millones de dólares. No es de extrañar que el ecosistema tecnológico haya sido rápido en construir tecnologías que aprovechan la plataforma de IA. En el Winter 2023 YC Demo Day, cuatro startups afirmaron estar construyendo “ChatGPT para X”, y la IA generativa fue el enfoque de muchas discusiones en la RSA Conference de este año en San Francisco.
Actualmente, ChatGPT registra todo lo que escribes en él. Su política de privacidad establece que, cuando usas ChatGPT, puede recopilar información personal de tus mensajes, de cualquier archivo que subas y de cualquier comentario que proporciones. Esa información puede compartirse con proveedores y prestadores de servicios, así como con otras empresas, afiliadas y entidades legales, además de entrenadores de IA que revisan conversaciones. Esto plantea preocupaciones claras sobre la privacidad, el intercambio de secretos y el uso indebido que puede derivar en filtraciones de datos y fraudes.
Estas preocupaciones llevaron a Italia y otros países a imponer prohibiciones y exigir que OpenAI aplicara medidas de seguridad. Varios distritos escolares de K-12 en EE. UU. y algunas universidades internacionales han prohibido el uso de ChatGPT por parte de estudiantes y personal. Y, según informes, el personal de JPMorgan Chase, Amazon, Verizon y Accenture tiene prohibido usar ChatGPT para el trabajo por preocupaciones de que los empleados puedan ingresar información sensible en el chatbot.
Desde nuestros inicios, Cyera ha estado trabajando para aprovechar el poder que representan el aprendizaje automático, la IA y los modelos de lenguaje grandes. A medida que hemos trabajado con esta tecnología, hablamos con frecuencia sobre cómo implementar salvaguardas para mantener la privacidad y evitar compartir de más. Al observar las acciones que mencioné arriba, nos dimos cuenta de que podíamos ayudar a las empresas a generar conciencia y establecer procedimientos que permitieran a sus equipos experimentar con ChatGPT de forma segura.
OpenAI ha dicho que planea lanzar ChatGPT Business, como una solución “para profesionales que necesitan mayor control sobre sus datos, así como para empresas que buscan gestionar a sus usuarios finales”. Uno de los controles principales que implementarán evitará que los datos de los usuarios finales se utilicen para entrenar los modelos de la IA. Y si bien eso parece ser un paso positivo para fomentar un uso más seguro de la tecnología en el futuro, nuestro equipo quiso brindar beneficios inmediatos a las empresas que buscan permitir que sus equipos experimenten con ChatGPT de forma segura, hoy.
SafeType™ se encuentra actualmente en vista previa para la comunidad. Estamos midiendo el interés y buscando aportes sobre qué haría de esta una herramienta más valiosa para ti y tu equipo. ¿Quieres la capacidad de agregar tus definiciones de datos sensibles? ¿Ayudaría conectar esto a la plataforma de seguridad de datos de Cyera para aprovechar todo el poder de Cyera y ayudarte a asegurar tus sesiones de ChatGPT? Queremos tener estas conversaciones contigo. Únete a nuestra comunidad de Slack pública #cyeralabs y comparte tus ideas con nosotros.
Y si aún no tienes SafeType, descárgalo aquí!
Obtén visibilidad total
con nuestra Evaluación de Riesgos de Datos.



