83% usa IA; solo 13% tiene visibilidad - Informe 2025 de Cyera sobre el estado de la seguridad de datos de IA
.avif)
CyberSecurity Insiders, en asociación con Cyera Research Labs —el brazo de investigación de Seguridad de Datos y IA de Cyera—, encuestó a más de 900 líderes de TI para proporcionar la evidencia que los clientes seguían solicitando.
Conclusiones clave:
- El 83% de las empresas ya usa IA; sin embargo, solo el 13% reporta una visibilidad sólida de cómo afecta sus datos.
- El 76% dice que los agentes de IA autónomos son los más difíciles de asegurar, y solo el 9% monitorea la actividad de IA en tiempo real.
- Los controles se quedan atrás: 66% han detectado que la IA accede en exceso a datos sensibles, mientras que solo 11% puede bloquear automáticamente la actividad de riesgo.
La primera alerta no vino de un SIEM. Vino de un gerente de ventas preguntando por qué un copiloto de IA podía “mágicamente” encontrar una presentación de precios que no debería conocer. Sin exploit. Sin zero-day. Solo acceso predeterminado, faltaban barandales de seguridad y nadie vigilaba la capa de prompts.
Esa historia apareció una y otra vez en el Informe 2025 sobre el Estado de la Seguridad de Datos en IA: la IA ya está entretejida en el trabajo diario, pero los controles que mantienen los datos seguros no se han puesto al día. El resultado es una brecha de preparación: el uso es alto, la supervisión es baja, y se está ampliando justo en los bordes que más aprovechan los atacantes y los accidentes.
De las preguntas a la evidencia: por qué (y cómo) realizamos la encuesta
Los clientes seguían haciendo las mismas preguntas: ¿Cómo nos comparamos con nuestros pares? ¿Qué barandales son realmente estándar? ¿Cómo medimos la preparación? No había una referencia neutral y transversal a la industria. Así que, en asociación con CyberSecurity Insiders, realizamos una encuesta estructurada de opción múltiple a 921 profesionales de TI y seguridad de distintos sectores y tamaños (CISOs, líderes de seguridad, arquitectos, jefes de SOC, roles de gobernanza de datos). Los resultados son estadísticamente sólidos (±3.2% al 95% CI). Nos enfocamos en adopción y madurez; visibilidad y monitoreo; controles en el borde del prompt/agente; identidad y acceso para IA; y gobernanza/preparación, alineados con el OWASP Top 10 for LLM Applications.
Qué preguntamos (y por qué)
Queríamos saber si la IA se gobierna con el mismo rigor que aplicamos a los usuarios, los sistemas y los datos. Así que preguntamos sobre:
- Donde vive la IA (herramientas, modelos y flujos de trabajo)
- ¿Qué visibilidad existe (registros, señales en tiempo real, auditabilidad)
- ¿Qué controles están activos (filtros de indicaciones, redacción de salida, bloqueo automático)
- Cómo se concede el acceso (IA como identidad de primera clase o “solo otro usuario”)
- ¿Quién es dueño del gobierno (y si la política se corresponde con la prueba)
Esto es lo que dicen los datos
La adopción supera al control. La IA es mainstream: 83% la usa en el trabajo diario, pero solo 13% dice tener una visibilidad sólida de cómo toca los datos de la empresa. La mayoría de los equipos aún están en pilotos o en una madurez “emergente”, pero su uso ya abarca el trabajo de contenido/conocimiento y la colaboración. Así es como se escalan los puntos ciegos.
El riesgo se concentra en los extremos. La confianza es más alta cuando la IA está integrada dentro de un SaaS familiar. Se desmorona cuando entra en juego la autonomía o los prompts públicos. 76% dice que los agentes autónomos son los más difíciles de asegurar; 70% señala prompts externos hacia LLM públicos. Casi una cuarta parte (23%) no tiene ningún control de prompts ni de salidas. Eso no es una falla del modelo; es una falla de políticas en la interfaz.
La IA es una identidad nueva tratada como una vieja. Solo 16% trata a la IA como su propia clase de identidad con políticas dedicadas. 21% otorgan acceso amplio a datos de forma predeterminada. 66% ya han detectado que la IA accede en exceso a la información (a menudo, no rara vez). Y aunque el principio de menor privilegio debería vincularse a la clasificación de datos en tiempo real, solo 9% afirma que sus controles de seguridad de datos e identidad están realmente integrados para la IA.
La gobernanza de IA va a la zaga de la realidad. Solo 7% cuenta con un comité dedicado a la gobernanza de IA, y únicamente 11% se siente completamente preparado para la regulación emergente de IA. Los registros con demasiada frecuencia son artefactos posteriores al incidente; el bloqueo automático existe solo en 11% de los programas. En otras palabras: observamos a posteriori y aplicamos de forma manual.
Conclusiones para CISOs, arquitectos y líderes de datos
Si tratas a la IA como una app, te perderás el riesgo real. Si la tratas como a un humano, le darás permisos de más. Si ignoras la capa de prompt/salida, nunca verás la filtración.
Esta es la ruta pragmática a seguir:
- Instrumento del primer piloto
Activa la detección de herramientas/modelos de IA, el registro central de prompts/salidas y las señales de anomalías en tiempo real (intentos de exfiltración, jailbreaks, consumo excesivo). No generes una deuda de gobernanza que pagarás después. - Fortalecer la interfaz
Predetermina filtrado de entrada y redacción de salida en las puertas de enlace. Mantén alcances de los agentes estrechos, requiere aprobaciones para la autonomía y aplica límites de velocidad y interruptores de apagado. Apunta a bloqueo automático cuando los patrones de riesgo sean claros. - Haz que la IA sea una identidad de primera clase
Proporcione a la IA su propio tipo de identidad y ciclo de vida. Aplique el principio de privilegio mínimo, vinculado a la clasificación de datos y al contexto, de forma continua, no trimestral. Revise y haga expirar los alcances igual que lo haría con los tokens de producción. - Anclar la gobernanza en la evidencia
Asigna a una persona responsable por nombre para la gobernanza de IA. Vincula la política con registros, decisiones y resultados que puedas demostrar (DPIA/TRA cuando aplique). Da seguimiento a métricas a nivel de consejo: cobertura, tasa de bloqueo automático, tasa de sobreacceso y tiempo para detectar/contener incidentes en la capa de prompts.
Presentamos Cyera Research Labs (y lo que sigue)
Esta publicación inaugura Cyera Research Labs, nuestro brazo de investigación dedicado a ofrecer orientación clara y basada en datos en la intersección de la IA y la seguridad de datos. Espera resúmenes concisos, análisis de respuesta rápida cuando el panorama cambie y manuales prácticos que puedas poner en producción. Si quieres el próximo informe, dinos y compartiremos métricas de referencia y patrones de barandales que podrás usar el lunes.
Palabra final: La IA no está esperando a que el gobierno se ponga al día. Los líderes que ganen no serán los más ruidosos: serán quienes puedan demostrar visibilidad, contención y privilegios mínimos para los actores no humanos, comenzando ahora.
Lee el Informe 2025 sobre el estado de la seguridad de datos en IA.


.jpg)


