Tabla de contenido
Descripción general

From AI to Identity: 5 Things Black Hat 2024 Taught Us About Modern Data Security

From AI to Identity: 5 Things Black Hat 2024 Taught Us About Modern Data Security

En Black Hat 2024, la seguridad de datos, la identidad y la IA fueron temas prioritarios, ya que las organizaciones enfrentan los retos de integrar tecnologías de IA como Microsoft Copilot, a la vez que aseguran medidas sólidas de seguridad de datos y control de acceso a la identidad. Es evidente que existe una tensión crítica: el deseo de aprovechar tecnologías de IA de vanguardia frente a la realidad de los riesgos de seguridad que estas introducen.

Desglosamos los temas de IA y más a continuación con nuestras 5 ideas clave de Black Hat 2024.

1. El dilema de la IA: equilibrar la innovación con la seguridad

Hubo un amplio consenso y entusiasmo en torno a que la seguridad de la IA, en el fondo, se trata de la seguridad de los datos. Las organizaciones están ansiosas por adoptar tecnologías de IA, pero siguen cautelosas ante los riesgos, especialmente en ausencia de una sólida visibilidad de datos. La idea de que una sola cuenta comprometida o un proceso de entrenamiento de IA sin regulación pueda derivar en una filtración de datos significativa, una violación de cumplimiento o un desalineamiento de los resultados de la IA es un temor real. Este riesgo lleva a muchos a replantearse el despliegue de herramientas de IA sin las salvaguardas adecuadas, incluyendo procesos de saneamiento de datos y controles de acceso estrictos.

Uno de los temas más apremiantes que se discutieron fue la alimentación inadvertida de información sensible, como la Propiedad Intelectual (PI) o la Información de Identificación Personal (PII), en modelos de IA. Si dichos datos se usan para entrenar la IA, pueden producirse consecuencias no deseadas, como la generación de resultados que expongan esta información sensible.

Con esto en mente, otra preocupación recurrente que se abordó fue el riesgo en caso de que un actor de amenazas acceda a una cuenta de usuario y empiece a usar Copilot para extraer a gran escala información sensible como PI o PII.

También existe una preocupación constante sobre las implicaciones a largo plazo de incrustar datos sensibles en modelos de IA. Una vez que los datos se utilizan en el entrenamiento, puede ser difícil—si no es que imposible—extraerlos por completo del modelo. Esta permanencia crea un riesgo duradero, especialmente si los datos no estaban destinados a incluirse desde un principio. A medida que la IA se integra más en los procesos empresariales, las organizaciones deben mantenerse vigilantes para asegurar que sus prácticas de seguridad de datos evolucionen para enfrentar estos nuevos desafíos.

Además, Nvidia ilustró esto con un estudio de caso que involucraba un chatbot de atención al cliente impulsado por IA, donde un complemento inseguro provocó acceso no autorizado a datos. Este ejemplo resaltó la importancia crítica de una integración segura al implementar complementos en sistemas de IA.

En resumen, hubo cuatro casos de uso de seguridad de IA que escuchamos repetidamente.

  • Garantizar que Copilot y otros asistentes de IA no accedan a datos sensibles: Las organizaciones quieren impedir que las herramientas de IA generativa interactúen con datos regulados o sensibles, mitigando así el riesgo de filtraciones accidentales de datos.
  • Limpieza de los datos de entrenamiento: Antes de usar datos para entrenar o ajustar modelos de IA, es crucial asegurarse de que estén libres de datos regulados o PII. Este paso es esencial para mantener el cumplimiento y proteger la información sensible.
  • Control del resultado de la IA: Existe una creciente demanda de mecanismos que garanticen que los resultados generados por la IA estén correctamente etiquetados y controlados, especialmente cuando involucran datos sensibles o regulados.
  • Inventario de IA: Muchas organizaciones expresaron el deseo de simplemente saber dónde se está utilizando la IA dentro de sus sistemas. Contar con un inventario de herramientas y aplicaciones de IA puede ayudar a gestionar y asegurar estas tecnologías de manera más efectiva

Para obtener más información sobre el enfoque de Cyera para asegurar las herramientas de IA, consulta nuestro reciente seminario web, “De artificial a inteligente: asegurando los datos para la IA”

2. Implementación de MFA: el dilema del árbol de decisiones

La autenticación multifactor (MFA) es una piedra angular de la ciberseguridad moderna, pero su implementación en grandes empresas dista mucho de ser sencilla. Muchas organizaciones operan con un árbol de decisiones complejo, donde a algunos usuarios se les exige usar MFA y a otros no. Este enfoque inconsistente suele originarse por la falta de contexto sobre los usuarios y los tipos de registros a los que pueden acceder.

Cada vez hay más reconocimiento de que comprender el contexto del usuario y sus patrones de acceso a datos podría simplificar el proceso de toma de decisiones sobre MFA. Con una mejor visibilidad de quién accede a qué, las organizaciones pueden optimizar sus políticas de MFA, asegurando que quienes tienen acceso a información sensible estén adecuadamente protegidos. Al final del día, esto es un reto de acceso a la identidad.

3. Identidad y uso compartido externo con Microsoft 365

En Black Hat vimos que Microsoft 365 sigue siendo una herramienta vital para la colaboración, pero el uso compartido externo de registros presenta un desafío de seguridad significativo. Los equipos de seguridad se ven atrapados entre la necesidad de mantener la eficiencia operativa y la de proteger información sensible. Si bien técnicamente es posible bloquear el uso compartido externo, hacerlo puede interrumpir los procesos de negocio y obstaculizar la colaboración.

Para gestionar esto, muchos equipos de seguridad recurren a scripts personalizados de PowerShell para rastrear archivos y dominios compartidos. Sin embargo, hay una clara necesidad de una solución más eficiente: un "botón fácil" que pueda identificar quién tiene acceso a los archivos, cómo se están compartiendo y con quién.

El escenario en el que usuarios externos, como antiguas firmas de consultoría o unidades de negocio desinvertidas, todavía tienen acceso a archivos sensibles fue un tema de conversación común. El hecho de que estos usuarios externos a menudo se pasen por alto cuando se actualizan los controles de acceso de identidad pone de relieve una brecha de seguridad significativa.

Si bien no es un problema nuevo, tecnologías emergentes de seguridad de datos como el Módulo de Identidad de Cyera lo están poniendo en primer plano. Las organizaciones se enfocan cada vez más en garantizar que los usuarios externos se eliminen de manera oportuna de las listas de acceso cuando termina su relación con la empresa, para evitar posibles filtraciones de datos.

4. La lucha con las herramientas heredadas de clasificación de datos

El consenso en Black Hat fue claro: las herramientas heredadas de clasificación de datos no han estado a la altura de las expectativas. Ejecutivos de seguridad expresaron frustración por el tiempo que toma obtener valor de estas herramientas, la complejidad de las implementaciones y la alta carga de mantenimiento. En muchos casos, el soporte ha sido insuficiente y el costo ha superado el retorno de la inversión.

Esta insatisfacción está llevando a las organizaciones a buscar alternativas que ofrezcan implementaciones más rápidas, mantenimiento más sencillo y mejor soporte. La demanda es por soluciones que puedan ofrecer valor inmediato, reduciendo el tiempo y el esfuerzo necesarios para proteger los datos sensibles. 

5. El camino a seguir

Las conclusiones de Black Hat 2024 resaltan las complejidades que enfrentan las empresas modernas para proteger sus datos mientras adoptan nuevas tecnologías como la IA. Las organizaciones buscan adoptar soluciones de seguridad de datos que aporten contexto, optimicen procesos y brinden valor inmediato. A medida que la IA, la identidad y la seguridad de los datos continúan convergiendo, el enfoque se centrará cada vez más en soluciones capaces de salvaguardar la información sensible sin frenar la innovación.

Para las organizaciones que buscan mantenerse a la vanguardia, el momento de actuar es ahora. Ya sea mejorar su postura de seguridad de datos, investigar problemas de acceso de identidad y MFA, encontrar mejores formas de compartir información de manera segura con Microsoft 365 o proteger las iniciativas de IA, las decisiones que se tomen hoy darán forma al panorama de seguridad del mañana.

¿Te interesa saber cómo Cyera puede ayudar a abordar estos desafíos? Solicita una demostración hoy

Experimente Cyera

Para proteger su universo de datos, primero necesita descubrir qué contiene. Permítanos ayudar.

Obtenga una demostración →
Decorative