Tabla de contenido
Descripción general

La industria debe regular la IA: el plan de acción sobre IA de la Casa Blanca tiene mucha ambición, pero pocos límites

La industria debe regular la IA: el plan de acción sobre IA de la Casa Blanca tiene mucha ambición, pero pocos límites

El 23 de julio, la Casa Blanca publicó el Plan de Acción sobre IA del presidente Trump, adoptando un tono bienvenido de optimismo y urgencia. El optimismo proviene de la visión de la administración sobre el potencial de la IA para impulsar, en sus palabras, una nueva revolución industrial, una nueva revolución de la información y un renacimiento cultural. La urgencia surge del hecho de que las empresas estadounidenses están compitiendo a nivel global para hacer de Estados Unidos el principal proveedor mundial de tecnología impulsada por IA.

Si bien estos sentimientos sin duda impulsarán la innovación, también introducen riesgos. Como veremos, algunas de las prescripciones del Plan podrían obstaculizar que los desarrolladores y adoptantes de IA garanticen la confiabilidad de sus modelos. En consecuencia, la carga de la gobernanza recaerá en la industria. Más que nunca, las organizaciones que trabajan en o con IA deberán asegurarse de que conocen y comprenden los datos con los que se entrenan los modelos.

Convertir a Estados Unidos en el líder mundial de la IA…

La administración busca acelerar el desarrollo y la adopción de la IA eliminando obstáculos regulatorios, invirtiendo en infraestructura nacional de IA y en la capacitación de la fuerza laboral, y promoviendo la adopción de la IA en los sectores público y privado. 

Comience con la reforma regulatoria. La administración quiere agilizar los permisos para nuevos centros de datos e instalaciones de fabricación de semiconductores. También busca respaldar suministros de energía sólidos y estables para esos proyectos modernizando la compleja red energética del país.

En cuanto a la infraestructura, el Plan contempla el dominio estadounidense en toda la pila tecnológica de IA, incluyendo “hardware, modelos, software, aplicaciones y estándares”. Al aumentar el financiamiento científico y relocalizar el desarrollo de IA en cada etapa, la administración espera consolidar a Estados Unidos como el principal exportador mundial de tecnología de IA.

También es bienvenida la atención de la administración a estudiar el impacto de la IA en el mercado laboral. El Plan instruye al Departamento de Trabajo a recopilar datos sobre la automatización con IA y sus efectos en el empleo, además de proporcionar financiamiento para la recapacitación y el perfeccionamiento de habilidades de los trabajadores para competir en una fuerza laboral impulsada por la IA.

Para impulsar la adopción de la IA, el Plan instruye a las agencias gubernamentales —en particular al Departamento de Defensa— a integrar la IA en sus operaciones siempre que sea viable. Para garantizar que la ciberseguridad siga siendo una prioridad para los líderes de las agencias, el Plan exige que los desarrolladores de IA incorporen principios de seguridad desde el diseño.

… ¿con una mano atada a la espalda?

Si bien hay mucho que celebrar en el Plan, también contiene posibles escollos. Por ejemplo, la Casa Blanca ha propuesto revisar las investigaciones de la FTC “para garantizar que no promuevan teorías de responsabilidad que impongan cargas indebidas a la innovación en IA”. Es probable que esta propuesta preocupe a defensores de la privacidad y la protección del consumidor, ya que una FTC limitada tendría dificultades para evitar que los sistemas de IA hagan un uso indebido de los datos personales sensibles de los estadounidenses.

En otros aspectos, el Plan parece contradecirse a sí mismo o a otros componentes de la agenda política más amplia del presidente Trump. Por ejemplo, aunque el Plan pide una mayor inversión gubernamental en investigación de IA, la administración ya recortó el financiamiento federal para la ciencia en un 34 por ciento, incluso en áreas que impactan directamente la competitividad de la IA en Estados Unidos, como matemáticas y física ($289 millones), ingeniería ($127 millones), ciencias computacionales ($85 millones) y tecnología ($18 millones).

El Plan busca impulsar la innovación fomentando la distribución de modelos de IA de código abierto y de pesos abiertos. Si bien esto ciertamente podría acelerar el ritmo de la innovación y proteger la privacidad de los usuarios finales, también presenta riesgos. Dependiendo de su potencia, estos modelos podrían usarse para generar instrucciones para construir armas químicas o biológicas, automatizar la generación de exploits de día cero o crear campañas públicas de desinformación, todo lo cual socava el enfoque de seguridad desde el diseño que el Plan promueve por lo demás.

El Plan busca mantener una ventaja estratégica sobre China al garantizar la capacidad interna de Estados Unidos para desarrollar toda la pila informática de IA con productos e infraestructura estadounidenses. Sin embargo, si tener acceso a los chips semiconductores necesarios para construir sistemas de IA es una ventaja estratégica importante, entonces la administración la cedió cuando el fabricante de chips Nvidia anunció que reanudaría la venta de chips avanzados a compradores chinos.

El Plan también busca contrarrestar la influencia de China en las organizaciones de tratados multilaterales que actualmente definen los estándares y las mejores prácticas de la IA. Pero los recientes recortes presupuestarios y despidos en el Departamento de Estado han desmantelado la Oficina de Ciberespacio y Política Digital y la división de Seguridad del Ciberespacio Internacional, dos oficinas que estaban idealmente posicionadas para alcanzar estos objetivos.

Por último, el Plan exige que los sistemas de IA “estén libres de sesgo ideológico y estén diseñados para buscar la verdad objetiva en lugar de agendas de ingeniería social”. Suena bien en teoría, pero ¿qué significa en la práctica?
En 2015, Google enfrentó una crisis de relaciones públicas cuando su aplicación de etiquetado de fotos con IA clasificó erróneamente a estadounidenses negros como "gorilas". Una tecnología similar en cámaras digitales etiquetó erróneamente rostros asiáticos como "parpadeando". Estos y otros casos pusieron de relieve la necesidad crítica de contar con conjuntos de datos de entrenamiento más representativos.
De manera similar, cuando Google desarrolló el método de incrustaciones de palabras word2vec, una técnica clave para entrenar modelos de lenguaje de gran tamaño, los usuarios quedaron asombrados de cómo la tecnología permitía que un sistema aprendiera analogías como “hombre es a mujer como rey es a _____”, y el sistema devolvía correctamente la respuesta “reina”. Pero el mismo sistema también generó analogías vergonzosamente anacrónicas como “hombre es a mujer como programador informático es a ama de casa”.

Para los desarrolladores de IA, el mensaje fue claro: alinear con éxito la IA con nuestros valores, y no simplemente regurgitar los sesgos del pasado, requeriría la curaduría deliberada de los conjuntos de datos de entrenamiento. Pero ¿cuánta y qué tipo de curaduría es apropiada, y cuándo se convierte en "sesgo ideológico" o "ingeniería social"? 

No es solo una cuestión académica. El Plan imagina a Estados Unidos como el mayor exportador mundial de sistemas de IA; sin embargo, como señala Raul Brens Jr. del GeoTech Center, puede resultar difícil comercializar IA fabricada en Estados Unidos a países "en toda Europa y el Indo-Pacífico que han invertido mucho en construir sus propias reglas de IA en torno a la transparencia, la acción climática y la equidad digital".

Que florezcan cien modelos

Si bien el Plan sin duda incentiva la innovación, los líderes de la industria deben traducir esa innovación en una adopción generalizada alineándose en estándares adecuados para una IA segura y confiable.

Cyera está comprometida con este objetivo. Su plataforma de seguridad de datos nativa de la IA ya está ayudando a muchas empresas del Global 2000 a habilitar la IA de forma segura al descubrir y clasificar datos sensibles en conjuntos de entrenamiento de IA, identificar aplicaciones y agentes de IA, y evitar que ingieran o compartan PII, propiedad intelectual u otros datos sensibles.

Si deseas ver cómo Cyera puede ayudar a tu organización a tomar el control de tus datos para aprovechar el poder de la IA, solicita una demostración hoy en Cyera.com

Experimente Cyera

Para proteger su universo de datos, primero necesita descubrir qué contiene. Permítanos ayudar.

Obtenga una demostración →
Decorative