C'est à l'industrie de réglementer l'IA : le plan d'action de la Maison Blanche en matière d'IA est ambitieux, mais il manque de garde-fous

Le 23 juillet, la Maison Blanche a publié le plan d'action du président Trump en matière d'IA, sur un ton bienvenu à la fois optimiste et urgent. L'optimisme provient de la vision de l'administration quant à la capacité de l'IA à déclencher, selon ses termes, une nouvelle révolution industrielle, une nouvelle révolution de l'information et une renaissance culturelle. L'urgence vient du fait que les entreprises américaines sont en concurrence à l'échelle mondiale pour faire de l'Amérique le premier fournisseur mondial de technologies basées sur l'IA.
Ces sentiments stimuleront sans aucun doute l'innovation, mais ils présentent également des risques. Comme nous le verrons, certaines prescriptions du Plan pourraient empêcher les développeurs et les utilisateurs d'IA de garantir la fiabilité de leurs modèles. Par conséquent, le fardeau de la gouvernance retombera sur l'industrie. Plus que jamais, les organisations travaillant sur ou utilisant l'IA devront s'assurer de connaître et de comprendre les données sur lesquelles elles sont entraînées.
Faire de l'Amérique le leader mondial de l'IA...
L'administration vise à accélérer le développement et l'adoption de l'IA en supprimant les obstacles réglementaires, en investissant dans l'infrastructure nationale d'IA et dans le renforcement des compétences de la main-d'œuvre, et en promouvant l'adoption de l'IA dans les secteurs public et privé.
Commencez par la réforme de la réglementation. L'administration souhaite rationaliser les autorisations pour les nouveaux centres de données et les installations de fabrication de semi-conducteurs. Il vise également à soutenir des alimentations électriques solides et stables pour ces projets en modernisant le réseau énergétique complexe du pays.
En ce qui concerne les infrastructures, le plan prévoit la domination américaine sur l'ensemble des technologies de l'IA, y compris « le matériel, les modèles, les logiciels, les applications et les normes ». En augmentant le financement de la science et en soutenant le développement de l'IA à chaque étape, l'administration espère faire de l'Amérique le premier exportateur mondial de technologies d'IA.
L'accent mis par l'administration sur l'étude de l'impact de l'IA sur le marché du travail est également bienvenu. Le plan demande au ministère du Travail de recueillir des données sur l'automatisation de l'IA et ses effets sur l'emploi, tout en finançant la reconversion et le renforcement des compétences des travailleurs afin qu'ils soient compétitifs au sein d'une main-d'œuvre alimentée par l'IA.
Pour promouvoir l'adoption de l'IA, le Plan demande aux agences gouvernementales, en particulier au ministère de la Défense, d'intégrer l'IA dans leurs opérations dans la mesure du possible. Pour garantir que la cybersécurité reste une priorité pour les dirigeants des agences, le plan oblige les développeurs d'IA à intégrer les principes de sécurité dès la conception.
... avec une main attachée dans le dos ?
Bien que le Plan ait de nombreuses raisons de se réjouir, il comporte également certains pièges potentiels. Par exemple, la Maison Blanche a proposé de revoir les enquêtes de la FTC « afin de s'assurer qu'elles ne proposent pas de théories de responsabilité qui entravent indûment l'innovation en matière d'IA ». Cette proposition concernera probablement les défenseurs de la vie privée et de la protection des consommateurs, car une FTC paralysée aura du mal à empêcher les systèmes d'IA d'utiliser à mauvais escient les données personnelles sensibles des Américains.
À d'autres égards, le plan semble être en contradiction avec lui-même ou contredire d'autres aspects du programme politique plus large du président Trump. Par exemple, alors que le Plan appelle à davantage d'investissements publics dans la recherche sur l'IA, l'administration a déjà réduit le financement fédéral de la science de 34 %, y compris dans des domaines ayant un impact direct sur la compétitivité de l'IA américaine, tels que les mathématiques et la physique (289 millions de dollars), l'ingénierie (127 millions de dollars), l'informatique (85 millions de dollars) et la technologie (18 millions de dollars).
Le plan vise à stimuler l'innovation en encourageant la distribution de modèles d'IA open source et open weight. Bien que cela puisse certainement accélérer le rythme de l'innovation et protéger la vie privée des utilisateurs finaux, cela présente également des risques. En fonction de leur puissance, ces modèles pourraient être utilisés pour générer des instructions pour la fabrication d'armes chimiques ou biologiques, automatiser la génération d'exploits « jour zéro » ou créer des campagnes de désinformation publiques, ce qui compromet l'approche de sécurité dès la conception que préconise par ailleurs le Plan.
Le plan vise à conserver un avantage stratégique sur la Chine en garantissant la capacité nationale des États-Unis à développer la pile informatique complète de l'IA avec des produits et des infrastructures américains. Cependant, si l'accès aux puces semi-conductrices nécessaires à la construction de systèmes d'IA constitue un avantage stratégique majeur, l'administration y a renoncé lorsque le fabricant de puces Nvidia a annoncé qu'il reprendrait les ventes de puces avancées aux acheteurs chinois.
Le plan vise également à contrer l'influence de la Chine dans les organisations de traités multilatéraux qui définissent actuellement les normes et les meilleures pratiques en matière d'IA. Mais les récentes coupes budgétaires et les licenciements au Département d'État ont entraîné le démantèlement du Bureau du cyberespace et de la politique numérique et de la division de la sécurité internationale du cyberespace, deux bureaux qui étaient idéalement placés pour atteindre ces objectifs.
Enfin, le Plan exige que les systèmes d'IA « soient exempts de biais idéologiques et conçus pour rechercher la vérité objective plutôt que des programmes d'ingénierie sociale ». Cela semble bien en théorie, mais qu'est-ce que cela signifie en pratique ?
En 2015, Google a fait face à une crise de relations publiques lorsque son application de marquage de photos alimentée par l'IA a qualifié à tort les Noirs américains de « gorilles ». Une technologie similaire utilisée dans les appareils photo numériques qualifiait à tort les visages asiatiques de « clignotants ». Ces exemples et d'autres ont mis en évidence le besoin critique d'ensembles de données de formation plus représentatifs.
De même, lorsque Google a développé le word2vec méthode d'incorporation de mots - une technique clé pour la formation de grands modèles linguistiques - les utilisateurs ont été étonnés de voir comment cette technologie permettait à un système d'apprendre des analogies telles que « l'homme est à la femme ce que le roi est à _____ », le système renvoyant correctement la réponse « reine ». Mais le même système a également généré des analogies embarrassantes et anachroniques telles que « l'homme est à la femme ce que le programmeur informatique est à la femme au foyer ».
Pour les développeurs d'IA, le message était clair : pour réussir à aligner l'IA sur nos valeurs, et ne pas simplement régurgiter les biais du passé, il faudrait organiser délibérément des ensembles de données de formation. Mais dans quelle mesure et quel type de curation sont appropriés, et quand s'agit-il d'un « biais idéologique » ou d'une « ingénierie sociale » ?
Ce n'est pas qu'une question académique. Le plan envisage l'Amérique comme le plus grand exportateur mondial de systèmes d'IA, mais comme le souligne Raul Brens Jr. du GeoTech Center, il peut être difficile de commercialiser l'IA fabriquée aux États-Unis auprès des pays « d'Europe et de l'Indo-Pacifique qui ont investi massivement dans la mise en place de leurs propres règles d'IA en matière de transparence, d'action climatique et d'équité numérique ».
Laissez fleurir une centaine de modèles
Bien que le Plan encourage certainement l'innovation, les leaders du secteur doivent traduire cette innovation par une adoption généralisée en s'alignant sur des normes appropriées pour une IA sûre et fiable.
Cyera s'engage à atteindre cet objectif. C'est Plateforme de sécurité des données native de l'IA aide déjà de nombreuses entreprises du classement Global 2000 à activer l'IA en toute sécurité en découvrant et en classant les données sensibles dans des ensembles de formation à l'IA, en identifiant les applications et les agents d'IA et en les empêchant d'ingérer ou de partager des informations personnelles, de la propriété intellectuelle ou d'autres données sensibles.
Si vous souhaitez découvrir comment Cyera peut aider votre organisation à prendre en charge vos données pour exploiter la puissance de l'IA, demandez une démonstration dès aujourd'hui à Cyera.com.
Obtenez une visibilité complète
avec notre évaluation des risques liés aux données.



