Cabe à Indústria Regular a IA: O Plano de Ação de IA da Casa Branca tem muita ambição, mas poucas proteções

Em 23 de julho, a Casa Branca divulgou o Plano de Ação de IA do Presidente Trump, adotando um tom bem-vindo de otimismo e urgência. O otimismo decorre da visão da administração sobre o potencial da IA de desencadear, em suas palavras, uma nova revolução industrial, uma nova revolução da informação e um renascimento cultural. A urgência surge do fato de que as empresas americanas estão competindo globalmente para fazer dos Estados Unidos o principal fornecedor mundial de tecnologia baseada em IA.
Embora esses sentimentos certamente estimulem a inovação, eles também introduzem riscos. Como veremos, algumas das prescrições do Plano podem dificultar que desenvolvedores e adotantes de IA garantam a confiabilidade de seus modelos. Consequentemente, o ônus da governança recairá sobre a indústria. Mais do que nunca, organizações que trabalham em ou com IA precisarão ter certeza de que conhecem e compreendem os dados nos quais ela é treinada.
Tornando a América a líder mundial em IA…
A administração visa acelerar o desenvolvimento e a adoção de IA removendo obstáculos regulatórios, investindo em infraestrutura doméstica de IA e capacitação da força de trabalho, e promovendo a adoção de IA nos setores público e privado.
Comece com a reforma regulatória. O governo quer agilizar a concessão de licenças para novos datacenters e instalações de fabricação de semicondutores. Também pretende apoiar fornecimentos de energia fortes e estáveis para esses projetos, modernizando a complexa rede energética do país.
Quanto à infraestrutura, o Plano prevê a dominância americana em toda a pilha de tecnologia de IA, incluindo "hardware, modelos, software, aplicativos e padrões". Ao aumentar o financiamento científico e trazer o desenvolvimento de IA para o país em todas as etapas, o governo espera estabelecer os Estados Unidos como o principal exportador de tecnologia de IA do mundo.
O foco da administração em estudar o impacto da IA no mercado de trabalho também é bem-vindo. O Plano direciona o Departamento do Trabalho a coletar dados sobre a automação por IA e seus efeitos no emprego, ao mesmo tempo em que fornece financiamento para a reciclagem e aprimoramento de habilidades dos trabalhadores para competir em uma força de trabalho impulsionada por IA.
Para promover a adoção de IA, o Plano orienta as agências governamentais - particularmente o Departamento de Defesa - a integrar a IA em suas operações sempre que viável. Para garantir que a cibersegurança permaneça uma prioridade para os líderes das agências, o Plano exige que os desenvolvedores de IA incorporem princípios de segurança desde a concepção.
… com uma mão amarrada nas costas?
Embora haja muito a comemorar no Plano, ele também contém algumas armadilhas em potencial. Por exemplo, a Casa Branca propôs revisar as investigações da FTC "para garantir que elas não avancem teorias de responsabilidade que sobrecarreguem indevidamente a inovação em IA". Esta proposta provavelmente preocupará os defensores da privacidade e da proteção ao consumidor, já que uma FTC tolhida terá dificuldades para impedir que os sistemas de IA façam uso indevido dos dados pessoais sensíveis dos americanos.
Em outros aspectos, o Plano parece contradizer a si mesmo ou outros aspectos da agenda política mais ampla do Presidente Trump. Por exemplo, embora o Plano peça mais investimento governamental em pesquisa de IA, o governo já cortou o financiamento federal para ciência em 34 por cento, incluindo em áreas que impactam diretamente a competitividade de IA da América, como matemática e física (US$ 289 milhões), engenharia (US$ 127 milhões), ciência da computação (US$ 85 milhões) e tecnologia (US$ 18 milhões).
O Plano visa estimular a inovação ao incentivar a distribuição de modelos de IA de código aberto e de pesos abertos. Embora isso possa certamente aumentar o ritmo da inovação e proteger a privacidade do usuário final, também apresenta riscos. Dependendo de seu poder, esses modelos poderiam ser usados para gerar instruções para a construção de armas químicas ou biológicas, automatizar a geração de exploits de dia zero ou criar campanhas públicas de desinformação - tudo isso minando a abordagem de segurança por design que o Plano promove de outra forma.
O Plano busca manter uma vantagem estratégica sobre a China ao garantir a capacidade doméstica dos Estados Unidos de desenvolver a pilha completa de computação de IA com produtos e infraestrutura americanos. No entanto, se ter acesso aos chips semicondutores necessários para construir sistemas de IA é uma grande vantagem estratégica, então o governo abriu mão dela quando a fabricante de chips Nvidia anunciou que retomaria as vendas de chips avançados para compradores chineses.
O Plano também busca conter a influência da China em organizações multilaterais de tratados que atualmente definem padrões e melhores práticas de IA. Mas cortes orçamentários recentes e demissões no Departamento de Estado desmantelaram o Bureau de Ciberespaço e Política Digital e a divisão de Segurança Cibernética Internacional, dois escritórios que estavam idealmente posicionados para alcançar esses objetivos.
Por fim, o Plano exige que os sistemas de IA "sejam livres de viés ideológico e sejam projetados para buscar a verdade objetiva em vez de agendas de engenharia social". Parece bom na teoria, mas o que isso significa na prática?
Em 2015, o Google enfrentou uma crise de relações públicas quando seu aplicativo de marcação de fotos com IA rotulou erroneamente americanos negros como "gorilas". Tecnologia similar em câmeras digitais rotulou erroneamente rostos asiáticos como "piscando". Esses e outros casos destacaram a necessidade crítica de conjuntos de dados de treinamento mais representativos.
Da mesma forma, quando o Google desenvolveu o método word2vec de incorporações de palavras - uma técnica fundamental para treinar grandes modelos de linguagem - os usuários ficaram impressionados com a forma como a tecnologia permitia que um sistema aprendesse analogias como "homem está para mulher assim como rei está para _____", com o sistema retornando corretamente a resposta "rainha". Mas o mesmo sistema também gerou analogias embaraçosamente anacrônicas como "homem está para mulher assim como programador de computador está para dona de casa".
Para os desenvolvedores de IA, a mensagem era clara: alinhar com sucesso a IA com nossos valores, e não simplesmente regurgitar os preconceitos do passado, exigiria a curadoria deliberada de conjuntos de dados de treinamento. Mas quanta e que tipo de curadoria é apropriada, e quando ela ultrapassa os limites para se tornar "viés ideológico" ou "engenharia social"?
Não é apenas uma questão acadêmica. O Plano prevê os Estados Unidos como o maior exportador de sistemas de IA do mundo, mas como Raul Brens Jr. do GeoTech Center aponta, pode ser desafiador comercializar IA fabricada nos Estados Unidos para países "em toda a Europa e no Indo-Pacífico que investiram pesadamente na construção de suas próprias regras de IA em torno de transparência, ação climática e equidade digital."
Deixe cem modelos florescerem
Embora o Plano certamente incentive a inovação, os líderes do setor devem traduzir essa inovação em adoção generalizada, alinhando-se em padrões apropriados para uma IA segura e confiável.
A Cyera está comprometida com esse objetivo. Sua plataforma de segurança de dados nativa de IA já está ajudando muitas empresas do Global 2000 a habilitar a IA com segurança, descobrindo e classificando dados sensíveis em conjuntos de treinamento de IA, identificando aplicações e agentes de IA e impedindo que eles ingiram ou compartilhem PII, propriedade intelectual ou outros dados sensíveis.
Se você gostaria de ver como a Cyera pode ajudar sua organização a assumir o controle de seus dados para aproveitar o poder da IA, solicite uma demonstração hoje em Cyera.com.
Obtenha visibilidade completa
com nossa Avaliação de Risco de Dados.

.png)

