O presidente norte-americano Joe Biden emitiu uma ordem executiva referente às primeiras regulamentações do governo dos EUA sobre sistemas de inteligência artificial. Entre os destaques, as regulamentações exigem que os produtos de IA mais avançados sejam testados para garantir que não possam ser utilizados para produção de armas biológicas ou nucleares, por exemplo, e que os resultados dos testes sejam informados ao Governo. O documento é visto como a ação mais significativa do presidente até agora no sentido de proteger os norte-americanos contra os possíveis riscos da tecnologia, que tem ganhado espaço na mídia nos últimos meses, com suas aplicações práticas e meios de uso públicos crescendo. A greve dos roteiristas no país, inclusive, garantiu algumas condições para o uso da IA no setor audiovisual.
Os Estados Unidos restringiram recentemente a exportação de chips de alto desempenho para a China para abrandar a sua capacidade de produzir os chamados grandes modelos de linguagem. Da mesma forma, as novas regulamentações ainda exigirão que as empresas que executam serviços em nuvem informem o Governo sobre seus clientes estrangeiros.
Em pronunciamento na Casa Branca, Biden adiantou que o Departamento de Comércio desenvolverá padrões para marcar o conteúdo gerado por IA, como áudios e imagens, para que as pessoas não sejam enganadas. Isso reflete um medo crescente de que a IA tornará muito mais fácil a criação de falsificações convincentes e a disseminação de desinformação, especialmente à medida em que a campanha presidencial de 2024 acelera. O presidente até citou deepfakes de si mesmo que encontrou e comentou que elas eram bem realistas. Já os Departamentos de Defesa e Segurança Interna deverão desenvolver proteções cibernéticas para tornar os computadores e infraestruturas mais seguras.
Nesse sentido, os Estados Unidos estão atrás da União Europeia, que já vem elaborando novas leis a respeito, além de países como China e Israel, que já emitiram propostas de regulamentação. Desde que a popularidade do ChatGPT, o chatbot alimentado por IA, explodiu no ano passado, os legisladores e os reguladores globais têm debatido sobre a forma como a inteligência artificial pode alterar empregos, espalhar desinformação e potencialmente desenvolver o seu próprio tipo de inteligência.
Os regulamentos também devem influenciar o setor de tecnologia, de forma a estabelecer padrões de segurança e de proteção ao consumidor.
As novas regras dos EUA, algumas das quais deverão entrar em vigor nos próximos 90 dias, ainda devem enfrentar desafios legais e políticos.
A indústria tecnológica afirmou que apoia as regulamentações, embora as empresas discordem quanto ao nível de supervisão governamental. Microsoft, OpenAI, Google e Meta estão entre as 15 empresas que concordaram com compromissos voluntários de segurança e proteção, incluindo a solicitação de terceiros para testarem seus sistemas em busca de vulnerabilidades.
Legisladores e funcionários da Casa Branca alertaram contra agir muito rapidamente para redigir leis para a IA, uma vez que a tecnologia muda rapidamente. A União Europeia, por exemplo, não considerou grandes modelos linguísticos nos seus projetos legislativos.