O governo dos Estados Unidos planeia apostar tudo na utilização da IA. Mas falta-lhe um plano, diz um cão de guarda do governo
A falta de uma norma a nível governamental para as aquisições de IA pode comprometer a segurança americana, escreveu o Government Accountability Office (GAO) numa análise há muito aguardada das utilizações actuais e planeadas da IA por quase duas dúzias de agências. O GAO é o principal órgão de controlo da responsabilidade do governo.
O relatório de 96 páginas divulgado na terça-feira marca o esforço mais abrangente do governo dos EUA para catalogar as mais de 200 maneiras pelas quais as agências não militares já usam artificial ou aprendizado de máquina e as mais de 500 aplicações planejadas para IA em IA andamento.
Isto acontece numa altura em que os criadores de IA lançam modelos de IA cada vez mais sofisticados e em que as decisões políticas se esforçam por desenvolver projetos para a indústria da IA nos casos de utilização mais sensíveis. Os governos de todo o mundo têm realçado os benefícios da IA, como o seu potencial para encontrar curas para doenças ou para aumentar a produtividade. Mas também se preocuparam com os seus riscos, incluindo o perigo de deslocar trabalhadores, espalhar desinformação eleitoral ou capacidades de populações vulneráveis através de preconceitos algorítmicos. Os especialistas alertaram para o fato de a IA poder mesmo conduzir a novas ameaças à segurança nacional, proporcionando aos agentes maliciosos novas formas de desenvolvimento de ciberataques ou armas biológicas.
O amplo inquérito do GAO obteve respostas de 23 agências, desde os Departamentos de Justiça e Segurança Interna até à Administração da Segurança Social e à Comissão Reguladora Nuclear. O governo federal já usa a IA de 228 maneiras distintas, com quase metade desses usos lançados no ano passado, de acordo com o relatório, refletindo a rapidez facilitada da IA em todo o governo dos EUA.
A grande maioria das utilizações governamentais actuais e planeadas da IA que o GAO acordos no seu relatório, quase sete em cada 10, estão relacionadas com a ciência ou destinam-se a melhorar a gestão interna das agências. A Administração Nacional da Aeronáutica e do Espaço (NASA), por exemplo, disse ao GAO que utiliza inteligência artificial para monitorar a atividade dos vulcões em todo o mundo, enquanto o Departamento do Comércio afirmou que utiliza a IA para localizar incêndios florestais e para contar automaticamente as aves marinhas e as focas ou morsas fotografadas por drones.
Mais perto de casa, o Departamento de Segurança Interna afirmou que utiliza a IA para “identificar atividades fronteiriças de interesse”, aplicando tecnologias de aprendizagem automática a dados de câmaras e radares, de acordo com o relatório do GAO.
Agências que adotam IA
O relatório também destaca centenas de maneiras pelas quais as agências federais usam IA em segredo. As agências federais estavam dispostas a divulgar publicamente cerca de 70% do total de 1.241 casos de uso de IA ativos e planejados, disse o relatório, mas se recusaram a identificar mais de 350 aplicações da tecnologia porque eram “consideradas sensíveis”.
Algumas agências foram extraordinariamente caladas sobre o uso da IA: o Departamento de Estado listou 71 casos de uso diferentes para a tecnologia, mas disse ao GAO que só poderia identificar 10 deles publicamente.
Embora algumas agências tenham relatado relativamente poucos usos para IA, poucos desses aplicativos atraíram alguns dos maiores escrutínios de vigilantes do governo, grupos de liberdades civis e especialistas em IA, alertando para resultados de IA prejudiciais.
Por exemplo, os Departamentos de Justiça e Segurança Interna relataram um total de 25 casos de uso atuais ou planejados para IA no relatório de terça-feira do GAO, uma pequena fração dos 390 da NASA ou dos 285 do Departamento de Comércio. Mas esse pequeno número de mente o sensível pode ser os casos de uso do DOJ e do DHS.
Recentemente, em setembro, o GAO alertou que as agências federais de aplicação da lei executam milhares de pesquisas de reconhecimento facial movidas a IA – totalizando 95% dessas pesquisas em seis agências dos EUA de 2019 a 2022 – sem ter requisitos de treinamento adequado para os funcionários que realizam as pesquisas, destacando o potencial para o uso indevido de IA. Os especialistas em privacidade e segurança são alertados regularmente para o fato de que confiar demais na IA no policiamento pode levar a casos de identidade errada e detenções indevidas, ou discriminação contra minorias.
(O relatório de setembro do GAO sobre o reconhecimento facial coincidiu com um relatório do inspetor-geral do DHS que concluiu que várias agências, incluindo as Alfândegas e a Patrulha de Fronteiras, os Serviços Secretos dos EUA e o Serviço de Imigração e Alfândegas, provavelmente infringiram a lei quando trabalharam o histórico de geolocalização dos americanos a corretores de dados comerciais sem realizarem as avaliações de impacto na privacidade ordinárias).
Embora os funcionários estejam a recorrer cada vez mais à IA e à análise automatizada de dados para resolver problemas importantes, o Gabinete de Gestão e Orçamento, que é responsável pela harmonização da abordagem das agências federais a uma série de questões, incluindo a aquisição de IA , ainda não finalizou um projeto de memorando que define como as agências devem adquirir e utilizar corretamente o IA.
“A falta de orientação contribuiu para que as agências não implementassem totalmente as práticas fundamentais no gerenciamento de IA”, escreveu o GAO. Ele acrescentou: “Até que o OMB emita a orientação necessária, as agências federais provavelmente desenvolverão políticas inconsistentes sobre o uso de IA, que não se alinharão com as práticas-chave ou serão benéficas para o bem-estar e a segurança do público americano”.
De acordo com uma lei federal de 2020 que trata da IA no governo, o OMB deveria ter emitido um projeto de diretrizes para as agências até setembro de 2021, mas perdeu o prazo e só emitiu seu projeto de memorando dois anos depois, em novembro de 2021 2023, de acordo com o relatório.
O OMB disse que recebeu com a recomendação do cão de guarda de orientações sobre IA e disse que o projeto de orientação lançado em novembro foi uma resposta à ordem executiva de outubro do presidente Joe Biden que trata da segurança da IA.
A abordagem da IA de Biden
Entre suas disposições, a recente ordem executiva de IA de Biden exige que os desenvolvedores dos “sistemas de IA mais poderosos” compartilhem os resultados dos testes de seus modelos com o governo, de acordo com um resumo da cláusula da Casa Branca. Este ano, várias empresas líderes de IA também prometemos à administração Biden que procurariam testes externos de seus modelos de IA antes de divulgá-los ao público.
A ordem executiva Biden adiciona ao crescente conjunto de requisitos para agências federais quando se trata de políticas de IA, por exemplo, carregando o Departamento de Energia de avaliar o potencial da IA para exacerbar questões relacionadas a armas químicas, biológicas, radiológicas ou nucleares.
O relatório do GAO de terça-feira estabeleceu uma lista abrangente de requisitos relacionados ao IA que o Congresso ou a Casa Branca impôs às agências federais desde 2019 e classificou seu desempenho. Além de culpar o OMB por não ter apresentado um plano de compras de IA em todo o governo, o relatório encontrou deficiências em algumas abordagens de outras agências para o IA. Em setembro, por exemplo, o Escritório de Gestão de Pessoal ainda não havia preparado uma previsão necessária do número de funções relacionadas à IA que o governo federal pode solicitar preenchimento nos próximos cinco anos. E, segundo o relatório, 10 agências federais, desde o Departamento do Tesouro até o Departamento de Educação, não tinham planos necessários para atualizar suas listas de casos de uso de IA ao longo do tempo, o que poderia dificultar a compreensão do público sobre como o governo dos EUA usa IA.
Fonte: edition.cnn.com