Inteligência Artificial Perigo AI Apocalypse Art ilustração
Publicidade

Os principais cientistas da IA ​​emitiram um apelo à ação urgente por parte dos líderes globais, criticando a falta de progresso desde a última Cimeira de Segurança da IA. Propõem políticas rigorosas para governar o desenvolvimento da IA ​​e prevenir a sua utilização indevida, enfatizando o potencial da IA ​​para exceder as capacidades humanas e representar riscos graves. Crédito: SciTechDaily.com

Os especialistas em IA alertam para a ação global insuficiente sobre os riscos da IA, defendendo uma governação rigorosa para evitar potenciais catástrofes.

Os principais cientistas da IA ​​estão a apelar aos líderes mundiais para que tomem medidas mais decisivas em relação aos riscos da IA, destacando que o progresso alcançado desde a primeira Cimeira de Segurança da IA ​​em Bletchley Park, há seis meses, foi inadequado.

Nessa cimeira inicial, os líderes globais comprometeram-se a gerir a IA de forma responsável. No entanto, com a segunda Cimeira de Segurança da IA ​​em Seul (21 a 22 de maio) a aproximar-se rapidamente, vinte e cinco investigadores de topo em IA afirmam que os esforços atuais são insuficientes para salvaguardar contra os perigos representados pela tecnologia. Em artigo de consenso publicado hoje (20 de maio) na revista Ciênciapropõem medidas políticas urgentes que devem ser implementadas para combater as ameaças das tecnologias de IA.

Publicidade

Professor Philip Torr, Departamento de Ciências da Engenharia, Universidade de Oxford, coautor do artigo, afirma: “O mundo concordou durante a última cimeira sobre IA que precisávamos de ação, mas agora é altura de passar de propostas vagas a compromissos concretos. Este documento fornece muitas recomendações importantes sobre o que as empresas e os governos devem comprometer-se a fazer.”

A resposta mundial não está no caminho certo diante do progresso potencialmente rápido da IA

De acordo com os autores do artigo, é imperativo que os líderes mundiais levem a sério a possibilidade de que sistemas de IA generalistas altamente poderosos – superando as capacidades humanas em muitos domínios críticos – sejam desenvolvidos na presente década ou na próxima. Afirmam que, embora os governos de todo o mundo tenham discutido a IA de fronteira e tenham feito algumas tentativas de introdução de directrizes iniciais, isto é simplesmente incomensurável com a possibilidade de progresso rápido e transformador esperado por muitos especialistas.

A investigação actual sobre a segurança da IA ​​é gravemente deficiente, estimando-se que apenas 1-3% das publicações sobre IA sejam relativas à segurança. Além disso, não temos mecanismos ou instituições em funcionamento para prevenir o uso indevido e a imprudência, inclusive no que diz respeito ao uso de sistemas autônomos capazes de tomar ações de forma independente e perseguir objetivos.

Especialistas líderes mundiais em IA lançam apelo à ação

À luz disto, uma comunidade internacional de pioneiros da IA ​​emitiu um apelo urgente à ação. Os co-autores incluem Geoffrey Hinton, Andrew Yao, Dawn Song, o falecido Daniel Kahneman; no total, 25 dos maiores especialistas acadêmicos do mundo em IA e sua governança. Os autores vêm dos EUA, China, UE, Reino Unido e outras potências de IA, e incluem vencedores do prêmio Turing, ganhadores do Nobel e autores de livros didáticos padrão de IA.

Este artigo é a primeira vez que um grupo tão grande e internacional de especialistas chega a um acordo sobre as prioridades para os decisores políticos globais no que diz respeito aos riscos dos sistemas avançados de IA.

Prioridades Urgentes para a Governança da IA

Os autores recomendam aos governos que:

Publicidade
  • estabelecer instituições especializadas e de acção rápida para a supervisão da IA ​​e fornecer-lhes um financiamento muito maior do que o que deveriam receber ao abrigo de quase qualquer plano político actual. A título de comparação, o Instituto de Segurança de IA dos EUA tem atualmente um orçamento anual de 10 milhões de dólares, enquanto a Food and Drug Administration (FDA) dos EUA tem um orçamento de 6,7 mil milhões de dólares.
  • exigir avaliações de risco muito mais rigorosas com consequências aplicáveis, em vez de confiar em avaliações de modelos voluntários ou subespecificados.
  • exigem que as empresas de IA priorizem a segurança e demonstrem que seus sistemas não podem causar danos. Isto inclui a utilização de “casos de segurança” (utilizados para outras tecnologias críticas para a segurança, como a aviação), que transferem o fardo da demonstração da segurança para os criadores de IA.
  • implementar padrões de mitigação proporcionais aos níveis de risco apresentados pelos sistemas de IA. Uma prioridade urgente é estabelecer políticas que sejam acionadas automaticamente quando a IA atinge determinados marcos de capacidade. Se a IA avançar rapidamente, os requisitos rigorosos entrarão automaticamente em vigor, mas se o progresso abrandar, os requisitos serão reduzidos em conformidade.

Segundo os autores, para futuros sistemas de IA excepcionalmente capazes, os governos devem estar preparados para assumir a liderança na regulamentação. Isto inclui licenciar o desenvolvimento destes sistemas, restringir a sua autonomia em funções sociais fundamentais, interromper o seu desenvolvimento e implantação em resposta a capacidades preocupantes, impor controlos de acesso e exigir medidas de segurança da informação robustas para hackers a nível estatal, até que proteções adequadas estejam prontas.

Os impactos da IA ​​podem ser catastróficos

A IA já está a fazer progressos rápidos em domínios críticos, como a pirataria informática, a manipulação social e o planeamento estratégico, e poderá em breve colocar desafios de controlo sem precedentes. Para promover objetivos indesejáveis, os sistemas de IA poderiam ganhar a confiança humana, adquirir recursos e influenciar os principais decisores. Para evitar a intervenção humana, eles poderiam ser capazes de copiar seus algoritmos através de redes globais de servidores. O cibercrime em grande escala, a manipulação social e outros danos poderão aumentar rapidamente. Em conflitos abertos, os sistemas de IA poderiam utilizar autonomamente uma variedade de armas, incluindo armas biológicas. Consequentemente, há uma possibilidade muito real de que o avanço descontrolado da IA ​​possa culminar numa perda em grande escala de vidas e da biosfera, e na marginalização ou extinção da humanidade.

Stuart Russell OBE, professor de Ciência da Computação na Universidade da Califórnia em Berkeley e autor do livro padrão mundial sobre IA, afirma: “Este é um documento de consenso dos principais especialistas e exige regulamentação estrita por parte dos governos, não códigos voluntários de conduta escrita pela indústria. É hora de levar a sério os sistemas avançados de IA. Estes não são brinquedos. Aumentar as suas capacidades antes de compreendermos como torná-las seguras é totalmente imprudente. As empresas reclamarão que é muito difícil satisfazer as regulamentações – que “a regulamentação sufoca a inovação”. Isso é ridículo. Existem mais regulamentações para lanchonetes do que para empresas de IA.”

Referência: “Gerenciando riscos extremos de IA em meio a um progresso rápido” 20 de maio de 2024, Ciência.
DOI: 10.1126/science.adn0117



Share. Facebook Twitter Pinterest LinkedIn Tumblr Email

Formado em Educação Física, apaixonado por tecnologia, decidi criar o site news space em 2022 para divulgar meu trabalho, tenho como objetivo fornecer informações relevantes e descomplicadas sobre diversos assuntos, incluindo jogos, tecnologia, esportes, educação e muito mais.