O avanço da inteligência artificial (IA) tem deixado autoridades e especialistas no assunto preocupados com o uso malicioso da tecnologia. É por isso que organizações como Microsoft, Meta, Google e OpenAI concordaram em implementar um “interruptor” se não puderem garantir a segurança de um modelo de IA.
A decisão foi anunciada no evento AI Seoul Summit 2024, realizada na Coreia do Sul. Na proposta, as organizações se comprometem a medir os riscos de seus modelos de IA, prevendo como agentes externos podem utilizar a tecnologia em aplicações para as quais ela não foi projetada originalmente, por exemplo.
Em linhas gerais, a ideia é a de que as organizações definam os tipos de riscos associados ao desenvolvimento de suas tecnologias de IA. Com base nisso, elas devem impedir o avanço de riscos considerados intoleráveis, como aqueles que podem resultar em ataques cibernéticos ou favorecer ameaças biológicas.
Paralisar a IA se o risco for alto
Os riscos seriam situações extremas, mas que podem ter consequências graves. O tal do “interruptor” consiste então em paralisar o desenvolvimento dos modelos de IA envolvidos, caso as organizações responsáveis não encontrem outros meios de mitigar o problema.
Esse é um trabalho que precisa ser alinhado com as autoridades. Por isso, o acordo envolve governos de países como Estados Unidos, China, Canadá, Reino Unido, França e Coreia Sul, onde a conferência foi realizada.
Os compromissos acordados no evento dizem respeito apenas a modelos de inteligência artificial de “fronteira”, ou seja, envolvem aqueles que estão por trás de grandes sistemas generativos. O exemplo mais óbvio é o GPT, conjunto de modelos de linguagem que é a base do ChaGPT.
Empresas participantes
Como empresas que assinaram o acordo são estas:
- Amazonas
- Antrópico
- Coerente
- G42
- IBM
- IA de inflexão
- meta
- Microsoft
- IA Mistral
- Naver
- OpenAI
- Eletrônica Samsung
- Instituto de Inovação Tecnológica
- xAI
- Zhipu.ai
A iniciativa é bem-vinda. Mas fica a dúvida se acordos como esse serão suficientes para reprimir eventuais ameaças potencializadas pela inteligência artificial. Como destaca a CNBCa União Europeia já trabalha em uma lei para moderar o avanço rápido da IA. Esse é mais um sinal do quanto o assunto tem preocupado autoridades.