A Inteligência Artificial (IA) e os algoritmos têm a capacidade e estão atualmente a ser utilizados para exacerbar a radicalização, aumentar a polarização e disseminar o racismo e a instabilidade política, de acordo com um académico da Universidade de Lancaster.
Joe Burton, professor de Segurança Internacional na Universidade de Lancaster, afirma que a IA e os algoritmos são mais do que meras ferramentas utilizadas pelas agências de segurança nacional para impedir atividades online maliciosas. Ele sugere que também podem alimentar a polarização, o radicalismo e a violência política, tornando-se eles próprios uma ameaça à segurança nacional.
Além disso, diz ele, os processos de titularização (apresentando a tecnologia como uma ameaça existencial) têm sido fundamentais na forma como a IA foi concebida e utilizada e nos resultados prejudiciais que gerou.
IA na securitização e seu impacto social
O artigo do Professor Burton foi publicado recentemente no periódico de alto impacto da Elsevier Tecnologia na Sociedade Diário.
“A IA é frequentemente considerada uma ferramenta a utilizar para combater o extremismo violento”, afirma o professor Burton. “Aqui está o outro lado do debate.”
O artigo analisa a forma como a IA foi securitizada ao longo da sua história e nas representações dos meios de comunicação social e da cultura popular, explorando exemplos modernos de IA com efeitos polarizadores e radicalizantes que contribuíram para a violência política.
IA em guerra e segurança cibernética
O artigo cita a clássica série de filmes, O Exterminador do Futuro, que retratava um holocausto cometido por uma inteligência artificial “sofisticada e maligna”, fazendo mais do que qualquer coisa para enquadrar a consciência popular da Inteligência Artificial e o medo de que a consciência da máquina pudesse levar a consequências devastadoras para humanidade – neste caso, uma guerra nuclear e uma tentativa deliberada de exterminar uma espécies.
“Esta falta de confiança nas máquinas, os medos a elas associados e a sua associação com ameaças biológicas, nucleares e genéticas à humanidade contribuíram para um desejo por parte dos governos e agências de segurança nacional de influenciar o desenvolvimento da tecnologia, de mitigar o risco e (em alguns casos) aproveitar o seu potencial positivo”, escreve o Professor Burton.
O papel dos drones sofisticados, como os utilizados na guerra na Ucrânia, é, diz o professor Burton, agora capaz de total autonomia, incluindo funções como identificação e reconhecimento de alvos.
E, embora tenha havido um amplo e influente debate de campanha, inclusive na ONU, para proibir os “robôs assassinos” e para manter os humanos informados quando se trata de tomada de decisões de vida ou morte, a aceleração e integração em drones armados, diz ele, continuou em ritmo acelerado.
Na segurança cibernética – a segurança de computadores e redes de computadores – a IA está a ser utilizada de forma importante, sendo a área mais prevalente a (des)informação e a guerra psicológica online.
As ações do governo de Putin contra os processos eleitorais dos EUA em 2016 e o subsequente escândalo Cambridge Analytica mostraram o potencial da IA ser combinada com big data (incluindo redes sociais) para criar efeitos políticos centrados na polarização, no encorajamento de crenças radicais e na manipulação de identidade grupos. Demonstrou o poder e o potencial da IA para dividir as sociedades.
O impacto social da IA durante a pandemia
E durante a pandemia, a IA foi vista como um elemento positivo no rastreamento e rastreamento do vírus mas também gerou preocupações sobre a privacidade e os direitos humanos.
O artigo examina a própria tecnologia de IA, argumentando que existem problemas na concepção da IA, nos dados em que se baseia, na forma como é utilizada e nos seus resultados e impactos.
O artigo conclui com uma forte mensagem aos investigadores que trabalham em segurança cibernética e Relações Internacionais.
“A IA é certamente capaz de transformar as sociedades de forma positiva, mas também apresenta riscos que precisam de ser melhor compreendidos e geridos”, escreve o Professor Burton, especialista em conflitos cibernéticos e tecnologias emergentes e que faz parte da iniciativa Ciência de Segurança e Proteção da Universidade.
“Compreender os efeitos divisivos da tecnologia em todas as fases do seu desenvolvimento e utilização é claramente vital.
“Os estudiosos que trabalham em segurança cibernética e relações internacionais têm a oportunidade de incorporar esses fatores na agenda emergente de pesquisa em IA e evitar tratar a IA como uma tecnologia politicamente neutra.
“Por outras palavras, a segurança dos sistemas de IA e a forma como são utilizados nas lutas geopolíticas internacionais não devem sobrepor-se às preocupações sobre os seus efeitos sociais.”
Referência: “Extremismo algorítmico? A securitização da inteligência artificial (IA) e o seu impacto no radicalismo, na polarização e na violência política” por Joe Burton, 14 de setembro de 2023, Tecnologia na Sociedade.
DOI: 10.1016/j.techsoc.2023.102262