Conceito perigoso de IA de inteligência artificial

Os especialistas defendem a IA centrada no ser humano, apelando à concepção de tecnologia que apoie e enriqueça a vida humana, em vez de forçar os humanos a adaptarem-se a ela. Um novo livro com cinquenta especialistas de mais de doze países e disciplinas explora formas práticas de implementar IA centrada no ser humano, abordando riscos e propondo soluções em vários contextos.

De acordo com uma equipa de especialistas globais, precisamos de parar o desenvolvimento de novas tecnologias de IA apenas por uma questão de inovação, o que obriga a ajustes nas práticas, hábitos e leis para acomodar a tecnologia. Em vez disso, defendem a criação de IA que satisfaça precisamente as nossas necessidades, alinhando-se com os princípios do design de IA centrado no ser humano.

Cinquenta especialistas de todo o mundo contribuíram com artigos de investigação para um novo livro sobre como tornar a IA mais “centrada no ser humano”, explorando os riscos — e oportunidades perdidas — de não utilizar esta abordagem e formas práticas de a implementar.

Os especialistas vêm de mais de 12 países, incluindo Canadá, França, Itália, Japão, Nova Zelândia e Reino Unido, e de mais de 12 disciplinas, incluindo ciência da computação, educação, direito, gestão, ciência política e sociologia.

IA centrada no ser humano analisa as tecnologias de IA em vários contextos, incluindo agricultura, ambientes de trabalho, cuidados de saúde, justiça criminal, ensino superior, e oferece medidas aplicáveis ​​para serem mais “centradas no ser humano”, incluindo abordagens para sandboxes regulatórias e estruturas para trabalho interdisciplinar.

O que é IA centrada no ser humano?

A inteligência artificial (IA) permeia as nossas vidas de uma forma cada vez maior e alguns especialistas argumentam que depender exclusivamente de empresas tecnológicas para desenvolver e implementar esta tecnologia de uma forma que melhore verdadeiramente a experiência humana será prejudicial para as pessoas a longo prazo. É aqui que entra a IA centrada no ser humano.

Um dos maiores especialistas mundiais em IA centrada no ser humano, Shannon Vallor, da Universidade de Edimburgo, na Escócia, explica que a IA centrada no ser humano significa tecnologia que ajuda os seres humanos a florescer.

Ela diz: “A tecnologia centrada no ser humano consiste em alinhar todo o ecossistema tecnológico com a saúde e o bem-estar da pessoa humana. O contraste é com a tecnologia projetada para substituir os humanos, competir com os humanos ou desvalorizar os humanos, em oposição à tecnologia projetada para apoiar, capacitar, enriquecer e fortalecer os humanos.”

Ela aponta a IA generativa, cuja popularidade cresceu nos últimos anos, como um exemplo de tecnologia que não é centrada no ser humano – ela argumenta que a tecnologia foi criada por organizações que queriam simplesmente ver o quão poderoso elas podem tornar um sistema, em vez de atender a uma necessidade humana.

“O que obtemos é algo com que temos de lidar, em oposição a algo concebido por nós, para nós e para nos beneficiar. Não é a tecnologia que precisávamos”, explica ela. “Em vez de adaptar as tecnologias às nossas necessidades, adaptamo-nos às necessidades da tecnologia.”

Qual é o problema da IA?

Contribuintes para IA centrada no ser humano expõem as suas esperanças, mas também muitas preocupações com a IA agora e na sua trajetória atual, sem um foco centrado no ser humano.

Malwina Anna Wójcik, da Universidade de Bolonha, Itália, e da Universidade do Luxemburgo, aponta os preconceitos sistémicos no atual desenvolvimento da IA. Ela salienta que as comunidades historicamente marginalizadas não desempenham um papel significativo na concepção e desenvolvimento de tecnologias de IA, levando ao “entrincheiramento das narrativas de poder prevalecentes”.

Ela argumenta que há falta de dados sobre minorias ou que os dados disponíveis são imprecisos, levando à discriminação. Além disso, a disponibilidade desigual dos sistemas de IA faz com que as lacunas de poder aumentem, com grupos marginalizados incapazes de alimentar o ciclo de dados de IA e, simultaneamente, incapazes de beneficiar das tecnologias.

Sua solução é a diversidade na pesquisa, bem como em projetos interdisciplinares e colaborativos na intersecção da ciência da computação, ética, direito e ciências sociais. A nível político, ela sugere que as iniciativas internacionais precisam de envolver o diálogo intercultural com tradições não-ocidentais.

Entretanto, Matt Malone, da Universidade Thompson Rivers, no Canadá, explica como a IA representa um desafio à privacidade porque poucas pessoas compreendem realmente como os seus dados estão a ser recolhidos ou como estão a ser utilizados.

“Essas lacunas de consentimento e conhecimento resultam em intrusões perpétuas em domínios que a privacidade poderia, de outra forma, tentar controlar”, explica ele. “A privacidade determina até que ponto permitimos que a tecnologia alcance as esferas da vida e da consciência humana. Mas à medida que esses choques desaparecem, a privacidade é rapidamente redefinida e reconcebida, e à medida que a IA capta mais tempo, atenção e confiança, a privacidade continuará a desempenhar um papel determinante no estabelecimento das fronteiras entre o ser humano e a tecnologia.”

Malone sugere que “a privacidade estará em fluxo com a aceitação ou rejeição de tecnologias baseadas na IA” e que, mesmo que a tecnologia proporcione maior igualdade, é provável que a individualidade esteja em jogo.

IA e comportamento humano

Além de explorar os impactos sociais, os colaboradores investigam os impactos comportamentais do uso da IA ​​na sua forma atual.

Oshri Bar-Gil do Instituto de Pesquisa em Ciência Comportamental, Israel, realizou um projeto de pesquisa observando como o uso dos serviços do Google causou mudanças em si mesmo e no autoconceito. Ele explica que um “eu” de dados é criado quando usamos uma plataforma, então a plataforma obtém mais dados de como a usamos e depois usa os dados e preferências que fornecemos para melhorar seu próprio desempenho.

“Esses mecanismos de recomendação eficientes e benéficos têm um custo oculto: sua influência sobre nós, como seres humanos”, diz ele. “Eles mudam os nossos processos de pensamento, alterando alguns dos nossos principais aspectos humanos de intencionalidade, racionalidade e memória na esfera digital e no mundo real, diminuindo a nossa agência e autonomia.”

Também analisando os impactos comportamentais, Alistair Knott, da Victoria University of Wellington, Nova Zelândia, e Tapabrata Chakraborti, do Alan Turing Institute, University College London, Reino Unido, e Dino Pedreschi, da Universidade de Pisa, Itália, analisaram o uso generalizado de IA. nas redes sociais.

“Embora os sistemas de IA utilizados pelas plataformas de redes sociais sejam centrados no ser humano em alguns sentidos, há vários aspectos do seu funcionamento que merecem um exame cuidadoso”, explicam.

O problema decorre do facto de a IA aprender continuamente com o comportamento do utilizador, refinando o seu modelo de utilizadores à medida que continuam a interagir com a plataforma. Mas os usuários tendem a clicar nos itens que o sistema de recomendação lhes sugere, o que significa que o sistema de IA provavelmente restringirá a gama de interesses do usuário com o passar do tempo. Se os usuários interagirem com conteúdo tendencioso, é mais provável que eles recebam a recomendação desse conteúdo e, se continuarem a interagir com ele, verão mais dele: “Em suma, há um motivo plausível de preocupação de que os sistemas de recomendação possam jogar um papel em mover os usuários em direção extremista posições.”

Sugerem algumas soluções para estas questões, incluindo transparência adicional por parte das empresas que detêm dados sobre sistemas de recomendação para permitir um maior estudo e relatórios sobre os efeitos destes sistemas, sobre as atitudes dos utilizadores em relação a conteúdos nocivos.

Como a IA centrada no ser humano pode funcionar na realidade?

Pierre Larouche, da Universidade de Montreal, no Canadá, argumenta que tratar a IA como “um objecto autónomo de lei e regulamentação” e assumir que “não existe actualmente nenhuma lei aplicável à IA” fez com que alguns decisores políticos sentissem que se tratava de uma tarefa intransponível.

Ele explica: “Uma vez que a IA é vista como um novo desenvolvimento tecnológico, presume-se que ainda não existe lei para ela. Na mesma linha, apesar da escassez – se não da total ausência – de regras específicas relativas à IA como tal, não faltam leis que possam ser aplicadas à IA, devido à sua inserção nas relações sociais e económicas.”

Larouche sugere que o desafio não é criar nova legislação, mas determinar como a lei existente pode ser estendida e aplicada à IA, e explica: “Permitir que o debate seja enquadrado como uma discussão ética aberta sobre uma página jurídica em branco pode ser contrariado”. -produtivo para a elaboração de políticas, na medida em que abre a porta a várias tácticas de adiamento destinadas a prolongar a discussão indefinidamente, enquanto a tecnologia continua a progredir a um ritmo rápido.”

Benjamin Prud’homme, vice-presidente de Política, Sociedade e Assuntos Globais do Mila – Instituto de Inteligência Artificial de Quebec, uma das maiores comunidades acadêmicas dedicadas à IA, ecoa este apelo à confiança nos formuladores de políticas.

Ele explica: “A minha primeira recomendação, ou talvez a minha primeira esperança, seria que começássemos a afastar-nos da dicotomia entre inovação e regulamentação – que reconhecêssemos que pode ser correcto reprimir a inovação se esta for irresponsável.

“Eu diria aos decisores políticos para terem mais confiança na sua capacidade de regular a IA; que sim, a tecnologia é nova, mas que é impreciso dizer que não lidaram (com sucesso) com os desafios relacionados com a inovação no passado. Muitas pessoas na comunidade de governação da IA ​​têm medo de não acertar as coisas desde o início. E você sabe, uma coisa que aprendi em minhas experiências nos círculos de formulação de políticas é que provavelmente não conseguiremos acertar desde o início. Isso está ok.

“Ninguém tem uma varinha mágica. Portanto, eu diria o seguinte aos decisores políticos: Levem a questão a sério. Faça o melhor que puder. Convide uma ampla gama de perspectivas – incluindo comunidades marginalizadas e utilizadores finais – para a mesa enquanto tenta criar os mecanismos de governação adequados. Mas não se deixe paralisar por um punhado de vozes que fingem que os governos não podem regular a IA sem sufocar a inovação. A União Europeia poderia dar o exemplo a este respeito, uma vez que a muito ambiciosa Lei da IA, a primeira lei sistémica sobre IA, deverá ser aprovada definitivamente nos próximos meses.»

Referência: “IA Centrada no Ser Humano – Uma Perspectiva Multidisciplinar para Decisores Políticos, Auditores e Utilizadores”, 21 de março de 2024.
DOI: 10.1201/9781003320791



Share. Facebook Twitter Pinterest LinkedIn Tumblr Email

Formado em Educação Física, apaixonado por tecnologia, decidi criar o site news space em 2022 para divulgar meu trabalho, tenho como objetivo fornecer informações relevantes e descomplicadas sobre diversos assuntos, incluindo jogos, tecnologia, esportes, educação e muito mais.