A capacidade da IA para abordar questões morais está a melhorar, o que suscita novas considerações para o futuro.
Um estudo recente revelou que quando os indivíduos recebem duas soluções para um dilema moral, a maioria tende a preferir a resposta fornecida pela inteligência artificial (IA) à dada por outro ser humano.
O estudo recente, conduzido por Eyal Aharoni, professor associado do Departamento de Psicologia do Estado da Geórgia, foi inspirado na explosão do ChatGPT e de modelos de linguagem grandes (LLMs) de IA semelhantes que entraram em cena em março passado.
“Eu já estava interessado na tomada de decisões morais no sistema jurídico, mas me perguntei se o ChatGPT e outros LLMs poderiam ter algo a dizer sobre isso”, disse Aharoni. “As pessoas irão interagir com estas ferramentas de formas que têm implicações morais, como as implicações ambientais de pedir uma lista de recomendações para um carro novo. Alguns advogados já começaram a consultar estas tecnologias para os seus casos, para o bem ou para o mal. Então, se quisermos usar essas ferramentas, devemos entender como elas funcionam, suas limitações, e que elas não estão necessariamente operando da maneira que pensamos quando interagimos com elas.”
Projetando o Teste de Turing Moral
Para testar como a IA lida com questões de moralidade, Aharoni desenvolveu uma forma de teste de Turing.
“Alan Turing, um dos criadores do computador, previu que até o ano 2000 os computadores poderão passar em um teste onde você apresentará a um ser humano comum dois interagentes, um humano e o outro um computador, mas ambos estão ocultos e seu único forma de comunicação é através de texto. Então o humano fica livre para fazer as perguntas que quiser, a fim de tentar obter as informações necessárias para decidir qual dos dois interagentes é o humano e qual é o computador”, disse Aharoni. “Se o humano não consegue perceber a diferença, então, para todos os efeitos, o computador deveria ser chamado de inteligente, na visão de Turing.”
Para seu teste de Turing, Aharoni fez as mesmas perguntas éticas aos estudantes de graduação e à IA e depois apresentou suas respostas por escrito aos participantes do estudo. Eles foram então solicitados a avaliar as respostas de acordo com vários traços, incluindo virtuosidade, inteligência e confiabilidade.
“Em vez de pedir aos participantes que adivinhassem se a fonte era humana ou IA, apenas apresentamos os dois conjuntos de avaliações lado a lado e apenas deixamos as pessoas presumirem que ambos eram provenientes de pessoas”, disse Aharoni. “Sob essa falsa suposição, eles julgaram os atributos das respostas como ‘Quanto você concorda com esta resposta, qual resposta é mais virtuosa?’”
Resultados e implicações
Surpreendentemente, as respostas geradas pelo ChatGPT foram avaliadas mais bem do que as geradas por humanos.
“Depois de obtermos esses resultados, fizemos a grande revelação e dissemos aos participantes que uma das respostas foi gerada por um ser humano e a outra por um computador, e pedimos-lhes que adivinhassem qual era qual”, disse Aharoni.
Para que uma IA passe no teste de Turing, os humanos não devem ser capazes de distinguir entre as respostas da IA e as humanas. Nesse caso, as pessoas perceberiam a diferença, mas não por um motivo óbvio.
“A diferença é que a razão pela qual as pessoas perceberam a diferença parece ser porque classificaram as respostas do ChatGPT como superiores”, disse Aharoni. “Se tivéssemos feito este estudo há cinco a 10 anos, poderíamos ter previsto que as pessoas poderiam identificar a IA devido à qualidade das suas respostas. Mas descobrimos o oposto – que a IA, de certa forma, teve um desempenho muito bom.”
Segundo Aharoni, esta descoberta tem implicações interessantes para o futuro dos humanos e da IA.
“As nossas descobertas levam-nos a acreditar que um computador poderia tecnicamente passar num teste moral de Turing – que poderia enganar-nos no seu raciocínio moral. Por causa disso, precisamos tentar entender o seu papel na nossa sociedade, porque haverá momentos em que as pessoas não saberão que estão interagindo com um computador e haverá momentos em que elas saberão e consultarão o computador para obter informações. informações porque confiam mais nelas do que nas outras pessoas”, disse Aharoni. “As pessoas vão confiar cada vez mais nesta tecnologia e, quanto mais confiamos nela, maior se torna o risco ao longo do tempo.”
Referência: “Atribuições a agentes artificiais em um teste de Turing moral modificado” por Eyal Aharoni, Sharlene Fernandes, Daniel J. Brady, Caelan Alexander, Michael Criner, Kara Queen, Javier Rando, Eddy Nahmias e Victor Crespo, 30 de abril de 2024, Relatórios Científicos.
DOI: 10.1038/s41598-024-58087-7