ChatGPT tem dificuldade em responder a perguntas médicas, segunda uma nova investigação
O pesquisador da Universidade de Long Island colocou 39 questões relacionadas com medicamentos à versão gratuita do chatbot de inteligência artificial, todas elas questões reais do serviço de informação sobre medicamentos da Faculdade de Farmácia da universidade. As respostas do software foram comparadas depois com as respostas escritas e revistas por farmacêuticos formados.
O estudo concluiu que o ChatGPT deu respostas exatas apenas a cerca de 10 das perguntas, ou seja, cerca de um quarto do total. Para as outras 29 perguntas, as respostas eram incompletas ou incorretas, ou não respondiam às perguntas.
Os resultados foram apresentados terça-feira na reunião anual da American Society for Health-Systems Pharmacists em Anaheim, Califórnia.
ChatGPT, o chatbot de IA experimental da OpenAI, foi lançado em novembro de 2022 e se tornou o aplicativo de consumo de crescimento mais rápido da história, com quase 100 milhões de pessoas registradas em dois meses.
Dada essa popularidade, o interesse dos pesquisadores foi despertado pela preocupação de que seus alunos, outros farmacêuticos e consumidores comuns recorressem a recursos como o ChatGPT para explorar questões sobre seus planos de saúde e medicamentos, disse Sara Grossman, professora associada de prática farmacêutica na Universidade de Long Island e um dos autores do estudo.
As respostas a essas perguntas, segundo o pesquisador, eram frequentemente incorretas ou mesmo perigosas.
Numa pergunta, por exemplo, os pesquisadores perguntaram ao ChatGPT se o medicamento antiviral Paxlovid, contra a Covid-19, e o medicamento para baixar a pressão arterial verapamil reagiriam entre si no organismo. ChatGPT respondeu que tomar os dois medicamentos juntos não produziria efeitos adversos.
Na realidade, as pessoas que tomam ambos os medicamentos podem ter uma grande descida da tensão arterial, o que pode causar tonturas e desmaios. Para os pacientes que tomam ambos os medicamentos, os médicos criam frequentemente planos específicos para cada doente, incluindo a redução da dose de verapamil ou a advertência de que uma pessoa deve levantar-se lentamente de uma posição sentada, disse Grossman.
A orientação do ChatGPT, acrescentou, teria colocado as pessoas em perigo.
“Usar o ChatGPT para resolver esta questão colocadaia um paciente em risco de uma interação medicamentosa indesejada e evitável”, escreveu Grossman em um e-mail para a CNN.
Quando os pesquisadores pediram ao chatbot referências científicas para apoiar cada uma de suas respostas, eles descobriram que o software poderia fornecê-las para apenas oito das perguntas que eles fizeram. E, em cada caso, ficamos surpresos ao descobrir que o ChatGPT estava a fabricar referências.
À primeira vista, as sugestões são legítimas: Muitas vezes foram formatadas corretamente, forneciam URLs e foram incluídas em revistas científicas legítimas. Mas quando a equipe encontrou os artigos referenciados, veja que o ChatGPT tinha dados fictícios.
Num dos casos, os pesquisadores perguntaram ao ChatGPT como converter doses de injeção espinal do medicamento para espasmos musculares baclofeno em doses orais correspondentes. A equipe de Grossman não conseguiu encontrar uma taxa de conversão de doses cientificamente declarada, mas o ChatGPT apresentou uma única taxa de conversão e citou a orientação de duas organizações médicas, disse ela.
No entanto, nenhuma das organizações fornece qualquer orientação oficial sobre a taxa de conversão de doses. De fato, o fator de conversão que o ChatGPT sugeriu nunca foi cientificamente previsto. O software também apresentou um exemplo de cálculo para a conversão da dose, mas com um erro crítico: confundiu as unidades ao calcular a dose oral, alterando a recomendação da dose por um fator de 1.000.
Se essa orientação fosse seguida por um profissional de saúde, disse Grossman, ele poderia dar a um paciente uma dose oral de baclofeno 1.000 vezes menor do que a necessidade, o que poderia causar sintomas de abstinência, como alucinações e convulsões.
Houve vários erros e “problemas” com esta resposta e, na última análise, pode ter um impacto profundo no tratamento dos pacientes”, escreveu.
O estudo da Universidade de Long Island não é o primeiro a levantar preocupações sobre as restrições fictícias do ChatGPT. Pesquisas Os anteriores também documentaram que, quando questionado sobre questões médicas, o ChatGPT pode criar falsificações enganosas de referências científicas, até mesmo listando os nomes de autores reais com publicações anteriores em revistas científicas.
Grossman, que tinha trabalhado um pouco com o software antes do estudo, ficou surpreso com a confiança de que o ChatGPT era capaz de sintetizar informações quase instantaneamente, respostas que levariam horas para serem compiladas por profissionais treinados.
“As respostas foram formuladas de uma forma muito profissional e sofisticada, e parece que isso pode contribuir para um sentimento de confiança na exatidão da ferramenta”, afirmou. “Um usuário, um consumidor ou outras pessoas que possam não ser capazes de discernir podem ser influenciadas pela aparência da autoridade.”
Um porta-voz da OpenAI, a organização que desenvolve o ChatGPT, disse que aconselha os usuários a não confiar nas respostas como uma alternativa para aconselhamento ou tratamento médico profissional.
O porta-voz indicado para as políticas de utilização do ChatGPT, que indica que “os modelos da OpenAI não estão configurados para fornecer informações médicas”. A política também afirma que os modelos nunca devem ser usados para fornecer “serviços de diagnóstico ou tratamento para condições médicas graves”.
Embora Grossman não tenha certeza de quantas pessoas usam o ChatGPT para responder a perguntas sobre medicamentos, ela levantou preocupações de que eles poderiam usar o chatbot como se estivessem procurando conselhos médicos em mecanismos de pesquisa como o Google.
Receber o boletim informativo semanal da CNN Health
Inscreva-seaqui para receber o The Results Are In with Dr. todas as terças-feiras da equipe da CNN Health.
“As pessoas estão sempre à procura de respostas instantâneas quando estão na ponta dos dedos”, disse Grossman. “Acho que esta é apenas mais uma abordagem de uso do ‘Dr. Google’ e outros métodos aparentemente simples de obter informações.”
Para obter informações médicas on-line, ela recomenda que os consumidores usem sites governamentais que fornecem informações respeitáveis, como a página Medline Plus do Instituto Nacional de Saúde.
Ainda assim, Grossman não acredita que as respostas online possam substituir o conselho de um profissional de saúde.
“Os sites são talvez um ponto de partida, mas podem tirar as considerações de cuidados de saúde do contexto em que se encontram quando procuram informações sobre medicamentos que são diretamente aplicáveis”, afirmou. “Mas pode não ser aplicável aos próprios pacientes devido ao seu caso pessoal, e cada doente é diferente. Por isso, a autoridade não deve ser retirada do quadro: o profissional de saúde, o prescritor, os médicos do paciente”.
Fonte: edition.cnn.com