Edgar Cervantes / Autoridade Android
DR
- Um relatório sugere que o ChatGPT tem vazado conversas privadas para indivíduos não relacionados.
- Essas conversas incluem muitos detalhes confidenciais, como nomes de usuário e senhas, trabalhos não publicados e muito mais.
- OpenAI está investigando o relatório.
O ChatGPT se tornou uma parte importante do nosso fluxo de trabalho, muitas vezes substituindo até mesmo a Pesquisa Google para muitas consultas. Muitos de nós o usamos para consultas mais simples, mas com a ajuda dos plug-ins e extensões ChatGPT, você pode usar IA para tarefas mais complexas. Mas recomendamos ter cuidado com a finalidade do uso do ChatGPT e quais dados você compartilha com ele, pois os usuários relataram que o ChatGPT vazou algumas conversas privadas.
De acordo com um relatório de ArsTechnica, citando capturas de tela enviadas por um de seus leitores, o ChatGPT está vazando conversas privadas, incluindo detalhes como nomes de usuário e senhas. O leitor usou o ChatGPT para uma consulta não relacionada e curiosamente localizou conversas adicionais presentes em seu histórico de bate-papo que não pertenciam a ele.
Essas conversas externas incluíram vários detalhes. Um conjunto de conversas foi feito por alguém que tentava solucionar problemas por meio de um sistema de suporte usado por funcionários de um portal de medicamentos prescritos por uma farmácia e incluía o nome do aplicativo que a pessoa de fora estava tentando solucionar, o número da loja onde ocorreu o problema e credenciais de login adicionais.
Outra conversa que vazou incluía o nome da apresentação em que alguém estava trabalhando junto com detalhes de uma proposta de pesquisa não publicada.
Esta não é a primeira vez que o ChatGPT vaza informações. ArsTechnica observa que o ChatGPT teve um bug em março de 2023 que vazou títulos de bate-papo, enquanto em novembro de 2023, os pesquisadores puderam usar consultas para fazer com que o bot de IA divulgasse muitos dados privados usados no treinamento do LLM.
OpenAI mencionado para ArsTechnica que a empresa estava investigando o relatório. Independentemente dos resultados das investigações, desaconselhamos a partilha de informações sensíveis com um bot de IA, especialmente um que não tenha sido criado por si.