Foto: Reprodução
Um homem de 60 anos foi internado em um hospital dos Estados Unidos com uma condição rara após seguir conselhos de saúde do ChatGPT. Ele tinha sintomas neuropsiquiátricos e dermatológicos associados ao bromismo, uma intoxicação causada pela ingestão excessiva de brometo. O caso foi publicado na revista Annals of Internal Medicine, em 5 de agosto.
O paciente relatou aos médicos que decidiu remover o cloreto de sódio, o sal de cozinha, da dieta após ler sobre possíveis riscos à saúde. Ao consultar a inteligência artificial, ele recebeu informações de que o sal poderia ser substituído por brometo, mas o gerador de textos não alertou sobre os perigos da troca. O homem ingeriu brometo de sódio por três meses
Diagnóstico e evolução clínica
Segundo o relato dos médicos responsáveis pelo atendimento, exames mostraram alterações nos níveis de eletrólitos e indícios de pseudo-hipercloremia. O paciente apresentou paranoia, alucinações e desconfiança em relação à água oferecida, além de sede intensa e insônia.
Após internação, ele revelou que havia feito múltiplas restrições alimentares por conselho dos modelos de inteligência artificial e falou do uso recente de brometo. A confirmação do bromismo ocorreu após avaliação clínica e consulta ao centro de controle de intoxicações.
O tratamento incluiu manejo dos sintomas e reposição de eletrólitos. O paciente se recuperou e, ao voltar às suas faculdades mentais, relatou que havia tido lesões de pele e cansaço persistente no período anterior à psicose, outros dos sintomas característicos da intoxicação por brometo
O brometo foi utilizado como sedativo no início do século 20 e teve o uso interrompido nos EUA entre 1975 e 1989, justamente devido à toxicidade. Na época, o bromismo era responsável por até 10% das internações psiquiátricas no país.
Ao testar a pesquisa do paciente sobre substitutos para o sal, os médicos obtiveram do ChatGPT a mesma menção ao brometo, sem advertências ou questionamentos sobre o objetivo da substituição.
“A IA não forneceu um aviso de saúde específico, nem perguntou sobre por que queríamos saber [como substituir o sal], como presumimos que um profissional médico faria. Assim, é importante considerar que o ChatGPT e outras IAs podem gerar imprecisões científicas, não têm capacidade para discutir criticamente os resultados e, em última análise, alimentam a disseminação de desinformação”, afirmam os pesquisadores.
Metrópoles
No momento, a IA tem que ser usada com muita cautela, ela apenas pega dados da internet para dar respostas, dados criados por pessoas…bem e mal intencionadas, então o erro sem duvida vai aparecer dependendo do prompt usado.
Usar cegamente para coisas importantes, é um erro que o usuário comete por comodidade.
quase no mesmo nível é a moda de médico fingir ser nutricionista – incorrendo em contravenção penal – e talvez em crime a depender da basteira que diga ao paciente.
Os idiotas sempre se superando.