En mand besluttede at bede ChatGPT om hjælp til at forbedre sin kost, men det viste sig at være en rigtig dårlig idé.
Lige nu læser andre
En 60-årig mand blev akut indlagt efter i tre måneder at have fulgt et råd, han havde fået fra ChatGPT. Han havde udskiftet almindeligt bordsalt med natriumbromid, hvilket resulterede i en forgiftningstilstand kendt som bromisme.
Denne type forgiftning er i dag yderst sjælden, men var udbredt i slutningen af 1800-tallet og begyndelsen af 1900-tallet, hvor bromid blev anvendt i en lang række lægemidler – både receptpligtige og håndkøbspræparater.
Ifølge artiklen i Annals of Internal Medicine Clinical Cases begyndte forløbet, da manden søgte efter et alternativ til natriumklorid for at reducere sit saltforbrug. Han forklarede, at AI-værktøjet havde anbefalet bromid – et stof, der tidligere blev brugt i beroligende medicin, men som senere blev taget af markedet på grund af betydelige sundhedsrisici.
Overbevist om at have fundet et sikkert alternativ, bestilte manden natriumbromid på nettet og brugte det konsekvent i sin madlavning. Efter nogle uger udviklede han alvorlige neurologiske og psykiatriske symptomer, herunder paranoia, hallucinationer, søvnproblemer og nedsat koordinationsevne. Det førte til, at han måtte indlægges akut, skriver El Confidencial.
De første blodprøver viste forhøjede kloridværdier, men resultaterne var fejlagtige, da bromid forstyrrede analyserne. Efter konsultation med toksikologer kunne lægerne konstatere, at der var tale om bromisme – en kronisk forgiftning, som opstår, når bromid ophobes i kroppen.
Læs også
Under hospitalsopholdet fik patienten væskebehandling, tilskud af elektrolytter samt antipsykotisk medicin. Han udviklede desuden hudforandringer som akne og små rødlige udslæt, hvilket blev koblet til forgiftningen. Efter stabilisering af tilstanden blev han udskrevet og har siden været i god bedring ved opfølgende kontroller.
Forfatterne bag rapporten understreger, at ingen læge ville have anbefalet bromid som erstatning for almindeligt salt, og de advarer mod at følge sundhedsråd uden kvalificeret faglig vejledning.
En talsmand for OpenAI oplyste i et svar til Live Science, at ChatGPT ikke er beregnet til at diagnosticere eller behandle sygdomme, og at modellen ikke bør bruges som eneste kilde til medicinsk information. Dette fremgår også tydeligt af virksomhedens brugervilkår.