Mange gør det, men det ændrer ikke på, at det bestemt ikke er en god idé at gøre.
Lige nu læser andre
Er ChatGPT vores fremtidige praktiserende læge? Det spørgsmål dukker stadig op med jævne mellemrum.
Men en nylig hændelse i USA viser, at ChatGPT endnu ikke altid er den bedste rådgiver på sundhedsområdet. En mand udviklede en sjælden sygdom efter at have fulgt råd fra en AI-bot om, hvordan han kunne reducere salt i sin kost.
I 2023 bestod Googles AI-drevne medicinske chatbot en krævende amerikansk lægeeksamen. Forskerne lod programmet gennemføre USMLE-prøven, der består af multiple choice-spørgsmål. Chatbotten, Med-PaLM, scorede 67,6 procent – nok til at bestå.
“Med-PaLM viser lovende resultater, men er stadig ikke på niveau med læger,” skrev forskerne dengang.
Nu beskriver det amerikanske medicinske tidsskrift Annals of Internal Medicine en sag, hvor brugen af ChatGPT som medicinsk rådgiver førte til en sjælden sygdom.
Læs også
Den 60-årige mand havde læst om de negative virkninger af køkkensalt (natriumchlorid) og spurgte AI-botten, hvordan han kunne fjerne salt fra sin kost. ChatGPT foreslog at erstatte chlorid med natriumbromid – et stof, der i starten af det 20. århundrede blev brugt som beroligende middel.
Efter tre måneders indtagelse af natriumbromid endte manden på skadestuen og hævdede, at hans nabo havde forgiftet ham. Han havde blandt andet ekstrem tørst, søvnløshed og akne. Det viste sig senere, at natriumbromid var årsagen: manden havde udviklet bromisme.
“Denne sag illustrerer, hvordan brugen af kunstig intelligens potentielt kan føre til undgåelige negative helbredsmæssige konsekvenser,” skriver forskerne fra University of Washington.
De havde ikke adgang til mandens originale chat, men da de selv spurgte ChatGPT om, hvad chlorid kunne erstattes med, fik de igen bromid som svar.
“Selvom svaret nævnte, at konteksten er vigtig, blev der ikke givet nogen specifik sundhedsadvarsel eller spurgt ind til formålet – sådan som en medicinsk fagperson sandsynligvis ville have gjort,” forklarer de.
Læs også
Forskerne understreger, at ChatGPT og andre AI-systemer kan generere videnskabelige unøjagtigheder, mangler evnen til kritisk at vurdere resultater og kan i sidste ende bidrage til spredning af misinformation.
De ser AI som et værktøj med stort potentiale til at formidle forskning til offentligheden, men advarer om, at information nemt kan misforstås eller tages ud af kontekst. Det er ifølge dem “meget usandsynligt”, at en læge ville have nævnt natriumbromid i denne situation.
“Sundhedspersonale bør være opmærksomme på, hvor deres patienter henter sundhedsinformation,” påpeger forskerne.
Der er også andre risici ved at bruge ChatGPT. Nogle anvender botten som personlig terapeut. AI kan virke empatisk, men for personer med alvorlige mentale problemer kan det forværre situationen.
En mand, der var blevet depressiv efter at have mistet sit job, spurgte ChatGPT om de højeste broer i New York. En rigtig terapeut ville have grebet ind, mens ChatGPT blot gav en liste.
Læs også
Også seksuelle spørgsmål kan skabe problemer. Britisk forskning viser, at mange unge bruger ChatGPT som seksualundervisning. Eksperter advarer dog om, at kildematerialet er uklart, og botten kan derfor give forkerte eller uhensigtsmæssige råd.