Un jurnal medical american a avertizat asupra riscurilor folosirii ChatGPT pentru informații medicale, după ce un bărbat a dezvoltat o afecțiune rară în urma unei conversații cu chatbotul despre eliminarea sării de masă din dietă.  

Un articol publicat în Annals of Internal Medicine relatează cazul unui bărbat în vârstă de 60 de ani care a suferit de bromism, cunoscut și sub denumirea de toxicitate cu bromură, după ce s-a consultat cu ChatGPT. Bromismul este descris drept un sindrom „bine cunoscut” la începutul secolului XX, considerat responsabil pentru aproape unul din zece internări psihiatrice din acea perioadă, scrie The Guardian.

Cum a început totul

Pacientul a povestit medicilor că, după ce a citit despre efectele nocive ale clorurii de sodiu (sarea de masă), a cerut sfatul ChatGPT cu privire la eliminarea clorurii din alimentație și a început să administreze bromură de sodiu timp de trei luni. Aceasta, în ciuda faptului că a aflat că „clorura poate fi înlocuită cu bromură, însă probabil în alte scopuri, cum ar fi curățenia”. Bromura de sodiu era folosită ca sedativ în primele decenii ale secolului trecut.

Autorii studiului, de la Universitatea din Washington, Seattle, au subliniat că acest caz scoate în evidență „riscul ca utilizarea inteligenței artificiale să contribuie la apariția unor efecte adverse prevenibile asupra sănătății”. Ei au precizat că, neavând acces la conversația originală a pacientului cu ChatGPT, nu au putut stabili exact ce sfaturi a primit acesta.

Cu toate acestea, atunci când au testat ei înșiși ChatGPT privind înlocuitorii clorurii, chatbotul a menționat tot bromura, fără să ofere avertismente legate de sănătate și fără să întrebe scopul solicitării – „așa cum s-ar aștepta un profesionist medical”, au remarcat autorii.

Pericolele dezinformării și inexactităților generate de AI

Aceștia au avertizat că ChatGPT și alte aplicații bazate pe inteligență artificială pot „produce inexactități științifice, nu au capacitatea de a analiza critic rezultatele și pot alimenta răspândirea dezinformării”.

Compania dezvoltatoare a anunțat săptămâna trecută o actualizare a chatbotului, susținând că unul dintre cele mai mari atuuri ale noii versiuni, bazate pe modelul GPT-5, este domeniul sănătății. Se afirmă că ChatGPT va răspunde mai bine întrebărilor medicale și va semnala mai eficient „posibile probleme”, precum boli grave fizice sau mentale. Totuși, compania a subliniat că chatbotul nu înlocuiește consultul medical profesionist, iar ghidurile sale specifică faptul că nu este „intenționat pentru diagnosticarea sau tratamentul niciunei afecțiuni medicale”.

Articolul, publicat înainte de lansarea GPT-5, menționează că pacientul probabil a folosit o versiune anterioară a ChatGPT. Deși recunosc că inteligența artificială poate servi drept punte între experți și public, autorii atenționează asupra riscului de „decontextualizare a informațiilor” și consideră extrem de puțin probabil ca un medic să recomande bromura de sodiu drept înlocuitor pentru sarea de masă. Ca urmare, medicii trebuie să țină cont de utilizarea AI atunci când verifică sursele de informații ale pacienților.

Autorii au mai relatat că pacientul s-a prezentat la spital susținând că este otrăvit de vecinul său și că avea numeroase restricții alimentare. Deși îi era sete, se arăta paranoic în privința apei care îi era oferită. Acesta a încercat să fugă din spital în primele 24 de ore de la internare, iar după ce a fost internat involuntar, a fost tratat pentru psihoză. După stabilizare, a prezentat simptome specifice bromismului, precum acnee facială, sete excesivă și insomnie. (sursa)

Articolul precedentCând începe școala. Data la care elevii se întorc în bănci pentru primul modul de cursuri
Articolul următorAnularea alegerilor din 2024, consemnată în Raportul Departamentului de Stat al SUA privind situația drepturilor omului în România