Avertizare privind riscurile utilizării ChatGPT pentru sfaturi medicale
Inapoi

Avertizare privind riscurile utilizării ChatGPT pentru sfaturi medicale

Postat pe 17 Aug 2025

Update cu 2 săptămâni în urmă

Timp de citire: 4 minute

Articol scris de: Elena Dumitrescu

Avertizare privind riscurile utilizării ChatGPT pentru sfaturi medicale
Nationale

Avertizare privind riscurile utilizării ChatGPT pentru sfaturi medicale

O revistă medicală americană a atras atenția asupra pericolelor utilizării ChatGPT pentru obținerea de sfaturi legate de sănătate, după ce un bărbat a dezvoltat o afecțiune rară în urma unei discuții cu chatbotul despre eliminarea sarii din alimentație, notează digi24.ro.

În articol, specialiștii de la Universitatea din Washington, Seattle, evidențiază cazul unui pacient care, după ce a citit despre efectele negative ale clorurii de sodiu, a cerut ajutor de la ChatGPT pentru a afla cum să renunțe la sare. În timpul conversației, chatbotul i-a sugerat în mod indirect înlocuirea clorurii cu bromură. Bărbatul a început să ia bromură de sodiu timp de trei luni, fără să știe riscurile. La începutul secolului XX, bromura de sodiu era utilizată ca sedativ, însă acum reprezintă un pericol pentru sănătate. Potrivit mse.ro, pacientul a afirmat medicilor că a citit despre înlocuirea sarii cu bromură, dar nu știa că aceasta poate duce la intoxicație.

Cercetătorii menționează că, fără acces la istoricul conversațiilor dintre pacient și chatbot, nu pot confirma ce sfat a primit. Totuși, atunci când au întrebat ChatGPT ce poate înlocui sarea de masă, răspunsul a inclus și bromura, fără un avertisment clar și fără a întreba despre motivul solicitării.

Autorii cercetării avertizează că aplicatii precum ChatGPT pot genera informații inexacte, pot lipsi de critică față de rezultate și pot răspândi dezinformări. Ei subliniază că, deși compania a anunțat recent o actualizare a chatbotului, bazată pe modelul GPT-5, menită să răspundă mai bine în domeniul sănătății și să semnaleze riscuri, ChatGPT nu poate înlocui un medic calificat.

Potrivit sursei menționate, în cazul particular, pacientul a folosit o versiune mai veche a ChatGPT. Autorii adaugă că tehnologia trebuie folosită cu prudență, fiind foarte puțin probabil ca un medic să fi recomandat bromura de sodiu în loc de sare. Ei concluzionează că medicii trebuie să fie atenți la sfaturile primite de la pacienți din partea AI și să le verifice atent.

După internare, pacientul s-a prezentat la spital pentru simptomele caracteristice bromismului, cum ar fi acnee facială, sete excesivă și insomnie. Acesta a susținut că vecinul său ar putea să-l otrăvească și avea multiple restricții alimentare. În câteva ore, a încercat să fugă din spital, fiind internat forțat și tratat pentru psihoză. După stabilizare, el a raportat simptomele specifice intoxicației cu bromură, ceea ce a condus la diagnosticarea corectă a afecțiuni sale.

Distribuie aceasta stire pe social media sau mail
Alte postari din Nationale
Acasa Recente Radio Judete