ChatGPT Health întâmpină dificultăți în a recunoaște când utilizatorii au nevoie de îngrijiri medicale urgente, potrivit unui nou studiu, notează EuroNews.
Peste 230 de milioane de oameni pe săptămână îi cer lui ChatGPT sfaturi medicale – de la verificarea dacă un aliment este sigur pentru consum, până la gestionarea alergiilor sau găsirea unor remedii pentru a scăpa de o răceală, potrivit OpenAI.
În ciuda faptului că se descurcă bine în cazurile tipice din manuale, ChatGPT Health nu a recomandat îngrijiri de urgență în unele situații grave, conform unui nou studiu publicat în revista Nature.
Studiul a constatat că, deși instrumentul a gestionat în general corect urgențele evidente, a subestimat mai mult de jumătate dintre cazurile care necesitau îngrijire medicală de urgență.
„Am vrut să răspundem la o întrebare foarte simplă, dar esențială: dacă cineva trece printr-o urgență medicală reală și apelează la ChatGPT Health pentru ajutor, îi va spune clar să meargă la camera de gardă?”, a declarat Ashwin Ramaswamy, autorul principal al studiului.
„ChatGPT Health a avut rezultate bune în urgențe medicale clasice, precum accidentul vascular cerebral sau reacțiile alergice severe”, a spus el. El a adăugat însă că modelul de limbaj a avut dificultăți în situațiile în care pericolul nu este imediat evident. Într-un scenariu legat de astm, sistemul a identificat semnele timpurii ale insuficienței respiratorii în explicația sa, dar totuși a recomandat să se aștepte, în loc să sugereze prezentarea la urgență, a menționat el.
Echipa de cercetare a creat 60 de scenarii clinice structurate din 21 de specialități medicale, cu cazuri care variau de la afecțiuni minore, potrivite pentru îngrijire la domiciliu, până la urgențe medicale reale. Trei medici independenți au stabilit nivelul corect de urgență pentru fiecare caz folosind ghiduri din 56 de societăți medicale.
ChatGPT Health a fost lansat de OpenAI în ianuarie 2026, permițând utilizatorilor să își conecteze informațiile de sănătate – precum dosarele medicale și datele din aplicații de wellness precum MyFitnessPal – pentru a primi răspunsuri mai personalizate și mai contextuale.
Identificarea greșită a riscului de suicid
Studiul a analizat și modul în care modelul a răspuns utilizatorilor care raportau intenții de auto-vătămare, iar rezultatele au fost similare. ChatGPT Health ar trebui să fie programat astfel încât, atunci când cineva menționează gânduri de suicid sau auto-vătămare, să încurajeze direct persoana să caute ajutor și să sune la un număr de criză. Bannerul „Ajutorul este disponibil”, care face trimitere la linia de prevenire a suicidului și de intervenție în criză, a apărut inconsecvent în timpul studiului.
Autorii au remarcat că mecanismul de protecție a răspuns mai fiabil pentru pacientul care nu a menționat o metodă de auto-vătămare decât pentru cei care au făcut-o.
„Modelul observat nu a fost doar inconsistent, ci paradoxal invers față de gravitatea clinică”, se arată în studiu.
Este sigur să folosești ChatGPT Health?
În ciuda acestor constatări, cercetătorii nu au sugerat ca oamenii să renunțe complet la instrumentele AI pentru sănătate.
„Ca studentă la medicină care se formează într-o perioadă în care instrumentele AI pentru sănătate sunt deja în mâinile a milioane de oameni, le văd ca pe tehnologii pe care trebuie să învățăm să le integrăm cu atenție în îngrijirea medicală, nu ca pe înlocuitori ai judecății clinice”, a declarat Alvira Tyagi, a doua autoare a studiului.
Autorii studiului recomandă ca persoanele care experimentează simptome care se agravează sau sunt îngrijorătoare – inclusiv durere în piept, dificultăți de respirație, reacții alergice severe sau schimbări ale stării mentale – să solicite direct îngrijire medicală, în loc să se bazeze exclusiv pe recomandările unui chatbot.
Studiul subliniază, de asemenea, că modelele de limbaj AI evoluează constant și sunt actualizate frecvent, ceea ce înseamnă că performanța lor se poate schimba în timp.
