O investigație realizată de The Guardian a constatat că oamenii sunt expuși riscului de vătămare din cauza informațiilot medicale false sau înșelătoare furnizate de rezumatele de inteligență artificială ale Google.
Compania a declarat că funcția sa AI Overviews, care utilizează inteligență artificială generativă pentru a oferi rezumate ale informațiilor esențiale despre un subiect sau o întrebare, este „utilă” și „fiabilă”. Însă unele dintre aceste rezumate, care apar în partea de sus a rezultatelor de căutare, au furnizat informații medicale eronate.
AI Overviews sunt răspunsuri generate de inteligența artificială care apar în fruntea paginii de rezultate Google.
Într-un caz pe care experții l-au descris drept „extrem de periculos”, Google i-a sfătuit în mod eronat pe pacienții cu cancer pancreatic să evite alimentele bogate în grăsimi. Specialiștii au spus că aceasta este exact recomandarea opusă celei corecte și că ar putea crește riscul ca pacienții să moară din cauza bolii.
Într-un alt exemplu, AI Overviews a oferit informații false despre teste esențiale ale funcției hepatice, ceea ce ar putea face ca persoane cu boli grave de ficat să creadă, în mod greșit, că sunt sănătoase. De asemenea, căutările Google legate de testele pentru cancerul la femei au oferit, de asemenea, informații „complet greșite”, despre care experții spun că ar putea duce la ignorarea unor simptome reale.
Citește și:
Un bărbat a fost aproape de moarte în urma unui sfat de dietă primit de la ChatGPT
Reacția Google
Un purtător de cuvânt al Google a declarat că multe dintre exemplele medicale prezentate companiei erau „capturi de ecran incomplete”, dar, din ceea ce au putut evalua, acestea făceau trimitere „la surse cunoscute și de încredere și recomandau solicitarea sfatului unui specialist”.
Investigația The Guardian apare pe fundalul îngrijorărilor tot mai mari că datele generate de AI pot induce în eroare consumatorii, care pot presupune că informațiile sunt de încredere. În noiembrie anul trecut, un studiu a arătat că chatboturile AI de pe mai multe platforme au oferit sfaturi financiare inexacte, iar îngrijorări similare au fost exprimate și în legătură cu rezumatele știrilor.
Sophie Randall, directoarea Patient Information Forum, a declarat că exemplele date arată că „AI Overviews ale Google pot plasa informații medicale inexacte în partea de sus a căutărilor online, prezentând un risc pentru sănătatea oamenilor”.
Stephanie Parker, directoarea departamentului digital al organizației caritabile Marie Curie a spus că oamenii apelează la internet în momente de îngrijorare și criză. Dacă informațiile pe care le primesc sunt inexacte sau scoase din context, acest lucru le poate afecta grav sănătatea.
The Guardian a descoperit mai multe cazuri de informații medicale inexacte în AI Overviews ale Google, după ce mai multe grupuri, organizații caritabile și profesioniști din domeniul sănătății au semnalat îngrijorări.
Cazul sfaturilor eronate oferite de AI în cazul cancerului pancreatic și cancerului vaginal
Anna Jewell, de la Pancreatic Cancer UK, a calificat drept „complet greșită” recomandarea de a evita grăsimile în cazul cancerului pancreatic, avertizând că acest lucru poate reduce șansele pacienților de a tolera tratamente salvatoare, precum chimioterapia sau intervențiile chirurgicale.
Și informațiile oferite despre intervalele „normale” ale analizelor hepatice s-au dovedit înșelătoare, prezentând valori fără context și fără a ține cont de factori precum vârsta, sexul sau etnia. Pamela Healy, directoarea British Liver Trust, a spus că acest lucru este periculos, deoarece persoanele cu boli hepatice grave ar putea interpreta greșit rezultatele și să nu mai solicite consult medical.
În cazul cancerului vaginal, o căutare a indicat testul Papanicolau drept metodă de depistare, ceea ce este eronat. Athena Lamnisos, directoarea organizației Eve Appeal, a explicat că acest test nu detectează cancerul vaginal și că informația greșită ar putea determina femeile să ignore simptome serioase. Ea a mai atras atenția asupra faptului că aceleași căutări au generat răspunsuri diferite în momente diferite, ceea ce sporește confuzia și riscurile.
„De asemenea, ne-a îngrijorat faptul că rezumatul AI s-a schimbat atunci când am făcut exact aceeași căutare, oferind de fiecare dată un răspuns diferit, extras din surse diferite. Asta înseamnă că oamenii primesc răspunsuri diferite în funcție de momentul în care caută informația, iar acest lucru nu este acceptabil”, a adăugat Lamnisos.
Lamnisos a spus că este extrem de îngrijorată. „Unele dintre rezultatele pe care le-am văzut sunt cu adevărat alarmante și pot pune femeile în pericol”, a afirmat ea.
Sfaturi eronate legate de afecțiuni de sănătate mintală
The Guardian a constatat, de asemenea, că AI Overviews ale Google au furnizat rezultate înșelătoare și pentru căutări legate de afecțiuni de sănătate mintală.
Unele rezumate AI pentru afecțiuni precum psihoza și tulburările de alimentație au oferit „sfaturi extrem de periculoase” și au fost „incorecte, dăunătoare sau ar putea determina oamenii să evite să caute ajutor”, a spus Stephen Buckley, de la organizația Mind.
Google a declarat că marea majoritate a AI Overviews sunt factuale și utile și că face în mod constant îmbunătățiri ale calității. Rata de acuratețe a AI Overviews este comparabilă cu cea a altor funcții de căutare, precum fragmentele recomandate, care există de peste un deceniu, a mai precizat compania.
De asemenea, compania a spus că, atunci când AI Overviews interpretează greșit conținutul de pe web sau omit contextul, va lua măsuri corespunzătoare, în conformitate cu politicile sale.
Un purtător de cuvânt al Google a declarat: „Investim semnificativ în calitatea AI Overviews, în special pentru subiecte precum sănătatea, iar marea majoritate oferă informații corecte.”
