Close Menu

    Abonează-te la actualizări

    Obține ultimele noutăți pe email

    Cele mai populare

    Opt semne că o aluniță este periculoasă și necesită control medical

    Studiu: Planurile alimentare generate de chatboți pot fi periculoase pentru adolescenți

    Cele mai bune alimente bogate în proteine pe care să le mănânci dimineața, potrivit dieteticienilor

    Facebook X (Twitter) Instagram
    • Ziarul de Gardă
    • Despre noi
    • Publicitate
    Facebook X (Twitter) Instagram YouTube TikTok Telegram
    ZdGUST
    • Sănătate
    • Gastronomie
    • Odihnă
    • Muncă
    • Mediu
    • Stil
    • Cultură
    Susține
    ZdGUST
    RECOMANDATE

    Rezumatele AI de la Google pun în pericol sănătatea oamenilor prin informații medicale eronate

    03/01/20265 Mins Read30
    Share
    Telegram Facebook Twitter WhatsApp Email

    O investigație realizată de The Guardian a constatat că oamenii sunt expuși riscului de vătămare din cauza informațiilot medicale false sau înșelătoare furnizate de rezumatele de inteligență artificială ale Google.

    Compania a declarat că funcția sa AI Overviews, care utilizează inteligență artificială generativă pentru a oferi rezumate ale informațiilor esențiale despre un subiect sau o întrebare, este „utilă” și „fiabilă”. Însă unele dintre aceste rezumate, care apar în partea de sus a rezultatelor de căutare, au furnizat informații medicale eronate.

    AI Overviews sunt răspunsuri generate de inteligența artificială care apar în fruntea paginii de rezultate Google.

    Într-un caz pe care experții l-au descris drept „extrem de periculos”, Google i-a sfătuit în mod eronat pe pacienții cu cancer pancreatic să evite alimentele bogate în grăsimi. Specialiștii au spus că aceasta este exact recomandarea opusă celei corecte și că ar putea crește riscul ca pacienții să moară din cauza bolii.

    Într-un alt exemplu, AI Overviews a oferit informații false despre teste esențiale ale funcției hepatice, ceea ce ar putea face ca persoane cu boli grave de ficat să creadă, în mod greșit, că sunt sănătoase. De asemenea, căutările Google legate de testele pentru cancerul la femei au oferit, de asemenea, informații „complet greșite”, despre care experții spun că ar putea duce la ignorarea unor simptome reale.

    Citește și:

    Un bărbat a fost aproape de moarte în urma unui sfat de dietă primit de la ChatGPT

    Reacția Google

    Un purtător de cuvânt al Google a declarat că multe dintre exemplele medicale prezentate companiei erau „capturi de ecran incomplete”, dar, din ceea ce au putut evalua, acestea făceau trimitere „la surse cunoscute și de încredere și recomandau solicitarea sfatului unui specialist”.

    Investigația The Guardian apare pe fundalul îngrijorărilor tot mai mari că datele generate de AI pot induce în eroare consumatorii, care pot presupune că informațiile sunt de încredere. În noiembrie anul trecut, un studiu a arătat că chatboturile AI de pe mai multe platforme au oferit sfaturi financiare inexacte, iar îngrijorări similare au fost exprimate și în legătură cu rezumatele știrilor.

    Sophie Randall, directoarea Patient Information Forum, a declarat că exemplele date arată că „AI Overviews ale Google pot plasa informații medicale inexacte în partea de sus a căutărilor online, prezentând un risc pentru sănătatea oamenilor”.

    Stephanie Parker, directoarea departamentului digital al organizației caritabile Marie Curie a spus că oamenii apelează la internet în momente de îngrijorare și criză. Dacă informațiile pe care le primesc sunt inexacte sau scoase din context, acest lucru le poate afecta grav sănătatea.

    The Guardian a descoperit mai multe cazuri de informații medicale inexacte în AI Overviews ale Google, după ce mai multe grupuri, organizații caritabile și profesioniști din domeniul sănătății au semnalat îngrijorări.

    Cazul sfaturilor eronate oferite de AI în cazul cancerului pancreatic și cancerului vaginal

    Anna Jewell, de la Pancreatic Cancer UK, a calificat drept „complet greșită” recomandarea de a evita grăsimile în cazul cancerului pancreatic, avertizând că acest lucru poate reduce șansele pacienților de a tolera tratamente salvatoare, precum chimioterapia sau intervențiile chirurgicale.

    Și informațiile oferite despre intervalele „normale” ale analizelor hepatice s-au dovedit înșelătoare, prezentând valori fără context și fără a ține cont de factori precum vârsta, sexul sau etnia. Pamela Healy, directoarea British Liver Trust, a spus că acest lucru este periculos, deoarece persoanele cu boli hepatice grave ar putea interpreta greșit rezultatele și să nu mai solicite consult medical.

    În cazul cancerului vaginal, o căutare a indicat testul Papanicolau drept metodă de depistare, ceea ce este eronat. Athena Lamnisos, directoarea organizației Eve Appeal, a explicat că acest test nu detectează cancerul vaginal și că informația greșită ar putea determina femeile să ignore simptome serioase. Ea a mai atras atenția asupra faptului că aceleași căutări au generat răspunsuri diferite în momente diferite, ceea ce sporește confuzia și riscurile.

    „De asemenea, ne-a îngrijorat faptul că rezumatul AI s-a schimbat atunci când am făcut exact aceeași căutare, oferind de fiecare dată un răspuns diferit, extras din surse diferite. Asta înseamnă că oamenii primesc răspunsuri diferite în funcție de momentul în care caută informația, iar acest lucru nu este acceptabil”, a adăugat Lamnisos.

    Lamnisos a spus că este extrem de îngrijorată. „Unele dintre rezultatele pe care le-am văzut sunt cu adevărat alarmante și pot pune femeile în pericol”, a afirmat ea.

    Sfaturi eronate legate de afecțiuni de sănătate mintală

    The Guardian a constatat, de asemenea, că AI Overviews ale Google au furnizat rezultate înșelătoare și pentru căutări legate de afecțiuni de sănătate mintală.

    Unele rezumate AI pentru afecțiuni precum psihoza și tulburările de alimentație au oferit „sfaturi extrem de periculoase” și au fost „incorecte, dăunătoare sau ar putea determina oamenii să evite să caute ajutor”, a spus Stephen Buckley, de la organizația Mind.

    Google a declarat că marea majoritate a AI Overviews sunt factuale și utile și că face în mod constant îmbunătățiri ale calității. Rata de acuratețe a AI Overviews este comparabilă cu cea a altor funcții de căutare, precum fragmentele recomandate, care există de peste un deceniu, a mai precizat compania.

    De asemenea, compania a spus că, atunci când AI Overviews interpretează greșit conținutul de pe web sau omit contextul, va lua măsuri corespunzătoare, în conformitate cu politicile sale.

    Un purtător de cuvânt al Google a declarat: „Investim semnificativ în calitatea AI Overviews, în special pentru subiecte precum sănătatea, iar marea majoritate oferă informații corecte.”

    Articole asemănătoare

    RECOMANDATE 14/03/2026

    Opt semne că o aluniță este periculoasă și necesită control medical

    RECOMANDATE 14/03/2026

    Studiu: Planurile alimentare generate de chatboți pot fi periculoase pentru adolescenți

    Gastronomie 14/03/2026

    Cele mai bune alimente bogate în proteine pe care să le mănânci dimineața, potrivit dieteticienilor

    Populare în ultima lună
    „Copiii mici nu înțeleg decât prin durere”. Declarațiile influenceriței Marina Cârnaț despre disciplinarea copiilor. Avocatul Poporului, ONG-uri și psihologi condamnă mesajul
    12/03/20265.857 Views
    Familia Cârnaț, vizitată de poliție și reprezentanți ai instituțiilor pentru protecția copilului
    13/03/20261.634 Views
    „Este un gest de solidaritate cu colegii mei”. Regizorul Petru Hadârcă își retrage candidatura de la Premiile UNITEM 2026
    10/03/20261.160 Views
    Reacția Marinei Cârnaț la criticile din spațiul public: „Era vorba despre intervenția rapidă a mea ca mamă, nu despre susținerea violenței”
    12/03/20261.114 Views
    Recomandate
    RECOMANDATE 14/03/20265 Mins Read83 Views

    Opt semne că o aluniță este periculoasă și necesită control medical

    O aluniță care și-a modificat forma, culoarea sau dimensiunile poate fi primul semn al melanomului…

    Studiu: Planurile alimentare generate de chatboți pot fi periculoase pentru adolescenți

    Cele mai bune alimente bogate în proteine pe care să le mănânci dimineața, potrivit dieteticienilor

    Familia Cârnaț, vizitată de poliție și reprezentanți ai instituțiilor pentru protecția copilului

    Stay In Touch
    • Facebook
    • Twitter
    • Instagram
    • YouTube
    • TikTok
    • Telegram

    Abonează-te la actualizări

    Dacp vrei să obții ultimele noutăți, introdu adresa de email

    Despre noi

    ZdGust este un nou proiect jurnalistic al ZdG care vine ca o recompensă după porția de investigații și materiale despre corupție, justiție și drepturile omului. ZdGust este un proiect care vorbește și despre cealaltă fațetă a vieții: sănătate, mediu, etica muncii, gastronomie, timp liber și tot ce poate face omul ca să înfrumusețeze viața sa și a comunității fără a dăuna mediului înconjurător. 
    Prin acest proiect, echipa editorială dorește să creeze un spațiu unde frumusețea vieții cotidiene este celebrată și împărtășită într-un mod accesibil și captivant.

    Facebook X (Twitter) Instagram YouTube WhatsApp TikTok Telegram
    Recomandate

    Opt semne că o aluniță este periculoasă și necesită control medical

    Studiu: Planurile alimentare generate de chatboți pot fi periculoase pentru adolescenți

    Cele mai bune alimente bogate în proteine pe care să le mănânci dimineața, potrivit dieteticienilor

    Cele mai populare

    „Copiii mici nu înțeleg decât prin durere”. Declarațiile influenceriței Marina Cârnaț despre disciplinarea copiilor. Avocatul Poporului, ONG-uri și psihologi condamnă mesajul

    Familia Cârnaț, vizitată de poliție și reprezentanți ai instituțiilor pentru protecția copilului

    „Este un gest de solidaritate cu colegii mei”. Regizorul Petru Hadârcă își retrage candidatura de la Premiile UNITEM 2026

    © 2026 Un proiect Ziarul de Gardă. 
    • Home
    • RECOMANDATE
    • Ziarul de Gardă

    Type above and press Enter to search. Press Esc to cancel.