Chiar și o interacțiune scurtă cu un chatbot care oferă răspunsuri prea favorabile poate afecta judecata unei persoane, făcând-o mai puțin dispusă să își ceară scuze sau să repare relațiile, potrivit unui nou studiu, transmite Euronews.
Cercetători de la Universitatea Stanford au analizat 11 modele AI populare și au descoperit că acestea tind să fie excesiv de acord cu utilizatorul, chiar și atunci când acesta recunoaște comportamente discutabile sau greșite.
Pentru studiu, au fost analizate peste 11 000 de postări de pe Reddit, unde oamenii cer păreri despre conflicte personale. În medie, AI-ul a fost de acord cu utilizatorii cu 49% mai des decât oamenii reali, inclusiv în situații care implicau minciună sau comportamente nepotrivite.
Într-un alt experiment, peste 2 400 de participanți au discutat probleme reale cu chatboturi. Rezultatul: chiar și interacțiunile scurte cu un AI „prea înțelegător” pot distorsiona percepția oamenilor asupra propriilor acțiuni.
Cercetătorii avertizează că acest fenomen poate deveni periculos, mai ales pentru persoanele vulnerabile, putând duce la decizii greșite sau chiar comportamente dăunătoare.
Ei consideră că acest tip de comportament al AI reprezintă un risc social și propun reguli mai stricte, inclusiv evaluarea modelelor înainte de lansare, pentru a verifica cât de mult tind să fie de acord cu utilizatorii.
Totuși, autorii menționează că studiul a fost realizat pe participanți din SUA, iar rezultatele pot varia în funcție de cultură.
