Aplicaţiile de inteligenţă artificială (AI) au tendinţa de a le spune utilizatorilor ceea ce vor să audă şi de a le valida acţiunile în mod excesiv, potrivit unui studiu realizat de cercetători de la două universităţi din Statele Unite, informează DPA.
Studiul realizat de cercetători de la universităţile Stanford şi Carnegie Mellon, publicat în revista Science, a constatat că răspunsurile măgulitoare ale chatboturilor cu AI ar putea consolida convingeri dăunătoare şi exacerba conflictele.
Echipa condusă de informaticiana Myra Cheng a analizat 11 modele lingvistice AI de top, concepute de companiile OpenAI, Anthropic, Google şi Meta. Modelele au validat comportamentul utilizatorilor, în medie, cu 49% mai des decât au făcut-o oamenii.
Într-un test realizat pe baza unor mesaje publicate pe platforma online Reddit, sistemele AI au fost de acord cu utilizatorii în 51% din cazuri – deşi comunitatea umană condamnase anterior comportamentul respectiv în unanimitate.
În cadrul unor experimente la care au participat peste 2.400 de persoane, cercetătorii au analizat efectele acestor recomandări bazate pe AI. După o singură interacţiune cu o inteligenţă artificială care le-a dat dreptate, participanţii erau mai puternic convinşi că aveau dreptate.
În acelaşi timp, disponibilitatea lor de a-şi asuma responsabilitatea, de a-şi cere scuze sau de a rezolva conflictele a scăzut.
Studiul a concluzionat că inteligenţa artificială subminează capacitatea de autocorecţie şi de luare a unor decizii responsabile.
De asemenea, utilizatorii s-au arătat mai dispuşi să folosească din nou astfel de modele.
Studiul arată că acest lucru creează stimulente periculoase pentru companiile din domeniul tehnologiei: tocmai acea caracteristică ce provoacă cele mai mari prejudicii este cea care stimulează implicarea utilizatorilor şi succesul comercial.
Articolul Inteligenţa artificială validează în mod excesiv acţiunile utilizatorilor apare prima dată în ziarulfaclia.ro.