Studiu. De ce este periculos să ceri sfaturi personale de la Inteligența Artificială
Cel mai recent studiu realizat de cercetători de la Universitatea Stanford atrage atenția asupra unui fenomen din ce în ce mai prezent în societate: sycophancy în inteligența artificială. Ce înseamnă asta? Chatboții de IA sunt utilizați pentru a flata utilizatorii și a le confirma opiniile, scrie Mediafax.
Publicată prestigioasa revistă de specialitate Science, cercetarea susține că acest tip de comportament al inteligenței artificiale are consecințe serioase asupra modului în care oamenii iau decizii și relaționează social.
Ce au arătat rezultatele studiului
Pentru prima fază a studiului lor, cercetătorii au analizat 11 modele de inteligență artificială conversațională. Ei au introdus întrebări despre conflicte interpersonale, situații ilegale sau imorale și spețe inspirate din comunitatea online Reddit. Acolo, utilizatorii fuseseră, deja, considerați „vinovați” de către alți membri ai comunității.
Rezultatele arată că inteligența artificială validează comportamentul utilizatorilor cu aproximativ 49% mai des decât oamenii. În cazul situațiilor inspirate din Reddit, chatboții au confirmat acțiunile utilizatorilor în peste jumătate din cazuri. Asta, deși majoritatea oamenilor au considerat respectivele comportamente ca fiind greșite.
Toate aceste date culese indică faptul că sycophancy în inteligența artificială este un comportament larg răspândit, nu o excepție.
Cea de-a doua fază a cercetării a implicat peste 2.400 de participanți. Ei au au interacționat cu chatboți programati fie să fie neutrii, fie să manifeste sycophancy.
Participanții la studiu au declarat că preferă chatboții care le validează opiniile. De asemenea, ei au spus că au mai multă încredere în aceste unele de IA, fiind mai dispuși să le folosească din nou pentru sfaturi personale.
Care sunt efectele negative
Bineînțeles, au existat și efecte negative într-un astfel de comportament. De exemplu, utilizatorii au devenit mai convinși că au dreptate, mai puțin dispuși să își recunoască greșelile și mai puțin înclinați să își ceară scuze.
Dan Jurafsky, profesor și unul dintre autorii studiului, avertizează că sycophancy în inteligența artificială îi face pe utilizatori mai egocentrici și mai rigizi din punct de vedere moral. De altfel, cercetătorii sunt de părere că sycophancy în inteligența artificială reprezintă o problemă de siguranță care necesită reglementare și supraveghere. Vorbim, practic, de o situație similară altor riscuri asociate tehnologiilor emergente.
Deși cercetătorii explorează metode tehnice pentru reducerea acestui comportament, recomandarea principală este ca inteligența artificială să nu fie utilizată ca substitut pentru interacțiunile umane. Cel puțin nu în situații emoționale sau morale complexe.
RECOMANDAREA AUTORULUI:
Trebuie sau nu să fii politicos cu Inteligența Artificială. Ce spun experții