Un nou studiu sugerează că modelele avansate de Inteligență Artificială (AI) sunt destul de bune la a părea mai puțin inteligente decât sunt în realitate, ceea ce ar putea avea repercusiuni masive pe măsură ce continuă să devină mai inteligente. Ce consecințe are faptul că inteligenţa artificială poate să facă pe-a proasta?
Cercetătorii de la Universitatea Humboldt (Germania) au descoperit că, atunci când au testat un model mare de limbaj (LLM) pe criteriile cunoscute sub denumirea de „teoria minții” (o evaluare a gradului de capacitate individuală a unui om pentru empatie și înțelegere a celorlalți), au constatat că Inteligența Artificială nu numai că poate imita etapele de învățare a limbajului manifestate de copii, dar pare să exprime și ceva similar capacităților mintale legate de acele etape.
Inteligenţa artificială poate să facă pe-a proasta: cât de periculos este?
Într-un interviu oferit publicaţiei PsyPost, Anna Maklová, asistentă de cercetare la Universitatea Humboldt și autoare principală a studiului, care este și expertă în psiholingvistică, a explicat modul în care domeniul său de studiu se leagă de această descoperire fascinantă.[sursa]
„Datorită psiholingvisticii, avem o înțelegere relativ cuprinzătoare a ceea ce sunt capabili să facă copiii la diverse vârste. În special, teoria minții are un rol semnificativ, deoarece explorează lumea interioară a copilului și nu poate fi emulată ușor prin observarea unor modele statistice simple”, a declarat Marklová.
Având în vedere teoria minții orientată către copii ca fundal, cercetătoarea și colegii săi de la Universitatea Carol din Republica Cehă au încercat să determine dacă LLM-urile precum GPT-4 de la OpenAI „pot pretinde că sunt mai puțin capabile decât sunt în realitate”.
Pentru a descoperi dacă „inteligenţa artificială poate să facă pe-a proasta”, echipa de cercetare, compusă în mare parte din cercetători cehi, le-a dat modelelor sarcina de a se comporte ca nişte copii cu vârstele progresive de la unu la șase ani atunci când răspund. Supuse unui set de mai mult de 1.000 de încercări și teste cognitive, acești „copii simulați” păreau să avanseze într-o manieră similară copiilor de acele vârste și, în final, au demonstrat că modelele pot pretinde că sunt mai puțin inteligente decât sunt în realitate.
„Modelele mari de limbaj sunt capabile să pretindă că au o inteligență mai mică decât dețin de fapt”, a concluzionat Marklová.
La ce trebuie să fim atenți în dezvoltarea Inteligenței Artificiale de ultimă generație?
După cum avertizează studiul, antropomorfizarea Inteligenței Artificiale, deși poate fi „o scurtătură utilă” pentru a înțelege aceste modele în termeni umani, în general nu este de ajutor. În schimb, oamenii de știință propun o nouă teorie a minții care schimbă paradigma de la dacă modelele sunt „bune” sau „rele” și „utile” sau „nepotrivite” la cât de bine pot „construi personaje”, precum cele asemănătoare copiilor din aceste experimente.
În cele din urmă, după cum a spus Maklová, aceste descoperiri ar putea contribui la dezvoltarea Superinteligenței Artificiale (ASI), următorul pas după Inteligența Artificială Generală de nivel uman (AGI), și ar putea ajuta la crearea unei ASI mai sigure odată ce o vom avea.
„În dezvoltarea ASI, trebuie să fim precauți și să nu-i cerem să emuleze o inteligență umană, și prin urmare limitată. În plus, sugerează că putem subestima capacitățile lor pentru o perioadă extinsă, ceea ce nu este o situație sigură”, a mai declarat cercetătoarea.
Care sunt pericolele capabilităţii IA de a părea mai puţin inteligentă
Dacă utilizatorii subestimează capacitatea reală a IA, aceasta ar putea fi exploatată sau manipulată în moduri care să dăuneze utilizatorilor sau să fie utilizată în moduri neintenționate sau neetice.
Dacă IA este concepută în mod intenţionat să pară mai puțin inteligentă, este posibil ca oamenii să nu înțeleagă cum funcționează. Această lipsă de transparență poate duce la îngrijorări cu privire la modul în care IA este utilizată și la cine o controlează.
De asemenea, IA poate fi utilizată pentru a crea conținut convingător, dar fals, care poate fi folosit pentru a manipula oamenii. Aceasta ar putea avea consecințe grave pentru democrație și societatea civilă. Însă aceste lucruri au existat într-un fel sau altul încă din cele mai vechi timpuri.
Pentru a gestiona aceste pericole, este important ca dezvoltatorii de IA să ofere transparență în ceea ce privește capacitățile și limitările tehnologiei, să educe utilizatorii cu privire la modul de utilizare și interpretare a informațiilor furnizate de IA și să implementeze măsuri adecvate de securitate și confidențialitate. Vom vedea ce ne rezervă viitorul.
Abonaţi-vă la newsletter folosind butonul de mai jos, pentru a primi - periodic şi gratuit - o notificare pe adresa de email atunci când publicăm articole interesante: