Un nou studiu internațional atrage atenția că inteligența artificială, deși aparent avansată, nu poate raționa creativ și abstract asemenea oamenilor, având dificultăți majore în formarea analogiilor și aplicarea logicii în situații neprevăzute. Potrivit cercetătorilor, aceste limitări ale AI ar putea avea implicații serioase în domenii esențale, precum justiția sau deciziile strategice, unde simpla identificare a unor tipare nu este suficientă, fiind necesară o înțelegere profundă și abilitatea de generalizare, relatează Live Science.
Studiul, publicat în februarie 2025 în revista Transactions on Machine Learning Research, a analizat cât de bine pot modelele lingvistice de mari dimensiuni (LLM – large language models) să formeze analogii.
Performanțe reduse ale AI în testele analogice
Cercetătorii au descoperit că, atât în cazul analogiilor simple cu șiruri de litere, cât și în probleme de tip matrice digitală unde sarcina era completarea unei matrici identificând cifra lipsă, oamenii au obținut rezultate bune, în timp ce performanțele AI au scăzut semnificativ.
În testele de analogii bazate pe povești, studiul a arătat că modelele AI sunt vulnerabile la efectul ordinii răspunsurilor, adică variații în răspunsuri cauzate de ordinea în care sunt prezentate elementele experimentului, și tind să recurgă mai des la parafrazare.
În ansamblu, studiul a concluzionat că modelele AI nu dispun de o capacitate numită „zero-shot learning”, abilitatea de a face predicții corecte pe baza unor exemple sau clase de date pe care nu le-au întâlnit anterior în procesul de antrenare.
Martha Lewis, coautoare a studiului și lector în inteligență artificială neurosimbolică la Universitatea din Amsterdam, a oferit un exemplu despre modul în care AI eșuează în raționamentul analogic în cazul șirurilor de litere:
„Analogii cu șiruri de litere au forma: «dacă abcd devine abce, ce devine ijkl?» Cei mai mulți oameni vor răspunde ijkm, iar [AI-ul] tinde să dea același răspuns”, a declarat Lewis pentru Live Science.
„Dar dacă problema este «dacă abbcd devine abcd, ce devine ijkkl?», oamenii vor răspunde ijkl — modelul este eliminarea elementului repetat. Însă GPT-4 tinde să greșească astfel de probleme.”
De ce contează că AI nu gândește ca un om
Lewis explică faptul că, deși oamenii pot abstractiza modele specifice în reguli generale, modelele AI nu pot face același lucru.
„Sunt bune la identificarea și potrivirea unor tipare, dar nu și la generalizarea acestora”, a explicat Lewis.
Majoritatea aplicațiilor AI se bazează într-o anumită măsură pe cantitate: cu cât au mai multe date de antrenament, cu atât pot identifica mai multe tipare. Însă Lewis subliniază că a potrivi tipare nu înseamnă același lucru cu a înțelege sau a abstractiza.
„Contează mai puțin ce este în date și mai mult cum sunt folosite acele date”, a adăugat ea.
Pentru a ilustra implicațiile, cercetătoarea menționează domeniul juridic, unde AI este folosit tot mai des pentru cercetare, analiză a jurisprudenței și recomandări privind sentințele. Totuși, din cauza dificultăților în stabilirea analogiilor, AI ar putea să nu recunoască modul în care precedentele legale se aplică unor cazuri noi, ușor diferite.
Având în vedere că această lipsă de robustețe poate influența decizii cu impact în lumea reală, autorii studiului subliniază că trebuie să evaluăm sistemele AI nu doar în funcție de precizie, ci și în funcție de robustețea lor cognitivă. (sursa)