„AI înlocuiește sarcinile efectuate de om mai repede decât crezi”, „Pierderea de joburi pe Wall Street ar putea depăși 200.000 ca urmare a substituirii lor cu AI”, „AI va înlocui angajaţii în 41% dintre companii în următorii cinci ani” și, mai recent, „Bill Gates prevede că doar 3 joburi nu vor fi afectate de AI în viitor” sunt câteva dintre titlurile care amplifică nesiguranţa în rândul celor care nu sunt familiarizaţi cu inteligenţa artificială sau care văd în aceasta un obstacol de netrecut.
Dacă însă am întoarce armele împotriva alarmei, conștienţi de faptul că frica este incompatibilă cu învăţarea, am adresa întrebările care sunt, de fapt, esenţiale în climatul de azi: Ce este această inteligenţă artificială care se pare că ne va înlocui? Cum funcţionează și cât de inteligentă este, cu adevărat? Merită să privim mai atent asupra unuia dintre cele mai populare tipuri de AI – modelele mari de limbaj – pentru a înţelege mai bine potenţialul, dar și limitele acestor sisteme.
Modelele mari de limbaj (LLM), așa cum este de pildă ChatGPT, fascinează azi asemenea povestitorilor de odinioară care, când începeau să depene povești, își fermecau publicul. În zilele noastre, povestitorii artificiali sunt niște reţele imense care imită structura de tip reţea a neuronilor umani și pot astfel să „înţeleagă” felul în care scriem și gândim și să răspundă cu fraze asemănătoare celor pe care le-ar folosi un om. Cum reuşesc, în mod concret, să facă asta? În fond, nu e ca şi cum un program „ştie” limba română la fel cum o ştim noi, nu-i aşa?
De la cuvinte la token-uri
Pentru ca un LLM să înţeleagă un text prin care îi cerem un răspuns, el ia textul nostru și îl fragmentează în părţi mai mici, numite token-uri (uneori pot fi cuvinte întregi, alteori doar părţi de cuvânt). Fiecărui token, modelul îi asociază probabilităţi care indică: „Care e cel mai probabil cuvânt (sau fragment de cuvânt) care urmează?”. După ce tokenul care se presupune că ar urma este ales, contextul se actualizează, aşa încât LLM-ul ştie deja ce „a spus” şi poate „imagina” continuarea potrivită. Este asemănător cu funcţia de „completare automată” prezentă la smartphone-uri.
AI, GPT, ChatGPT, generative
Poate ai mai întâlnit termenul „GPT” (Generative Pre-trained Transformer), ca în „ChatGPT”. GPT este algoritmul care permite generarea de texte noi, asemănătoare celor umane. „Generative” sugerează că LLM-ul creează conţinut nou, „pre-trained” că a fost antrenat înainte să-l foloseşti tu, iar „transformer” este arhitectura reţelei neuronale care stă la baza întregului sistem. Când discuţi cu GPT, îi oferi un prompt – un text de intrare – şi primeşti un răspuns la care modelul ajunge parcurgând ceea ce a învăţat dintr-un volum uriaș de date. De fapt, de câte ori îi dai un prompt, GPT consideră că aude o nouă întrebare sau o completare a contextului deja oferit.
Bunătate mecanică şi limite
Pe cât de fascinante sunt, LLM-urilenu au o „voinţă” sau o „conştiinţă” reală. Chiar dacă reuşesc să-ţi răspundă coerent, chiar dacă ţi se pare că „gândesc”, aceste modele nu „înţeleg” lumea aşa cum o înţelegem noi. Este esenţial să nu le consideri un soi de „entitate atotcunoscătoare”. Da, se pot înşela, pot susţine idei eronate cu aer de certitudine şi pot deruta, mai ales când cunoştinţele lor au „puncte oarbe” – provenite din momentul în care s-a oprit antrenarea pe date actuale. Imaginaţia lor e doar rezultatul unor statistici foarte complexe, nu rezultatul unei experienţe personale.
Întrebarea: „Cum e posibil să scrie atât de bine, fără să fie o persoană?” e legitimă. Răspunsul e simplu şi totodată greu de cuprins: la baza antrenamentului unui LLM se află miliarde de corelaţii pe care un om nu le-ar putea reţine. LLM-ul scanează biblioteci imense de cărţi, articole, site-uri sau comentarii, învaţă tipare de limbaj şi apoi, la cererea ta, le reproduce într-o nouă ţesătură de text. Aşadar, nici magie, nici divinaţie, ci doar statistici – incredibil de multe, e drept – aşezate astfel încât să producă un rezultat creativ.
AI – un partener de conversaţie mai neobişnuit
Poate că e straniu să ne uităm la un LLM ca la un partener de dialog, dar, în definitiv, cam asta se întâmplă: îl tratăm ca pe un fel de colaborator virtual. Totuşi, nu trebuie uitat că, oricât de reuşit ar suna răspunsul oferit, rolul omului rămâne crucial – fie că vorbim de a verifica datele, de a completa răspunsurile cu idei noi sau de a filtra eventualele greşeli.
Pe lângă inteligenţa lor impresionantă, LLM-urile au şi limite. De pildă, dacă un chat depăşeşte un anumit număr de token-uri, modelul începe să uite detalii de la începutul conversaţiei – fenomen observat de utilizatori atunci când revin, spre exemplu, la un subiect discutat cu câteva sute de replici în urmă. E ca şi cum, în toiul unei discuţii foarte lungi, uiţi de la ce ai plecat. Dar asta nu înseamnă că acele informaţii se pierd în neant şi, cu atât mai puţin, că LLM-ul le va folosi ca pe un burete care absoarbe tot.
Confidenţialitatea şi antrenamentul pe datele tale
Deseori, utilizatorii se întreabă: „Dacă pun întrebări despre proiectul meu, va rămâne textul în model şi îl va vedea toată lumea?” Un răspuns ar fi acela că modelul îşi menţine cunoştinţele de bază, însă noile informaţii transmise prin chat sunt procesate doar temporar pentru a răspunde la acel moment. De fapt, companiile ce dezvoltă astfel de modele declară că baza de antrenament nu se schimbă pe loc cu ceea ce tocmai ai scris. Informaţiile din conversaţiile curente pot fi folosite ulterior pentru îmbunătăţiri – însă nu într-un mod care să reconstituie exact discuţia ta, ci mai degrabă printr-un filtru: se elimină datele sensibile, detaliile fără relevanţă, iar restul este adnotat şi integrat doar dacă se potriveşte nevoilor de pregătire a modelului. Orice altceva ar fi dificil şi costisitor de gestionat la fiecare schimbare de replică.
Cu toate acestea, marile companii declară că pot folosi – uneori – fragmente de conversaţie, după ce le-au anonimizat şi filtrat, pentru a-şi rafina produsele. Deşi nu e încă perfect clar ce date şi în ce fel sunt astfel folosite, devine tot mai clar că un LLM nu e un simplu instrument pasiv. De aceea, dacă e să discuţi ceva foarte sensibil, prudenţa rămâne cea mai bună cale.
AI: frică versus speranţă?
Pe scurt, LLM-urile sunt un fel de biblioteci interactive, cu un vocabular imens, capabile să parcurgă informaţie cu viteză de ordinul fracţiunilor de secundă acolo unde noi avem nevoie de ore întregi. E indicat însă să reţinem că lucrăm cu mașini de limbaj, nu cu entităţi conștiente. Astfel vom ști că profităm de beneficiile lor și să fim suficient de precauţi faţă de punctele lor slabe!
La momentul actual, în faţa ameninţării legate de substituirea joburilor, alegerea reală nu este între frică și speranţă, ci între o folosire superficială și una judicioasă, bazată pe gândire critică. Pentru aceasta din urmă însă e nevoie să ne instruim, să învăţăm să înţelegem și noi, la rândul nostru, „mașina” pentru a putea ajunge să stăpânim conversaţia cu ea. Fără a demoniza, dar și fără a mitiza inteligenţa artificială. Un echilibru pentru care, prima conversaţie pe care trebuie să o stăpânim este cea cu noi înșine.