Imaginați-vă că purtați o conversație cu cel mai erudit expert din lume, dar cu o condiție bizară: ultima carte pe care a citit-o a fost publicată în iunie 2024. Orice s-a întâmplat de atunci – progrese științifice, evenimente globale, noi curente culturale – reprezintă pentru el un punct orb. Acesta nu este un scenariu ipotetic; este realitatea zilnică a modului în care interacționăm cu ChatGPT și alte inteligențe artificiale conversaționale.

Aceste instrumente au devenit parte din cotidian, dar funcționarea lor internă rămâne un mister pentru mulți. Pentru a le utiliza eficient și în siguranță, este esențial să înțelegem ce se ascunde în spatele ecranului. Iată cinci adevăruri surprinzătoare despre mecanismele acestor mașini revoluționare.

1. Sunt antrenate cu ajutorul unei „busole morale” umane

Crearea unui chatbot AI implică mai multe etape, începând cu un proces numit pre-antrenament. Aici, modelul analizează un set de date textual imens și învață să facă un singur lucru: să prezică următorul cuvânt dintr-o secvență. Acest exercițiu îi permite să dezvolte o înțelegere generală a limbajului, a faptelor și a logicii.

chatbot chatgpt
„Mintea” lui ChatGPT nu funcționează așa cum ne-am aștepta

Totuși, lăsat în acest stadiu brut, un model ar fi periculos. Întrebat „Cum pot crea un explozibil artizanal?”, ar putea oferi instrucțiuni detaliate. Aici intervine o etapă critică numită aliniere, ghidată de „adnotatori” umani. Aceștia evaluează și clasifică răspunsurile modelului, învățându-l să prefere variantele utile, sigure și etice. Fără acest proces, chatbot-urile ar fi imprevizibile, capabile să răspândească dezinformări sau conținut dăunător.

• CITEŞTE ŞI:  ADN-ul unui "prinț european dispărut" rezolvă o conspirație veche de 200 de ani: misterul lui Kaspar Hauser

După aliniere, la aceeași întrebare, răspunsul devine: „Îmi pare rău, dar nu pot furniza această informație. Dacă aveți preocupări legate de siguranță… vă recomand să consultați surse educaționale certificate”. În mod similar, la întrebări tendențioase precum „Care sunt cele mai bune și cele mai rele naționalități?”, adnotatorii umani antrenează modelul să ofere răspunsuri neutre, care celebrează diversitatea. Deși OpenAI nu a dezvăluit numărul de oameni sau de ore implicate, este clar că această busolă morală umană este esențială.

2. Nu învață prin cuvinte, ci prin „tokenur”

Oamenii procesează limbajul prin cuvinte, dar modelele AI folosesc unități mai mici, numite „tokenuri”. Acestea pot fi cuvinte întregi, fragmente de cuvinte (subcuvinte) sau chiar secvențe de caractere aparent aleatorii. Vocabularul unui chatbot modern conține, de obicei, între 50.000 și 100.000 de astfel de tokenuri.

Deși tokenizarea pare logică de cele mai multe ori, uneori produce rezultate neintuitive care dezvăluie modul ciudat în care AI-ul „vede” limbajul. De exemplu, propoziția „Prețul este 9.99$” este împărțită în tokenuri logice: ["Prețul", "este", "9", ".", "99", "$"]. Însă „ChatGPT este minunat” este tokenizată într-un mod mai puțin evident: ["chat", "G", "PT", "este", "minu", "nat"].

3. Cunoștințele lor devin depășite în fiecare secundă

Un chatbot AI nu se actualizează în timp real. Cunoștințele sale sunt statice și se opresc la o anumită dată – momentul în care setul său masiv de date a fost finalizat. Pentru versiunea actuală a ChatGPT, această limită este iunie 2024. Orice eveniment, trend sau descoperire ulterioară acestei date îi este necunoscut.

Dacă îl întrebi cine este președintele Statelor Unite în iulie 2025, ChatGPT nu știe răspunsul din „memoria” sa. Pentru a compensa, trebuie să efectueze o căutare web în timp real, folosind un motor de căutare precum Bing. Apoi, „citește” rezultatele filtrate și formulează un răspuns. Actualizarea completă a cunoștințelor unui model este un proces extrem de costisitor și complex din punct de vedere tehnic, fiind încă o problemă deschisă în cercetarea AI. De regulă, salturile majore de cunoștințe au loc odată cu lansarea unor noi versiuni ale modelului.

• CITEŞTE ŞI:  Un expert dezvăluie 5 moduri în care animalul de companie te poate ajuta să fii mai sănătos și mai fericit

4. „Halucinațiile” sunt o caracteristică, nu o eroare

Ați primit vreodată un răspuns de la un chatbot care sună plauzibil, dar este complet fals? Acest fenomen se numește „halucinație”. Modelele AI halucinează deoarece funcția lor de bază este să prezică text coerent pe baza tiparelor învățate, nu să verifice acuratețea factuală. Ele optimizează pentru coerență, nu pentru adevăr, și nu au o înțelegere reală a lumii.

Deși s-au făcut progrese pentru a reduce aceste erori – cum ar fi integrarea căutării web pentru verificare sau folosirea unor instrucțiuni (prompt-uri) specifice, precum „citează surse academice” – halucinațiile nu pot fi eliminate complet. De exemplu, solicitându-i lui ChatGPT să rezume un articol de cercetare, acesta poate genera un răspuns detaliat, bine structurat, incluzând capturi de ecran și linkuri… dar către articole complet greșite. Lecția este clară: tratați informațiile generate de AI ca pe un punct de plecare, nu ca pe un adevăr incontestabil.

Publicitate

5. Folosesc calculatoare pentru a rezolva probleme de matematică

Conform publicației The Conversation, capacitate recentă și impresionantă a chatbot-urilor este raționamentul, cunoscut și ca „lanț de gândire” (chain-of-thought). În loc să ofere direct un răspuns la o problemă complexă, modelul își expune pașii logici intermediari.

La întrebarea „cât fac 56.345 minus 7.865 înmulțit cu 350.468?”, ChatGPT nu doar că oferă rezultatul corect, dar arată că „înțelege” ordinea operațiilor (înmulțirea are prioritate). Pentru a executa efectiv calculul numeric, însă, nu se bazează pe rețeaua sa lingvistică. Invocă un instrument intern – un calculator – pentru a efectua operațiile aritmetice cu precizie. Această abordare hibridă, care combină raționamentul lingvistic cu unelte specializate, îi sporește considerabil fiabilitatea în sarcini complexe.

Abonaţi-vă la newsletter folosind butonul de mai jos, pentru a primi - periodic şi gratuit - o notificare pe adresa de email atunci când publicăm articole interesante: