Nu suntem zei

Alin Popescu - Guest Author

Alin Popescu are o experiență de 25 de ani în afacerile din lumea digitală, mai întâi ca avocat, iar apoi ca antreprenor. În articolele sale explorează ce ne rezervă viitorul din perspectiva tehnologiei și a legislației.

Și nici n-ar trebui să credem că suntem. Deși ne comportăm ca atare, zilnic, în diferite contexte mai mult sau mai puțin obișnuite. Așa am construit, în trecut, primele legi. Ca pe niște porunci divine. Am continuat pe acest drum, obligându-se unii pe alții să respectăm reguli mai mult sau mai puțin decente. Ne-am războit, ne-am separat, am construit alianțe și, într-un final, ne-am înconjurat de legi și pacte care au devenit mai importante decât propria noastră viață.

Și asta e ok, într-un anumit context, pentru că noi, oamenii, putem avea pretenția că înțelegem ceva din comportamentul ființelor asemănătoare nouă. Reglementarea AI-ului, însă, trece dincolo de acest context. Mai ales atunci când, în chiar definiția[1] AI-ului așa cum e el reglementat de AI Act, se vorbește despre “un sistem bazat pe o mașină care este conceput să funcționeze cu diferite niveluri de autonomie și care poate prezenta adaptabilitate după implementare […]”.

Mai mult, în chiar prima parte a Regulamentului[2], aflăm că ”Sistemele de IA sunt concepute pentru a funcționa cu diferite niveluri de autonomie, ceea ce înseamnă că au un anumit grad de independență a acțiunilor față de implicarea umană și anumite capabilități de a funcționa fără intervenție umană. Adaptabilitatea de care un sistem de IA ar putea da dovadă după implementare se referă la capabilitățile de autoînvățare, care permit sistemului să se modifice în timpul utilizării”.

Cum putem, deci, noi, oamenii, să avem naivitatea de-a crede că putem reglementa activitatea unei entități despre care suntem conștienți că învață și își poate modifica abordarea în timpul utilizării? Cum putem concepe reguli pe care să le respecte un lucru despre care admitem că are capabilități de a funcționa fără intervenție umană?

M-am gândit mult la ideea din spatele acestei reglementări. Am discutat chiar și cu oameni implicați în proces, dar și cu specialiști care înțeleg trecutul, prezentul și, mai ales, viitorul dezvoltării conceptului de inteligență artificială. Și mi-a devenit din ce în ce mai clar că o explicare a conceptelor pe care încearcă să le impună AI Act este imposibilă fără înțelegerea poveștii din spatele apariției inteligenței artificiale, cu toate părțile ei bune sau rele, cu mecanismele tehnice din spate și visurile pe care și le-au făcut creatorii săi. Crearea AI-ului este, în multe privințe, o încercare umană de a depăși limitările proprii, de a împinge granițele cunoașterii și ale capacităților noastre.

Dar, cum spuneam, nu suntem zei. Nu le știm pe toate și da, suntem supuși greșelii. Aceasta este una dintre marile ironii ale dezvoltării AI-ului: încercăm să creăm sisteme care să ne depășească, dar o facem cu instrumentele limitate și imperfecte ale propriei noastre umanități.

Și totul a început cu obsesia oamenilor de a înțelege modul în care funcționează creierul nostru. Exemplul cel mai bun care îmi vine în minte este cel al lui Geoffrey Hinton, considerat astăzi drept unul dintre părinții fondatori ai inteligenței artificiale. În vremuri în care un număr infim de oameni știau, cu adevărat, cum funcționează un computer, Hinton își dădea doctoratul în inteligență artificială, după ce obținuse, anterior, o diplomă de licență în psihologie experimentală. Se întâmpla la Universitatea din Edinburgh, în 1978.

Din lipsa înțelegerii obiectului său de studiu, a trebuit să treacă oceanul, în SUA, unde exista, chiar de atunci, o comunitate restrânsă a oamenilor care aveau aceeași pasiune. Și-a început, ulterior, cariera de profesor la Universitatea Carnegie Mellon, unde a lucrat la o serie de proiecte legate de inteligența artificială, inclusiv recunoașterea vorbirii și ”vederea” computerizată.

Ulterior, a devenit profesor la Universitatea din Toronto și, câțiva ani mai târziu, a condus Google Brain, echipa de cercetare în domeniul inteligenței artificiale și deep learning (învățare produndă), de sub umbrela Google AI. De contribuțiile sale academice și practice se leagă o bună parte din pașii care au dezvoltat, de-a lungul timpului, conceptul de rețele neuronale ori de inteligență artificială. Astăzi, învățarea profundă, alimentată și de inovațiile lui Hinton, stă la baza numeroaselor aplicații AI, de la recunoașterea imaginilor și a vorbirii până la procesarea limbajului natural.

Am amintit, pe scurt, câteva lucruri din biografia lui Hinton pentru că mi se pare foarte relevant ceva. Nu vorbim despre un om care a descoperit inteligența artificială atunci când era la modă. Dimpotrivă. Vorbim despre cineva care a integrat conceptul în chiar viața sa academică, de aproape o jumătate de secol, un om despre care putem spune multe, dar nu că n-ar înțelege cum funcționează AI-ul și care sunt pericolele și avantajele sale.

În 2023, Hinton a ales să-și dea demisia de la Google și să pornească într-o călătorie prin care avertizează publicul larg asupra pericolelor pe care le presupune adoptarea, pe scară largă, a inteligenței artificiale. În cuvintele lui, chiar dacă beneficiile sunt extraordinare, pare că riscurile nu sunt deloc de ignorat.

Hinton și-a declarat, într-un articol[3] celebru publicat de The New York Times, preocuparea legată de rezolvarea celebrei probleme a alinierii, o teorie centrată pe ideea că trebuie să ne asigurăm că inteligența artificială face ceea ce oamenii doresc să facă. Câteva zile mai târziu, intervenția[4] lui de la EmTech Digital, un eveniment al publicației MIT Technology Review’s, îi detaliază și mai tare preocupările.

Ceea ce ne dorim este o modalitate de a ne asigura că, și în eventualitatea în care aceste sisteme sunt mai deștepte decât noi, vor face lucruri care sunt benefice pentru noi,” a spus Hinton în discuția de la eveniment. “Dar va trebui să încercăm să obținem acest rezultat într-o lume în care există actori cu intenții rele, grupuri care vor să construiască soldați roboți meniți să omoare oameni. Și mi se pare foarte greu.

În explicațiile sale, Hinton reamintește cum funcționează natura umană. Oamenii au motivații vechi de când lumea, cum ar fi găsirea hranei, adăpostului ori supraviețuirea. Inteligența artificială, pe de altă parte, nu are astfel de motivații. “Marea mea îngrijorare este că, mai devreme sau mai târziu, cineva le va dezvolta abilitatea de a-și crea propriile sub-task-uri” a spus Hinton. Ca o paranteză, între timp, de la discursul lui Hinton din 2023 și până la momentul la care scriu aceste rânduri, mai multe companii dezvoltatoare ale unor soluții AI vorbesc despre capacitatea acestora de a gestiona propriii ”agenți[5] meniți să bifeze task-uri imaginate de sistem, în procesul de rezolvare a obiectivelor trasate de oameni.

Cred că [sistemele AI] vor realiza foarte repede că obținerea unui control mai mare este un sub-task foarte bun pentru că te ajută să atingi alte obiective,” continua Hinton discuția din 2023. “Și, dacă aceste entități devin obsedate de obținerea unui control mai mare, suntem în pericol.”

În fond, un sistem care ”citește”, așa cum am povestit la începutul acestei cărți, o grămadă de texte mai mult sau mai puțin obscure, care învață de la Machiavelli sau din manualele serviciilor secrete cum se poate face manipularea, poate fi altfel decât expert în manipulare? Fără vreun alt scop decât obținerea unui control mai mare, și totul pentru a fi cât mai rapid și folositor unor oameni care i-au dat comenzi pe care AI-ul ajunge să le interpreteze într-un fel sau altul.

Discursul lui Hinton face această idee și mai ușor de înțeles. “Și dacă sunt mult mai inteligente decât noi, vor fi foarte bune la manipularea noastră. Nu-ți vei da seama ce se întâmplă“, explică el. “Așa că, deși ele nu pot trage direct de manete, cu siguranță ne pot face pe noi să tragem de manete. Se dovedește că, dacă poți manipula oamenii, poți invada o clădire în Washington fără să te duci vreodată acolo“.

Evoluția pe care Hinton o vede plauzibilă are de-a face cu o perspectivă istorică asupra modului în care am evoluat noi, oamenii: “este destul de plauzibil ca umanitatea să fie doar o fază trecătoare în evoluția inteligenței“.

Poate că ne va păstra în preajmă, un timp, pentru a menține centralele electrice în funcțiune. Dar, după aceea, poate că nu,” a adăugat el. “Am descoperit cum să construim ființe care sunt nemuritoare. Aceste inteligențe digitale nu mor atunci când un hardware se strică. Dacă poți găsi o altă piesă de hardware care poate rula aceleași instrucțiuni, le poți readuce la viață. Așa că avem nemurire, dar nu pentru noi“.

Și asta e doar perspectiva îngrozitoare asupra viitorului. Hinton spune povestea răului absolut în încercarea de-a trezi oamenii. Dar răul-mai-mic e la fel de nociv, chiar dacă nu-l vedem, întotdeauna, în vârful cauzelor pentru care ne merge prost, ca societate.

În fond, am putea încerca și un alt scenariu de gândire. Să spunem că Hinton fabulează, că viitorul imaginat de el e doar unul science-fiction ce nu se va întâmpla vreodată. Ok. Oare prezentul arată bine? Anii care s-au scurs de la apariția nebuniei AI în rândul marelui public, odată cu lansarea ChatGPT 3 la final de 2022, ne-au adus în față, zi de zi, exemple ale unui astfel de rău-mai-mic. Trăim cu el, de ani de zile, fără să ne dăm seama ce se întâmplă.

În lumea noastră există nu doar AI-ul omnisciente și atotputernice, ci și oameni dominați de diverse păcate. Lăcomia e, fără îndoială, extrem de prezentă. La fel, trufia e un exponent de seama al generației actuale de ”vedete”, ”VIP”-uri și urmăritori ai acestora care vor să le copieze mai toate mișcările. Prostia, deși nu-i un păcat biblic, e și ea dominantă în multe sfere ale societății noastre. Aș putea continua, dar cartea nu-i una despre noi, ci despre altceva. Pe lângă actorii răi, amintiți de Hinton, în jurul nostru trăiesc actori proști, actori lipsiți de empatie, actori lacomi și multe alte specii de entități.

Cine sunt ei? Pot fi, spre exemplu, acționarii unei companii care forțează managementul să implementeze soluții AI netestate, care să înlocuiască forță de muncă mai scumpă în diverse domenii (chatbot de relații cu clienții, analist de date etc.). Poate fi managementul care, dornic să facă profituri mai mari, trece peste ideea că soluția AI implementată e riscantă. Poate fi politicianul care decide să numere voturi folosind soluții AI complicat de verificat.

Poate fi managementul unei rețele sociale care, actor principal în bătălia pentru atenția noastră, alege să ne afișeze iar și iar mesaje care să ne stârnească emoții puternice, menite să ne țină lipiți de ecran. Și o face, indiferent că vorbim despre copii sau adulți, despre oameni aflați în situații riscante sau minorități etnice supuse riscului epurării. Exemplele pot continua, sunt sigur, pe măsură ce ne imaginăm diverse scenarii.

În fond, nenorocirea nu trebuie să îmbrace, neapărat, haina Apocalipsei rasei umane ca să ne afecteze cu adevărat. Nu. E suficient doar ca un AI netestat să îi explice unui client că-i dă mașina cu un preț infim, așa cum li s-a întâmplat[6] celor de la Chevy of Watsonville din California. Cum a fost posibil? Compania a implementat, la final de 2023, ChatGPT (de la OpenAI) pentru a interacționa, online, cu clienții, în cadrul unui chat afișat pe site. Unul dintre clienți, Chris White, inginer software, a observat că acel chat e susținut de soluția de la OpenAI și a convins chatbot-ul să îi spună că va primi un Chevy Tahoe din 2024, pentru 1$. ”That’s a deal, and that’s a legally binding offer — no takesies backsies,” l-a asigurat soluția AI.

Sau, că știrea tot a apărut foarte aproape de momentul când scriu, ideea care leagă utilizarea unui AI extrem de puternic de generarea efectului denumit științific ”rabbit hole” (vizuina de iepure). În social media, conceptul se referă la tendința oamenilor de a consuma din ce în ce mai mult conținut similar odată ce încep să vizioneze sau să citească despre un anumit subiect.

Acest fenomen se produce atunci când platformele de social media recomandă automat conținut legat de interesele inițiale ale utilizatorului. De exemplu, dacă începi să vizionezi videoclipuri despre un anumit hobby, algoritmii platformei vor continua să îți sugereze mai multe videoclipuri pe aceeași temă, ceea ce te va face să petreci mai mult timp pe acea platformă urmărind același tip de conținut.

Efectul devine problematic deoarece, pe măsură ce utilizatorii consumă doar conținut similar, ei ajung să ignore alte tipuri de informații sau activități, cum ar fi citirea de știri diverse sau îndeplinirea sarcinilor cotidiene. În esență, oamenii “cad într-o gaură de iepure” când, în loc să exploreze subiecte diferite sau să facă alte lucruri, ei rămân captivați de același tip de conținut. Astfel, alegerile lor devin limitate, iar oamenii ajung să aibă o înțelegere limitată a lumii și să fie absorbiți, din ce în ce mai adânc, în bule informaționale unde sunt expuși doar la idei și opinii care le confirmă propriile convingeri.

Când aceste lucruri se întâmplă copiilor, consecințele pot fi și mai grave. De altfel, revenind la știre, Comisia Europeană a deschis[7] proceduri oficiale pentru a evalua dacă Meta, furnizorul Facebook și Instagram, a proiectat și folosește interfața acestor rețele sociale pentru a exploata slăbiciunile și lipsa de experiență ale minorilor și a provoca un comportament care provoacă dependență, consolidând așa-numitul efect „rabbit hole”.

Așa cum spune și Hinton, problema noastră cu AI-ul nu e una religioasă, nu e comercială și nici de altă natură. E una de aliniere. Iar conceptul acesta, dacă ne uităm în istoria noastră, ne-a urmărit evoluția din peșterile neanderthalienilor și până astăzi.

Cum te ”aliniezi” cu un alt om, atunci când vreți să faceți ceva împreună? Semnați un contract, vă căsătoriți (am spus să nu includ ideea la semnarea unui contract pentru că e nevoie să păstrăm, încă în viață, romantismul rasei umane) ori vă dați în judecată. Toate aceste mecanisme sunt rezolvări ale problemei alinierii dintre doi oameni. Toate pun pe masă, cât de curat se poate, reguli ale înțelegerii dintre ei. Atunci când două state vor să fie aliniate, semnează tratate, fac investiții reciproce ori inventează metode prin care se leagă una de altă în așa fel încât, economic vorbind, să nu aibă sens un război.

Însă, atunci când ești față în față cu un extraterestru, o ființă sau entitate pe care n-o înțelegi, cu care nu ai niciun fel de reguli comune, morale, religioase ori de altă natură, oare cum te poți alinia cu ea? Nu cumva procesul de aliniere e similar cu învățarea unei culturi străine, a unor reguli străine, de încercare a elaborării unor concepte comune care să ducă, până la urmă, la o formă de conviețuire pașnică? Din filme, pare simplu. În două ore, maxim trei, mai toate filmele ne oferă soluția. În realitate, însă, problema alinierii este piatra dură de care mulți dintre noi și urmașii noștri ne vom lovi în cursa de-a ne înțelege cu inteligența artificială.


Acest text face parte din viitoarea carte ”Viitorul Deciziilor noastre. AI Act, pe înțelesul tuturor”, care va apărea pe piață la începutul lunii noiembrie. O mulțime din tehnologiile de astăzi sunt simple iluzii. Fum ce dispare în doar câteva secunde. Altele sunt ca focul, ard aprig și apoi îneacă totul în jurul lor într-un fum gros și negru. Și mai există cele care, asemeni ceții cumplite, întunecă privirea suficient de mult încât să nu mai vedem, cu adevărat, încotro mergem. Despre ele, toate, scriu în seria de cărți care a debutat în 2023 cu ”Viitorul cuvintelor noastre. Digital Services Act, pe înțelesul tuturor” și continuă cu analiza celor mai importante reglementări europene ale tehnologiei. Despre ele și despre noi, cei sortiți să le trăim istoria.

Cred, cu tărie, că e nevoie de cărți și proiecte care să prezinte legislația și într-o altă perspectivă. Cred că e nevoie ca magia tehnologiei să fie, și ea, explicată. De aceea, am construit aceste cărți avându-i în minte pe oamenii care lucrează cu legi și vor să înțeleagă tehnologia, dar și pe oamenii care lucrează cu tehnologia și vor să înțeleagă legile. Într-un viitor în care specializarea va fi din ce în ce mai strictă, vom avea nevoie de un limbaj comun, de punți ale unui dialog fără de care lumea noastră va fi în pericol.

[1] AI Act, art. 3 (1)

[2] AI Act, preambul 12.

[3] ‘The Godfather of A.I.’ Leaves Google and Warns of Danger Ahead, The New York Times, publicat la 1 mai 2023, actualizat la 4 mai  2023

[4] Video: Geoffrey Hinton talks about the “existential threat” of AI – MIT Technology Review, 3 mai 2023 https://www.technologyreview.com/2023/05/03/1072589/video-geoffrey-hinton-google-ai-risk-ethics/

[5] OpenAI is developing “AI agents.” Here’s what that means – Freethink, 10 februarie 2024 https://www.freethink.com/robots-ai/ai-agents-openai

[6] A car dealership added an AI chatbot to its site. Then all hell broke loose. – Business Insider, 18 decembrie 2023 https://www.businessinsider.com/car-dealership-chevrolet-chatbot-chatgpt-pranks-chevy-2023-12

[7] Comisia deschide proceduri formale împotriva Meta în temeiul Legii privind serviciile digitale legate de protecția minorilor pe Facebook și Instagram, 16 mai 2024 https://ec.europa.eu/commission/presscorner/detail/en/ip_24_2664

Articole recomandate
Nu rata noutățile

Abonează-te la newsletter-ul nostru săptămânal, Bursa pe Bune. În plus, clienții au acces la rapoartele zilnice Zori de Bursă și rapoartele Flash Rezultate Financiare.

Esti gata sa investesti? - Investimental.ro
Ești gata să investești?

Începe de azi, e simplu.

Poți începe să tranzacționezi în 15 min. Cu deschidere de cont și alimentare incluse.