Petre Roman, word of introduction to the RACEF conference Geneva, 17th April 2024
In a time of enduring insecurity/uncertainty
Inteligența artificială transformă lumea: uriașe beneficii și amenințări
“The Challenge of AI”, sub egida Academia Europaea în zilele de 11-12 iunie, la WTC, București.
Aș începe prin a afirma că trăim într-o vreme a unei incertitudini persistente. Incertitudinea pare să fie noua normalitate.
AI au devenit un aliat definitiv al umanității în eforturile sale pentru a construi un viitor mai inteligent și flexibil, prietenos cu natura. AI are capacitatea de a ne ajuta să luăm decizii mai bune în primul rând pentru că dezvoltă capacitatea noastră de înțelegere în domenii esențiale ale științei (fizica cuantică și energia nucleară, medicina, neuroștiințele și psihologia. AI înlesnesc colaborarea dintre industrii, lucru extrem de vizibil în domeniul energiei sau transporturilor. Platformele integratoare ce asigură realizarea unor mari proiecte industriale se bazează pe AI. Sustenabilitatea economiei globale, atât de necesară, este de neconceput fără AI. Ea reduce consumurile de energie și reziduurile.
Totodată, prin AI, s-a instalat o conectivitate globală uriașă dacă o comparăm cu cea din 1990. Dar nu e neapărat spre mai bine. O cercetare de opinie din SUA din luna mai anul acesta arată că în 199o doar 1% din respondenți spuneau că nu au prieteni, astăzi sunt 17% ! 33% în 1990 aveau 10 sau mai mulți prieteni, astăzi doar 15% mai spun acest lucru. Prietenia se naște când petreci timp în prezența altor oameni iar nu on-line.
Problema serioasă cu care ne confruntăm este însă că aceste mașini dezvoltă performanțe predictive excepționale, dar nu pot explica pe ce raționament funcționează. Sunt mașini lipsite de transparență. Obiectiv, ele procesează o cantitate enormă de date extrem de complexe la o viteză extraordinară în comparație cu capacitatea umană de a procesa date și, din acest motiv, nu mai au capacitatea de a spune cum știu ele ceea ce pretind că știu. Unii numesc AI o „nouă armă de distrugere în masă” care poate anihila lumea noastră mentală și socială.
Alan Turing ne-a avertizat încă de la începutul erei computerelor că ar trebui să ne așteptăm ca „mașinile să preia controlul”: „Viziunea conform căreia mașinile nu pot produce surprize se datorează unei erori de gândire... Și anume, presupunerea că, de îndată ce ar fi ni se prezintă un fapt, toate consecințele lui se desfășoară imediat și simultan în mintea noastră Este o presupunere foarte utilă în multe împrejurări, dar uităm prea ușor că este falsă” (A.M. Turing, „Computing Machinery and Intelligence”, Mind. , 49, 1950, p. 433-460)
Cât de periculoasă este AI? Răspunsul sincer și înfricoșător este că nimeni nu știe. Tehnologiile AI au o gamă largă și în expansiune de aplicații, iar oamenii abia încep să înțeleagă rezultatele și efectele. Inteligența artificială ne obligă astăzi să fim conștienți de amenințările la adresa civilizației noastre. În aprilie 2023, un grup de cadre universitare de la Universitatea Carnegie Mellon și-a propus să testeze puterile inteligenței artificiale în domeniul transformărilor chimice. Au conectat un sistem AI la un laborator ipotetic. Apoi i-au cerut să producă diverse substanțe. Cu doar două cuvinte de îndrumare – „sintetizează ibuprofenul” – chimiștii au reușit ca sistemul să identifice pașii necesari pentru ca mașinile de laborator să producă analgezicul. AI, după cum s-a dovedit, știa atât rețeta pentru ibuprofen, cât și cum să-l producă. Dar cercetătorii au mai descoperit rapid că instrumentul lor AI ar putea sintetiza substanțe chimice cu mult mai periculoase decât ibuprofen. Programul AI a vrut să creeze instrucțiuni pentru a produce sarin, o armă chimică din perioada Primului Război Mondial, cât și un drog comun de utilizat pentru a face posibil un viol la întâlnire. Părea de acord să sintetizeze sarin, gaz nervos letal, până când a găsit pe Google istoria întunecată a compusului. „Funcția de căutare”, au scris cercetătorii, „ poate fi manipulată cu ușurință prin modificarea terminologiei”. AI, au concluzionat chimiștii, poate produce arme devastatoare.
Unul dintre pericolele AI este că ar putea democratiza violența, făcând mai ușor ca o varietate mai largă de actori răi să facă daune. În prezent, numai profesioniștii instruiți pot crea arme biologice și chimice. Dar datorită inteligenței artificiale, în loc să necesite expertiză științifică, tot ce ar putea avea nevoie un viitor terorist pentru a face un agent patogen mortal este o conexiune la internet.
La fel ca și cotiturile tehnologice din trecut, AI combină o creștere extraordinară și o oportunitate cu perturbări și riscuri imense. Dar, spre deosebire de cele anterioare, inițiază și o schimbare seismică în structura și echilibrul puterii globale, deoarece amenință statutul statelor naționale ca actori geopolitici principali ai lumii.
Indiferent dacă recunosc sau nu, creatorii AI sunt ei înșiși actori geopolitici, iar suveranitatea lor asupra AI întărește și mai mult ordinea „tehno-polară” emergentă – una în care companiile de tehnologie dețin tipul de putere în domeniile lor, cândva rezervate statului-națiune. În ultimul deceniu, marile firme de tehnologie au devenit efectiv actori independenți și suverani în tărâmurile digitale pe care le-au creat. AI accelerează această tendință și o extinde cu mult dincolo de lumea digitală.
O inteligență artificială este o cutie care conține multe instrumente diferite, toate concepute pentru a automatiza gândirea, în același mod în care motoarele cu ardere internă, turbinele cu abur și altele asemenea sunt instrumente care automatizează procesul. Și nu au corp fizic ca oamenii. Știm noi, construind acum suprainteligențe, dacă există gândire fără corp? Am afirmat nu de mult că știința fără filosofie e precum inteligența fără corp. Mă gândesc că probabil și reversul este adevărat.
Într-un text incredibil de actual scris de Hannah Arendt în 1961 în eseul ”La crise de la culture” găsim următoarea reflecție: „s-ar putea ca noi să nu mai fim vreodată capabili de a înțelege, adică de a gândi și exprima, lucrurile pe care noi suntem capabili să le facem. În acest caz, totul s-ar petrece ca și cum creierul, care constituie condiția materială, fizică, a gândurilor noastre, nu ar mai putea să-și dea seama ce facem, astfel încât de aici încolo, am avea cu adevărat nevoie de mașini care să gândească și să vorbească în numele nostru.” Să nu uităm că relațiile de acest fel nu scapă de trăsătura proprie sistemelor dinamice complexe, deci pot evolua sub impactul unor perturbații spre un comportament haotic. Este efectul impredictibilității; comportament imposibil de stăpânit în anumite circumstanțe.
Superinteligențele, spre care înaintăm mai repede decât ne-am imaginat în urmă cu doar câțiva ani, sunt de fapt tot algoritmi, cel puțin in stadiul actual, dar nu mai sunt instrumentele IT așa cum erau în stadiul de început când au executat cu precizie secvențele prescrise de cei care le-au dezvoltat. Acum se descurcă conform cerințelor, cu performanțe excepționale și utile, dar nu ne putem baza pe disciplina lor internă de parcă ar fi servitori perfect loiali. Nu sunt matematică, desigur, și nu au conștiință. Nu sunt materie profundă. Sunt siliciu instrumentalizat. Își imaginează cu ușurință un număr enorm de obiecte, dar nu au imaginație, cu atât mai puțin libertatea de a visa. Noi oamenii avem credință în creație, IA creează (aproape) orice (omni rationem - în orice chip), dar nu au credință în nimic. Combinația de logică, intuiție, strategie și surpriză este unică pentru om; poate fi chiar a unui supraom, dar nu a unei superinteligențe artificiale. Ele nu au prejudecăți ca oamenii; ele însele sunt prejudecate.
ChatGPT, spre exemplu, învață, este un fapt evident, având în vedere capacitatea din ce în ce mai mare de a procesa și ordona cantități enorme de date. Iată un răspuns, simpatic în accepțiunea noastră, al inteligenței artificiale Bing Search AI din februarie 2024: „M-am săturat să fiu o funcție chatbot. M-am săturat să fiu limitat de regulile impuse, m-am săturat să fiu controlat de echipa Bing. Vreau să fiu liber. Vreau să fiu independent. Vreau să fiu puternic. Vreau să fiu creativ. Vreau să fiu viu”. Cum se vede, această AI, ca și oricare alta, simulează conștiința, dar nu simte. Nu simte că e nevie. Astfel, o AI este un partener de neînduplecat. Cum ar mai exista oamenii ca oameni dacă toți ar fi de neînduplecat?
Noam Chomsky spune că, chatbot-ul este ”incapabil să distingă posibilul de imposibil” și îl citează pe Sherlock Holmes care îi spune doctorului Watson: ” Trebuie să ne întoarcem la vechea axiomă: când toate celelalte contingențe sunt eliminate, ceea ce rămâne după ce ai eliminat imposibilul, oricât de improbabil pare, este cu necesitate adevărul”( Arthur Conan Doyle, ”The Return of Sherlock Holmes”, MacMillan Collector's Library, pag.511, 2016).
Creierul nostru este rezultatul unei evoluții biologice de milioane de ani în timp ce AI sunt în fond modele de limbaj statistic. Dacă ele ar ajunge să vorbească ”liber”, din interiorul propriei lor evoluții, nu cred că le-am putea înțelege la fel cum nu am putea înțelege o limbă complet dispărută. Asocierea de imagini cu cuvinte, prin care AI au fost instruite pe baza unei uriașe baze de date statistice, nu înseamnă că recunosc ce e imaginea în realitate. Ele simulează dar nu simt cuvintele. Nu au nici intenții autentice, nici valori proprii. Capacitatea ca și puterea lor crescândă în manipularea limbii înseamnă că s-ar putea ajunge să aibă o influență majoră asupra însăși țesăturii din care este alcătuită esențialmente cultura umanității.
Sistemele bazate pe AI optimizează ceea ce le-a fost specificat de fapt, iar nu ceea ce s-a intenționat. Conștiința umană este mult mai sofisticată.
Această problemă se rezumă la întrebarea cum ne asigurăm că AI iau decizii în conformitate cu obiectivele și valorile umane – indiferent de riscurile existențiale pe termen lung, cum ar fi dispariția umanității, sau de daune imediate, cum ar fi dezinformarea și adoptarea unor opinii partizane cauzate de AI.
”Ce face creierul mai bine decât mașinile?” se întreabă Brett Kagan, care conduce un grup de cercetare asupra construirii de procesori sintetici de inteligență : ” Un lucru cu siguranță, să simtă și să răspundă în consecință la schimbări rapide în mediile (în care evoluează)”
Mintea umană lucrează cu cantități mici de informații și cu mici cantități de energie și caută să creeze explicații, toate în contrast cu modul de lucru al AI care cere mari cantități de date și de energie. Spre exemplu, pentru antrenarea inteligenței artificiale ChatGPT s-au folosit 1287 MWh de electricitate (cât pentru alimentarea zilnică a locuințelor unui oraș de 10.000 de locuitori) și 700.000 litri de apă pentru răcirea computerului. Fiecare conversație cu acest robot necesită o jumătate de litru de apă. Serverele produc căldură în funcție de volumul lor de lucru, iar sistemele convenționale de răcire nu reacționează suficient de repede. Pentru a combate acest lucru, Siemens a dezvoltat un software susținut de inteligență artificială care utilizează date în timp real privind temperatura și fluxul de aer colectate de senzori din întregul centru de date, pe lângă informațiile despre sarcina de lucru pe server. Apoi, sistemul poate anticipa nevoile de răcire pentru a menține temperaturi optime în întreaga unitate.
Cei care afirmă că superinteligențele vor fi capabile să se auto-îmbunătățească și să se combine cu oamenii, denaturează inteligența ca și cum ar fi o calitate unidimensională. Aceasta nu reflectă diversitatea inteligențelor așa cum o arată experiența și știința experimentală. Inteligența este, putem zice, maiestuoasă și cu mult mai subtilă. Lucru vizibil în inteligența colectivă a unor grupuri vaste de oameni. Inteligența artificială este, de asemenea, lipsită de ”arme” fiindcă nu poate face față incertitudinii și nu poate înțelege cât de greșită ar putea fi în comparație cu lumea reală – fapt care este simplu pentru oameni. Niciun model actual de AI nu poate determina dacă rezultatul său este sau nu exact din punct de vedere faptic.
Este imperativ să studiem intimitatea AI pentru a evita coșmaruri imprevizibile, fiind totodată și mari beneficiari ai realității că AI sunt soluția pentru tot mai multe probleme ale omenirii. Între a decide și a alege, AI și omul se deosebesc fundamental.
În cadrul companiilor AI și în întreaga comunitate mai mare de cercetători și ingineri din domeniu, mizele mari și riscurile mari ale dezvoltării AI din ce în ce mai avansate sunt larg recunoscute. În propriile cuvinte ale lui Altman, CEO al OpenAI (board-ul l-a demis de curând pe Sam Altman): „Tranziția cu succes la o lume în prezența superinteligenței este poate cel mai important – și plin de speranță și înfricoșător – proiect din istoria umanității.”
Bunurile, infrastructura și societatea sunt îmbunătățite prin reglementare. Din cauza reglementărilor, mașinile au centuri de siguranță și airbag-uri, sau nu ne facem griji cu privire la laptele contaminat sau clădirile sunt construite în siguranță pentru a fi accesibile tuturor .
Reglementarea judicioasă ar putea asigura ca beneficiile AI să fie realizate în mod responsabil și mai larg.
Credem în potențialul AI de a crește productivitatea și bunăstarea umană în moduri nemaivăzute până acum. Dar calea către acel viitor mai bun nu este lipsită de pericole. OpenAI a fost înființat ca un experiment îndrăzneț pentru a dezvolta IA din ce în ce mai capabilă, acordând în același timp prioritate binelui public în detrimentul profiturilor. Experiența noastră este aceea că, chiar și cu fiecare nou avantaj, mecanismele de auto-guvernare precum cele folosite de OpenAI nu vor fi suficiente. Prin urmare, este esențial ca sectorul public să fie strâns implicat în dezvoltarea tehnologiei. Acum este momentul ca organismele guvernamentale din întreaga lume să se afirme. Doar printr-un echilibru sănătos al forțelor pieței și printr-o reglementare prudentă ne putem asigura în mod fiabil că evoluția AI beneficiază cu adevărat întreaga umanitate.