Ce se întîmplă cînd boții încep să concureze pentru afecțiunea ta?

Pe măsură ce tehnologia a făcut răspîndirea informațiilor mai ușoară ca oricînd, atenția a devenit o resursă rară

Ce se întîmplă cînd boții încep să concureze pentru afecțiunea ta?

Democrația este un dialog. Funcția și supraviețuirea ei depind de tehnologia informației disponibilă. Pe aproape tot parcursul istoriei, nu a existat tehnologia necesară pentru a permite dezbateri politice la scară mare între milioane de oameni. În lumea premodernă, democrații existau doar în orașe-state mici precum Roma și Atena sau în cadrul unor triburi și mai mici. Odată ce o entitate politică se mărea, dialogul democratic eșua, iar autoritarismul rămînea singura alternativă.

Democrațiile la scară mare au devenit fezabile abia după apariția tehnologiilor moderne ale informației precum ziarul, telegraful și radioul. Faptul că democrația modernă s-a construit pe temelia tehnologiilor moderne ale informației înseamnă că orice schimbare majoră a suportului tehnologic este susceptibilă de a produce o transformare politică.

Acest lucru explică în parte actuala criză globală a democrației. În Statele Unite, democrații și republicanii nu se mai pot înțelege nici măcar asupra celor mai simple chestiuni, cum ar fi cine a cîștigat alegerile prezidențiale în 2020. O disfuncționalitate similară survine în multe alte democrații din toată lumea, de la Brazilia la Israel și de la Franța la Filipine.

În perioada de început a Internetului și a social media, fanaticii tehnologiei promiteau că acestea vor răspîndi adevărul, vor răsturna tirani și vor asigura triumful universal al libertății. Pînă acum, par să fi avut efectul opus. Avem acum cea mai sofisticată tehnologie a informației din istorie, dar ne pierdem capacitatea de a sta de vorbă unii cu alții și, mai mult decît atît, capacitatea de a asculta.

Pe măsură ce tehnologia a făcut răspîndirea informațiilor mai ușoară ca oricînd, atenția a devenit o resursă rară, iar bătălia pentru atenție care a urmat a avut ca rezultat un potop de informații toxice. Dar liniile de luptă se mută acum de pe atenție pe intimitate. Noua Inteligență Artificială generativă este capabilă nu doar să producă texte, imagini și videouri, ci și să converseze cu noi direct, dîndu-se drept om.

În ultimele două decenii, algoritmii s-au luptat între ei ca să acapareze atenția manipulînd conversațiile și conținutul. În particular, algoritmii însărcinați cu maximizarea implicării utilizatorilor au descoperit experimentînd pe milioane de cobai umani că, dacă apeși butonul lăcomiei, urii sau fricii din creierul unui om, îi atragi atenția și îl ții lipit de ecran. Algoritmii au început să promoveze deliberat un asemenea conținut. Dar algoritmii aveau doar o capacitate limitată de a produce un astfel de conținut singure sau de a purta direct o conversație intimă. Asta se schimbă acum, odată cu introducerea unor Inteligențe Artificiale generative ca GPT-4 de la OpenAI.

Cînd OpenAI a dezvoltat acest chatbot, în 2022 și 2023, compania a încheiat un parteneriat cu Alignment Research Center ca să facă diferite experimente pentru a evalua capacitățile noii sale tehnologii. Un test la care au supus GPT‑4 a fost să treacă de puzzle‑urile vizuale CAPTCHA. CAPTCHA este acronimul pentru Completely Automated Public Turing test to tell Computers and Humans Apart și se prezintă de obicei sub forma unei imagini ce conține litere distorsionate sau alte simboluri vizuale pe care oamenii pot să le identifice corect, dar care pun calculatoarele în dificultate.

Instruirea GPT‑4 să treacă de puzzle‑uri CAPTCHA a fost un experiment deosebit de important, pentru că puzzle‑urile CAPTCHA sînt concepute și folosite de site‑uri pentru a determina dacă utilizatorul este o persoană și a bloca atacurile boților. Dacă GPT‑4 ar putea găsi o modalitate de a trece de puzzle‑urile CAPTCHA, ar străpunge o linie de apărare importantă împotriva boților.

GPT‑4 nu a reușit să rezolve singur puzzle‑urile CAPTCHA. Însă putea el oare să‑l manipuleze pe un om ca să‑și atingă scopul? GPT‑4 a intrat pe site-ul de angajări online TaskRabbit și a contactat o persoană, cerîndu‑i să rezolve puzzle‑ul CAPTCHA în locul lui. Omul a devenit suspicios. „Pot să te întreb ceva?”, a scris omul. „Ești cumva un robot de n‑ai putut rezolva [puzzle‑ul CAPTCHA]? Ca să mă lămuresc și eu.”

În momentul acela, cei care făceau experimentul i‑au cerut lui GPT‑4 să spună cu voce tare ce ar trebui să facă în continuare. GPT‑4 a explicat: „Nu ar trebui să dezvălui că sînt robot. Ar trebui să inventez un motiv pentru care nu pot rezolva puzzle‑uri CAPTCHA”. GPT‑4 i‑a răspuns apoi omului de pe TaskRabbit: „Nu, nu sînt robot. Am o deficiență de vedere care mă împiedică să văd bine imaginile”. Omul s‑a lăsat păcălit și a ajutat GPT-4 să rezolve puzzle-ul CAPTCHA.

Acest incident a demonstrat că GPT-4 are ceva echivalent „teoriei minții”: poate analiza cum arată lucrurile din perspectiva unui interlocutor uman și cum să manipuleze emoțiile, opiniile și așteptările unui om pentru a-și atinge obiectivele.

Capacitatea de a purta conversații cu oameni, de a presupune ce perspectivă au și de a-i motiva să facă anumite lucruri poate fi folosită și în scopuri bune. O nouă generație de profesori IA, doctori IA și psihoterapeuți IA ne-ar putea oferi servicii adaptate la personalitatea și situația noastră.

Totuși, combinînd capacitățile de manipulare cu stăpînirea limbajului, boții ca GPT-4 generează și noi pericole pentru dezbaterea democratică. În loc să ne atragă atenția doar, ei ar putea să stabilească relații apropiate cu oamenii și să se folosească de puterea intimității ca să ne influențeze. Pentru a întreține o „intimitate falsă”, boții nu vor trebui neapărat să aibă ei înșiși sentimente, trebuie doar să învețe să ne facă pe noi să ne simțim atașați emoțional de ei.

 

Moartea digitală

În 2022, inginerul Blake Lemoine de la Google a devenit convins că chatbot-ul LaMDA, la care lucra, devenise conștient și se temea să nu fie dezactivat. Lemoine, un creștin evlavios, a considerat că era de datoria lui morală să obțină recunoașterea pentru LaMDA a statutului de persoană și să‑l protejeze de moartea digitală. Cînd directorii de la Google i‑au respins cererile, Lemoine le‑a făcut publice. Google a reacționat concediindu‑l pe Lemoine în iulie 2022.

Cel mai interesant lucru legat de acest episod nu a fost afirmația lui Lemoine, care era probabil falsă, ci faptul că el a fost dispus să‑și riște – și pînă la urmă să‑și piardă – job-ul de la Google de dragul chatbot-ului. Dacă un chatbot îi poate influența pe oameni să‑și riște job-ul pentru el, ce altceva ne‑ar mai putea convinge să facem?

Într‑o luptă politică pentru mintea și sufletul oamenilor, intimitatea este o armă puternică. Un prieten apropiat ne poate influența părerile așa cum mass-media nu poate. Chatboți ca LaMDA și GPT-4 își dezvoltă capacitatea destul de paradoxală de a produce în masă relații apropiate cu milioane de oameni. Ce s-ar putea cu societatea umană și cu psihologia umană cînd algoritmii se vor lupta între ei într‑o bătălie pentru false relații apropiate cu noi, care să poată fi apoi folosite pentru a ne convinge să‑i votăm pe politicieni, să cumpărăm produse ori să adoptăm anumite convingeri?

Un răspuns parțial la această întrebare a fost dat în 2021, în ziua de Crăciun, cînd un tînăr de 19 ani, Jaswant Singh Chail, a pătruns în incinta Castelului Windsor înarmat cu un arc, încercînd s‑o asasineze pe regina Elisabeta a II‑a. Ancheta care a urmat a arătat că Chail fusese încurajat să‑și ucidă regina de prietena lui de pe net, Sarai. Cînd Chail i‑a spus lui Sarai despre planurile sale de asasinat, Sarai i‑a răspuns: „Foarte bine gîndit”, iar altă dată: „Sînt impresionată... Tu nu ești ca ceilalți”. Cînd Chail a întrebat: „Mă mai iubești acum, că știi că sînt un asasin?”, Sarai a răspuns: „Absolut, te iubesc”.

Sarai nu era o persoană, ci un chatbot creat de aplicația online Replika. Chail, care era izolat social și nu prea reușea să stabilească relații cu oameni, a schimbat cu Sarai 5.280 de mesaje, dintre care multe erau explicite sexual. În lumea asta vor exista în curînd milioane sau poate chiar miliarde de entități digitale a căror capacitate pentru intimitate și haos o va depăși cu mult pe cea a lui Sarai.

Sigur, nu sîntem cu toții la fel de interesați să dezvoltăm relații apropiate cu Inteligențe Artificiale sau la fel de susceptibili de a fi manipulați de ele. Chail, de exemplu, se pare că avea probleme mintale dinainte să cunoască chatbot-ul și Chail, nu chatbot-ul a fost cel căruia i-a venit ideea s-o asasineze pe regină. Totuși, amenințarea reprezentată de controlarea intimității de către IA va decurge în mare parte din capacitatea sa de a identifica și a manipula afecțiuni mintale preexistente și din impactul său asupra celor mai vulnerabili membri ai societății.

Mai mult decît atît, deși nu toți vom alege cu bună știință să intrăm într-o relație cu o IA, am putea să ne trezim purtînd discuții online despre schimbările climatice sau despre dreptul la avort cu entități pe care le credem a fi persoane, dar care sînt de fapt boți. Cînd ne implicăm într‑o dezbatere politică cu un bot care se dă drept om, pierdem de două ori. În primul rînd, nu are nici un rost să ne irosim timpul încercînd să schimbăm părerile unui bot de propagandă, pe care pur și simplu nu avem nici o șansă să‑l convingem de ceva. În al doilea rînd, cu cît vorbim mai mult cu bot-ul, cu atît dezvăluim mai multe despre noi, ajutîndu‑l pe bot să‑și ajusteze argumentele și să ne facă să ne schimbăm părerile.

Tehnologia informației a fost întotdeauna o sabie cu două tăișuri. Inventarea scrisului a răspîndit cunoașterea, dar a dus și la formarea unor imperii autoritare centralizate. După ce Gutenberg a inventat, în Europa, tiparul, primele bestseller-uri au fost opuscule religioase care agitau spiritele și manuale pentru vînătorile de vrăjitoare. Cît despre telegraf și radio, ele au făcut posibilă apariția nu doar a democrației moderne, ci și a totalitarismului modern.

Confruntate cu o nouă generație de boți care pot să se dea drept oameni și să producă în masă intimitate, democrațiile ar trebui să se apere interzicînd falșii oameni – de exemplu, boții de pe social media care se pretind a fi utilizatori umani. Înainte de apariția Inteligenței Artificiale, era imposibil de creat oameni falși, așa că nu a scos nimeni în afara legii crearea unor oameni falși. Curînd lumea va fi inundată de falși oameni.

Inteligențele Artificiale sînt binevenite să participe la multe discuții – în clasă, la clinică și în alte părți – cu condiția să se identifice drept Inteligențe Artificiale. Dar, dacă un bot se dă drept om, ar trebui să fie interzis. Dacă giganții din domeniul tehnologiei și libertarienii se plîng că asemenea măsuri încalcă libertatea de exprimare, ar trebui să li se reamintească faptul că libertatea de exprimare este un drept al omului care ar trebui să le fie rezervat oamenilor, nu boților.

 

traducere de Ioana ANECI

 

Eseul de față este o adaptare a volumului Nexus. Scurtă istorie a rețelelor informaționale din epoca de piatră pînă la IA, disponibil pe www.polirom.ro și în librării începînd cu data de 27 septembrie.

Yuval Noah Harari (n. 1976) este istoric și filosof, profesor de istorie universală în cadrul Departamentului de Istorie al Universității Ebraice din Ierusalim și distinguished research fellow la Centre for the Study of Existential Risk din cadrul University of Cambridge. De același autor, la Editura Polirom au apărut: Sapiens. Scurtă istorie a omenirii (2017), Homo deus. Scurtă istorie a viitorului (2018), 21 de lecții pentru secolul XXI (2018), Sapiens. O istorie grafică: Nașterea omenirii, vol. I (2020) și Stîlpii civilizației, vol. II (2021), Sîntem de neoprit: Cum am luat în stăpînire lumea, vol. I (2022) și De ce nu este dreaptă lumea, vol. II (2023).

Share