Generaţia născută cu tableta și smartphone-ul în braţe, dar care ajunge exploatată de cultivatorii big data și controlată prin radicalizare și polarizare, poate deveni generaţia care să pună în faptă mișcări antidemocratice. Alfabetizarea digitală, oricât de lăudată ar fi ca parafă a relevanţei, nu poate fi decât o parte a unei soluţii care trebuie să aibă o acoperire mult mai amplă. Abilităţile digitale de unele singure nu pot face faţă noilor provocări, din contră, ele sunt muniţia care le propagă.

Cu doar câteva zile în urmă, un grup al giganţilor tech, între care Google, Facebook și Mozilla, și-au luat de bunăvoie angajamentul de a respecta noile standarde ale Comisiei Europene privind combaterea dezinformării prin știri false, semnând Codul UE de practică privind dezinformarea.

Este pentru prima dată când industria a ajuns la un acord privind aplicarea unui set de standarde de autoreglementare în lupta cu dezinformarea globală, acord de altfel voluntar”, a apreciat comisarul european pentru economie digitală și societate Mariya Gabriel. „Industria se angajează astfel la o paletă largă de acţiuni, de la transparentizarea publicităţii politice până la închiderea conturilor false și demonetizarea furnizorilor de dezinformare”, a declarat comisarul.

Un forum alcătuit din mai multe organizaţii interesate de chestiunea dezinformării a criticat documentul ratificat, reproșând că acesta nu include „niciun angajament semnificativ, niciun obiectiv măsurabil sau vreun indicator-cheie care să poată fi evaluat, niciun instrument de complianţă sau de aplicare și, prin urmare, nicio posibilitate de a monitoriza implementarea procesului”.

Straturi de neliniște

În funcţie de cât de familiarizaţi suntem cu subiectul dezinformării, acesta este posibil să fi ajuns la noi pe mai multe straturi. Cei mai mulţi dintre noi am auzit deja despre GDPR (Regulamentul UE privind protecţia datelor) și am început să avem o vagă idee despre faptul că datele noastre personale sunt o monedă de schimb pentru mogulii tehnologici. Acesta este primul strat, pe care se fundamentează toate celelalte. Am aflat apoi că datele noastre pot scăpa controlului companiilor, ajungând în mâinile unor terţi, cu/fără acordul platformelor cărora le-am oferit noi datele noastre. Știm că aceste date, preluate fraudulos sau nu chiar, au fost folosite în detrimentul informării celor care le-au pus la dispoziţia platformelor online, fără să bănuiască vreo consecinţă. Acesta este al doilea strat. Însă stratul mult mai puţin cunoscut și mai greu de înţeles este că aceste platforme online au înscrise chiar în structura lor mecanisme prin care devin dăunătoare societăţii. Nu mă refer aici la elemente precum scrolling-ul automat, despre care s-a spus că ar fi construit înadins pentru a da dependenţă utilizatorilor, ci la ceva mult mai fundamental pentru funcţionarea tuturor marilor reţele online: algoritmii.

Reţeaua pe care toţi iubim să o urâm, Facebookul, a fost insistent pusă sub lumina reflectoarelor anul acesta atunci când CEO-ul companiei, Mark Zuckerberg, a fost audiat în faţa Congresului și a Senatului american. Analiștii așteptau ca mogulul media să fie „prăjit” de oamenii politici, însă nu a fost așa. În timpul audierii în faţa Congresului, Mark Zuckerberg a făcut o subliniere care a arătat nu doar cât de ușor este să te detașezi de acuzaţii atunci când ești o forţă economică (ceva ce au observat analiștii), ci și cât de diferită este perspectiva CEO-ului faţă de cea a unui utilizator de rând (ceea ce ar fi trebuit să le ridice întrebări user-ilor: De ce reţeaua lor „pentru prieteni” e o companie tehnologică, nu una de comunicaţii?). 

Zuckerberg a spus atunci că Facebookul nu este o companie media, chiar dacă găzduiește și produce conţinut. Sigur, dacă ar fi fost așa, nimeni nu ar mai fi discutat astăzi despre fake news, un fenomen care a prosperat în cea mai mare parte datorită acestei reţele și unii au mers chiar până la a spune că însuși președintele Statelor Unite nu ar fi fost ales dacă echipa sa de campanie nu ar fi avut un Facebook pe care să îl folosească pentru diseminarea știrilor false.

Cu toate acestea, Mark Zuckerberg nu a minţit în timpul audierii. Facebookul chiar este o companie tehnologică. Structura ei este menită să disemineze și să colecteze simultan date, nu este una construită doar pentru a disemina informaţia, ca un simplu canal, deși face și asta. Acesta este punctul de pornire a fenomenului fake news: existenţa nu atât a propagandei vechi de când Pământul, ci a unui instrument media care o poate duce cu eficienţă maximă până la capătul Pământului. Iar, până ca Facebookul să dezvolte această infrastructură tehnologică de colectare de date, nicio altă arhitectură media nu a mai avut o putere informaţională de asemenea calibru.

Desigur, orice utilizator știe astăzi că Facebook colectează informaţii despre utilizatori și, pe unii, lucrul acesta chiar îi determină să expună cât mai puţină informaţie personală în reţea. Cel puţin așa au ei impresia.

Într-un document alcătuit de angajaţi Facebook spre a fi înaintat unui potenţial client de publicitate, reprezentanţii reţelei se lăudau că pot identifica momentul în care adolescenţii, care erau targetul acelei companii de publicitate, se simt „nesiguri”, „lipsiţi de importanţă” și „au nevoie de un boost de încredere”.

Ne-am putea imagina că reţeaua obţine aceste informaţii de la adolescenţi care își completează vârsta reală la alcătuirea contului și care în utilizarea lui notează sentimentele lor în postări tip „feeling…” Dar am greși. În realitate, reţeaua nu extrage această informaţie prin cartografierea apariţiei acestor cuvinte precise în reţea, deși documentul arăta că reţeaua poate monitoriza în timp real statusurile și fotografiile postate.

Facebook își extrage informaţia printr-un proces automatizat pe care specialiștii îl numesc „inferenţă a atributelor neexprimate”. Cu alte cuvinte, reţeaua poate obţine datele de care are nevoie, în urma unui proces care seamănă foarte mult cu deducţia logică pe care o întrebuinţează un om. Mai exact, cu ajutorul inteligenţei artificiale.

Roboţii care ne cunosc mai bine decât oamenii

Dispozitivele de inteligenţă artificială în care investește Facebook sunt alimentate și procesează o cantitate inimaginabilă de informaţii despre utilizatori. Și majoritatea utilizatorilor nici măcar nu își imaginează ce înseamnă acest lucru, mai ales că și printre cei mai educaţi sunt mulţi care cred că procesarea aceasta ţine de „ritul vechi” al programării. Mai exact, că o persoană învaţă un computer să extragă un anumit tip de informaţie dictându-i computerului niște algoritmi („dacă X…, atunci Y…”) în baza cărora computerul furnizează apoi informaţia filtrată. Însă ceea ce face astăzi inteligenţa artificială a depășit cu mult acest nivel.

Inteligenţa artificială este capabilă și chiar dezvoltă noi căi de a sonda prin cantităţi uriașe de informaţie pentru a ajunge la date relevante. Computerele cu inteligenţă artificială pot învăţa aceste noi căi de structurare big data cu sau fără ajutorul unei persoane, prin ceea ce se numește deep-learning (arhitectura de învăţare automatizată profundă). Deep-learning este o structură de învăţare artificială inspirată de tiparele de procesare a informaţiilor în sistemul nervos biologic. Cu alte cuvinte, inspirată de creier. Tehnologia de învăţare automatizată profundă analizează informaţia nouă mult mai în detaliu și are capacitatea de a păstra în memorie acţiuni din trecut, ca și capacitatea de a învăţa din propriile inferenţe. Această tehnologie este deja folosită, de exemplu pentru recunoașterea vocală și a scrisului, pentru a detecta spamul și diverse fraude electronice, dar și pentru a prezice tendinţe sau rezultate.

Dat fiind volumul uriaș de informaţii pe care Facebook le deţine despre utilizatorii săi, este așadar greu de spus cu adevărat câte lucruri știe reţeaua despre noi. Mai mult, pe măsură ce inteligenţa artificială continuă să analizeze o cantitate de big data în creștere, este realist să spunem că nici măcar Facebook nu știe încă ce fel de informaţii va afla despre utilizatorii săi.

Impactul pe care această hegemonie informaţională îl poate avea asupra societăţii ar trebui să ne alarmeze mai mult decât riscul instaurării unui sistem politic autoritar bazat pe supravegherea populaţiilor. Deși tehnic posibilă, legal o astfel de revoluţie nu este încă reală. (China ar putea deveni primul exponent al practicării acestui sistem.) Însă procesarea big data și vânzarea informaţiilor, bazată pe consimţământ, sunt legale și se petrec chiar și în acest moment în care citiţi articolul. Facebook este o companie tehnologică care trăiește din vânzarea datelor pe care le colectează de la utilizatorii dispuși să le ofere. (Tocmai de acea reţeaua nu este interesată prea tare de conţinutul distribuit prin măruntaiele ei, atâta timp cât acel conţinut menţine atenţia utilizatorilor și îi face să revină.) Iar problema care decurge de aici nu sunt doar anunţurile publicitare extrem de enervante care ne bombardează zilnic. Pentru Facebook, a promova un candidat politic, o idee cu impact social sau un produs este, structural, același lucru. Aceiași algoritmi vor fi folosiţi indiferent că clientul de publicitate are de vândut o bormașină, un candidat sau un apel anti-vaccin.

Care sunt consecinţele?

Jurnaliștii Joshua Green și Sasha Issenberg au deschis o adevărată cutie a Pandorei privind consecinţele acestui mod de a face afaceri atunci când au publicat pe Bloomberg o investigaţie despre campania electorală a lui Donald Trump. Discuţiile potrivit cărora Donald Trump ar fi câștigat alegerile cu ajutorul știrilor false sunt deja cunoscute, însă mai puţin cunoscut este ajutorul pe care campania l-a primit din partea așa-numitelor dark posts („postări întunecate”). Dark posting-ul este o formă de hipertargetare a publicului pe care Facebook o furnizează de ani de zile. Hipertargetarea constă într-o segmentare extrem de precisă a publicului, după criterii atât de precise, dar și încărcate emoţional încât ar face pe cineva care nu lucrează în advertising sau în marketing politic și care nu este obișnuit cu o astfel de categorisire a publicului să se îmbujoreze de rușine. [Cam cum ar fi trebuit să se îmbujoreze Facebookul când s-a aflat că le oferă clienţilor de publicitate posibilitatea de a targeta Jew haters (persoane care urăsc evreii).]

Investigaţia de la Bloomberg a dus discuţia în actualitatea fierbinte atunci când a arătat că echipa de campanie a actualului președinte a targetat în mod precis segmente de utilizatori Facebook afro-americani, cărora le-a distribuit mesaje menite să îi descurajeze să voteze. Mesaje care transmiteau că votul persoanelor de culoare este cantitate neglijabilă au ajuns la afro-americanii din statele în care chiar votul lor conta cel mai mult. Această strategie nu a fost cu nimic ilegală. Stafful de campanie a folosit pur și simplu un instrument de publicitate inventat exact pentru lucrul pentru care a fost utilizat: să ajungă la categorii de public extrem de precise și să le vândă ceva.

Echipa de campanie adversă nu ar fi putut contracara o astfel de diseminare nici dacă ar fi fost conștientă de ea, fiindcă nu ar fi putut să se asigure, și nici Facebook nu îi putea garanta asta, că mesajul de contracarare ar putea ajunge la exact aceiași oameni care au văzut mesajul iniţial. Dar problema oricum nu se punea așa, pentru că acel public a rămas ascuns de ochii adversarului.

În mijlocul scandalului cu targetarea afro-americanilor, Facebook a răspuns lansând butonul „Info and Ads”, disponibil pe orice pagină oficială (Pages), care arată toate campaniile pe care o anumită pagină le derulează la momentul consultării. Reţeaua a promis că va concepe și un sistem de arhivare care să le permită celor interesaţi să verifice o istorie a tuturor campaniilor derulate de o pagină, dar, după ce scandalul s-a dus, același lucru s-a întâmplat și cu promisiunea Facebook.

Rezultatul politic al unor astfel de manevre este îngrijorător, dar ceea ce este chiar mai neliniștitor este efectul de ansamblu. Acest tip de publicitate este, desigur, o formă de advertising în masă. Însă, spre deosebire de publicitatea pe care o știam cu toţii până acum, acest tip de hipertargetare face ca publicitatea să se întâmple la scară, dar în ascuns. Asistăm astfel la o mutaţie, o trecere de la sfera publică tradiţională, în care opiniile se întâlneau la vedere într-o piaţă publică a ideilor, la o sferă publică algoritmică și hiperfragmentată, gestionată prin intermediul inteligenţei artificiale. De ce este asta un lucru rău? Pentru că algoritmii care fac ca reţelele online să prospere economic sunt cei care profită de polarizarea opiniilor. Un experiment a demonstrat deja că YouTube este instrumentul de radicalizare cu cea mai mare influenţă în societăţile occidentalizate, fiindcă mecanismul său de captare a atenţiei – recomandările – le prezintă treptat utilizatorilor conţinut din ce în ce mai radical și încărcat emoţional, fiind știut că acest tip de conţinut menţine cel mai bine atenţia.

Efectul la scară al unei sfere publice algoritmice este o cultură algoritmică. Altfel spus, discuţiile de masă sunt manipulate de algoritmi care decid la ce sunt expuse mulţimi precise de oameni. Și, fiindcă acești algoritmi favorizează, prin construcţia lor, propagarea mesajelor inflamatoare și radicale, putem să ne imaginăm ce efect va avea faptul că utilizatorii se supun voluntar, dar în necunoștinţă de cauză, expunerii la mesaje radicale.

În timp, presiunea „bulelor” online (echo chambers) va genera o polarizare care va submina raţiunea și va cultiva divizarea. Iar individul, nefiind conștient că angrenajul în care se află este construit artificial, controlat de clientul dispus să plătească mai mult pentru distribuirea unui mesaj, nu mai are practic decât posibilităţi foarte reduse de a contribui la reglarea sferei publice.

O societate în care sfera publică nu se autoreglează, ci este dirijată de algoritmi activaţi de câţiva capabili să îi „cumpere”, este o societate algoritmică, nu una democratică.

O astfel de societate promovează Facebook în toată lumea, culmea, în numele libertăţii de exprimare și al „conectării oamenilor de pe tot globul”.

Nu putem aștepta ca mogulii tehnologici să ne facă favoarea de a se asigura că lucrurile nu degenerează. Nu putem nici măcar să ne așteptăm ca jurnaliștii să ne securizeze informaţia de calitate. Lucrul acesta nu mai este posibil astăzi, când una dintre marile inovaţii care asigură succesul economic al reţelelor sociale online – hipertargetarea – schimbă din mers regulile jocului comunicării.

Societatea are nevoie să dezvolte antibiotice culturale pentru epidemia dezinformării, iar pentru aceasta este nevoie ca inovaţia să cuprindă toate nivelurile: de la cel organizaţional la cel social, educaţional și legislativ. Iar locul cel mai predispus să furnizeze această inovaţie este lumea academică, fiindcă de acolo sunt cele mai mari șanse să răsară idei proaspete: de la oameni proaspeţi, neînhămaţi la sisteme corupte, preocupaţi de imaginea de ansamblu și care încă mai cred că gândirea strategică responsabilă poate schimba viitorul.


Am fost onorată de invitaţia Școlii Naţionale de Studii Politice și Administrative de a participa ca vorbitor în cadrul workshop-ului româno-american intitulat „Fake News and Information Disorders in the Digital Age” („Știrile false și tulburările informaţionale în era digitală”), un eveniment organizat în parteneriat de Centrul pentru Cercetare în Comunicare SNSPA și Cox Internaţional Center, al Universităţii Georgia. Materialul de mai sus este o variantă adăugită și adaptată pentru web a prezentării mele.