Sub presiunea publică pentru mai multă transparenţă în felul în care compania gestionează activitatea online a utilizatorilor săi, Facebook a publicat un raport despre măsurile luate în cazul unui număr de 1,5 miliarde de conturi și postări care au încălcat standardele comunitare în primele trei luni ale anului 2018.

Reţelele de socializare sunt bune pentru exprimarea liberă a opiniilor. Asta știm. Pentru mulţi ani de zile ne-am bucurat de Facebook ca de o mană cerească care ne dă puteri noi în „lupta împotriva sistemului”. Însă, de la alegerile prezindenţiale americane din 2016, când ne-am dat seama că sistemul ripostează cu aceleași arme, Facebook este văzut mai degrabă ca un loc unde oamenii se autocenzurează de teama unui linșaj public. Raportul activităţii pe primul trimestru al acestui an arată că Facebook are, într-adevăr, probleme de gestionare a discursului urii.

Dintr-un total de 1,5 miliarde de conturi și postări care au violat normele comunitare și care au fost șterse din reţea, cele mai multe au constat în postări de tip spam (873 de milioane), conturi false (583 de milioane), conţinut sexual (21 de milioane), violenţă grafică (3,4 milioane), propagandă teroristă (1,9 milioane) și discurs al urii (2,5 milioane). Însă trebuie să ţinem cont de faptul că aceste cifre nu reprezintă neapărat cantitatea reală a conţinutului problematic, cât mai ales abilitatea algoritmilor folosiţi de Facebook pentru a depista și acţiona asupra acestui conţinut.

Din acest punct de vedere se observă că, în timp ce algoritmii reţelei de socializare s-au descurcat extrem de bine la depistarea conturilor false (99,5% acurateţe), a postărilor de tip spam (100% acurateţe), a propagandei teroriste (99,5% acurateţe), a conţinutului sexual (95,8% acurateţe) și a violenţei grafice (85,6% acurateţe), în cazul postărilor sau conturilor care incită la ură rezultatele sunt mult mai slabe, algoritmii reușind să surprindă doar 38% din totatul de conturi sau postări problematice înainte ca acestea să fie raportate de către alţi utilizatori ai reţelei. Cifra este atât de scăzută, încât Facebook recunoaște că la momentul actual „nu putem oferi informaţii de încredere” cu privire la prevalenţa discursului urii în reţea.

Un obstacol major în identificarea acestui tip de conţinut este faptul că algoritmii trebuie să ia în considerare un întreg set de indicii contextuale pentru a identifica intenţia reală din spatele comentariului, ceea ce la momentul actual nu este posibil. Un alt obstacol este faptul că nu există încă un consens asupra unei definiţii pentru discursul urii. În ultimii doi ani cel puţin, postările controversate ale liderilor politici, inclusiv ale președintelui american, și ale altor figuri publice au suscitat o dezbatere publică despre cum reţelele de socializare facilitează răspândirea urii și a discriminării.

De mai multe ori, utilizatorii reţelei Twitter au cerut închiderea contului președintelui Trump, tocmai pentru că remarcile acestuia ar incita la ură și disrciminare, însă reprezentanţii companiei au spus că nu văd încălcări flagrante ale standardelor comunitare. Ceea ce înseamnă că, deocamdată, discursul urii este în ochiul privitorului, iar linia de demarcare este greu de tras într-o societate în care corectitudinea politică a împins lucrurile în extrema în care orice se simte lezat de generalităţile spuse de cineva va striga: „Discriminare!” Nu doar definirea discursului urii este problematică pentru reţelele de socializare, ci și a hărţuirii, a violenţei credibile versus farse, a conţinutului care face referinţă la suicid, a conţinutului prin care s-ar putea promova într-un fel sau altul exploatarea copiilor și multe altele.

De cealaltă parte, există și problema ca sub această presiune pentru transparenţă, reţelele de socializare să meargă în cealaltă direcţie, în care să aplice prea larg măsurile punitive. Adevărul este că raportul de la Facebook nu menţionează nimic despre rata de eroare a algoritmilor. Nu știm decât numărul conturilor și postările șterse, dar nu știm câte dintre aceste decizii au fost corecte și câte greșite. Uniunea Europeană a pus presiune pe reţelele de socializare să reușească ca în 24 de ore de când un utilizator semnalează un conţinut care ar incita la ură, problema să fie rezolvată. În doar jumătate de an, Twitter și-a crescut rata de evaluare a conţinutului semnalat de la 39% la 80%, YouTube de la 42,6% la 62,7%, iar Facebook de la 57,9% la 89,3%. Asemenea salturi pozitive ne fac să ne întrebăm ori de ce înainte ratele erau așa scăzute înainte, ori dacă nu cumva acum se evaluează mult și prost.

În cazul YouTube-ului, de anul trecut, când mass-media și marile companii cu bugete de advertoriale dedicate YouTube au început să exercite presiuni pentru ca platforma să elimine conţinutul extremist și dezinformările, videoclipurile au început să fie demonetizate pe bandă rulantă. Creatorii au început să se plângă că farsele lor erau interpretate ca incitare la ură și că videoclipurile cu atrenamente de fitness erau demonetizate pentru conţinut sexual, în timp ce alte videoclipuri care chiar aveau conţinut sexual sau care își băteau joc de sinucigași făceau în continuare bani din publicitate. Presaţi de tot mai multe plângeri din partea creatorilor de conţinut, cei de la YouTube au recunoscutȘtim că sistemul nostru nu funcţionează bine întotdeauna, deci, dacă veţi vedea o iconiţă galbenă în managerul video și credeţi că algoritmul nostru a greșit, faceţi apel. Acesta ajunge la o persoană a cărei decizii ajută algoritmul nostru să înveţe în timp.” Astfel, sarcina îmbunătăţirii algoritmului a căzut tot pe umerii creatorilor păgubiţi.

În final, realitatea este că algoritmii după care funcţionează aceste reţele de socializare rămân ascunși de privirile oamenilor de rând, dar și de capacitatea lor de înţelegere, ceea ce face ca, în definitiv, aceste reţele să fie greu de controlat de oricine din afara sistemului, cel puţin deocamdată.