Non-Breaking News - soluția la dezinformare NU este un AI! Și cu atât mai puțin reglementarea sa legislativă
Într-un comunicat de zilele trecute, USR a anunțat că legea pe care a inițiat-o împotriva manipulării online a fost adoptată tacit în Senat. Mai mult, deputatul care a inițiat această lege face o afirmație și mai halucinanta legată de acest proiectul de lege.
“Nu putem lăsa roboții de pe internet să-și facă de cap cu mințile copiilor” și “Algoritmi ai platformelor online știu și pot face această aerisire în mod automat, dacă li se cere” declară deputatul.
Dar soluția cu care vine acesta sugerează un paradox: nu putem lăsa roboții (sisteme automatizate) sa propage dezinformare, așa că punem alți roboti (inteligență artificială) la munca moderării conținutului online, fără a lua în considerare modul în care acest lucru s-ar putea să atingă dreptul fundamental la liberă exprimare, printre multe altele.
Mai mult, declarația făcută de deputatul USR, ca și proiectul de lege în sine, arată o neînțelegere fundamentală a modului în care algoritmii de inteligența artificială funcționează, atât la nivel tehnic cât și la nivel de implementare pe platformele digitale de azi. Sistemele de inteligență artificiala țin partea cuiva în mod structural și constitutiv.
Partea de care sunt loiale aceste sisteme de inteligență artificiala este compania-mamă care-și aliniază sistemele valorilor lor (technological value alignment) și datelor lor de antrenare. Dacă datele de antrenare reflectă o realitate distorsionată, mecanismele de curățare a internetului propuse de deputatul USR vor reflecta și ele, la rândul lor, acea realitate distorsionată. Acest lucru a fost dovedit în repetate rânduri în studii stiintifice legate de prejudecățile misogine, rasiste sau sexiste înscrise în algoritmii de inteligența artificială.
Mai mult, limba română comparativ cu limba engleza este subreprezentată cantitativ la nivelul datelor de antrenare în sistemele de inteligența artificială. Asta înseamnă că sistemele de inteligența artificială care încearcă să vâneze conținutul ilegal în limba română s-ar putea să rateze niște nuanțe lingvistice importante, dând jos un anumit tip de conținut legal conform legii.
De exemplu, dacă pentru un sistem de AI imaginile cu pisici portocalii sunt cumva promotoare ale discursului urii, aceste sisteme vor da jos un astfel de conținut, sub iluzia atacării conținutului ilegal. Mai mult, unii pot vorbi despre pisici portocalii în sens ironic sau în scop umoristic sau pur si simplu pentru a diseca științific fenomenul (chiar dacă ar fi ilegal).
Narațiunea conform căreia un sistem automatizat de inteligență artificială poate identifica, categorisi și elimina conținutului ilegal sau dăunător - conform legislației naționale - acordă prea multă încredere în modul în care aceste sisteme funcționează de fapt.
Acest tip de argument nu ține cont de halucinarea sistemelor de inteligență artificială și modul în care acestea depind de supraveghere umană atunci când vine vorba de monitorizarea conținutului și de categorisirea sa, pentru a nu elimina conținut legitim conform legii.
Având în vedere natura statistică și probabilistică a sistemelor de inteligență artificială utilizate de marile platforme online, la un moment dat acestea vor elimina conținut care este legal, astfel cenzurând într-un mod opac și ilegitim diverși utilizatori. Limitarea propagării minciunii prin mijloace algoritmice s-ar putea să contravină însuși principiului protecției libertății de exprimare pe care deputatul USR încearcă să-l susțină.
Limitarea “propagării minciunii” tot presupune un standard al adevărului care nu este făcut transparent în proiectul de lege. Acest standard al “adevărului” sau al “informării corecte” trebuie dezbătut public și nu presupus din start ca fiind universal acceptat de întreaga societate românească.
Și din aceste motive - si pentru ca nu vrem un Minister al Adevărului - conținutul de dezinformare (chiar cel evident, gen Pământul este plat) NU este considerat conținut ilegal și nu există o definiție legală a sa (nici măcar în Regulamentul UE DSA).
Afirmațiile de ordin politic, social, cultural, șamd nu sunt identice cu afirmațiile care permit o verificare clara de tipul 1+1=2 unde toți membrii pot cădea de acord asupra rezultatului. Iar un sistem de inteligență artificială nu poate respecta aceste nuanțe legate de modul în care percep cetățenii societății noastre ce este sau nu este informare corectă, sau o afirmație pur factuală, adevărată și de “nechestionat”.
Există riscul apariției unei “poliții algoritmice a adevărului” care monitorizează cine spune ce și cât de factual este, conform unor parametri algoritmici de tip cutie-neagră, inaccesibili celor a căror conținut tocmai ce a fost clasificat ca fiind ilegal și deci dat jos de pe platformă.
Proiectul de lege sugerează ca dezinformarea online este o problema de natura strict tehnica si nu una și cu valențe sociale. Acest tip de argument sugerează că problema dezinformării poate fi soluționată cu mai multă tehnologie, astfel reproducând discursul dominant de tip Big Tech, unde tehnosoluționismul devine metoda dezirabilă pentru contracararea oricărei probleme de natură tehnica si socială.
În același timp, textul menționează “inducerea în eroare pe teme de interes național nu vor mai putea fi răspândite masiv si nu vor putea fi promovate contra cost”. Care este sensul precis al sintagmei conținut care generează “inducere in eroare” și cine stabilește parametrii inducerii în eroare? Platformele pot împinge un tip de definiție favorabilă lor, iar guvernele pot implementa sau instrumentaliza o astfel de definiție pentru a-și cenzura oponenții politici. Numărul de 150 de utilizatori menționați pentru distribuirea conținutului ilegal pare complet arbitrar și nefondat pe o înțelegere a modului în care este distribuit și viralizat conținutul pe marile platforme.
Definirea ambiguă a inducerii în eroare prin conținutul online poate avea consecințe negative pe termen lung și se poate extinde dincolo de conținutul ilegal online. Mai mult, care sunt temele de interes național pe care le presupune acest proiect și cine le definește pentru ca ulterior acestea sa fie reglementate și/sau șterse de pe marile platforme? O temă de interes național din perspectiva cetățenilor poate să difere în moduri foarte fine de temele de interes național din partea unor companii private, a unor organizații sau din partea statului.
ApTI a oferit și un punct de vedere într-un articol recent publicat de Context despre o situație similară, în care Ministrul Digitalizării s-a lăudat cu softuri anti-dezinformare care nu există.
Concluzie?
Combaterea dezinformării și păstrării calității informațiilor care ne ghidează dezbaterile noastre publice nu se poate axa pe tehnosoluționism, unde combaterea boților de pe internet se face prin sisteme de inteligență artificială. Așa cum s-a demonstrat în repetate rânduri, foarte mult din conținutul de pe platformele digitale de astăzi este creat de AI sau cu AI.
Iar folosirea inteligenței artificiale pentru a combate dezinformarea larg răspândită pe rețelele de socializare înseamnă a pune inteligența artificială să se modereze pe sine însăși.
Aceasta soluție nu este, de fapt, o soluție, ci este un mijloc prin care “combatem problema dezinformării” cu însăși o cauză majoră a dezinformării: conținutul creat de sau cu sisteme de inteligență artificială.
Pentru cei care vor sa înțeleagă soluțiile structurale, vedeți articolul publicat acum câteva zile cu idei de politici publice in acest sens. Tot in acest sens vedeți si raportul dezbaterii asupra dezinformării de la Thomson Talks la Universitatea Cambridge e aici.
Ce surpriză!, nu există o soluție de AI (și cu atât mai puțin legislativă) de la vocile marcante din jurnalism, tehnologie, mediul academic și politic care au discutat care ar fi soluțiile în gestionarea dezinformării.
Mai pe scurt pentru cei care vor să citească doar concluzia: Breaking news - soluția la dezinformare NU este un AI!
Add new comment