Deputatul român față-n față cu dipfeicu: ”Îl facem penal și l-am rezolvat”

  • Posted on: 11 February 2024
  • By: Bogdan Manolea
Imagine cu deputati care nu stie ce sa aleaga intre AI si VR

Propunerea de lege cu privire la #deepfake (sau “falsul se(r)ver”, după cum au tradus termenul inițiatorii proiectului de lege) a trecut de la o formă bizară, în varianta inițială, înaintată Senatului, la un text relativ acceptabil după adoptarea în Senat, pentru ca în comisiile Camerei Deputaților să fie adoptată o variantă “chinezească” - China fiind singurul stat din lume cu obligații dure specifice pentru #deepfake și obligații detaliate de marcare a conținutului de acest tip.

Textul adoptat de Comisiile Camerei Deputaților, în decembrie 2023, și care urmează să intre la vot în plen luni 12 februarie 2024, pune în aceeași definiție  #deepfake-ul AI cu conținutul creat “cu ajutorul realității virtuale” (?!? - exact acesta este textul din lege!), care ar crea “aparența că o persoană a spus sau a făcut lucruri care în realitate nu au fost spuse sau făcute”. Dar, domnilor parlamentari, în realitatea virtuală NIMIC nu este real! Deci despre a cui “realitate” vorbiți?

Mai mult, din formularea art. 3 al legii propuse rezultă că orice material #deepfake poate fi folosit oriunde în mod legal, chiar dacă este “malițios” și ar “produce haos informațional”, dacă este marcat conform legii:

(Art. 2) - În înţelesul prezentei legi termenii și expresiile de mai jos au următoarele semnificații:

(...) b) utilizarea malițioasă a tehnologiei - acțiunea intenționată de inducere în eroare, cu scopul de a crea dezinformare și/sau haos informațional prin manipularea comportamentului uman și/sau exploatarea vulnerabilităților.

 

“(Art. 3 – Utilizarea malițioasă a tehnologiei (n.n. - nu se știe care tehnologie! Orice tehnologie??) prin realizarea, difuzarea în mass-media, precum și distribuirea pe platforme online de conținut tip deepfake este interzisă dacă acel conținut nu este însoțit de un avertisment redat pe cel puţin 10% din suprafața expunerii şi pe toată durata difuzării respectivului conținut vizual sau de un mesaj sonor la începutul şi la finalul conținutului audio: „Acest material conține ipostaze imaginare”. 

În fine, textul reglementează distribuția deep fake în mass-media, termen care nu este definit legal nicăieri în legislație, dar, în schimb, ignoră complet distribuirea deep fakes pe alte canale de Internet (care nu intră în categoria de platforme online așa cum sunt definite de Regulamentul DSA Digital Services Act) - de exemplu un site care nu este o publicație media sau un blog. 

În schimb textul de lege intră în detalii inutile prin reglementarea exacta a unui procent minim pe care ar trebui să îl ocupe un marcaj de avertisment, părând a nu înțelege că 10% dintr-o imagine poate fi manipulată în orice mod, astfel încât acea parte să nu fie vizibilă, de facto (găsiți la începutul articolului un exemplu în acest sens croit de fugă de noi).

Cu privire la infracțiunile adăugate prin noua lege, acestea suferă de același ridicol ca cele expuse mai sus. În fapt, noua lege își propune să reglementeze o situație particulară a infracțiunii deja prevăzută de art. 362 Cod Penal - Alterarea integrității datelor informatice, doar că sancțiunea penală ar fi mai blândă decât cea în vigoare. Poate că de fapt asta se dorea!

Întreaga abordare pare acum a se axa pe situațiile problematice recente - deep fakes cu politicieni promovând înșelătorii prin reclame distribuite de platforme online - dar pare a ignora complet situații mult mai întâlnite în practica și problematice, care însă au impact, în primul rând, pe utilizatorii obișnuiți  (de ex. porn revenge videos).

În plus, întreg proiectul de lege pare a ignora - deși a folosit în argumentația pentru adoptarea amendamentelor - că deep fake-urile problematice vor fi reglementate în UE prin Regulamentul Artificial Intelligence Act (AIA), care se află pe ultima sută de metri înaintea adoptării. Regulamentul propune un text neutru din punct de vedere tehnologic, cu excepții pentru libertatea de exprimare, și fără dorința de suprareglementare - în flagrant contrast cu cel al legiuitorului român.  

Soluțiile la problemele legate de conținuturi trucate, induceri în eroare și înșelătorii în mediul online - prin deep fakes sau orice altceva - le pot da doar instituții competente, cu atribuții clare, care colaborează în mod transparent și eficient în primul rând cu “intermediarii online” (definiți în Digital Services Act), care trebuie să fie trași la răspundere dacă nu acționează cu rapiditate în cazurile evidente. 

Dar pentru asta trebui să știi despre ce vorbești. Pentru că problema principală - și care trebuie rezolvată cu prioritate - este oprirea distribuirii conținutului ilegal. Iar lucru acesta nu s-a întâmplat în cazurile din ultimele săptămâni, am văzut cu toții. 

Dar e mult mai ușor să anunți o lege nouă (fie ea si imberbă) decât să ai instituții competente și proceduri funcționale, nu?

Pentru a vedea diferența de abordare între legiuitorul român și cel european vă invităm să citiți pasajele relevante din Regulamentul Artificial Intelligence Act  - varianta adoptată după trialog, deci la un pas de a fi publicată în Jurnalul oficial al UE (traducerea din engleză este semiautomată și ne aparține):

(Art. 3) - "deep fake" înseamnă conținut vizual, audio sau video, generat sau manipulat de inteligența artificială, care seamănă cu persoane, obiecte existente, locuri sau alte entități sau evenimente și care i-ar părea în mod fals unei persoane ca fiind autentic sau veridic.

(Art. 53, alin. 3) Implementatorii unui sistem de inteligență artificială care generează sau manipulează imagini, conținut audio sau video care constituie deep fake, trebuie să dezvăluie faptul că acesta a fost creat, generat sau manipulat în mod artificial.

Această obligație nu se aplică în cazul în care utilizarea este autorizată prin lege pentru detectarea, prevenirea, investigarea și urmărirea penală a infracțiunilor.

În cazul în care conținutul face parte dintr-o operă sau un program analog, în mod evident artistic, creativ, satiric, ficțional, obligațiile de transparență prevăzute în prezentul alineat se limitează la dezvăluirea existenței unui astfel de conținut generat sau manipulat într-o manieră adecvată care să nu împiedice expunerea operei sau bucuria de a o viziona.

Implementatorii unei IA care generează sau manipulează texte care sunt publicate cu scopul de a informa publicul cu privire la chestiuni de interes public trebuie să dezvăluie faptul că textul a fost generat în mod artificial sau manipulat. Această obligație este nu se aplică în cazul în care utilizarea este autorizată prin lege pentru detectarea, prevenirea, investigarea și urmărirea penală a infracțiunilor sau în cazul în care conținutul generat de IA a fost supus unui proces de revizuire umană sau control editorial și în cazul în care o persoană fizică sau juridică deține responsabilitatea editorială pentru publicarea conținutului.

Informațiile menționate la alineatele (1)-(3) sunt furnizate persoanelor fizice în cauză în un mod clar și ușor de distins cel târziu în momentul primei interacțiuni sau expuneri. Informațiile trebuie să respecte obligațiile de accesibilitate.

Add new comment

Plain text

  • No HTML tags allowed.
  • Web page addresses and e-mail addresses turn into links automatically.
  • Lines and paragraphs break automatically.