CCR vs AI. 0 la cât?
Curtea Constituțională Română a publicat motivarea deciziei prin care a declarat neconstituțională publicarea declarațiilor de avere pe site-ul ANI, precum și declararea veniturilor soților.
Citind despre faptul ca în textul deciziei se vorbește despre riscurile AI, am fost inițial entuziasmați că vom vorbi - probabil prima dată într-o decizie a CCR - despre riscurile AI, despre care mai tot menționat aici.
Însă unicul paragraf în care se menționează AI, ne-a schimbat opinia.
"(...) Curtea subliniază că dezvoltarea tehnologiilor de inteligență artificială face posibilă crearea unor modele și tipare comportamentale personalizate în raport cu fiecare declarant în parte, ceea ce, coroborat cu abundența informațiilor private devoalate, prin efectul legii, în spațiul public, prezintă un risc în sensul desconsiderării demnității umane și a individualității persoanei, fragilizând până la anulare protecția constituțională de care aceasta trebuie să se bucure în privința vieții sale private."
În primul rând, CCR nu explică concret cum o tehnologie de AI ar face posibilă “crearea unor modele și tipare comportamentale personalizate în raport cu fiecare declarant”. Conform motivației, această prelucrare va duce la desconsiderarea demnității umane (“fragilizând până la anulare”).
Nu știm ce episod de “Black Mirror” și-a imaginat autorul, dar nouă ne e greu să-l discernem. Adică ce o să-ți prezică modelul? Că o să se cumpere mai multe BMW-uri sau Dacii? Care e pericolul, că o să-i target-eze pe cei care au profilul public pe Facebook și scriu că lucrează într-o instituție publică? Breaking news, sistemele care livrează reclame personalizate deja știu că vrei să cumperi o mașină înainte să știi tu. Sau că o să cumpere un apartament? Dacă nu despre asta e vorba, atunci cum va fi acest tipar personalizat pentru fiecare declarant și la ce va fi folosit, ca să ducă la anulare protecției constituționale?
Din păcate textul este inapt din punct de vedere tehnic și suna mai degrabă a tehnofobie, decât a analiza riscurilor AI în acest context specific (cel al datelor din declarațiile de avere).
Autorul pare a infera că AI-ul este pericolul principal pentru date personale, fiindcă ar putea folosi datele cu caracter personal pentru diverse lucruri, cum ar fi manipularea comportamentala sau predicția. Până aici poate să aibă sens.
Apoi, CCR face un salt foarte impresionant: dacă informațiile din declarațiile de avere sunt preluate și indexate de modele de AI generativ, atunci acest lucru desconsideră demnitatea umană. Adică CCR pare să se opună folosirii AI-ului în absolut orice aspect care implică folosirea unor date personale pentru a decide, algoritmic, asupra oricărei chestii, indiferent de scop.
Practic, nu ai putea sa prelucrezi date personale cu AI. Sau nu ar trebui să mai prelucrezi date personale în niciun mod în care ele să devină disponibile unui AI (indiferent de scopul acestuia).
O asemenea idee nu doar că este contrară atât de GDPR, cât și Ai Act (care spun clar că riscul trebuie sa fie analizat de la caz la caz, în funcție de scopul colectarii), dar și imposibil de pus în practică în anul 2025.
În același timp pericolul unei monitorizări amplificate de algoritmii de inteligență artificială este unul real, care ne afectează pe toți. Societatea civilă îl aduce adeseori în prim-plan, însă fără a găsi vreun pic de susținere din partea instituțiilor. Problematic este că CCR cooptează un argument general posibil valid din discursul societății civile și îl folosește ca armă politică, pentru a reduce transparența, a tăia accesul presei și al instituțiilor de cercetare la date importante și relevante despre persoanele care ocupă funcții politice publice. Care au decis în propria cauză.
Astfel AI-ul pare mai degrabă acarul Păun al anului 2025.
Add new comment