IA: Principalele provocari si oportunitati
Sistemele de IA și contextul adoptării lor
Până în 2030, se estimează că adoptarea pe scară largă a sistemelor de inteligență artificială va conduce la o creștere de 9 trilioane USD a PIB-ului mondial. Acest lucru implică nu numai crearea de noi locuri de muncă, ci și evoluția celor actuale. În prezent cea mai mare provocare este crearea unui cadru legislativ puternic și etic care să asigure un nivel maxim de protecție a drepturilor fundamentale, reușind în același timp să protejeze dezvoltarea tehnologică și inovarea în domeniu.
Legea privind inteligența artificială (AI Act) a fost adoptată și normele sale vor fi puse în aplicare în următorii câțiva ani, însă au apărut numeroase discuții cu privire la toate aspectele legate de integrarea și dezvoltarea inteligenței artificiale, atât în mediile academice, cât și în cadrul organismelor publice. Acesta este în principal cazul numeroaselor opinii ale profesioniștilor GDPR, precum și ale autorităților de supraveghere, care au încercat să răspundă la întrebarea cum pot fi protejate datele cu caracter personal și dreptul fundamental la o viață privată în apariția IA.
Oportunități de integrare a IA
(i) Dincolo de crearea de noi locuri de muncă și progrese mai rapide
Este evident că integrarea sistemelor de inteligență artificială va conduce la evoluții semnificative la locul de muncă, în principal prin creșterea eficienței anumitor practici comerciale. Dezvoltarea avansată a tehnologiilor precum LLM ar putea duce la o cercetare mai bună și mai rapidă în domeniul academic, cu condiția ca limitările actuale (cum ar fi modelele care prezintă informații false) să poată fi abordate și rezolvate cât mai curând.
(ii) Oportunitatea de a crea un spațiu virtual mai sigur și mai etic pentru viitor prin intermediul unei legislații competente
De ce este important acest aspect? După cum se va explica mai jos, IA nu este o tehnologie perfectă. Chat GPT este cunoscut pentru faptul că inventează informații, iar tehnologia de recunoaștere facială disponibilă discriminează împotriva persoanelor cu pielea închisă la culoare și, în general, are mai multe erori atunci când iluminarea fotografiei nu este perfectă. Deși progresele sunt rapide, este extrem de important ca nimic să nu treacă neobservat, deoarece pericolele la adresa drepturilor fundamentale ale omului sunt semnificative.
Descrierea documentului de orientare al AEPD
În acest sens, la 3 iunie 2024, AEPD a publicat un document de orientare menit să prezinte orientări generale privind sistemele de inteligență artificială și modul în care riscul asociat adoptării acestora se traduce în ceea ce privește protecția datelor cu caracter personal, în special atunci când se ia în considerare adoptarea pe scară largă de către instituțiile UE. Aceste orientări arată o preocupare tot mai mare cu privire la această nouă tehnologie și la impactul preconizat pe care îl va genera asupra societății în următorii ani.
Deficiențe și oportunități ale documentului de orientare al AEPD
(i) Caracter neobligatoriu
Dat fiind caracterul neobligatoriu al documentului de orientare, acesta ridică probleme importante atunci când discutăm despre reglementarea sistemelor IA, servind drept un document complementar Actului privind IA adoptat recent, care reușește să stabilească cadrul juridic obligatoriu prin care aceste sisteme vor fi dezvoltate și adoptate în UE în viitor.
(ii) Domeniu de aplicare limitat, dar bun punct de plecare
Pe lângă faptul că este un document fără caracter obligatoriu, documentul de orientare este lipsit de puterea de a fi folosit “la scară largă”, deoarece se limitează la analizarea problemei doar din punctul de vedere al protecției datelor. Trebuie însă menționat că acest aspect nu este în niciun caz unul negativ în totalitate, dimpotrivă, o comparație cu normele de protecție a datelor ar putea fi un punct de plecare realist și eficient pentru elaborarea ulterioară a cadrului juridic privind IA.
Legea privind IA: principalul cadru juridic pentru implementarea și dezvoltarea sistemelor de IA
Legea privind inteligența artificială urmărește să creeze un răspuns legislativ la dezvoltarea și adoptarea rapidă a tehnologiei IA în întreaga UE și să dicteze noile norme nu numai în ceea ce privește abordarea IA din punct de vedere juridic și de reglementare, ci și din perspectiva cercetării și dezvoltării IA.
Modul în care actul încearcă să stabilească relevanța în materie de reglementare este prin definirea unor norme referitoare la: a) armonizarea anumitor procese de adoptare, precum și a utilizării sistemelor de IA în Uniunea Europeană; b) interzicerea anumitor practici de utilizare a IA; c) stabilirea unor obligații specifice pentru sistemele definite ca fiind cu „risc ridicat”, precum și a obligațiilor impuse utilizatorilor unor astfel de sisteme; d) armonizarea normelor de transparență privind sistemele de IA concepute pentru a interacționa cu persoane fizice sau care au capacitatea de a manipula imagini, conținut audio sau video; și, în sfârșit, e) stabilirea unei proceduri de monitorizare și supraveghere a pieței. Prin urmare, este evident că Legea IA încearcă să pregătească mecanismul legislativ al UE pentru adoptarea pe scară largă a acestor servicii, prin stabilirea unui set de proceduri de bază. Acest lucru poate și probabil va avea ramificații în modul în care UE și instituțiile sale privesc și adoptă IA în operațiunile lor zilnice.
Preocupări legate de formularea Legii privind IA
(i) Importanța unui standard ridicat de protecție a drepturilor fundamentale
În această măsură, ceea ce rămâne foarte important, în conformitate cu considerentele Legii privind inteligența artificială, care prezintă obiectivele legiuitorilor, este conceperea celui mai bun mod în care aceste sisteme pot fi integrate și dezvoltate din punct de vedere etic, cu mare respect pentru drepturile și valorile fundamentale Europene. Din cauza acestor cerințe etice, este, prin urmare, necesar să se înceapă orice analiză a implementării și dezvoltării IA prin explorarea deficiențelor legii, precum și a excepțiilor introduse de aceasta.
Acest lucru va contribui nu numai la expunerea posibilelor deficiențe în aplicarea legii, ci și la crearea unei discuții semnificative cu privire la cele mai bune modalități de a garanta că cetățenii UE beneficiază de cel mai înalt standard de protecție a drepturilor fundamentale. Prin urmare, este esențial ca acesta să fie punctul incipient al discuției la nivel instituțional, deoarece acestea servesc drept principalii executanți ai legislației UE, stabilind standardul, cel puțin în teorie, în ceea ce privește modul în care legea trebuie aplicată.
(ii) Principalele motive de îngrijorare
Principalele puncte de îngrijorare sunt legate în special de sistemele IA care sunt utilizate de agențiile de aplicare a legii, cum ar fi camerele care rulează software de recunoaștere facială. Din punct de vedere istoric, aceste tehnologii s-au dovedit a fi defectuoase, în special atunci când se ia în considerare aplicarea lor în condiții de nivel scăzut de iluminare.
a. Articolul 5 definește utilizările interzise și stabilește cadrul pentru evoluțiile juridice naționale
Articolul 5 alineatul (4) oferă statelor membre posibilitatea de a-și elabora propriul cadru juridic pentru utilizarea identificării biometrice a subiecților într-un spațiu public de către agențiile de aplicare a legii (acest lucru s-ar aplica, de asemenea, agențiilor naționale de informații și securitate și, prin urmare, este un subiect care trebuie explorat mai în profunzime). Este clar că există situații în care aplicarea legii trebuie să acționeze rapid și în care rapiditatea cu care instituțiile de informare pot acționa poate face diferența între viață și moarte. Cu toate acestea, riscul de încălcare a drepturilor fundamentale rămâne la fel de ridicat în aceste situații și, ca atare, există o nevoie reala de reglementări naționale clare și eficiente care să completeze aplicarea Legii privind IA.
b. Articolul 14 care stabilește necesitatea supravegherii umane și problema supravegherii umane eficiente a sistemelor IA cu risc ridicat
În ceea ce privește al doilea tip de sisteme reglementate de Legea privind inteligența artificială, sistemele cu risc ridicat, putem sublinia o altă problemă relevantă care rezultă din adoptarea și punerea în aplicare pe scară largă a inteligenței artificiale. În conformitate cu articolul 14 din Legea privind inteligența artificială, se stabilește necesitatea supravegherii umane a sistemelor considerate cu risc ridicat și, ca atare, acest lucru ar putea crea o problemă logistică. Instituțiile naționale vor trebui, în conformitate cu normele acestui cadru, fie să creeze noi posturi, fie să formeze personalul existent pentru a asigura cel mai înalt nivel de profesionalism și cunoștințe pentru acești supraveghetori, care vor juca un rol care ar putea fi considerat similar cu cel al responsabililor cu protecția datelor în temeiul GDPR. Acest lucru va implica, cel puțin în teorie, necesitatea unor cadre și organisme naționale de certificare care să poată evalua criteriile pe baza cărora o astfel de persoană ar fi considerată capabilă să lucreze în calitate de supraveghetor.
În concluzie, următoarele luni și chiar următorii ani vor fi cruciali pentru reglementarea europeană a sistemelor IA. Instituțiile naționale vor trebui să se asigure că modul în care elaborează cadre legislative suplimentare se bazează în continuare pe principiile fundamentale ale Uniunii. Eficacitatea acestor cadre va depinde astfel, cel puțin în opinia autorului, în primul rând de mecanismele de responsabilitate și transparență pe care fiecare stat membru va alege să le dezvolte la nivel intern.
Mihai-Cristian Alexe
Data Protection Trainee