Inteligenta artificială generativă GAI: Evoluțiile anterioare Regulamentului privind Inteligența Artificială (AI Act) și modul în care această tehnologie poate fi reglementată în viitor
În 2020, Autoritatea norvegiană pentru protecția datelor a instituit un program de reglementare de tip "sandbox", menit să ofere dezvoltatorilor de sisteme de inteligență artificială instrumentele necesare pentru a dezvolta în siguranță această tehnologie, într-un mod etic, responsabil și compatibil cu drepturile și libertățile fundamentale de bază, în special cu dreptul la viață privată. Proiectul a început în august 2020 și se află în prezent în cel de-al cincilea ciclu de testare.
Din raportul de activitate inițial al Autorității norvegiene pentru protecția datelor (NDPA), putem observa că însăși ideea de “sandbox” de reglementare a fost bine primită atât de actorii publici, cât și de cei privați, care s-au grăbit să aplice și să testeze tehnologiile nou dezvoltate. Cu toate acestea, în ciuda recepțiilor relativ pozitive, NDPA a subliniat câteva domenii care necesită încă eforturi pentru a îmbunătăți eficiența programului:
-
Consolidarea expertizei sale tehnice, pentru a putea oferi în viitor îndrumare și asistență mai bună și mai personalizată în materie de conformitate, pentru utilizatorii sandbox-ului.
-
Autoritatea trebuie să se concentreze pe un anumit tip de evaluare pentru a ajunge la concluzii (de exemplu, concentrându-se pe riscurile pe care le prezintă sistemele).
-
Autoritatea trebuie să faciliteze o mai bună colaborare între actorii publici și privați din domeniul IA, în special Agenția Norvegiană pentru Digitalizare sau Direcția Norvegiană pentru Sănătate.
-
În cele din urmă, s-a constatat că procesul intern al NDPA de aprobare a rapoartelor finale ale proiectelor sandbox este prea lent în ceea ce privește găsirea și acceptarea de noi proiecte, iar pentru a scurta această perioadă de timp va trebui să se facă modificări.
În această speță, la 9 ianuarie 2024, NDPA a publicat o nouă strategie, de data aceasta făcând loc pentru mai multe proiecte, în principal în ceea ce privește sistemele de inteligență artificială generativă (GAI). Aceste proiecte acopereau o varietate de aplicații, de la dezvoltarea unui chatbot a cărui funcție ar fi să ofere asistență în cazurile care implică dreptul muncii, până la utilizarea GAI pentru a simplifica datele medicale utilizate pentru informarea copiilor și a tinerilor (acest din urmă aspect este deosebit de interesant din punctul de vedere al protecției datelor, mai ales având în vedere obligația de a informa persoana vizată într-o manieră care să fie inteligibilă pentru aceasta).
Evoluții similare au început și în Țările de Jos, deși cu aproximativ patru ani mai târziu, în 2024. La 18 ianuarie, guvernul olandez și-a publicat viziunea privind sistemele de inteligență artificială generativă (GAI).
Inteligența artificială generativă este o formă de inteligență artificială care este utilizată pentru a genera conținut pe baza indicațiilor utilizatorului. Acest conținut poate lua forma de text, imagini, coduri informatice sau chiar înregistrări video sau audio. Probabil că cel mai popular exemplu de astfel de sistem este Chat GPT, dar acesta nu este, în niciun caz, singurul sau chiar cel mai puternic sau avansat sistem de acest tip. În special în Țările de Jos, sisteme precum Google Bard, Midjourney sau DALL-E au crescut recent în popularitate.
În această speță, guvernul olandez a început să privească GAI ca pe o tehnologie cu un mare potențial atât economic, cât și ca pe un instrument important pentru îmbunătățirea societății. În ciuda acestui potențial, trebuie să se țină seama în mod serios de riscurile care pot fi asociate cu aceste tipuri de sisteme, în special având în vedere cantitățile de date care sunt procesate și potențiala "bază de testare". Acesta este motivul pentru care guvernul olandez, la fel ca și guvernul norvegian înaintea sa, a recunoscut aceste riscuri relativ devreme și s-a concentrat pe reducerea impactului acestora pe cât posibil. Printre acestea, cel mai relevant a fost amenințarea de influență nejustificată asupra democrației și a statului de drept pe care o pot reprezenta sistemele de inteligență artificială utilizate în mod abuziv.
În mod similar cu constatările APD norvegiene, guvernul olandez a elaborat, de asemenea, o strategie pe baza căreia ar trebui să se dezvolte și se vor dezvolta sistemele GAI în Țările de Jos: a) sistemele trebuie să fie dezvoltate și aplicate într-un mod sigur (sigur în ceea ce privește drepturile consumatorului); b) ciclul de dezvoltare și de aplicare trebuie să respecte în permanență normele de echitate și corectitudine; c) orice dezvoltare a IAG trebuie să aibă ca obiectiv îmbunătățirea bunăstării și autonomiei umane și, în sfârșit, d) dezvoltarea IAG trebuie să contribuie la durabilitate și la prosperitatea continuă a societății (olandeze).
Deși aceste încercări inițiale de creare a unui cadru pentru dezvoltare au meritele lor, nevoia pentru o soluție standardizată și general aplicabilă începea să apară, mai ales luând în calcul creșterea în popularitate a tehnologiei în ultimii ani. Astfel o soluție aplicabilă la nivelul UE și care să aibă, de asemenea, puterea de a influența dezvoltarea IA la nivel global a fost creată. AI Act este un regulament al UE menit să clasifice sistemele de IA și să creeze un cadru legislativ care să asigure conformitatea acestora cu drepturile și valorile fundamentale ale UE. În acest sens, legea introduce două instrumente relevante pentru discuția de față, și anume o clasificare a sistemelor în funcție de risc, precum și crearea unui cadru pentru sandbox-uri de reglementare.
În acest caz, principalele categorii de risc sunt:
-
Risc inacceptabil, care cuprinde acele sisteme de inteligență artificială care sunt concepute într-o manieră care este fundamental incompatibilă cu drepturile și valorile fundamentale ale UE. Aceste sisteme sunt interzise.
-
Sisteme cu risc ridicat, care vin cu un risc asociat ridicat de a provoca efecte asupra sănătății, siguranței sau drepturilor fundamentale. Aceste sisteme sunt supuse unui grad mai ridicat de monitorizare și au cerințe suplimentare de conformitate (necesitatea unei evaluări a conformității, stabilirea unor instrumente de monitorizare după introducerea pe piață etc.).
-
Riscul de transparență, care este cel mai frecvent asociat cu GAI (GAI pot, de asemenea, dacă sunt utilizate în mod abuziv, să intre în orice altă categorie de risc), care poate prezenta riscuri pentru obligațiile de informare și transparență, dar poate provoca, de asemenea, daune în ceea ce privește drepturile de proprietate intelectuală.
-
Ultimul tip sunt riscurile minime, care nu sunt reglementate de AI Act (acestea pot include, de exemplu, instrumente de filtrare a spam-ului sau alte sisteme de IA obișnuite).
Deși este adevărat că GAI se va încadra de obicei în cea de-a treia categorie de riscuri, este important să se ia în considerare și cazurile de utilizare în care, de exemplu, tehnologia deepfake este utilizată cu intenția de a vă influența în mod rău intenționat comportamentul. În cazul GAI, riscurile pot varia de la prima la a patra categorie și, de aceea, ar fi înțelept să se implementeze astfel de mijloace pentru a putea evalua riscurile asociate unui sistem de inteligență artificială de la caz la caz, și nu doar să se bazeze pur și simplu pe opiniile comune sau pe utilizările asociate cu sistemul respectiv.
În cele din urmă, cel de-al doilea instrument important introdus în mod oficial de Legea privind IA este stabilirea unor norme clare privind sandbox-urile de reglementare pentru sistemele de IA. În mod similar cu cele stabilite de NDPA, care au fost menționate anterior, sandbox-urile din AI Act au, de asemenea, scopul de a stimula inovarea și de a sprijini dezvoltarea echitabilă și etică, în conformitate cu drepturile și libertățile fundamentale ale UE.
Modul în care sunt concepute aceste sisteme este menit să creeze o fază de testare în care un sistem poate fi alimentat cu date și i se poate permite să ajungă la concluzii pe baza acestor date, să "învețe", fără a crea un risc pentru persoanele fizice și pentru drepturile și libertățile lor fundamentale. De obicei, sandbox-urile pot fi foarte utile atât pentru dezvoltatori, cât și pentru legiuitori.
Pe de o parte, dezvoltatorilor li se oferă un mediu în care sunt relativ liberi să își dezvolte produsul, cu supravegherea și cooperarea cu autoritățile de supraveghere relevante. Acest lucru, la rândul său, contribuie la dezvoltarea standardelor industriale și consolidează înțelegerea și cooperarea între cei care creează normele și cei care trebuie să le aplice în practică. Pe de altă parte, legiuitorii pot profita de această oportunitate pentru a evalua riscurile într-un mod controlat și sigur și pentru a formula opinii cu privire la anumite tehnologii.
Deși viitorul exact al acestor evoluții poate părea incert, ceea ce se poate spune, mai ales având în vedere popularitatea tot mai mare a programului sandbox din Norvegia, este faptul că IA este aici pentru a rămâne. Din punctul de vedere al protecției datelor, trebuie să facem tot ce ne stă în putință pentru a urmări îndeaproape aceste evoluții și pentru a evalua modul în care cele două domenii se pot împleti în viitor. Întrebările legate de luarea automată a deciziilor (aplicarea articolului 22 din GDPR) vor apărea cu siguranță adesea atunci când se va menționa implementarea IA pe piață, precum și care ar putea fi rolul mecanismelor și organizațiilor actuale în viitor. În această măsură, eforturile legislative precum cele ale Norvegiei și Olandei trebuie încurajate și urmărite la scară mai largă.
Mihai Alexe
Data protection trainee