Cum impacteaza GDPR noul regulament AI
Ce este AI și cum a evoluat
AI (‘Artificial Intelligence’ sau Inteligența Artificială) este orice tehnologie proiectată să funcționeze într-un mod care imită modul în care funcționează oamenii. AI-ul disponibil astăzi nu înseamnă replicarea perfectă a creierului uman sau introducerea acestuia într-un cip de computer. Mai degrabă, partea „umană” se referă la rezultat sau la obiectul cu care utilizatorul interacționează direct. Formele de software care folosesc AI încearcă să recreeze interacțiunea umană în experiența utilizatorului - chiar și până la curba de învățare.
Andrew Ng, fondatorul de la Deeplearning.AI consideră că AI este reprezentată de două idei separate. Acestea sunt ANI (‘Artificial Narrow Intelligence’ - inteligență artificială îngustă) și AGI (‘Artificial General Intelligence’ - inteligență generală artificială). Aproape toate progresele pe care le vedem astăzi în AI sunt o inteligență artificială îngustă. Acestea sunt aplicații AI care se concentrează pe o singură sarcină, cum ar fi un difuzor inteligent, o mașină cu conducere automată, sau AI pentru a face căutări web. Mai mult, AI se referă și la un al doilea concept de AGI sau inteligență generală artificială. Pentru mulți, acesta este scopul construirii AI. Aplicațiile în inteligență generală artificială se referă la imitarea comportamentului și gândirii umane sau poate ajunge chiar la super inteligență, cu dorința ca aplicația AI sa facă mai multe lucruri decât poate face orice om. Există o mulțime de progrese în ANI, inteligența artificială îngustă și aproape niciun progres către AGI sau inteligența generală artificială. Ambele sunt obiective demne. Cu toate acestea, progresul rapid în ANI a determinat oamenii să ajungă la concluzia că există o mulțime de progrese în AI, ceea ce le-a dat impresia greșită că ar putea exista și multe progrese în AGI, ducând la unele temeri iraționale cu privire la roboții inteligenți malefici care pot prelua omenirea oricând.
Diferența dintre AI, Machine Learning și Deep Learning
Sistemele AI nu sunt perfecte. Ele trebuie să învețe și să se adapteze. Toate acestea se fac la fel ca modul în care oamenii învață și se adaptează: prin preluarea informațiilor sau a datelor, prelucrarea lor și stocarea acestora pentru referințe viitoare. Este ca atunci când un copil mic atinge o sobă fierbinte. Creierul lui înregistrează durerea și notează să nu o mai facă. AI nu este foarte diferit.
În tehnologia modernă, AI în sine este de fapt cel mai mare și mai exterior cerc dintr-o serie de patru cercuri concentrice. Următorul cerc în AI este ML (‘Machine Learning’ sau învățarea automată). ML este, în mod surprinzător, partea de învățare în sistemele AI, dar ML se bazează pe cercul următor din acesta, DL (‘Deep Learning’ - învățarea profundă). Al patrulea cerc în Al și cel pe care se bazează orice alt cerc, este ideea de NN (‘Neural Networks’ sau rețele neuronale).
Cel mai frecvent utilizat tip de ML (învățare automată) este un tip de AI care învață de la A la B sau maparea de la intrare la ieșire. Aceasta se numește învățare supravegheată. Pe deoparte, intrarea la ieșire, de la A la B, pare destul de limitativă. Dar când găsiți un scenariu adecvat pentru aplicație, acest lucru poate fi incredibil de valoros. De exemplu, dacă intrarea A este un e-mail, iar ieșirea B este spam sau nu. Atunci, aceasta este piesa de bază a sistemului AI utilizată pentru a construi un filtru de spam.
Ideea învățării supravegheate există de mai multe decenii. Dar a crescut cu adevărat în ultimii ani. De ce? Inițial, prima creștere a învățării supravegheate a fost datorită creșterii internetului și a folosirii computerelor. O mare parte din ceea ce se făcea pe hârtie, a fost acum înregistrat pe un computer digital. Deci, existau din ce în ce mai multe date utilizate. Performanța unui sistem AI a crescut pe măsură ce a fost alimentat mai multe date. Dar, dincolo de un anumit punct, nu s-a îmbunătățit atât de mult. Cu toate acestea, în ultimii ani, acest lucru s-a schimbat din cauza creșterii rețelelor neuronale și a învățării profunde.
Apariția rețelelor neuronale ne permite să creăm diferite criterii pe baza cărora este afectată maparea de la intrare la ieșire. Fiecare intrare și ieșire este conectată printr-un neuron artificial calculează de la sine greutatea pe care o are un criteriu îl are asupra rezultatului final. Acest sistem AI devine o rețea neuronală, iar sarcina sa este să învețe să mapeze procesul de la intrare la ieșire pe baza datelor oferite.
Unul din avantajele aduse de DL sau învățarea profundă este că pentru a antrena o rețea neuronală, cu alte cuvinte, pentru a construi un sistem de învățare automată utilizând rețeaua neuronală, tot ce trebuie să facem este să-i oferim date la intrarea A și ieșirea B. Sistemul neuronal calculează toate lucrurile din mijloc (criteriile și importanța lor față de rezultatul final) de la sine. Este sarcina software-ului de a afla ce ar trebui să calculeze acești neuroni, astfel încât să poată fi complet automat. Maparea este reprezentată de un grup de neuroni artificiali, fiecare dintre care calculează o funcție relativ simplă. În schimb, dacă oferim suficiente date și instruim o rețea neuronală suficient de mare, aceasta poate face o mapare incredibil de bună de la intrările A la ieșiri B.
Riscurile utilizării neadecvate ale AI asupra consumatorilor finali
AI are limitări serioase. Una din aceste limitări este discriminarea. Ca societate, nu vrem să discriminăm indivizii în funcție de sexul lor, în funcție de etnie și dorim ca oamenii să fie tratați corect. Dar atunci când sistemele AI sunt alimentate cu date care nu reflectă aceste valori, atunci sistemul AI poate deveni părtinitor sau poate învăța să discrimineze anumite persoane.
De exemplu, există sisteme de recunoaștere facială care par să funcționeze mai precis pentru persoanele cu pielea deschisă și cu pielea închisă la culoare. Dacă un sistem AI este instruit în primul rând pe date ale persoanelor cu piele mai deschisă, atunci va fi mai precis pentru acea categorie de indivizi în măsura în care aceste sisteme sunt utilizate în, de exemplu, în investigațiile penale, acest lucru poate crea un efect foarte nedrept pentru indivizii cu pielea închisă la culoare.
O soluție este să încercați să utilizați date cu cat mai puține părtiniri și sau mai multe date incluzive. De exemplu, dacă construiți un sistem de recunoaștere a feței, asigurați-vă că includeți date din mai multe etnii și toate sexele, atunci sistemul dvs. va fi mai puțin părtinitor și mai incluziv. În al doilea rând, multe echipe de AI își supun sistemele unei transparențe mai bune sau a unor procese de audit, astfel încât să putem verifica în permanență ce tipuri de prejudecăți, dacă există, prezintă aceste sisteme de AI, astfel încât să putem recunoaște problema dacă există, și apoi luați măsuri pentru a o aborda. De exemplu, multe echipe de recunoaștere a feței verifică în mod sistematic cât de precis este sistemul lor pe diferite subgrupuri ale populației pentru a verifica dacă, de exemplu, este mai mult sau mai puțin precis la persoanele cu pielea întunecată față de pielea deschisă. Având sisteme transparente, precum și procese de audit sistematice vor crește șansele de detectare detectare rapidă a problemei, în cazul în care există una, astfel încât să poată fi remediată.
Reglementarea AI in Europa
În 2019, Comisia Europeană a publicat Orientările etice pentru AI de încredere pentru a instrui companiile și publicul cu privire la așteptările lor cu privire la dezvoltarea și utilizarea corespunzătoare a sistemelor AI. Orientările, împreună cu Regulamentul general privind protecția datelor (GDPR), plasează din nou UE în poziția de a stabili standarde înalte pentru cei care doresc să facă afaceri în UE și poate la nivel global.
Principiile includ:
- Agenție umană și supraveghere,
- Robustețe și siguranță,
- Confidențialitate și guvernare a datelor;
- Transparență,
- Diversitate, indiscriminare și corectitudine,
- Bunăstare socială și de mediu și
- Responsabilitate.
Orientările UE includ o listă pilot de evaluare de încredere pentru a fi utilizată de către companii atunci când dezvoltă sisteme de AI. Este important să rețineți că Orientările nu includ niciun mandat obligatoriu din punct de vedere juridic pentru moment, dar Comisia Europeană a indicat că va revizui această poziție în mod regulat.
Provocarea în UE este că nu există un sistem unic de reglementare care să acopere AI. În schimb, există diverse legi care sunt aplicabile (sau potențial aplicabile) dezvoltării și implementării tehnologiilor AI. Aceste legi includ, dar nu se limitează la, legea proprietății intelectuale, legea privind protecția datelor, legile privind protecția consumatorilor sau răspunderea produselor, legile privind utilizarea abuzivă a computerelor și legile drepturilor omului.
În februarie 2020, Comisia Europeană a lansat o Carte albă despre AI. Eliberarea unei cărți albe este un prim pas comun în pregătirea legislației UE. Scopul cărții albe AI este de a căuta contribuții și propuneri cu privire la dezvoltarea unui cadru comun al UE pentru reglementarea AI.
Există mai multe provocări majore cu abordarea adoptată de Cartea albă AI. De exemplu, deși Cartea albă AI indică activitatea Grupului de experți la nivel înalt în definirea AI, nu există nicio definiție concretă. O altă provocare constă în faptul că Cartea albă AI propune separarea aplicațiilor AI în categorii cu risc ridicat și non-risc, dar foarte adesea întreprinderile nu vor ști ce categorie se aplică până după acest fapt. În cele din urmă, pare să existe un risc semnificativ de suprapunere a reglementărilor cu legile existente care se aplică deja multor tehnologii AI (de exemplu, GDPR).
Deși există în mod clar o serie de provocări pe care întreprinderile le-ar întâmpina dacă Cartea albă AI este implementată, există câțiva factori pozitivi: (i) Cartea albă AI recunoaște că AI poate fi o forță pentru binele societății; (ii) crearea unei coerențe pan-UE în ceea ce privește reglementarea AI ar putea, în principiu, să reducă nivelul provocărilor de conformitate cu care se confruntă întreprinderile în prezent, ca urmare a cerințelor divergente de la un stat membru la altul.
În aprilie 2021, pe baza promisiunilor sale anterioare, Comisia Europeană a lansat propunerea de regulament de stabilire a normelor armonizate privind inteligența artificială (Legea privind inteligența artificială). Acesta este primul cadru juridic în domeniul AI, care abordează riscurile AI și poziționează Europa să joace un rol de lider la nivel global.
Legea privind inteligența artificială ar interzice utilizarea sistemelor AI care sunt considerate o amenințare clară pentru siguranța, mijloacele de trai și drepturile oamenilor, cum ar fi sistemele care sunt concepute pentru a manipula comportamentul uman prin tehnici subliminale și sisteme care permit guvernului să conducă ‘activități sociale’, rezultând într-un tratament nefavorabil.
Sistemele AI cu ‘risc ridicat’ nu sunt interzise conform legii propuse, dar sunt supuse restricțiilor. Sistemele cu risc ridicat includ cele utilizate:
- Pentru gestionarea și exploatarea infrastructurii critice care ar putea pune în pericol persoanele, precum traficul rutier și electricitatea,
- În educație sau formare profesională, de exemplu, determinarea accesului la educație,
- Ca componente de siguranță a produsului,
- La angajare, cum ar fi în timpul procesului de recrutare, promovare sau încetare,
- Pentru resurse private și publice esențiale, inclusiv evaluarea accesului la beneficii și servicii,
- Prin aplicarea legii, cum ar fi evaluarea riscurilor de recidivă a persoanelor,
- Pentru controlul imigrației și al frontierei, inclusiv pentru verificarea autenticității documentației de călătorie și
- Pentru justiție și democrație, cum ar fi prin utilizarea sistemului pentru a aplica legea unui set de fapte.
Orice sistem care utilizează identificarea biometrică la distanță ‘în timp real’, cum ar fi recunoașterea facială, este, de asemenea, considerat automat cu risc ridicat, iar utilizarea sa în public în scopuri de aplicare a legii este interzisă cu excepții limitate, cum ar fi cu privire la copiii dispăruți și amenințările teroriste . Chiar și în aceste cazuri, autorizarea este necesară de către un organism relevant sau o autoritate judiciară.
Înainte ca furnizorii să introducă pe piața UE produse destinate acestor sfere (indiferent de locația furnizorilor), aceștia sunt supuși anumitor obligații. Aceleași obligații se aplică dacă sistemul AI în sine este operat în afara UE, dar producția sa este utilizată în UE. De exemplu, astfel de sisteme trebuie să fie supuse unei evaluări adecvate a riscurilor și să pună în aplicare măsuri de atenuare. Calitatea seturilor de date utilizate pentru instruirea, validarea și testarea sistemului trebuie să fie, de asemenea, suficient de ridicată, iar activitatea lor trebuie înregistrată pentru a se asigura că funcționarea lor poate fi urmărită și monitorizată. Furnizorii trebuie să păstreze documentația care să permită autorităților să evalueze conformitatea cu aceste măsuri și trebuie furnizate și informații clare și adecvate utilizatorilor sistemului. În plus, sistemele trebuie să fie proiectate astfel încât să se asigure că există o supraveghere umană adecvată și un nivel ridicat de robustețe, securitate și precizie în performanța lor.
În ceea ce privește sistemele de AI care sunt considerate a reprezenta doar un risc limitat, Legea privind inteligența artificială ar impune obligații de transparență, impunând furnizorilor să-i informeze pe utilizatori că interacționează cu o mașină, în timp ce sistemele care prezintă un risc minim nu sunt reglementate de propunerea propusă. Comisia a comentat că marea majoritate a sistemelor de AI utilizate în prezent ar intra în această categorie finală.
Propunerea creează, de asemenea, un comitet european de inteligență artificială compus din reprezentanți din statele membre ale UE și din Comisie, care ar facilita o implementare armonizată a Legii privind inteligența artificială, ar oferi consultanță Comisiei și ar împărtăși cele mai bune practici între statele membre ale UE. Dacă ar fi adoptată de Parlamentul European și Consiliu, Legea privind inteligența artificială s-ar aplica direct în întreaga UE.
Reguli impuse de GDPR în utilizarea soluțiilor AI (Art.22)
Articolul 22 din GDPR, care se ocupă de luarea deciziilor automatizate, este cel mai relevant pentru AI. Chiar dacă această dispoziție se referă la un drept, nu prevede un drept de a obiecta la luarea deciziilor automatizate, și anume, nu presupune că luarea deciziilor automatizate este, în general, permisă atâta timp cât persoana vizată nu se opune acestuia. Mai degrabă introduce o interdicție asupra operatorilor: deciziile automatizate care afectează persoanele vizate sunt interzise, cu excepția cazului în care se încadrează în una dintre excepțiile prevăzute la Art. 22 alin 2.
Pentru aplicarea interdicției stabilite sunt necesare patru condiții: (1) trebuie luată o decizie, (2) trebuie să se bazeze exclusiv pe prelucrare automată, (3) trebuie să includă profilarea, (4) trebuie au efect legal sau oricum semnificativ.
- Prima condiție necesită adoptarea unei atitudini față de o persoană și respectarea acestei poziții (ca atunci când se atribuie un scor de credit).
- A doua condiție impune ca oamenii să nu exercite nicio influență reală asupra rezultatului unui proces decizional, chiar dacă decizia finală este atribuită în mod oficial unei persoane. Această condiție nu este îndeplinită atunci când sistemul este utilizat doar ca instrument de susținere a deciziilor pentru ființele umane, care sunt responsabile de decizie, deliberează cu privire la meritul fiecărui caz și decid în mod autonom dacă acceptă sau resping sugestiile sistemului.
- A treia condiție necesită ca procesarea automată care determină decizia să includă profilarea. O interpretare diferită ar putea fi sugerată de virgula care separă ‘prelucrarea’ și ‘inclusiv profilarea’ în articolul 22(1), ceea ce pare să indice că profilarea este doar o componentă opțională a tipului de decizii automatizate care sunt, în principiu, interzise. Cu toate acestea, prima interpretare (necesitatea profilării) este confirmată de considerentul recitalul (71), potrivit căruia procesarea în reglementarea deciziei automate trebuie să includă profilarea.
- A patra condiție impune ca decizia să producă efecte juridice privind persoana vizată sau, în mod similar, să îl/ o afecteze.
Totodată, subliniem ca armonizarea dintre cele doua regulamentele (Reg. AI si GDPR) nu este vizibilă în întreg textul. De exemplu, există diferențe notabile in cazul definiției utilizate pentru conceptul de date biometrice în propunerea de regulament AI și prevederile din GDPR.
De asemenea în ceea ce privește lista de sisteme AI interzise, Regulamentul pare a limita tipurile de AI ce intră sub umbrela sa, comparativ cu art. 22 GDPR ce prevedere o interdicție generala pentru toate software-urile ce genegereaza decizii bazate exclusiv pe prelucrarea automat si care afecteaza in mod sefnicitavi persoana vizata.
În ceea ce privește prelucrarea datelor personale sensibile în soluțiile AI cu risc ridicat, prelucrarea este permisă „în măsura în care este strict necesară pentru a asigura monitorizarea, detectarea și corectarea prejudecății în raport cu AI cu risc ridicat”, cu aplicarea unui set de garanții enumerate.
Pasii urmatori
Pachetul legislativ al Comisiei Europene privind AI va trebui acum să fie aprobat atât de Parlamentul European, cât și de statele membre în cadrul Consiliului European, care va dura cel puțin 18 luni.
În final, oricine organizație care este implicată în dezvoltarea de tehnologii pe baza de AI sau care investește în AI ar trebui să urmărească procesul decizional și sa se pregateasca pentru viitorul cadru de reglementare al soluțiilor AI.
Dacă ai un software bazat pe AI, și ai mai multe intrebari legate de reglementarea actuala, ne poti scrie la office@decalex.ro.
Articol redactat de Diana Cojocaru - Data protection Trainee coordonata de Cristiana Deca.