Moderarea conținutului în Regatul Unit

Article Legea Siguranței Online a Regatului Unit 2023: Protejarea Copiilor și Reglementarea Conținutului Digital

La 26 octombrie 2023, Legea britanică privind siguranța online (UK Online Safety Act) a primit aprobarea regală, devenind oficial lege în Regatul Unit. Legea urmărește să protejeze copiii de pericolul din online și impune organizațiilor relevante, inclusiv platformelor de socializare, obligații de prevenire și de eliminare a conținutului ilegal și dăunător.

 

Legea impune organizațiilor relevante să:

      să elimine rapid conținutul ilegal sau să împiedice apariția acestuia;

      să împiedice accesul copiilor la conținut dăunător și neadecvat vârstei, inclusiv conținut pornografic; conținut care promovează sau încurajează sinuciderea, automutilarea sau tulburări de alimentație; conținut care prezintă sau încurajează violența sau conținut de bullying;

      să fie transparenți în ceea ce privește riscurile și pericolele pe care le pot întâmpina copii pe site-urile lor, inclusiv prin publicarea evaluărilor de risc; și

      să ofere părinților și copiilor modalități clare și accesibile de a raporta problemele online atunci când acestea apar.

 

Ca răspuns, aproape 4 luni mai târziu, Autoritatea pentru protecția datelor din Regatul Unit, Information Commissioner's Office ("ICO"), a publicat primul său document de orientare privind moderarea conținutului. Acest ghid explică modul în care se aplică legislația privind protecția datelor atunci când se utilizează tehnologii și procese de moderare a conținutului și oferă sfaturi practice pentru a ajuta organizațiile relevante să se conformeze Regulamentului general privind protecția datelor din Regatul Unit și Legii privind protecția datelor din 2018. În particular, orientarea privind moderarea conținutului discută despre Evaluarea impactului asupra protecției datelor (DPIA) și necesitatea acesteia.

Ce este conținutul?

Conținutul se referă la orice material generat, încărcat sau partajat pe un serviciu de internet de către utilizatori. Acesta poate include diverse forme de media, cum ar fi texte, imagini, videoclipuri, înregistrări audio și orice alt material generat de utilizatori. Conținutul poate cuprinde o gamă largă de subiecte, discuții, opinii și expresii, în funcție de natura serviciului de internet și de baza de utilizatori.

Ce este moderarea conținutului?

Legea introduce "obligația de diligență" pentru marile companii de tehnologie, care vor trebui să asigure un mediu sigur pentru utilizatorii lor. Această obligație include responsabilitatea de a-și modifica termenii și condițiile pentru a fi în conformitate cu noile directive, eliminând în același timp tot conținutul dăunător postat pe platformele lor.

În mod specific, legea se aplică platformelor cu conținut generat de utilizatori - acestea includ platformele de socializare ca Facebook și X/Twitter, forumurile online și aplicațiile de mesagerie ca de exemplu WhatsApp - precum și marile motoare de căutare, cum ar fi Google.

Moderarea conținutului în sine se referă la procesul de analiză a conținutului generat de utilizatori pentru a evalua dacă acesta îndeplinește anumite standarde, iar apoi se iau măsuri adecvate pe baza acestei analize. Aceste acțiuni pot include eliminarea conținutului, interzicerea accesului unui utilizator la serviciu, restricționarea accesului la anumite funcții sau reducerea vizibilității conținutului. Moderarea conținutului servește în diverse scopuri, inclusiv pentru a îndeplini obligațiile care decurg din Legea privind siguranța online sau pentru a pune în aplicare termenii serviciului.

 

Etapele cheie ale moderării conținutului includ:

      Potrivirea bazelor de date: analiza automată a conținutului pentru a verifica dacă acesta se potrivește cu conținutul interzis cunoscut din bazele de date interne sau externe. De exemplu, tehnologia de potrivire hash este utilizată în mod obișnuit pentru a detecta potrivirile exacte sau apropiate ale unor conținuturi ilegale cunoscute, cum ar fi materialele privind abuzurile sexuale asupra copiilor.

      Clasificarea conținutului: Analiza automatizată a conținutului pentru a evalua dacă acesta încalcă politicile de conținut ale unui serviciu. Aceasta utilizează adesea tehnologii bazate pe inteligență artificială pentru a atribui un nivel de încredere evaluării.

      Analiza umană: Moderatorii umani analizează conținutul în funcție de politicile de conținut ale serviciului. Aceasta poate include conținutul semnalat de instrumente automate sau raportat de utilizatori sau de părți terțe.

      Acțiune de moderare: Luarea de măsuri asupra conținutului sau a conturilor de utilizator pe baza analizei, cum ar fi eliminarea conținutului, interzicerea serviciilor, blocarea funcțiilor sau reducerea vizibilității conținutului.

      Apeluri și restaurări: Procese care permit utilizatorilor să conteste deciziile de moderare, care implică, de obicei, o analiză umană a conținutului și a deciziilor.

Pot fi știrile considerate conținut?

În prezent, potrivit Ofcom - autoritatea de reglementare a serviciilor de comunicații - jumătate dintre adulții din Regatul Unit folosesc rețelele sociale pentru a afla știri, Facebook, x/Twitter și Instagram fiind cele mai populare platforme în acest scop. De asemenea, internetul este cea mai utilizată platformă pentru consumul de știri în rândul tinerilor cu vârste cuprinse între 16 și 24 de ani și al persoanelor din grupurile etnice minoritare.

Orice reglementare guvernamentală a conținutului online ar putea determina platformele să cenzureze articolele de știri și să dăuneze saturației pieței de presă. Avocatul Graham Smith, specializat în legislație privind internetul, a declarat că proiectul de lege are obiective bine intenționate, dar că, în final, conține multe aspecte problematice, afirmând că este "o lege profund greșită". Acest lucru se datorează faptului că reglementările se bazează pe "obligația de diligență" a operatorilor, oferind platformelor posibilitatea de a decide ce trebuie cenzurat și ce nu.

În prezent, proiectul de lege nu ar împiedica platformele să elimine conținutul editorilor de știri sau să îl facă mai puțin vizibil dacă decid să îl revizuiască pentru posibile încălcări ale termenilor și condițiilor lor, chiar dacă, în cele din urmă, nu ar găsi nicio greșeală în el.

În trecut au existat cazuri în care conținutul de știri a fost eliminat sau făcut mai puțin vizibil de către moderatorii sau algoritmii din social media din motive neclare, adesea în momentul de vârf al ciclurilor de știri. De exemplu, anul trecut, Youtube a eliminat brusc canalul TalkRadio, apoi l-a restabilit 12 ore mai târziu, recunoscând că mișcarea a fost o greșeală.

Libertatea jurnalistică

Pentru a asigura libertatea jurnalistică, în conformitate cu noile amendamente, companiile din categoria 1 - inclusiv cele mai mari și mai populare platforme de socializare - vor fi obligate să se asigure că articolele editorilor de știri recunoscute rămân vizibile și accesibile pe site-urile lor, chiar dacă acestea sunt revizuite de moderatori.

Companiile din categoria 1 vor fi obligate să notifice editorii de știri și să le ofere un drept de apel înainte de a le elimina sau modera conținutul sau de a lua orice măsură împotriva conturilor lor.

Acest lucru va reduce riscul ca platformele să ia decizii arbitrare sau accidentale de moderare a conținutului editorilor de știri, care joacă un rol inestimabil în societatea și democrația din Regatul Unit. Editorii de știri vor beneficia de o mai mare conștientizare și avertizare prealabilă cu privire la posibilele măsuri luate împotriva conținutului lor, precum și de o mai mare transparență în ceea ce privește procesul decizional care stă la baza acestora.

Recunoscând necesitatea de a proteja rolul presei libere, guvernul a introdus de asemenea și obligația pentru Ofcom (autoritatea de reglementare a serviciilor de comunicații) de a întreprinde și a publica o analiză a impactului cadrului de reglementare privind siguranța online asupra disponibilității conținutului jurnalistic și a conținutului editorilor de știri, precum și o obligație pentru platforme de a efectua și de a publica o evaluare a impactului pe care politicile de îndeplinire a obligațiilor lor de siguranță îl vor avea asupra conținutului editorilor de știri. Aceste obligații vor garanta că legea nu va avea consecințe neintenționate asupra accesului la materialele de știri.

 

Diana Cojocaru

 

Privacy and information security consultant

 

Share:
Decalex
Autor: DECALEX

PUNE O INTREBARE