Cele trei tipuri de inteligență artificială reglementate de viitorul regulament al Uniunii Europene
Mulțumim pentru contribuțiile sale la acest articol lui Bogdan Lungu, intern ApTI.
Inteligența artificială se regăsește, din ce în ce mai mult, în aproape toate tehnologiile actuale, pe care le folosim, zi de zi. În prezent, dezvoltarea de inteligență artificială pare a fi ca în vestul sălbatic: orice merge și dă randament, se va folosi. Indiferent de consecințele neintenționate pe care aceste tehnologii le pot avea asupra societății în general și persoanelor, la nivel individual.Pe baza acestor experiențe negative, Comisia Europeană a decis să facă ceva în această privință, cu o soluție legislativă: un nou regulament privind reglementarea inteligenței artificiale, propus în aprilie 2021.
Regulamentul privind inteligența artificială este un act normativ privind reglementarea inteligenței artificiale, propus de Comisia Europeană. Comisia Europeană propune ca definiție în articolul 3 al actului normativ, sistemul de inteligența artificială ca fiind "un software care este dezvoltat cu una sau mai multe dintre tehnicile și abordările enumerate în anexa I și care poate, pentru un set dat de obiective definite de om, să genereze rezultate, cum ar fi conținut, predicții, recomandări sau decizii care influențează mediile cu care interacționează". Aceasta definiție pare a suferi însă modificări, propunerea Parlementului fiind mai aproape de cea folosită deja de OECD în recomandările deja adoptate.
Este primul act normativ de acest gen, la nivel internațional, care are ca scop crearea unui cadru legal „robust și flexibil” pentru reglementarea inteligenței artificiale (IA). În cuvintele think thank-ului TaylorWessing, compus din experți în domeniul IA, regulamentul are ca scop "armonizarea regulilor privind sistemele de inteligență artificială din Uniunea Europeană”. Acest regulament ar putea fi considerat echivalentul GDPR-ului, doar că pentru sistemele de inteligență artificială. De altfel putem găsi și o corelare între principiile din GDPR și cele propuse pe zona de AI.
Pentru aplicarea eficientă a acestui regulament, va fi nevoie de o autoritate națională specifică, fie prin delegarea atribuțiilor către una deja existentă sau una nou infințată. Este neclar dacă această autoritate ar putea acționa ca și coordonatorul de servicii digitale(pe Regulamentul DSA), cu atribuții și obligații similare, sau dacă aplicarea regulamentului privind inteligența artificială va fi facută tot de acestă din urmă.
Regulamentul privind inteligența artificială are ca scop reglementarea furnizorilor de inteligență artificială, din orice sector, și reglementarea entităților care folosesc aceste sisteme într-o „capacitate profesională”. Regulamentul adresează, de exemplu, inteligența artificială din spatele algoritmilor Meta sau TikTok, sau acele sisteme IA care utilizează recunoașterea facială care scanează fețele oamenilor pentru personalizarea de reclame. Regulamentul clasifică sistemele de inteligență artificială după risc: risc scăzut, risc moderat spre ridicat și risc de neacceptat.
Inteligența artificială cu risc scăzut
În acest caz, regulamentul impune obligații privind transparența. Spre exemplu, furnizorii de chatbots vor fi obligați să anunțe faptul că utilizatorul vorbește cu un chatbot și nu cu un om. O interacțiune online cu ChatGPT va trebuie marcată ca atare, pentru a nu fi confundată cu o interacțiune cu un operator uman.
Inteligența artificială cu risc foarte scăzut nu va fi aproape deloc reglementată, precum celelalte. În schimb, se vorbește despre crearea sau adoptarea unui cod voluntar de conduită - un fel de cod de etică - pentru acest tip de inteligență artificială, doar că acest lucru este vag definit și ambiguu. Cele mai multe tipuri de sisteme de inteligență artificială folosite astăzi în Uniunea Europeana se încadrează în categoria asta. Aici pot intra și jocurile video care folosesc inteligența artificială, sau filtre pentru spam.
Inteligența artificială cu risc moderat spre ridicat
Regulamentul încadrează sistemele de inteligență artificială care au impact dăunător semnificativ asupra sănătății, siguranței și drepturilor fundamentale ale cetățenilor Uniunii Europene ca fiind sisteme cu risc moderat spre ridicat. În această categorie ar putea intra următoarele tipuri de inteligență artificială:
- managementul infrastructurii critice (IA utilizat pentru traficul rutier, aprovizionarea de apă, gaz, căldură și electricitate)
- educație (IA utilizat pentru acordarea notelor sau pentru admiteri)
- pentru angajări (IA utilizat pentru filtrarea aplicațiilor pentru un post de muncă și pentru evaluarea interviurilor potențialilor angajați)
- accesul la servicii esențiale, publice și private (IA utilizat de autorități publice sau în numele autorităților publice pentru evaluarea eligibilității persoanelor fizice pentru servicii de asistență publică, precum și pentru a acorda, reduce, revoca sau revendica astfel de prestații și servicii)
- aplicarea legii (IA utilizat pentru prevenția infractionalității)
- managementul migrației, azilului și controlului la frontiera (IA utilizat de către autoritățile naționale pentru verificare și control la graniță)
- pentru justiție și procese democratice (sisteme IA destinate să asiste o autoritate judiciară în cercetarea și interpretarea faptelor și a legii, precum și în aplicarea legii la un set concret de fapte)
Recunoașterea facială - identificarea biometrică - în spații publice ar putea fi strict interzisă, de principiu. Da, există excepții: momentele în care identificarea biometrică - prin intermediul camerelor de supraveghere - ajută la identificarea actelor teroriste, sau la găsirea unui copil dispărut.
Sistemele de inteligență artificială vor fi identificate după „intenția propusă” din spatele lor. Propunerea actuală este că toate aceste sisteme vor trebui să fie autoevaluate de către furnizor, înainte de a fi scoase pe piață, iar autoevaluarea va fi trimisă unor autorități publice specifice, pentru verificare. Acest mecanism propus poate fi problematic. Autoevaluarea poate sa fie înșelătoare. Furnizorii pot omite sau evita anumite aspecte legate de sistemele lor de inteligență artificială atunci când fac evaluarea. Furnizorii pot exagera elementele pozitive, cele negative pot fi ignorate, iar riscul lor real poate fi subestimat.
Un exemplu din alt domeniu este util: iPhone X, lansat de Apple în 2017, a fost promovat ca fiind un telefon foarte performant și revoluționar, fiind primul iPhone cu recunoaștere facială (Face ID) pentru deblocarea ecranului. Realitatea a fost diferită: Apple a incetinit alte telefoane pentru a-și promova noul iPhone și, în acelasi timp, telefonul s-a dovedit a fi destul de dezamăgitor în termeni de performanță. Telefonul avea probleme cu: bateria slabă, UI-ul sacadat, WI-Fi-ul și Bluetooth-ul care se deconectau constant, și chiar probleme cu recunoașterea facială mult lăudată.
În unele cazuri, telefoanele Apple, incluzând iPhone X, au explodat sub condiții normale. Prim urmare, autoevaluarea unor produse și servicii este greu de crezut fără o perspectivă imparțială, exterioară.
Inteligența artificială cu risc de neacceptat
În această categorie intră sistemele de inteligență artificială care sunt considerate o amenințare clară la adresa siguranței, a mijloacelor de subzistență și a drepturilor oamenilor. Aici regăsim sisteme de inteligență artificială bazată pe punctaj social, adică acele sisteme care clasifică și cataloghează persoane fizice și persoane juridice după anumite criterii stabilite de autorități publice.
Un astfel de sistem este sistemul de „credit social” din China. Acesta este în dezvoltare de către guvernul chinez pentru a urmări și evalua „încrederea” persoanelor fizice și a celor juridice. În final, după evaluarea comportamentului persoanelor fizice și juridice de catre sistemele de inteligență artificială, se emite o notă. Acea notă ar trebui, în teorie, să semnifice cât de loială este persoana, compania sau instituția respectivă.
Ca exemplu, în 2019, Liu Hu, un jurnalist chinez care scria despre cenzura și corupția din cadrul guvernului țării sale, a fost amendat, arestat, iar ulterior a fost trecut pe o "lista neagră" pentru activitatea sa jurnalistică "neloială". Liu și-a pierdut dreptul de a călători în afara țării, dreptul de a cumpăra un bilet de tren, dreptul de a cumpăra proprietăți și dreptul la un împrumut. Toate acestea s-au întamplat în mod imediat, fără ca Liu să fie anunțat din timp de o anumită autoritate națională și fără drept de apel. Sistemul de credit social l-a catalogat ca fiind un cetățean neloial - un rating foarte scazut - și și-a pierdut foarte multe drepturi, într-un timp foarte scurt.
Vincent Brussee, expert la ThinkTank-ul MERICS pentru studii chinezești susține faptul că acest sistem de "credit social" este slab digitalizat și că munca de clasificare se face mai mult manual decât în mod automat, de către angajați umani, demontând mitul algoritmilor chinezești malefici și atotputernici. Brussee susține că frica de acest sistem rezultă mai mult din imaginație decât din realitate. Totuși, cazul mai devreme menționat demonstrează realitatea materială a acestui sistem de credit social și consecintele reale și imediate ale acestuia. Într-adevăr, sistemul nu este foarte dezvoltat, dar poate avansa, în timp, cu ajutorul noilor tehnologii din domeniul inteligenței artificiale. Prevenția unor cazuri de categorizare și clasificare a cetățenilor, în cetățeni loiali sau neloiali, prin intermendiul inteligenței artificiale, este mult mai dezirabilă.
Așadar, asemenea tipuri de sisteme de inteligență artificială, chiar dacă există într-o formă evoluată sau nu undeva pe acest pamânt, sunt complet interzise în Uniunea Europeană, fiind de „neacceptat”.
Viitorul Regulamentului privind inteligența artificială
Dacă există un acord între instituțiile europene, Regulamentul ar putea fi adoptate în prima parte a acestui an și va deveni aplicabil cel mai devreme în 2024. Varianta finală a regulamentului nu este gata, însă membrii Parlamentului European au ajuns la un compromis asupra formei regulamentului. Ne așteptăm ca textul să fie supus votului în plen în iunie.
Spre exemplu, multe ONG-uri au cerut modificări importante și imediate la acest regulament. Câteva exemple pot fi găsite mai jos.
Două instituții importante de la Universitatea din Cambridge, Leverhulme Centre for the Future of Intelligence și Centre for the Study of Existential Risk, susțin faptul că lista cu sistemele de inteligență artificială cu risc ridicat ar trebui flexibilizată. Cele două instituții propun ca lista să poată fi modificată cu ușurintă, în cazul în care noi tehnologii apar pe piață și noi sisteme de inteligență artificală cu risc ridicat au fost identificate.
Mai departe, organizația Access Now, militantă pentru drepturile digitale ale utilizatorilor aflați în situații de risc, susține faptul că regulamentul, în forma sa actuală, nu va reuși să protejeze drepturile fundamentale ale utilizatorilor. Mai exact, Access Now consideră că regulamentul nu merge destul de departe în reglementarea sistemelor de inteligență artificială cu risc ridicat, cum ar fi identificarea biometrică. Access Now recomandă măsuri mai dure legate de reglementarea sistemelor de inteligență artificială cu risc ridicat, cum ar fi interdicția totală a unor sisteme IA. Pe lângă acestea, ei mai cer Comisiei Europene următoarele lucruri:
- transparență
- consecințe pentru furnizorii de sisteme IA în cazul în care aceste sisteme rănesc utilizatorii
- adăugarea unui mecanism de actualizare a tuturor categoriilor de risc din lege, inclusiv a interdicțiilor
Mai există multe lacune, ambiguități și excepții în acest regulament. De exemplu, recunoașterea facială de către poliție este strict interzisă, cu excepția cazului în care imaginile sunt capturate cu întârziere sau dacă tehnologia este utilizată pentru a găsi copii dispăruți. E greu de spus cum va fi acest principiu utilizat in practică.
Care e momentul în care recunoașterea facială devine, dintr-o dată, permisă? Cine decide? Cum se decide? Poate poliția să-și justifice acțiunile ulterior, după ce au colectat deja datele? Ce se întâmplă, propriu-zis, cu datele colectate până când sunt utilizate de către poliție? Unde se duc? Astea sunt unele din cele mai presante întrebări care plutesc deasupra acestui regulament.
De ce? Pentru că aceste lacune pot crea loc pentru abuzuri. Poliția ar putea să-și justifice orice colectare de date legate de fețele oamenilor pentru prevenirea actelor teroriste. Ce este un act terorist nu este menționat. Așadar, aceste lucruri trebuie imediat clarificate și schimbate, deoarece viitorul regulamentului și viitorul industriei producătoare de IA depind de aceste mici nuanțe foarte importante pe termen lung.
Add new comment