Inteligența artificială în contextul confidențialității datelor

Inteligenta artificiala si GDPR Banner

Autor: Nora Maftei, Specialist Social Media @Issue Monitoring

Pe măsură ce inteligența artificială devine tot mai sofisticată, având capacitatea de a analiza seturi mari de date cu eficiență și precizie, se naște și întrebarea:”Cum ține regulamentul GDPR pasul cu evoluția rapidă a acestei tehnologii?”

La începutul lunii iunie, a avut loc, la Lyon, ENISA Annual Privacy Forum, unde Supervizorul European al Protecției Datelor, Wojciech Wiewiórowski, a adus în discuție dezvoltarea fulminantă a inteligenței artificiale și efectele acestei tehnologii pe termen scurt și mediu asupra confidențialității datelor. Potrivit acestuia, „ar fi aproape imposibil să discutăm despre confidențialitate în 2023 fără a lua în considerare efectele pe care Inteligența Artificială le are și le va avea în protecția datelor și confidențialitate.” 

Acces limitat la inteligența artificială? 

Accesul neîngrădit la tehnologia de ultimă oră dă naștere unor întrebări la care ar trebui să găsim răspunsul rapid:„Ar trebui limitat accesul la IA? În ce condiții?”

Comisia Europeană consideră că ar trebui inclusă o secțiune referitoare la cazurile în care ar trebui interzisă folosirea IA. Printre aceste interdicții se numără utilizarea inteligenței artificiale pentru exploatarea vulnerabilităților unor anumite grupuri de persoane precum cele cu dizabilități fizice sau mentale.

Wojciech Wiewiórowski  afirmă că „pentru a prospera, inteligența artificială trebuie să depășească mai multe provocări legate de aspecte legale, etice și sociale. Este evident că sistemele AI trebuie să respecte legislația existentă. Cu toate acestea, având în vedere implementarea lor largă și impactul lor profund, acestea trebuie să se comporte și în conformitate cu standardele etice convenite de societate. Sistemele IA trebuie, de asemenea, să fie percepute de societate ca fiind de încredere și benefice, altfel vor întâmpina o rezistență puternică.” 

Schimbările au fost mereu percepute cu reticență pentru că aceasta este natura noastră umană, dar fără a ne adapta la schimbare, nu putem evolua. Nu există tehnologie nouă a cărei efecte să fie doar pozitive, dar le putem anticipa pe cele negative prin crearea unor cadre standardizate pentru efectuarea evaluărilor de risc ale sistemelor de IA. Până în prezent crearea acestor standarde și aplicarea lor la scară largă a fost dificil de corelat.  Liderii G7 au solicitat dezvoltarea și adoptarea unor standarde tehnice internaționale pentru o IA „de încredere” și este o solicitare pertinentă, având în vedere că până acum, obiectivul principal al IA a fost înțelegerea și generarea unui limbaj similar celui uman, corectitudinea din punct de vedere sintetic și semantic, mai degrabă decât acuratețea informațiilor.  

În acest context, provocarea va fi găsirea informațiilor de calitate, a informațiilor reale și discernerea între informațiile adevărate și cele false.  

Transparența & dreptul la proprietate intelectuală

Transparența pare să nu fie punctul forte pentru Chat GPT sau BARD, cele două companii, OpenAI și Google punând mare accent pe drepturile de proprietate intelectuală, însă cele două drepturi nu ar trebui să se excludă, ci să se completeze.  

Supervizorul European al Protecției Datelor scoate în evidență următorul aspect: „Sistemele de genul modelelor lingvistice mari care pot să se dea drept ființe umane trebuie să fie transparente în ceea ce privește natura lor ca sisteme de inteligență artificială. Aceasta este una dintre cerințele stabilite în propunerea de Reglementare a Inteligenței Artificiale și cred că are mult sens.” 

Wojciech Wiewiórowski crede că dezvoltarea sistemelor de inteligență artificială explicative (Explainable AI) ar fi următorul pas logic în dezvoltarea inteligenței artificiale:„Cred că în curând multe dintre eforturile în acest domeniu al inteligenței artificiale se vor dedica capacității de a explica de ce un sistem de inteligență artificială generativ a creat sau a ales un anumit răspuns din multele posibile”

Riscuri asociate cu folosirea inteligenței artificială

În privința riscurilor asociate cu utilizarea inteligenței artificiale în contextul protecției datelor cu caracter personal, trebuie avute în vedere mai multe aspecte.

Unul dintre acestea este discriminarea, care poate să apară atunci când algoritmii de inteligență artificială sunt instruiți să ia decizii pe baza datelor istorice generate de sisteme discriminatorii. Aceasta poate duce la discriminarea unor grupuri vulnerabile, cum ar fi persoanele în vârstă sau cele aparținând unor grupuri etnice sau rasiale.

Un alt risc important este profilarea, care apare atunci când datele personale sunt colectate și utilizate pentru a crea profiluri detaliate ale utilizatorilor. Aceste profiluri pot fi folosite pentru a lua decizii automate în privința serviciilor și produselor oferite, dar și în alte scopuri, cum ar fi analiza riscului sau detectarea fraudelor.

O altă problemă este reprezentată de lipsa de responsabilitate și transparență a sistemelor de inteligență artificială, care pot fi greu de controlat și monitorizat. Aceasta poate conduce la o lipsă de încredere în sistem și poate face ca utilizatorii să fie reticenți în a furniza datele personale necesare.

Pe lângă acestea, există riscuri asociate securității datelor și confidențialității, în special în ceea ce privește stocarea și transferul acestora. De asemenea, există riscul ca datele personale să fie utilizate în mod necorespunzător sau să fie dezvăluite către terțe părți fără acordul utilizatorilor.

Toate aceste riscuri ar trebui luate în considerare atunci când se utilizează inteligența artificială pentru prelucrarea datelor personale și ar trebui să fie implementate măsuri adecvate pentru a le minimiza.

Există, de asemenea, o serie de principii care trebuie avute mereu în vedere pentru a asigura folosirea legală a datelor cu caracter personal. Acestea pot fi consultate aici.

Inteligența artificială și GDPR

Unii dezvoltatori de sisteme IA ar putea considera GDPR ca fiind depășit și greu de adaptat noilor tehnologii, dar Wojciech Wiewiórowski ține să precizeze că: „GDPR (Regulamentul general privind protecția datelor) este neutru din punct de vedere tehnologic și principiile sale ar trebui să se aplice indiferent de tehnologia în cauză. Ar trebui să renunțăm la principiile noastre doar pentru că anumite tehnologii fac aplicarea acestora foarte dificilă sau imposibilă? Nu cred că ar trebui să o facem”

Concluzie

Protecția datelor trebuie garantată, așadar, indiferent de circumstanțe, iar sistemele de inteligență artificială trebuie să se maturizeze, să se adapteze și să garanteze acest drept al cetățenilor.  

Renunțarea la inteligența artificială și la beneficiile pe care aceasta le are în activitățile noastre zilnice ar fi regretabilă. Răspunsul stă în evaluarea și preîntâmpinarea riscurilor, acum.