Analiza — July 4, 2018 at 6:29 am

O problemă majoră de etică

by

AILa nivel global, multe companii cercetează modalităţi prin care Inteligenţa Artificială (AI) poate ajuta la progresul afacerii, la economisirea de timp şi bani, şi la oferirea de valoare mai mare pentru toate părţile interesate de afacere. Cu toate astea, un element extrem de important ce nu s-a realizat până acum este cel legat de o dezbatere serioasă privind detaliile de natură etică ale adoptării şi utilizării AI.

Chiar şi într-o etapă timpurie de adoptare AI, precum este cea actuală, este important ca firmele să aibă abordări etice şi responsabile atunci când este vorba de crearea unor sisteme AI, deoarece în mediul real au început deja să apară instanţe când implementările AI au generat scandaluri de natură etică. Un exemplu de dată recentă? Instrumentul de recunoaştere facială lansat de Google şi bazat pe AI care clasifica în mod eronat persoanele de culoare drept gorile!

De ce s-a întâmplat aşa ceva? În termeni sintetici, sistemele AI sunt la fel de bune precum datele pe care se bazează, iar ca rezultatele să fie optime acele date trebuie să fie echilibrate. La fel ca şi în cazul fiinţelor umane, sistemele AI au nevoie de date de intrare şi au nevoie să li se spună ce anume sunt acele date ca să înveţe din ele. Dacă datele de intrare sunt injuste, atunci rezultatele obţinute din procesarea lor vor fi injuste, hilare sau chiar scandaloase, erodând treptat chiar încrederea utilizatorilor în AI.

Din acest punct de vedere, firmele încep treptat să îşi dea seama că dacă vor să obţină beneficii reale din sistemele AI atunci trebuie să facă aceste sisteme de încredere. Căci fără încredere, sistemele vor fi aruncate la coşul de gunoi şi întreaga investiţie în AI se va dovedi un eşec.

Din acest punct de vedere, ceea ce se petrece deja în universul AI, cum ar fi lansarea de roboţi în lumea reală care pretind că sunt fiinţe umane sau ajung chiar să preia identitatea unei fiinţe umane reale poate însemna o problemă majoră. Oamenilor nu le place să fie păcăliţi, iar asta se vede deja în creşterea gradului de eroziune a încrederii în sistemele online de diverse naturi.

Mulţi actori din industria de profil care promovează soluţii AI încearcă acum să genereze un cod de etică pentru roboţi care să adreseze diverse probleme, benigne sau maligne, ce pot apărea şi care trebuie adresate înainte de a fi prea târziu. Ne putem imagina, de pildă, un utilizator rău-intenţionat de roboţi instruind instrumentul AI să ceară unui părinte să îi ia şi lui copilul de la şcoală, sub diverse pretexte, astfel încât casa respectivului să poată fi jefuită. Sau apeluri efectuate de roboţi instalaţi de restaurante pentru rezervări false în restaurantele competiţiei, astfel încât clienţii reali să nu mai poată ocupa mese.

Unele firme au învăţat din problemele imense anterioare generate de atacurile cibernetice devastatoare că adresarea chestiunilor legate de etică şi echilibru, chiar dacă costisitoare în termeni financiari, este esenţială pentru păstrarea încrederii clienţilor. Mai mult ca sigur, ele vor fi primele care vor lupta şi pentru adoptarea unor soluţii AI bazate pe etică. Însă până când aceasta va deveni regula de bază pe întreg globul, surprizele neplăcute generate de creşterea ritmului de adopţie AI s-ar putea să fie imense şi să facă oricare alte surprize neplăcute din trecutul mai mult sau mai puţin îndepărtat să pălească prin comparaţie.