Esential — August 22, 2017 at 10:36 am

Apel global legat de inteligenţa artificială

by

roboti

Avântul luat de adoptarea inteligenţei artificiale cunoaşte, la fel ca în toate cazurile când în joc a fost pusă tehnologia, o parte bună şi una mai puţin plăcută, dacă nu de-a dreptul ameninţătoare. Iar unul din elementele acestei viziuni ameninţătoare este cel legat de folosirea AI în dezvoltarea armelor autonome ale viitorului.

În încercarea de a preveni o asemenea direcţie de dezvoltare, factori de decizie din 115 companii de tehnologie au semnat recent o scrisoare deschisă prin care îşi exprimă îngrijorarea legată de posibila dezvoltare şi utilizare, de către guverne, de arme complet autonome. În plus, în afară de această scrisoare deschisă, factorii de decizie au pus bazele Campaniei de Oprire a Roboţilor Ucigaşi, campanie prin care cer acţiuni urgente ale comunităţii în scopul determinării guvernelor să oprească orice potenţiale acţiuni legate de folosirea roboţilor ucigaşi.

În scrisoare se spune: “Armele letale autonome ameninţă să devină a treia revoluţie în domeniul armelor de război. Odată dezvoltate, astfel de arme vor permite escaladarea fără precedent a conflictelor armate, cu viteze mai mari decât îşi poate imagina mintea umană. Aici poate fi vorba de arme ale terorii, arme pe care despoţii şi teroriştii le pot utiliza împotriva populaţiilor nevinovate, sau arme care pot fi deturnate de infractori cibernetici pentru a se comporta în moduri indezirabile.”

Scrisoarea deschisă se adaugă unui număr tot mai mare de avertismente emise de lideri de afaceri şi experţi AI asupra consecinţelor folosirii eronate a inteligenţei artificiale. La începutul acestui an, de pildă, un număr de 100 de cercetători AI din mediul academic, industrie şi analişti de frunte în economie, drept şi filozofie au întocmit un ghid etic, intitulat Asimolar AI Principles, care să guverneze dezvoltările viitoare ale inteligenţei artificiale.

Printre principiile enumerat în ghid se numără evitarea unei noi curse a înarmărilor cu arme autonome letale, dar şi dezvoltarea superinteligenţei artificiale doar în slujba unor idealuri etice larg acceptate şi pentru beneficiul întregii omeniri. Printre semnatarii iniţiativei din ianuarie se numără Elon Musk, patronul Tesla, celebrul fizician Stephen Hawking şi futurologul Ray Kurzweil, celebrul autor al cărţii Singularity is Near.