Analiza — April 19, 2019 at 5:36 am

Hardware personalizat pentru accelerarea inteligenţei artificiale

by

amdConform unui recent raport IDC, cheltuielile legate de inteligenţa artificială (IA) în Europa vor creşte cu aproape 50% în 2019 faţă de 2018, deoarece organizaţiile încep să utilizeze această tehnologie pentru a obţine avantaje competitive. În joc s-au angrenat în special nume mari pe plan european, din comerţul cu amănuntul, cum ar fi Sephora, Asos sau Zara, dar şi entităţi financiar-bancare mari precum NatWest şi HSBC. Beneficiile deja înregistrate includ număr mai mare de vizite ale clienţilor, venituri mai mari, costuri mai reduse şi experienţele mai plăcute ale clienţilor.

Instanţele de utilizare a IT-ului legate de automatizarea proceselor încep să devină element principal de investiţii în Europa, multe organizaţii europene începând să-şi concentreze atenţia asupra generaţiei următoare de tehnologie IA în scopuri de personalizare sau de predicţie. Există la ora actuală un consens general la nivelul afacerilor că arhitectura tradiţională a computerelor bazate pe procesoare clasice nu se ridică la înălţimea misiunii de a rula algoitmi performanţi de machine learning. De aceea, atenţia multora se îndreaptă spre procesoarele grafice pentru obţinerea performanţelor de care e nevoie la aplicaţiile de machine learning.

În ciuda acestui fenomen la nivel european, exemplele legate de modul în care va arăta viitorul apropiat sunt oferite tot de giganţii din tehnologie. Şi asta deoarece giganţii web care necesită niveluri şi mai mari de performanţe încep deja să dezvolte hardware personalizat de accelerare IA. De exemplu, Facebook a anunţat în luna februarie că lucrează la dezvoltarea unui chip propriu pentru procese de machine learning. Facebook se alătură astfel firmei Google, care a anunţat încă de acum trei ani dezvoltarea unui chip IA personalizat.

În 2016, Google a lansat un chip denumit TPU (Tensor Processing Unit), bazat pe un circuit integrat specific aplicaţiilor proprii folosite de companie şi construit special pentru procese de machine learning, fiind adaptat special pentru modulul de learning TensorFlow al companiei, un modul bazat pe reţele neurale (DNN). La acel moment, Google preciza că astfel de chip-uri oferă performanţe mult mai bune per watt consumat pentru procese de machine learning.

Chip-urile personalizate sunt extraordinar de scumpe şi limitate ca utilizare, deoarece sunt proiectate pentru aplicaţii specifice, aşa cum este modulul TensorFlow DNN în cazul Google. Un alt gigant al tehnologiei, Microsoft, oferă accelerare AI în mediul său cloud Azure prin folosirea unui aşa-numit Field Programmable Gate Array (FPGA), cu performanţe similare, în opinia Microsoft, chip-urilor personalizate. Botezată Brainwave, arhitectura Microsoft de accelerare a proceselor de machine learning se bazează pe tehnologie Intel pentru a permite oamenilor de ştiinţă şi dezvoltatorilor să accelereze calculele IA în timp real.

Deocamdată, unităţile grafice de procesare date (GPU) reprezintă punctul de intrare pentru cele mai multe organizaţii care caută să instaleze hardware de accelerare a algoritmilor de machine learning. Conform analiştilor, astfel de unităţi se potrivesc în acest moment nevoii de instruire reţele neurale pentru aplicaţii IA. Cum reţelele neurale sunt create din numere mari de neuroni identici, ele sunt paralele prin natura lor. Un astfel de paralelism se mulează perfect pe arhitectura unităţilor grafice de procesare

Comunitatea de suport OpenStack a anunţat şi ea recent că va ajuta firmele să depăşească barierele legate de adoptarea tehnologiilor IA în 2019, pe măsură ce va creşte cererea pentru chip-uri grafice şi arhitecturi FPGA. În mod clar, conform analiştilor, în cazul proceselor de machine learning performante datele vor trebui să stea în mediu cloud. Însă acolo unde reglementările sau dimensiunile seturilor de date fac aşa ceva imposibil, organizaţiile au început deja să-şi construiască propriile acceleratoare de machine learning bazate pe GPU.

IDC dă în acest sens ca exemplu o bancă cu sediul la Moscova, Tinkoff, care şi-a construit propriul supercomputer în sprijinul propriei strategii de dezvoltare a unei platforme pentru AI şi machine learning. Denumit cluster-ul Kolmogorov, supercomputerul este socotit a fi al optulea ca mărime din Rusia. Zona hardware, care cuprinde 10 noduri de procesare cu acceleratoare Nvidia Tesla V100 alimentate de miezuri tensor, furnizează o performanţă de vârf de până la 658TFlops. Conform unui anunţ al băncii, preluat de IDC, această arhitectură hardware de accelerare IA a avut nevoie de doar 24 de ore pentru a realcătui un model de previzionare vânzări prin folosirea datelor acumulate pe o perioadă de 13 ani. O abordare bazată pe procesarea tradiţională a datelor ar fi avut nevoie de şase luni pentru a rula acelaşi model de previzionare.

Însă lucrurile nu se opresc aici. O altă tehnologie, quantum computing, ar putea juca un rol important în viitorul apropiat din punct de vedere al accelerării proceselor de machine learning. Nu cu multă vreme în urmă, Massachusetts Institute of Technology (MIT) şi Universitatea Oxford, împreună cu cercetători de la divizia Q a companiei IBM, au publicat în revista Nature un document în care se detaliază un experiment prin care se arată cum quantum computing poate accelera tehnica de mapare a caracteristicilor în scop de identificare a atributelor unicat ale unor date, aşa cum este cazul, de pildă, în recunoaşterea facială. Actualmente, cercetătorii caută să identifice ce seturi de date reprezintă o potrivire bună pentru accelerarea IA bazată pe quantum computing.