Atunci când software-ul poate gândi și acționa singur, strategiile de securitate trebuie să treacă de la aplicarea statică a politicilor la guvernanța comportamentală în timp real.

Inteligența artificială a transformat deja modul în care operează întreprinderile, dar următorul val de inovație, Agentic AI, funcționează ca agenți autonomi sau semi-autonomi care pot rula cod, pot interacționa cu API-uri, pot accesa baze de date și pot lua decizii din mers. Organizațiile trebuie să ia măsuri imediate împotriva amenințărilor de securitate care pot apărea atunci când sistemele software trec de la producerea de text pasiv la efectuarea de sarcini operaționale active.
De la AI bazată pe prompturi la agenți bazați pe acțiune
Organizațiile au început adoptarea IA la nivel de întreprindere concentrându-se pe creșterea productivității. Au încorporat LLM-uri în fluxurile de lucru pentru a scrie documente, a rezuma date și a răspunde la întrebări. Problemele de securitate s-au concentrat pe utilizarea necorespunzătoare a prompturilor, scurgerile de date și încălcările confidențialității. Deși serioase, organizațiile ar putea gestiona aceste riscuri prin protocoale de securitate standard care monitorizează datele de intrare și ieșire și efectuează gestionarea politicilor și supravegherea sistemului.
Agentic AI schimbă paradigma. Mai mult decât să răspundă la interogări, agenții acționează în numele utilizatorilor sau pentru ei înșiși. Aceștia pot declanșa fluxuri de lucru, pot interacționa cu sisteme sensibile și chiar pot lua decizii independent. Pe măsură ce autonomia crește, crește și riscul de vătămare. Acest lucru face importantă regândirea securității de la elementele de bază.
Noul peisaj al riscurilor
Agentic AI introduce mai multe noi amenințări la adresa securității:
• Exploatare la nivel de acțiune: Actorii răi pot înșela agenții să efectueze operațiuni periculoase care modifică bazele de date de producție sau dezvăluie date neautorizate.
• Atacuri de injecție de context: Atacatorii furnizează informații false sistemelor RAG (generare augmentată de recuperare), ceea ce declanșează acțiuni periculoase ale agenților.
• Operațiuni invizibile: Agenții operează adesea în liniște în culise, ceea ce face dificilă observarea a ceea ce fac fără o monitorizare strictă.
• Vulnerabilități ale protocolului: Standarde precum Model Context Protocol (MCP) ajută agenții să se conecteze și să lucreze împreună mai ușor, dar pentru că adesea încep cu setări excesiv de deschise, pot lăsa accidental sistemele vulnerabile.
Atacuri recente evidențiază nevoia stringentă de acțiune. De exemplu, hackerii au compromis asistentul de cod Q Amazon cu o injecție de prompturi de tip wiper. În același timp, cercetătorii au dezvăluit vulnerabilități precum EchoLeak și CurXecute care exploatează ceea ce ei numesc „tripleta letală”: accesul la date interne, capacitatea de a comunica extern și expunerea la intrări nesigure. Majoritatea agenților necesită aceste trei atribute pentru a funcționa eficient, ceea ce îi face extrem de exploatabili. Aceste cazuri demonstrează modul în care sistemele de inteligență artificială agentială pot fi manipulate în moduri pe care cadrele tradiționale de securitate LLM nu au fost niciodată concepute să le gestioneze.
Construirea de bariere pentru autonomie
Provocarea constă în găsirea echilibrului potrivit între utilitatea unui agent și siguranța sa. Pentru a minimiza riscul, întreprinderile trebuie să implementeze bariere care să urmărească întregul lanț de gândire și acțiuni executate de agenți. Aceasta înseamnă monitorizarea apelurilor instrumentelor, verificarea intenției și aplicarea controalelor contextuale. Este important de menționat că strategiile de prevenție trebuie să funcționeze pe toate platformele. În loc să se concentreze pe un anumit LLM, accentul ar trebui pus pe modul în care agenții interacționează cu sistemele și gestionează datele.
Dezvoltarea unei taxonomii a agenților
Un pas important în securizarea Agentic AI este crearea unei taxonomii a agenților. Nu toți agenții sunt la fel. Clasificarea lor va ajuta la prioritizarea controalelor. Ceea ce contează cu adevărat aici este:
Inițierea: Agenți inițiați de om vs. agenți autonomi;
• Implementarea: Mașini locale, pe platforme SaaS sau în configurații auto-găzduite;
• Conectivitatea: API-uri interne, endpoint-uri terțe sau servere MCP;
• Autonomia și încrederea: Ce nivel de acces au agenții și dacă ar trebui să îl aibă.
De exemplu, un asistent de codare local într-un mediu de dezvoltare este mult mai puțin riscant decât un agent de fundal care rulează inferențe în sistemele de producție. Prin listarea agenților și a endpoint-urilor, echipele de securitate pot monitoriza activitatea, pot evalua postura și pot aplica controale precise.
Abordări deterministe vs. dinamice ale securității
Guvernanța tradițională a LLM se bazează pe controale deterministe: politicile predefinite restricționează ceea ce modelul poate și nu poate face. În schimb, IA agentică necesită o abordare dinamică. Deoarece agenții valorifică raționamentul, inferența și luarea deciziilor probabilistice, aceștia se pot comporta în moduri neașteptate. Din acest motiv, cadrele de securitate trebuie să combine bariere deterministe cu observabilitatea în timp real și controalele adaptive.
În loc să blocheze pur și simplu interogările dăunătoare, companiile trebuie să mapeze proactiv comportamentul agenților, să valideze intenția și să controleze execuția. Acest proces proactiv… Guvernanța este fundamentală pentru gestionarea imprevizibilității sistemelor autonome.
Către un cadru de securitate bazat pe Agentic AI
Pentru a aborda aceste provocări, organizațiile au nevoie de o abordare a securității cu patru componente principale:
• Descoperire și profilare: Construiți un inventar al agenților, originea lor și modul în care se conectează la sisteme.
• Gestionarea posturii agentice: Evaluați riscurile analizând instrumentele pe care le utilizează agenții, datele pe care le pot accesa și identitățile pe care le preiau.
• Observabilitate: Configurați jurnale și urme detaliate ale acțiunilor agenților, astfel încât echipele de guvernanță să aibă o vizibilitate clară.
• Controale în timpul execuției: Implementați monitorizarea contextuală a riscurilor, prevenirea exploatărilor și controale ale acțiunilor specifice rolului.
Acest cadru recunoaște că fiecare agent trebuie evaluat în context, cu controale ajustate la autonomia, mediul și raza de explozie a acestuia.
Redefinirea riscului bazat pe AI în cadrul întreprinderilor
Ascensiunea Agentic AI reprezintă o schimbare majoră. Întreprinderile nu mai protejează doar datele. Ele gestionează fluxuri de software autonom care pot acționa singure. Acest lucru schimbă însăși noțiunea de modele de amenințare, suprafețe de atac și strategii de securitate în contextuale, adaptive și în timp real.
Spre deosebire de sistemele de învățare în cunoștință de cauză (LLM) convenționale care generează pur și simplu text ca răspuns la solicitări, natura independentă a Agentic AI redefinește atât oportunitatea, cât și riscul. Organizațiile care acceptă această nouă responsabilitate trebuie să își regândească măsurile de securitate. Trebuie să depășească protecțiile tradiționale și să dezvolte cadre care să anticipeze, să monitorizeze și să controleze acțiunile autonome.


























