Industria securității cibernetice a petrecut ultimii trei ani obsedată de modul în care actorii-state naționale și scenariștii vor transforma inteligența artificială (AI) în arme. Dar, pe măsură ce adoptarea avansează de la interacțiunea cu chatboți bazați pe modele de limbaj larg (LLM) la implementarea de agenți AI, cea mai gravă amenințare ar putea veni acum din interiorul casei.

Vorbind la recentul Summit Gartner privind Securitatea și Riscul din Sydney, analiștii din industrie și șefii de securitate au zugrăvit o imagine sumbră a ceea ce va urma. În timp ce AI rămâne un multiplicator al forței defensive, organizațiile intră orbește într-o eră a „datoriilor de date AI”, a permisiunilor agențice negestionate și a unei crize a capitalului uman care amenință să erodeze abilitățile fundamentale ale centrului modern de operațiuni de securitate (SOC).
Nucleul acestei vulnerabilități constă în însăși natura agenților AI – sisteme concepute pentru a executa sarcini în medii de întreprindere fără intervenție umană.
Potrivit vicepreședintelui Gartner și analist Leigh McMullen, predarea cheilor agenților IA fără limitări comportamentale extreme este o rețetă pentru dezastru.
El a ilustrat riscul cu un caz de utilizare aparent benign: solicitarea unui agent AI să caute într-un director corporativ fișiere neatinse timp de șase luni, să le încarce în cloud și să cripteze copiile locale.
„Acesta este ransomware”, a avertizat McMullen. „Aceasta este, de asemenea, o funcție inclusă pe iPhone-ul dvs., dar este ransomware. Este exact același caz de utilizare și nu veți putea să le distingeți din punct de vedere comportamental.”
Dacă un agent de întreprindere păstrează aceste permisiuni de nivel înalt pe termen nelimitat, a remarcat el, „este la o singură solicitare distanță de un actor amenințător care îl convinge să facă ceva malefic”.
Fantezia guvernării AI
Proliferarea agenților AI a făcut din gestionarea identității și a accesului (IAM) frontul de luptă al securității întreprinderilor. Analistul Gartner, Greg Harris, a subliniat că, având în vedere că agenții IA îndeplinesc acum sarcini care necesitau în mod tradițional mai multe aprobări umane, cum ar fi procesarea conturilor de plătit, limitele stricte de autorizare nu sunt negociabile. „Dacă nu aveți identitatea setată corect, nu puteți practica încredere zero”, a spus el.
Această criză de identitate este exacerbată de modul în care agenții interacționează. În loc să comunice prin gateway-uri API (interfețe de programare a aplicațiilor) securizate și extrem de reglementate, agenții AI comunică din ce în ce mai mult între ei prin intermediul unor solicitări, având tendința naturală de a avea încredere unul în celălalt.
„De fiecare dată când cineva a transmis context între doi programatori, un actor amenințător inteligent a găsit o modalitate de a suprascrie acel context pentru a face ca sistemul să manifeste un comportament arbitrar”, a spus McMullen.
El a clasificat fără menajamente conceptul unei platforme holistice de guvernanță AI, gata de utilizare, drept o „fantezie” care în prezent nu există. În schimb, companiile trebuie să implice manual controale deterministe, plasând protecția promptă înaintea lanțurilor AI și protocoalele de prevenire a pierderii de date (DLP) la final.
Lanțul de eliminare al deepfake-urilor
În timp ce gestionarea defectuoasă internă a agenților este o bombă cu ceas, peisajul amenințărilor externe evoluează în moduri hiper-țintite. McMullen a remarcat că, în ciuda agitației, grupurile de elită specializate în amenințări persistente avansate (APT) au fost relativ lente în adoptarea inteligenței artificiale generative (GenAI) pentru utilizări ofensive, reflectând blocajele de angajare și instruire observate în lumea corporativă.
În loc să inventeze noi metode de exploatare, atacatorii folosesc GenAI pentru a supraalimenta ceea ce funcționează deja: ingineria socială și găsirea configurațiilor greșite.
O dovadă de concept înfiorătoare implică plantarea de hardware ieftin și cu costuri reduse în spații publice – cum ar fi sala de așteptare a unui medic – pentru a colecta identificatorii unici ai telefoanelor mobile ale pacienților. Odată ce o țintă este identificată, începe un „lanț de ucidere deepfake”.
Atacatorii sună la cabinetul medical cu o solicitare falsă, colectând suficient sunet în 30 de secunde pentru a clona vocea unui administrator. Pacientul primește apoi un apel vocal clonat care susține că cardul său de credit pentru o depășire recentă de 500 USD nu a trecut, ceea ce îl determină să își predea datele.
„Este mult mai ușor să furi 500 de dolari de la 1.000 de oameni decât să furi 500.000 de dolari de la o singură persoană”, a subliniat McMullen.
Pentru a combate acest lucru, autentificarea cu un singur factor tradițională este inactivă; sistemele trebuie acum să se bazeze pe o verificare multi-factor profund contextuală, care combină adrese hardware și date de rutare, deoarece detectoarele independente de deepfake deja eșuează.
Abordarea CBA
Confruntată cu aceste atacuri automatizate, augmentate de inteligență artificială, marile companii nu au de ales decât să-și construiască propriile contramăsuri bazate pe inteligență artificială. Andrew Pade, director general al operațiunilor de apărare cibernetică la Commonwealth Bank (CBA), a dezvăluit că acum procesează uimitorul număr de 400 de miliarde de semnale de amenințare pe săptămână.
Refuzând să aștepte ca furnizorii comerciali să corecteze vulnerabilitățile emergente, CBA a asociat analiști seniori de securitate cu oameni de știință specializați în date pentru a construi instrumente interne de inteligență artificială personalizate. Agentul lor de vânătoare de amenințări automatizează colectarea de date și crearea de ipoteze de atac, reducând.. un proces care obișnuia să reducă analiștilor umani două zile la mai puțin de 30 de minute.
În mod similar, un agent de răspuns bazat pe inteligență artificială contextualizează comportamentul discutabil înainte ca securitatea convențională să îl semnaleze, reducând timpul mediu de detectare cu două ore.
Pade a subliniat că aceste instrumente nu sunt doar despre viteză; ele sunt esențiale pentru bunăstarea forței de muncă din domeniul securității cibernetice. „Învățăm cum să integrăm și să folosim inteligența artificială pentru a elimina monotonia din ziua noastră și a ne concentra pe munca mai substanțială”, a spus el.
Erodarea competențelor și epuizarea CISO
Cu toate acestea, ușurarea pe care inteligența artificială o aduce SOC vine odată cu erodarea competențelor fundamentale, Gartner prevăzând că 75% dintre SOC vor deveni excesiv dependenți de inteligența artificială în următorii ani.
Harris a avertizat asupra naturii nedeterministe, halucinatorii a LLM-urilor, punând sub semnul întrebării ce se întâmplă atunci când tehnologia eșuează inevitabil sau își schimbă răspunsurile de la o săptămână la alta. „Trebuie să avem oameni implicați… [altfel] în cinci sau zece ani, nu vom mai avea pe nimeni în echipă care să poată face lucrurile fundamentale”, a spus el.
Criza de competențe se extinde până la vârful organizației. Christopher Mixter, vicepreședinte și analist la Gartner, a folosit summitul pentru a prognoza un val iminent de epuizare în rândul directorilor de securitate a informațiilor (CISO). Impulsați de haosul geopolitic și tehnologic actual, 50% dintre CISO vor fi presați să își asume responsabilitatea pentru recuperarea în caz de dezastru, alături de răspunsul la incidente, până în 2028.
Mixter a îndemnat liderii din domeniul securității să se opună reducerii rolurilor executive. „Fără un control suficient, fără resurse suficiente… asumarea mai multor responsabilități este cel mai rău lucru pe care l-ai putea face”, a spus el, menționând că adevărata reziliență în afaceri este, în cele din urmă, sarcina directorului de operațiuni.
Fără modele structurate de delegare, Gartner preconizează că întreprinderile vor suferi o fluctuație cu 40% mai mare în conducerea securității cibernetice până în 2027. Securitatea cibernetică a devenit o „alegere de stil de viață”, în care industria „a acceptat un nivel extrem de ridicat de suferință”, a deplâns Mixter.
Costul „fricțiunii de control”
Pe măsură ce AI introduce noi amenințări, controalele de securitate necesare pentru a le opri încetinesc afacerile – iar consiliile de administrație observă acest lucru. Până în 2030, conducerea executivă va solicita CISO-urilor să prognozeze impactul financiar al „fricțiunii de control”, pierderea măsurabilă a productivității care apare atunci când angajații sunt forțați să navigheze peste obstacole de securitate, cum ar fi utilizarea autentificării multi-factor de cinci ori pe zi.
Împreună cu faptul că până în 2030, o treime din toată activitatea IT va fi dedicată în întregime remedierii „datoriilor de date IA” lăsate în urmă de experimentele GenAI din umbră neaprobate, mandatul financiar pentru liderii din domeniul securității se schimbă drastic.
Haosul geopolitic din 2026 oferă o fereastră rară pentru echipele de securitate de a asigura finanțarea necesară pentru a proiecta o adevărată reziliență, a spus Harris. Alegerea este evidentă: să folosim acest timp pentru a construi granițe stricte și deterministe în jurul agenților de inteligență artificială și pentru a proteja sănătatea psihologică a forței de muncă din domeniul securității – sau să așteptăm până când un agent intern este modificat social pentru a cripta rețeaua corporativă.


























