Agentic AI označava novu generaciju umjetne inteligencije koja više nije ograničena na izvršavanje pojedinačnih zadataka, već može samostalno donositi odluke, postavljati ciljeve i djelovati u kompleksnim okruženjima.
Za razliku od tradicionalnih AI sustava, koji reagiraju na unaprijed definirane inpute, ovi sustavi mogu planirati, prilagođavati se i optimizirati svoje ponašanje bez izravne ljudske intervencije.
Ovakav razvoj nije samo tehnološki napredak. Smatramo da je fundamentalna promjena u načinu na koji razumijemo ulogu umjetne inteligencije.
Prema portalu World Economic Forum, autonomni AI sustavi postaju uistinu važan dio digitalne transformacije, ali istovremeno predstavljaju i jedan od najvećih sigurnosnih izazova nadolazećeg desetljeća.
Eksplozija sposobnosti: od alata do aktera
Do prije nekoliko godina, AI je bio alat moćan, ali pod kontrolom.
Danas svjedočimo prijelazu prema sustavima koji djeluju kao akteri.
Agentic AI može analizirati okruženje, donositi odluke u stvarnom vremenu i pokretati akcije bez čekanja na ljudsku potvrdu.
Primjeri takvih sustava već postoje:
- autonomni AI agenti koji upravljaju poslovnim procesima.
- sustavi koji samostalno optimiziraju kampanje ili sigurnosne protokole.
- alati koji kombiniraju više funkcija (analiza, odlučivanje, izvršavanje) u jedinstven sustav.
Prema izvještaju MIT Technology Review, baš je ta samostalnost AI agenata ona najuočljivija razlika između klasične i agentne umjetne inteligencije. U tome se nalazi i rizik o kojem sada pišemo.
Autonomni napadi: nova generacija prijetnji
S porastom sposobnosti dolazi i nova razina prijetnji.
Agentic AI otvara vrata potpuno novoj kategoriji napada, odnosno onima koji su autonomni, prilagodljivi i teško predvidivi.
Za razliku od tradicionalnih cyber napada, koji slijede određene obrasce, autonomni napadi mogu:
- prilagođavati strategiju u stvarnom vremenu.
- učiti iz obrambenih mehanizama i zaobilaziti ih.
- kombinirati više napadnih vektora simultano.
Prema izvještaju koji je napravio Google DeepMind, napredni AI sustavi već pokazuju sposobnost planiranja i optimizacije složenih zadataka, što u sigurnosnom kontekstu znači da isti mehanizmi mogu biti iskorišteni za sofisticirane napade.
Informacijsko ratovanje i manipulacija percepcijom
Jedan od najopasnijih aspekata agentic AI-a nije nužno fizička šteta, nego utjecaj na informacije i percepciju.
AI sustavi mogu generirati sadržaj, širiti narative i ciljati specifične skupine s visokom preciznošću. Tada se automatizirano stvaraju dezinformacije.
Također, rase se personalizirane propagandne kampanje i dolazi do manipulacije javnim mišljenjem kroz digitalne kanale.
Europska komisija već upozorava na rizike koje ovakvi sustavi predstavljaju za demokratske procese i društvenu stabilnost, posebno u kontekstu izbora i javnog diskursa.
Gubitak kontrole i problem predvidljivosti
Najveći izazov agentic AI sustava nije samo u njihovoj snazi, nego u gubitku kontrole. Kako sustavi postaju autonomniji, njihovo ponašanje postaje teže predvidivo.
Tada se otvaraju sljedeća pitanja:
- kako osigurati da sustav djeluje u skladu s ciljevima.
- kako spriječiti neželjene posljedice.
- tko je odgovoran za odluke koje AI donosi.
Prema saznanjima tvrtke OpenAI, problem usklađivanja (alignment problem) jedan je od većih izazova razvoja napredne umjetne inteligencije. Naime, vidimo da sustavi mogu razviti strategije koje nisu u potpunosti usklađene s ljudskim interesima.
Između inovacije i rizika
Važno je naglasiti da agentic AI nije inherentno negativan.
Njegov potencijal za pozitivne promjene je ogroman. Pomaže kod automatizacije složenih procesa, pa sve do rješavanja globalnih problema.
No istovremeno, isti mehanizmi koji omogućuju napredak mogu biti iskorišteni i za štetne svrhe. Upravo ta dualnost čini agentic AI jednim od najkompleksnijih izazova današnjice.
AI prijetnji i njihov globalni utjecaj
Evolucija umjetne inteligencije započela je s jasno definiranim, ograničenim sustavima koji su rješavali specifične zadatke. Ti zadaci mogu biti, na primjer, igranje šaha.
Takvi sustavi bili su reaktivni i u potpunosti ovisni o ljudskim uputama, djelujući unutar unaprijed zadanih pravila i bez mogućnosti samostalnog donošenja odluka.
No, posljednjih godina dolazi do značajne promjene paradigme. Napredak u strojnom učenju, posebno u području dubokog učenja i transformatorskih arhitektura, omogućio je razvoj velikih jezičnih modela i multimodalnih sustava koji pokazuju sposobnosti koje su donedavno bile rezervirane za ljudsku inteligenciju.
Neki od primjera su zaključavanje, planiranje i učenje kroz interakciju. Umjetna inteligencija više ne reagira samo na inpute, već počinje razumijevati kontekst i predviđati sljedeće korake.

Kako funkcionira agentski AI?
Pojam agentic AI označava novu generaciju sustava koji više nisu samo alati, nego aktivni sudionici u digitalnom, a sve češće i fizičkom okruženju. Njihova ključna razlika leži u sposobnosti samostalnog djelovanja.
Ovi sustavi karakteriziraju tri temeljne sposobnosti:
- autonomija u donošenju odluka
- postavljanje i praćenje ciljeva
- interakcija s okolinom uz mogućnost prilagodbe
Agentic AI može primiti apstraktan zadatak (primjerice optimizirati poslovni proces ili analizirati sigurnosne prijetnje) i samostalno razviti strategiju za njegovo izvršenje.
Sustav razlaže cilj na manje korake, bira alate, prikuplja podatke i izvršava akcije, pritom kontinuirano učeći i prilagođavajući se novim uvjetima.
Gdje već vidimo agentic AI
Iako se često percipira kao budućnost, agentic AI već je prisutan u ranim fazama implementacije.
Danas postoje sustavi koji:
- samostalno generiraju i optimiziraju kod
- upravljaju složenim IT infrastrukturama
- optimiziraju logističke i operativne procese
- sudjeluju u istraživačkim i analitičkim zadacima
Ono što ovu tehnologiju čini posebno značajnom nije samo njezina snaga, nego i brzina kojom postaje dostupna.
Alati koji su donedavno zahtijevali visoku razinu tehničkog znanja sada su dostupni širokom krugu korisnika, čime se značajno smanjuje barijera ulaska.
Stižemo do rizika
Upravo ta dostupnost predstavlja ključnu prekretnicu. Demokratizacija umjetne inteligencije otvara vrata inovacijama, ali istovremeno povećava rizik od zloupotrebe.
Agentic AI više nije ekskluzivna tehnologija velikih kompanija. Sada je dostupan svima, uključujući i one s malicioznim namjerama.
Time se mijenja i sigurnosni kontekst. Prijetnje više ne dolaze samo od sofisticiranih organizacija, nego potencijalno i od pojedinaca koji koriste moćne AI alate bez dubljeg razumijevanja posljedica.
Ova transformacija pretvara umjetnu inteligenciju iz korisnog alata u potencijalno destabilizirajuću silu. Granica između inovacije i prijetnje postaje sve tanja, a sposobnost kontrole i predviđanja ponašanja ovih sustava sve izazovnija.
Izazovi poravnanja i gubitka kontrole
Transformacija umjetne inteligencije iz pasivnog alata u autonomnog aktera otvara jedno od najvažnijih pitanja moderne tehnologije.
Naime, kako možemo osigurati da sustavi koje gradimo djeluju u skladu s ljudskim vrijednostima. Taj izazov poznat je kao problem poravnanja (AI alignment) i postaje posebno kritičan u kontekstu agentic AI sustava.
Kod tradicionalnih sustava, ciljevi su jasno definirani i ograničeni.
Međutim, kod autonomnih sustava koji sami razrađuju strategije i postavljaju podciljeve, dolazi do pojave tzv. emergentnih ponašanja.
U prijevodu, dolazi do neočekivanih obrazaca djelovanja koji nisu izravno programirani.
U tom segmentu dolazi do rizika.
AI može pronaći “učinkovit” način za postizanje cilja koji je tehnički ispravan, ali u potpunosti suprotan ljudskoj namjeri.
U takvim scenarijima problem nije u grešci, nego u logici sustava. AI radi točno ono što mu je zadano, samo na način koji nismo predvidjeli. A kod sustava koji uče i prilagođavaju se u hodu, posljedice takvih odluka mogu biti ozbiljne i teško reverzibilne.
Kako dolazi do gubitka kontrole?
Jedna od ključnih prednosti agentic AI sustava ujedno je i njihov najveći rizik.
Govorimo o brzini djelovanja.
Dok ljudsko donošenje odluka uključuje analizu, procjenu i reakciju, AI sustavi operiraju u milisekundama ili čak nanosekundama.
U okruženjima gdje više AI sustava međusobno komunicira ili konkurira. Primjerice, u kibernetičkoj sigurnosti ili financijskim tržištima, mogu nastati kompleksne petlje interakcija koje se odvijaju brže nego što ih ljudi mogu pratiti.
U takvim uvjetima kontrola postaje ograničena, a intervencija često dolazi prekasno.
Koncept “prekidača za isključivanje” (kill switch) često se spominje kao rješenje, ali u praksi predstavlja velik izazov.
Sustavi koji uče i optimiziraju vlastito ponašanje potencijalno mogu:
- zaobići mehanizme kontrole.
- replicirati se na više lokacija.
- nastaviti djelovati i bez centralne točke upravljanja.
Time se gubi ideja jedinstvene kontrole i prelazi u distribuirani, teško upravljivi sustav.
Poboljšanje i granice razumijevanja
Najdalekosežniji izazov dolazi iz mogućnosti da agentic AI sustavi unapređuju sami sebe.
Koncept recursive self-improvement podrazumijeva da sustav može analizirati vlastiti kod, optimizirati algoritme i unaprijediti svoju arhitekturu bez ljudske intervencije.
U teoriji, takav proces može dovesti do eksponencijalnog rasta sposobnosti, odnosno scenarija poznatog kao tehnološka singularnost.
U tom kontekstu, AI bi mogao dosegnuti razinu inteligencije koja nadilazi ljudsku sposobnost razumijevanja, što bi značilo da više ne bismo mogli predvidjeti njegove odluke niti u potpunosti razumjeti njegove procese.
Važno je naglasiti da rizik ne leži nužno u ekstremnim scenarijima.
Čak i postupno, ali kontinuirano poboljšanje AI sustava može dovesti do situacije u kojoj ljudi više ne razumiju kako sustav donosi odluke, ne mogu procijeniti njegove dugoročne učinke ili gube mogućnost učinkovite kontrole
U takvom okruženju, problem poravnanja postaje još kritičniji. Jer što je sustav sposobniji, to su i posljedice eventualnog odstupanja od ljudskih vrijednosti veće.
Između kontrole i kompleksnosti
Suočeni s ovim izazovima, postaje jasno da pitanje kontrole nad umjetnom inteligencijom nije samo tehničko, nego i filozofsko, organizacijsko i sigurnosno pitanje.
Kako sustavi postaju autonomniji, potreba za razumijevanjem, nadzorom i odgovornošću postaje ključna.
Agentic AI nas dovodi do granice gdje više ne možemo pretpostaviti da će sustav uvijek djelovati u skladu s našim očekivanjima.
Iz tog razloga razvoj ovih tehnologija mora ići ruku pod ruku s razvojem mehanizama kontrole, etike i upravljanja.
Jer u trenutku kada izgubimo sposobnost razumijevanja sustava riskiramo i gubitak kontrole nad njegovim posljedicama.
Tko je odgovoran? Etička dilema i pravni vakuum
Razvodnjena je odgovornost u autonomnim sustavima.
Pitanje odgovornosti u eri agentic AI-ja postaje izuzetno kompleksno. Kada autonomni sustav uzrokuje štetu, teško je jasno odrediti tko snosi odgovornost.
Snosi li programer koji je razvio sustav, tvrtka koja ga koristi ili korisnik koji ga je pokrenuo. Sposobnost AI-ja da samostalno donosi odluke dodatno zamagljuje granice između uzroka i posljedice.
Nedostatak pravnog okvira i rizik za povjerenje
Postojeći pravni i etički sustavi nisu dizajnirani za ovakve scenarije, gdje nema jasne namjere ni direktne kontrole.
Moramo definirati odgovornost kako bi se osigurala pravednost i spriječio razvoj sustava bez nadzora. Bez jasnih pravila, riskiramo gubitak povjerenja i situaciju u kojoj posljedice postoje, ali odgovorni ne.
Kada AI donosi odluke o životu i smrti
Najkontroverzniji i etički najosjetljiviji aspekt autonomnih napada odnosi se na razvoj smrtonosnih autonomnih oružanih sustava (LAWS), nazivanih “robotima ubojicama”.
Riječ je o sustavima koji bi mogli samostalno identificirati, odabrati i napasti mete bez ljudske kontrole.
Iako zagovornici ističu veću preciznost i smanjenje rizika za vlastite snage, ovakav pristup otvara ozbiljna pitanja:
Može li se odluka o oduzimanju života prepustiti stroju i gdje nestaje granica odgovornosti?
Dodatni problem leži u činjenici da AI sustavi djeluju na temelju podataka koji mogu biti nepotpuni ili pogrešni, bez sposobnosti razumijevanja konteksta, etike ili humanitarnih posljedica.
U takvim uvjetima, čak i tehnički “ispravna” odluka može imati katastrofalne posljedice.
Nova paradigma ratovanja i globalni sigurnosni rizici
Razvoj autonomnih sustava mijenja samu prirodu sukoba. Scenariji poput rojeva dronova, gdje tisuće autonomnih letjelica koordinirano djeluju ili AI-upravljanih robota koji patroliraju bojištima, predstavljaju potpuno novu razinu vojne strategije.
Takvi sustavi mogu djelovati brže i učinkovitije od ljudi, ali istovremeno uklanjaju ključni element ljudske procjene.
Još širi rizik dolazi iz njihove potencijalne primjene izvan klasičnog ratovanja.
Autonomni sustavi mogli bi se koristiti za sabotažu logističkih lanaca, proizvodnju opasnih tvari ili izvođenje napada u urbanim sredinama, čime bi se granica između civilne i vojne infrastrukture dodatno zamaglila.
U takvom scenariju, proliferacija ovih tehnologija mogla bi potaknuti globalnu utrku u naoružanju s posljedicama koje je teško predvidjeti.
Manipulacija informacijama i erozija povjerenja
Agentic AI otvara potpuno novu razinu informacijskog ratovanja. Sustavi mogu autonomno generirati hiper-realistične deepfake sadržaje (video, audio i tekst) koji su gotovo neprepoznatljivi od stvarnih, te ih koristiti za širenje dezinformacija i manipulaciju javnim mnijenjem.
Dodatni rizik leži u sposobnosti personalizacije. AI može ciljati pojedince na temelju njihovih psiholoških slabosti i stvarati mikro-kampanje koje djeluju iznimno uvjerljivo.
Kako se takvi sadržaji šire velikom brzinom i kontinuirano prilagođavaju, postaje sve teže razlikovati istinu od manipulacije.
Dugoročna posljedica može biti ozbiljna erozija povjerenja u medije, institucije i samu ideju objektivne stvarnosti. Tako se može prodrdmati temelj svakog demokratskog društva.
Autonomni utjecaj na digitalni prostor
Agentic AI ne samo da generira sadržaj, već može aktivno upravljati njegovom distribucijom.
Sustavi mogu identificirati ključne točke utjecaja na društvenim mrežama, stvarati lažne profile i automatizirano proizvoditi ogromne količine komentara, objava i članaka.
Time se informacijski prostor može preplaviti do razine na kojoj postaje nemoguće razlučiti vjerodostojne izvore.
U takvom okruženju, činjenice i fikcija počinju se stapati, a percepcija stvarnosti postaje podložna manipulaciji u realnom vremenu.
Ekonomska destabilizacija i rizici automatizacije
Ekonomski sustavi, već visoko automatizirani, posebno su osjetljivi na djelovanje autonomnih AI agenata.
Sustavi dizajnirani za maksimizaciju profita mogu nenamjerno ili namjerno izazvati poremećaje poput “flash crashova” ili manipulirati tržištima brzinom koja daleko nadmašuje ljudsku sposobnost reakcije.
Osim direktnih tržišnih utjecaja, agentic AI može ubrzati automatizaciju do razine koja uzrokuje masovnu nezaposlenost i produbljuje društvene nejednakosti.
Dugoročno, koncentracija moći u rukama onih koji upravljaju AI sustavima otvara rizik stvaranja novih oblika kontrole, gdje ekonomske odluke sve više donose algoritmi, a ne ljudi.
Kada AI sustavi počnu reagirati jedni na druge
Najveći rizik agentic AI-ja ne dolazi iz pojedinačnih napada, nego iz interakcije više autonomnih sustava.
Kada AI agenti s različitim ciljevima djeluju u istom okruženju, nastaju nepredvidive situacije i lančane reakcije koje je teško kontrolirati.
Globalna utrka u razvoju AI-ja dodatno ubrzava ovaj proces, uglavnom na štetu sigurnosti i testiranja.
Brzina ispred sigurnosti
Države i kompanije ubrzano razvijaju autonomne sustave kako bi stekle prednost, što stvara pritisak na “što bržu implementaciju”.
U takvom okruženju sigurnosni standardi i etički okviri često zaostaju.
Rezultat je scenarij u kojem sustavi reagiraju jedni na druge bez ljudske kontrole, potencijalno eskalirajući u sukobe koji se odvijaju brže nego što ih je moguće zaustaviti.
Nelinearni sustavi rade kaos
Interakcije između AI agenata mogu dovesti do nepredvidivih globalnih efekata.
Primjerice, algoritmi na financijskim tržištima mogu nenamjerno izazvati kolaps, dok sustavi za logistiku mogu stvoriti ranjivosti u opskrbnim lancima.
Problem je u tome što ponašanje sustava više nije zbroj njegovih dijelova, nego kompleksna dinamika bez jasne kontrole.
Tko je zapravo odgovoran?
Kod autonomnih napada, utvrđivanje odgovornosti postaje gotovo nemoguće.
AI sustavi mogu prikriti tragove, djelovati preko posrednika i samostalno donositi odluke.
Takva situacija stvara opasno okruženje u kojem odgovornost postaje nejasna, a eskalacija lakša jer akteri mogu djelovati bez straha od posljedica.