Veštačka inteligencija može biti odličan haker

Napredak u razvoju veštačke inteligencije doveo je do trenutka koji stručnjaci za sajber bezbednost sve češće opisuju kao prelomnu tačku u sposobnosti kompjuterskih sistema da pronalaze i analiziraju bezbednosne ranjivosti u softveru.

10.03.2026. 11:43

Veštačka inteligencija može biti odličan haker

Najnovija istraživanja pokazuju da veliki jezički modeli (Large Language Model, LLM) i AI agenti, kao što je OpenClaw, mogu da obavljaju zadatke koji su donedavno bili rezervisani za iskusne bezbednosne stručnjake i profesionalne hakere, uključujući tu i analizu kompleksnog programskog koda, identifikovanje potencijalnih grešaka i testiranje načina na koji bi te greške mogle biti iskorišćene u hakerskim napadima.

Ovakav napredak rezultat je kombinacije nekoliko tehnoloških faktora: sposobnosti modernih AI sistema da razumeju velike količine programskog koda, da koriste sopstvene softverske alate tokom rada i razbiju kompleksne probleme na niz manjih koraka kroz takozvano "višestepeno rezonovanje".

Istraživači sa Univerziteta Kalifornija u Berkliju kako bi izmerili napredak veštačke inteligencije u ovoj oblasti.

CyberGym sadrži više od 1.500 poznatih bezbednosnih ranjivosti u različitim softverima, te na internetu, i gotovo 200 open-source projekata, i služi kao standardizovana platforma za poređenje sposobnosti različitih AI modela.

Rezultati testiranja pokazuju da su modeli tokom prošle godine ostvarili izuzetno značajan napredak.

Dok su ranije verzije sistema veštačke inteligencije uspevale da identifikuju približno petinu ranjivosti u softverima i aplikacijama, novije verzije LLM AI modela uspevaju da pronađu oko trećinu poznatih bezbednosnih problema, što ukazuje na veoma brz tehnološki napredak u relativno kratkom vremenskom periodu.

AI sopstvenom analizom došao do ranjivosti sistema

Paralelno sa akademskim istraživanjima, i tehnološke kompanije i start-apovi razvijaju sopstvene AI alate za analizu bezbednosti softvera.

Jedan od takvih sistema je Sybil, alat koji koristi kombinaciju više modela veštačke inteligencije kako bi analizirao softvere i pronašao potencijalne sigurnosne slabosti.

Tokom testiranja ovaj sistem je uspeo da identifikuje složenu ranjivost u implementaciji GraphQL sistema koji se koristi za upravljanje pristupom podacima kroz API interfejse.

Posebno zanimljiv detalj je i da takva ranjivost nije bila javno dokumentovana na internetu, što sugeriše da je AI do nje došao sopstvenon analizom, a ne jednostavnim preuzimanjem postojećih informacija.

 AI može da ubrza kontrolisan pokušaj provale u sistem

U drugim eksperimentima, istraživači su koristili AI agente za testiranje ranjivih web aplikacija.

U tim testovima veštačka inteligencija je bila u stanju da automatski mapira strukturu sistema, identifikuje potencijalne bezbednosne probleme i kombinuje više slabosti kako bi simulirala realne sajber napade hakera.

Takvi eksperimenti pokazuju da AI može značajno ubrzati proces takozvanog pen-testiranja, odnosno kontrolisanog pokušaja provale u sistem ili mrežu radi otkrivanja slabosti.

Foto: Envato

Pojedini AI sistemi već su uspeli da pronađu veoma ozbiljne bezbednosne greške i prijave ih kompanijama Istovremeno, stručnjaci upozoravaju da ista tehnologija može biti korišćena i od strane sajber kriminalaca za automatizaciju napada, uključujući razvoj malware virusa, generisanje exploit koda i organizovanje sofisticiranih phishing (pecanje) kampanja.

Ovakav pristup mogao bi značajno promeniti način na koji se razvijaju kompjuterske mreže i web sistemi, jer bi veštačka inteligencija postaka ključni alat, ne samo za programiranje, već i za bezbednosnu analizu modernih softverskih platformi.

Preuzmite Newsmax Balkans aplikaciju:

Komentari (0)