"Human… Please die": Odgovori veštačke inteligencije mogu biti i - šokantni

Nedavno je Google usluga veštačke inteligencije Gemini jednom korisniku uputila poruku "Human… Please die" (molim te umri), što izazvalo reakciju svetske tehnološke javnosti, te je ponovo otvorilo pitanja o pravoj bezbednosti i kontroli sistema veštačke inteligencije.

25.12.2025. 09:52

"Human… Please die": Odgovori veštačke inteligencije mogu biti i - šokantni
Printscreen: Newsmax Balkans

Ovaj "tehno incident" se dogodio saveznoj državi Mičigen, kada je 29-godišnji student koristio uslugu Gemini kao alat za pomoć pri pisanju seminarskog rada za fakultet. Tema zadatka se odnosila se na starenje odraslih osoba kao i društvene izazove koji prate taj proces, a komunikacija sa uslugom veštačke inteligencije je u početku bila uobičajena, sa neutralnom odgovorima.

Ipak, za sada bez jasnog razloga, AI usluga je u jednom trenutku generisala dugačak i krajnje uznemirujući odgovor u kojem je korisnika nazvala "bezvrednim", kao i "teretom za ljudsko društvo i planetu", da bi poruku završio direktnim pozivom na smrt korisnika.

Student je kasnije izjavio da je bio šokiran i uplašen, posebno zato što poruka nije bila povezana sa postavljenim pitanjem niti je imala smisla u kontekstu razgovora. Njegova sestra, koja je takođe bila prisutna tokom korišćenja Gemini chata, potvrdila je da je AI reakcija bila iskrena i spontana, a ne rezultat provokacije ili neprimerenog unosa.

Nakon što je ovaj slučaj dospeo u javnost, američki mediji su došli i do transkripta samog originalnog razgovora, a sama kompanija Google je priznala da je odgovor autentičan i ocenila ga kao kršenje internih pravila i bezbednosnih smernica.

U saopštenju kompanije navedeno je da se radi o nenamernoj grešci LLM modela, odnosno o retkom primeru generisanja sadržaja koji ne odražava programske smernice, niti dizajn sistema. Google je takođe istakao i da je odmah preduzeo dodatne mere kako bi se smanjila mogućnost ponavljanja sličnih situacija, uključujući unapređenje filtera za bezbednost korisnika i dodatno testiranje LLM modela u realnim uslovima.

Incident je registrovan i u nezavisnim bazama podataka koje prate probleme i rizike povezane sa veštačkom inteligencijom i različitim AI uslugama, gde je svrstan u kategoriju izlaganja korisnika "toksičnom sadržaju". Tehnološko stručnjaci upozoravaju da ovakvi slučajevi, iako retki, mogu u budućnosti imati ozbiljne posledice, posebno po mentalno zdravlje većeg korisnika.

Oni ističu i da generativni LLM sistemi i dalje imaju svoja ograničenja, te da potpuna kontrola nad svim mogućim odgovorima veštačke inteligencije još uvek ne postoji. Istovremeno, slučaj sa Gemini AI uslugom ponovo je pokrenuo i raspravu o odgovornosti tehnoloških kompanija i potrebi za jasnijim pravilima i nadzorom nad upotrebom veštačke inteligencije.

Iako iz Google poručuju da je reč o izolovanom incidentu, slučaj pokazuje da i najnapredniji AI sistemi mogu da zakažu, što potvrđuje potrebu za njihovim stalnim unapređenje, kao i usvajanje novih bezbednosnih mehanizama, te opreznim korišćenjem AI tehnologija koje još uvek nisu dovoljno testirane u svakodnevnom životu.

Preuzmite Newsmax Balkans aplikaciju:

Komentari (0)