Ovaj "tehno incident" se dogodio saveznoj državi Mičigen, kada je 29-godišnji student koristio uslugu Gemini kao alat za pomoć pri pisanju seminarskog rada za fakultet. Tema zadatka se odnosila se na starenje odraslih osoba kao i društvene izazove koji prate taj proces, a komunikacija sa uslugom veštačke inteligencije je u početku bila uobičajena, sa neutralnom odgovorima.
Ipak, za sada bez jasnog razloga, AI usluga je u jednom trenutku generisala dugačak i krajnje uznemirujući odgovor u kojem je korisnika nazvala "bezvrednim", kao i "teretom za ljudsko društvo i planetu", da bi poruku završio direktnim pozivom na smrt korisnika.
Student je kasnije izjavio da je bio šokiran i uplašen, posebno zato što poruka nije bila povezana sa postavljenim pitanjem niti je imala smisla u kontekstu razgovora. Njegova sestra, koja je takođe bila prisutna tokom korišćenja Gemini chata, potvrdila je da je AI reakcija bila iskrena i spontana, a ne rezultat provokacije ili neprimerenog unosa.
Nakon što je ovaj slučaj dospeo u javnost, američki mediji su došli i do transkripta samog originalnog razgovora, a sama kompanija Google je priznala da je odgovor autentičan i ocenila ga kao kršenje internih pravila i bezbednosnih smernica.
U saopštenju kompanije navedeno je da se radi o nenamernoj grešci LLM modela, odnosno o retkom primeru generisanja sadržaja koji ne odražava programske smernice, niti dizajn sistema. Google je takođe istakao i da je odmah preduzeo dodatne mere kako bi se smanjila mogućnost ponavljanja sličnih situacija, uključujući unapređenje filtera za bezbednost korisnika i dodatno testiranje LLM modela u realnim uslovima.
Incident je registrovan i u nezavisnim bazama podataka koje prate probleme i rizike povezane sa veštačkom inteligencijom i različitim AI uslugama, gde je svrstan u kategoriju izlaganja korisnika "toksičnom sadržaju". Tehnološko stručnjaci upozoravaju da ovakvi slučajevi, iako retki, mogu u budućnosti imati ozbiljne posledice, posebno po mentalno zdravlje većeg korisnika.
Oni ističu i da generativni LLM sistemi i dalje imaju svoja ograničenja, te da potpuna kontrola nad svim mogućim odgovorima veštačke inteligencije još uvek ne postoji. Istovremeno, slučaj sa Gemini AI uslugom ponovo je pokrenuo i raspravu o odgovornosti tehnoloških kompanija i potrebi za jasnijim pravilima i nadzorom nad upotrebom veštačke inteligencije.
Iako iz Google poručuju da je reč o izolovanom incidentu, slučaj pokazuje da i najnapredniji AI sistemi mogu da zakažu, što potvrđuje potrebu za njihovim stalnim unapređenje, kao i usvajanje novih bezbednosnih mehanizama, te opreznim korišćenjem AI tehnologija koje još uvek nisu dovoljno testirane u svakodnevnom životu.
Preuzmite Newsmax Balkans aplikaciju:
Pratite nas na društvenim mrežama:
Komentari (0)