Iz Googlea tvrde da nema nikakvih propusta
Gemini, AI sistem kompanije Google, suočava se sa ozbiljnim kritikama zbog ranjivosti poznate kao "ASCII smuggling" napad. Bezbednosni istraživač Viktor Markopulos otkrio je da napad funkcioniše pomoću nevidljivih znakova u tekstu koje ljudi ne vide, ali koje AI tumači kao komande.
Ovi skriveni kontrolni znakovi i Unicode simboli mogu promeniti ponašanje modela, navodeći ga da pogrešno protumači podatke, generiše netačne informacije ili promeni sadržaj poruke – čak i u naizgled bezopasnom tekstu poput e-pošte ili poziva na sastanak. Markopulosovi testovi su pokazali da je Gemini mogao da izmeni detalje sastanka ili napiše pogrešan sažetak na osnovu znakova koje čovek ne primećuje.
Google tvrdi da nije tehnički problem
Kada je ista tehnika testirana, konkurentski AI sistemi kao što su ChatGPT, Claude i Copilot, uspešno su prepoznali i odbili skrivene karaktere. Gemini, zajedno sa Grokom i DeepSeek-om, nije uspeo da ih blokira.
U odgovoru na prijavu, Google je izjavio da se ne radi o tehničkoj ranjivosti, već o obliku "socijalnog inženjeringa", odnosno situaciji u kojoj je korisnik obmanut. Kompanija smatra da model nije "slomljen", već da se problem odnosi na način na koji ljudi reaguju na sadržaj.
Ipak, stručnjaci upozoravaju da integracija Geminija sa mejlovima, kalendarima i dokumentima znači da model može nenamerno otkriti poverljive informacije ili pomoći u širenju dezinformacija. Odluka Googlea da ignoriše ovaj propust, uprkos ispravljanju drugih sigurnosnih problema, izaziva zabrinutost, jer rizik prebacuje na korisnike.
Ostavi komentar