Stručnjaci upozoravaju: ChatGPT možda nije sasvim siguran za korištenje

Emiliano Vittoriosi/Unsplash

Tvrtka Open AI predstavila je najnoviju verziju svog popularnog AI modela, Chat GPT v5, za koji tvrdi da ima 45 posto manje pogrešaka u odgovoru i da je daleko lakši za korištenje.

Međutim, stručnjaci za kibernetičku sigurnost već dugo upozoravaju da korištenje brojnih modela umjetne inteligencije možda nije toliko anonimno i sigurno kao što se prije vjerovalo.

Na nedavno održanoj konferenciji o kibernetičkoj sigurnosti ‘Black Hat 2025’, izraelska tvrtka za kibernetičku sigurnost ‘Zenity’ predstavila je ozbiljnu ranjivost u popularnim AI platformama i modelima, uključujući ChatGPT, Microsoftov ‘Copilot’, kao i Salesforceov ‘Einstein’. Riječ je o takozvanom napadu “zero-click”, što znači da za uspješan napad nije potrebna interakcija korisnika ili ‘phishing’ – dovoljna je samo njihova e-pošta.

Ova vrsta hakiranja i kibernetičkog napada izuzetno je opasna u praksi, jer napadaču omogućuje potpunu kontrolu nad ciljanim korisničkim računom.

Nakon što hakeri dobiju pristup računu, mogu vidjeti sve prethodne i buduće razgovore koje korisnik vodi s Ai uslugom. Također, ako je račun povezan s drugim online uslugama, poput Google Drivea, hakeri mogu pristupiti i tim podacima.

Ovaj pristup može se koristiti za manipuliranje korisničkim računom, na primjer tako da AI daje zlonamjerne savjete ili preusmjerava korisnika na zlonamjerni softver i internetske poveznice.

Više pročitajte OVDJE.

RSS