Imamo sve više AI agenata. No je li ih moguće stvarno nadzirati?

AI agent
Pixabay

Umjetna inteligencija postala je dio svakodnevice, no mnogi nisu svjesni rizika koje nosi njezino nepromišljeno korištenje. U najnovijem izvješću Cyber Pulse koje prenosi Zimo, Microsoft upozorava na jedan od najozbiljnijih izazova za kompanije – sve češću upotrebu AI agenata koje nije moguće adekvatno nadzirati.

Izrada AI agenata više nije ograničena na IT odjele. Zaposlenici u različitim sektorima danas sami stvaraju i koriste agente putem low-code i no-code alata. Prema Microsoftu, više od 80% kompanija s liste Fortune 500 koristi aktivne AI agente izrađene na taj način. Kako njihova primjena raste, tvrtke moraju uspostaviti temeljne kontrole upravljanja.

Globalno gledano, Europa, Bliski istok i Afrika čine 42% aktivnih AI agenata, SAD 29%, Azija 19%, a ostatak Amerika 10%. Najveći rast bilježi se u visoko reguliranim i operativno složenim sektorima. Nakon razvoja softvera i tehnologije (16%), slijede proizvodnja (13%), financijske usluge (11%) i maloprodaja (9%). AI agenti u tim industrijama koriste se za izradu prijedloga, analizu financijskih podataka, sigurnosnu trijažu, automatizaciju ponavljajućih procesa i brzu obradu velikih količina informacija.

Microsoft upozorava da brza implementacija može nadmašiti postojeće sigurnosne mehanizme i dovesti do pojave tzv. shadow AI-a. Agenti s prevelikim ovlastima ili pogrešnim ulaznim podacima mogu biti zloupotrijebljeni i postati sigurnosna prijetnja. Već 29% zaposlenika koristi neodobrene AI agente u obavljanju posla.

U Hrvatskoj i regiji AI agenti sve češće postaju dio svakodnevnih poslovnih operacija. No bez jasnih pravila, nadzora i odgovornosti mogu predstavljati ozbiljan rizik. Organizacije koje primjenjuju Zero Trust principe, osiguraju potpunu vidljivost i centralizirano upravljanje AI agentima bit će sigurnije i konkurentnije, ističe Tomislav Vračić, regionalni direktor za tehnologiju u Microsoftu.

Prema Microsoftovu Data Security Indexu, samo 47% organizacija uvodi posebne sigurnosne kontrole za generativnu umjetnu inteligenciju. Upravljanje AI-em, poručuju iz Microsofta, ne može biti isključivo odgovornost IT-a ili sigurnosnih stručnjaka. To je zajednička odgovornost uprava, pravnih službi, HR-a i poslovnog vodstva. Tvrtke koje AI rizik tretiraju kao ključni poslovni rizik – uz financijski i regulatorni – mogu istodobno ubrzati inovacije i zadržati sigurnost.

RSS