Nem csak előnye van a mesterséges intelligenciának, új biztonsági kockázatokra is fel kell készülni
„Már látszanak annak jelei, hogy a technológia fejlődése új kihívások elé állítja a szervezeteket, hiszen a biztonsági incidensek már második éve a legjelentősebb működési kockázatnak számítanak világszerte. Az ezekkel kapcsolatos költségek már 2022-ben sosem látott csúcsra emelkedtek, és a várakozások szerint a következő években többszörösükre ugranak majd” emelte ki Dr. Barta Gergő a Deloitte kibervédelmi osztályának vezető AI szakértője.
Az új biztonsági kockázatok felértékelhetik majd az információbiztonsági vezetők szerepét. Az ő feladatuk, hogy a munkatársakat oktassák, illetve a vezetőket tájékoztassák a legfrissebb kockázatokról és azok lehetséges kezeléséről.
A mesterséges intelligencia egyre szélesebb elterjedése általánosságban több feladat elé állítja a biztonsági szakembereket, derül ki a Deloitte friss tanulmányából:
-Fel kell mérniük, hogy a modellek hogyan kezelik az érzékeny adatokat, és biztosítaniuk kell, hogy azok megfeleljenek az adatvédelmi törvényeknek és előírásoknak.
-A vezetőknek megbízható jogosultság-kezelési folyamatot kell bevezetniük annak biztosítása érdekében, hogy csak az arra jogosult személyek férjenek hozzá a rendszerekhez, modellekhez és az adatokhoz.
-Fontos, hogy a mesterséges intelligencia-modelleket megvédjék a manipulációtól, ezért biztosítaniuk kell az egyes modellek biztonságos tárolását.
-A szervezeteknek megfelelő naplózási képességekkel és monitoring rendszerekkel kell rendelkezniük a biztonsági incidensek észlelése és az azokra való azonnali reagálás érdekében.
-A biztonsági vezetőknek kell irányítaniuk a rendszerekkel kapcsolatos képzést, és fel kell hívniuk az alkalmazottak és az érdekeltek figyelmét a releváns tudnivalókra.
A jövőre gondolva a szervezeteknek azonnal el kell kezdeniük olyan módszerek alkalmazását, mint a személyre vagy adott pozícióra szabott szakmai képzések, online tanfolyamok és tájékoztató workshopok, hogy ily módon is oktassák és képezzék a munkavállalókat a generatív mesterséges intelligencia bevezetésének lehetséges kockázatairól. Emellett érdemes extra lépéseket tenni annak érdekében, hogy az ilyen képzéseket még inkább beágyazzuk a meglévő folyamatokba.
A biztonsági vezetőknek kiemelt prioritásként kell kezelniük a felhasználási irányelvek és kockázatkezelési keretrendszerek létrehozását és napi alkalmazását a harmadik féltől származó MI-megoldások hitelességének értékeléséhez. Továbbá annak tisztázása, hogy mi az elfogadható MI által generált tartalom annak felhasználása során és mi nem az, segíthet minimalizálni további kockázatokat pl. az MI etikus alkalmazásával kapcsolatban.