Hogyan lehet etikus és versenyképes az AI használata a hitelkockázat-elemzésben?

Nem vállal nagy kockázatot, aki azt jósolja, hogy a mesterséges intelligencia (AI) jelentősen át fogja formálni a pénzügyi intézmények működését világszerte. Az AI különböző formái – mint a mélytanulás, a gépi automatizáció vagy a generatív AI – olyan lehetőségeket rejtenek a kockázatelemzés, hitelezés, ügyfélkiszolgálás, kiberbiztonság és tranzakció-lebonyolítás területein, amiket vétek lenne kihagyni. Ugyanakkor a technológia alkalmazása kockázatokkal is jár, amelyek megfelelő szabályozást és felelős felhasználást igényelnek.
Christoph Anders a KPMG Németország menedzsere elmondta: a hiteligénylésben már most jónéhány ponton lehet képes az AI kisegíteni a folyamatot; a hitelért folyamodóval való kapcsolattartás a kezdeti szakaszban nyelvi modellek segítségével, gépi tanulással tökéletesítve folytatható le, ezt egészíti ki a csak papíron vagy szkennelve rendelkezésre álló dokumentumok feldolgozása, szimpla robotizációval.
A bekért adatok hitelképességi szempontok szerinti vizsgálata ugyancsak automatizálható, idővel pedig sok hasonló esetből már mélytanulással további tanulságok vonhatók le, így a jövőbeni hiteligénylések felgyorsíthatók. A hiánypótlásban, illetve a folyósításig elvárt teendők sorában ugyancsak számos ponton automatizálható az ügyféltájékoztatás.
Az alapján, hogy melyik szervezet hol tart ezen eszközök használatában, három kategóriába sorolhatók a pénzügyi szektor vállalkozásai. Az első csoportba tartoznak azok a „vonakodó” szervezetek, amelyek még mindig szkeptikusak a technológiával kapcsolatban, nem rendelkeznek konkrét felhasználási példákkal, és hiányzik még náluk az AI biztonságos használatára vonatkozó stratégia.
Ezzel szemben a műfaj „előfutárai” már rendelkeznek működő technológiai platformmal, folyamatosan fejlesztik AI stratégiájukat és irányítási struktúrájukat, valamint biztosítják, hogy a generatív AI használata biztonságos módon történjen, például az adatok bankon belül tartásával. A középső szintet a „normakövetőnek” tekinthető vállalatok alkotják, ahol az AI alkalmazása elindult, de sokszor még rendezetlenül terjed, és a biztonsági korlátok hiánya kihívásokat jelent.
Az AI hatékony alkalmazásához az ilyen szervezeteknek egyértelmű technológiai platformot kell kialakítaniuk, és jellemzően legalább a pénzügyi tervezési tevékenységeknél használják már a biztonságos generatív AI alkalmazásokat.
Óvatosan a kísérletezéssel
Mi van azonban akkor, ha a hitelbírálat szempontjából vonzó, de nem az ügyféltől származó, közvetettadatok feldolgozására nyílik lehetőség? Az egészségügyi információktól a közösségi médiás bejegyzésekig ma már mindenből levonható valamilyen tanulság az ügyfél hitelképességével kapcsolatban.
De nem kell feltétlen ennyire távoli összefüggéseket keresni: mi történik akkor, ha a havi bankszámlakivonatokon túl a hitelkártya-tranzakciókat is górcső alá lenne képes venni a mesterséges intelligencia, feleslegesen stigmatizálva a könnyelműen költekező ügyfeleket. Ígéretes lehet kihasználni az AI ilyen irányú képességeit, de ennek használata jelentős kockázatokkal is jár, figyelmeztetett Christoph Anders: "hibás döntések, szabálytalan adatkezelés, szellemi jogokkal való visszaélés, végzetes elfogultsághoz vezető elemzési algoritmus, reputációs kockázat, tömeges ügyfél elvándorlás.”
A törvény egyszerre véd és támogat
Az Európai Unió új AI szabályozása éppen azt hivatott elérni, hogy az innovációk bevezetése során elkerüljék a vállalatok a zsákutcákat. A 2024 augusztusában életbe lépett EU AI Act egyik központi eleme a mesterséges intelligencia kockázati osztályainak meghatározása. Az AI rendszerek kockázati szintje határozza meg az azokkal kapcsolatos követelményeket és kötelezettségeket, amelyek a minimális globális elvárásként meghatározott AI-ismeretektől kezdve egyre szigorúbbak lesznek a magasabb kockázati kategóriák esetében. A komolyabb kockázatokhoz AI-ellenőröket lesz hivatott delegálni a felelős vállalkozás, legkésőbb 2026 végéig.
A tiltott (elfogadhatatlan) kockázatot jelentő AI rendszerek alkalmazása teljes mértékben tilos lesz az Európai Unióban. Ide tartozik az emberi viselkedés manipulálása, az emberek társadalmi viselkedése vagy személyes jellemzői alapján történő hátrányos megítélése, a nyilvános helyeken történő valós idejű biometrikus azonosítás (néhány szűk kivételtől eltekintve, például terrorizmusellenes intézkedések), valamint a társadalmi pontozás és az ehhez kapcsolódó biometrikus azonosító rendszerek.
A magas kockázatú AI rendszerek esetében szigorú szabályozás és különleges kötelezettségek érvényesek. Ide tartoznak a kritikus infrastruktúrák, az oktatás és képzés (például vizsgák, felvételi eljárások), a foglalkoztatás és humánerőforrás-kezelés (például munkaerő-felvétel, előléptetés, elbocsátás során alkalmazott AI), az alapvető köz- és magánszolgáltatások adataihoz való hozzáférés (például a fentebb említett hitelképesség megítélés vagy biztosítási tarifálás egészségügyi alapon, sürgősségi és mentési szolgáltatások használata), a bűnüldözés, a migrációs és határellenőrzési intézkedések, az igazságszolgáltatás és demokratikus folyamatok működése.
A korlátozott kockázatú rendszerek esetében az átláthatóság, a megfelelő tájékozottság biztosítása az elsődleges követelmény. Ilyenek például a chatbotok és a deepfake technológiák, amelyek esetében az embereknek tisztában kell lenniük azzal, hogy AI-val kommunikálnak vagy mesterségesen generált tartalmat látnak. A minimális kockázatot jelentő rendszerekre nem vonatkoznak különösebb kötelezettségek, azon túl, hogy az AI használóinak alapvető ismeretekkel kell rendelkezniük az AI működéséről. Ebbe a kategóriába tartoznak például a mesterséges intelligenciával működő videojátékok vagy a fejlettebb spam szűrők. A szakértők rámutattak, hogy a törvény egyelőre erősebben fókuszál arra, hogy megértesse a felhasználóval az AI működését, de hosszabb távon inkább az lenne a cél, hogy az AI használat kockázatait tudatosítsa az ügyfelekben.
A vállalatoknak világos AI-stratégiát kell kialakítaniuk, és kérésre bemutatniuk. Kell, hogy tartalmazza a modellek validációját, az etikai szempontok figyelembevételét és az átláthatóság biztosítását. „Ha te cégként használsz AI-t, akkor kell egy olyan AI definíció, ami elfogadható a cégednek, legyen konzekvens, és tudd bizonyítani, hogy fair vagy, és szabályos” – hangsúlyozta Christoph Anders.
Merjünk-e még fejleszteni?
Felmerül a kérdés, hogy a törvény ismeretében van-e még terepe az AI-fejlesztéseknek. A KPMG saját és vendég szakértői egyértelműen az innováció mellett teszik le voksukat. Diófási Zoltán, a KPMG vezető tanácsadója szerint az AI bevezetése egy céghez olyan, mint bármely más informatikai beruházás: „működő, megfelelően előkészített fejlesztés, dokumentálás és tesztelés kell hozzá". Különösen javasolt a "mission critical" megközelítés, azaz kicsiben kezdeni, egy jól definiált feladatra fókuszálva.
Ignácz Péter, a KPMG szenior menedzsere szerint a cégeknek először azt kell megvizsgálniuk, hogy a fejlesztésre kinézett feladat hagyományos úton nem lenne-e hatékonyabb, feltétlenül kell-e hozzá az AI. „Sok fejlesztés nem éri el a kitűzött célt, mert az adat nem megfelelő, vagy az üzleti és fejlesztési területek nem működnek jól együtt” – mondta. Ezért az AI bevezetése előtt alapos tervezésre és validációra van szükség.
Jelenlegi alkalmazási területek
A bankok már széles körben használják az AI-t különféle pénzügyi és biztonsági célokra. Az egyik legfontosabb terület a csalásmegelőzés, ahol az AI jelentősen csökkenti a hamis riasztásokat, miközben hatékonyabban képes azonosítani a gyanús tevékenységeket. Az olyan megoldások, mint a mélytanulás és a szabályalapú rendszerek kombinációja, hatékonyabbá teszik a pénzmosás elleni küzdelmet és az ügyfélazonosítást. Az ügyfélkommunikáció területén a természetes nyelvfeldolgozás alapú chatbotok egyre nagyobb szerepet kapnak, lehetővé téve a gyakran ismétlődő kérdések automatikus megválaszolását, műszaki információk nyújtását vagy akár pénzügyi tanácsadást is.
A kiberbiztonsági megfigyelés szintén fontos alkalmazási terület, ahol az AI segít csökkenteni a téves riasztásokat és hatékonyabban felismerni a támadásokat. Az algoritmikus kereskedésben az AI a piaci adatok elemzésére, mintázatok felismerésére, kereskedési stratégiák optimalizálására és ügyletek lebonyolítására szolgál, ami jelentős versenyelőnyt biztosíthat a pénzintézetek számára.
Bár az AI már számos területen bizonyított, több alkalmazási lehetőség még bevezetésre vár. A hitelkockázat-elemzésben az AI felhasználható nyilvános és banki adatbázisok, valamint korábbi fizetési előzmények, közüzemi és telekommunikációs számlák alapján hitelképességi pontszámok meghatározására. A kockázat menedzsment és hitelbírálat sokkal inkább adat- és információ feldolgozási jellegű tevékenység, mint gondolnánk, ezért az AI-nak bizony sok esélye van, hogy ott előretör. Ha a gép precíz és alapos előkészítést csinál, akkor a felelős munkavállaló a felelősségének is jobban meg fog tudni felelni. Ehhez azonban le kell bontani a silókat a biztonsági és kockázatkezelési részleg között, így segítve egymást.
A szövegfeldolgozás automatizálása segíthet a szerződések összehasonlításában, a hiteljóváhagyások és szerződések összhangjának ellenőrzésében, valamint a jogszabályok és banki kockázati politikák összevetésében. Az okmánykezelés területén az optikai karakterfelismerés (OCR), a nagy nyelvi modellek (LLM), a számítógépes képfeldolgozás és a generatív AI használata megkönnyítheti a dokumentumok feldolgozását.
Összességében az AI hosszú távon jelentős versenyelőnyt biztosíthat a pénzügyi szektor szereplőinek, amennyiben megfelelő módon integrálják a működésükbe. Az alkalmazásának sikere azon múlik, hogy a pénzügyi intézmények képesek-e egyensúlyt teremteni az innováció és a kockázatkezelés között. Azok az intézmények, amelyek hatékonyan alkalmazzák az AI-t, nemcsak versenyelőnyre tesznek szert, hanem hozzájárulnak a pénzügyi rendszer stabilitásához és ügyfeleik bizalmának erősítéséhez is.