Szegedi kutatók eredményei a biztonságos és értelmezhető mesterséges intelligencia területén
A szövegek jelentésének reprezentálására használható modellek fontos szerepet töltenek be a mesterséges intelligenciában. A szegedi kutatók által kidolgozott algoritmusok segítségével olyan, az emberi kogníció sajátosságait jobban hordozó, ebből adódóan jobban interpretálható, és kisebb erőforrásigényű jelentésreprezentációkat sikerült megalkotni, amelyek jobb minőségű és egyúttal hatékonyabb alkalmazásokat tesznek lehetővé. Az egyes szavak jelentését a javasolt módszer teljesen automatikusan felbontja elemi jelentéskomponensek egy kombinációjára, pl. banán: gyümölcs, sárga, görbe. A kutatók többnyelvű modelleket is javasoltak, ahol drágán előállítható, jelölt tanítóadatokat mindössze egy nyelvből kell biztosítani. Mindez komoly gyakorlati előnyöket jelent a nyelvi erőforrásokban szegény nyelvek feldolgozása során, mivel a nagy nyelvek számára drágán létrehozott módszerek olcsón átvihetők bármely másik nyelvre.
A mesterséges intelligencia módszerek biztonsága területén egy fontos probléma, hogy mesterséges intelligencia rendszerek könnyen félrevezethetők a bemenő adatok nagyon pici, de speciálisan megtervezett, rosszindulatú módosításával. Például, képfelismerő algoritmusok kutyának érzékelhetnek egy így módosított, pl. iskolabuszt ábrázoló képet. Szegedi kutatók megmutatták, hogy ez a probléma egy sokkal súlyosabb értelemben is fennáll, azaz egy kép módosítható úgy, hogy ugyanazt a képet algoritmusok egy csoportja előre megadott dolognak ismerjen fel, azaz pl. egy iskolabuszt az egyik algoritmus kutyának látja, a másik macskának, a harmadik repülőnek, stb. Szerencsére léteznek matematikai módszerek, amikkel a mesterséges neuronhálók ilyen sérülékenységét vizsgálni lehet. Azonban a kutatók bemutattak egy olyan támadást is, amelynek lényege, hogy a támadó egy olyan mesterséges neuronhálózatot készít, amely az ellenőrzésre használt matematikai módszer szerint rendben van, a valóságban azonban továbbra is sérülékeny. Ehhez magának az ellenőrző módszernek egy sérülékenységét kell kihasználni.
Végül, de nem utolsósorban, a konzorcium által fejlesztett orvosi sebklasszifikációs eljárás kifejlesztésében is jelentős szerepet vállaltak a szegedi kutatók. Az eljárás során egy, akár orvosilag képzetlen személy, számos fényképet készít egy felfekvési sebről, amelyből először 3D reprezentáció készül, majd ezt egy mesterséges neuronháló dolgozza fel, megállapítva, hogy milyen jellegű sebről van szó. A szegedi hozzájárulás a mesterséges neuronhálók betanítása volt.
A kutatók eredményeiket a terület legkiemelkedőbb, rangos nemzetközi fórumain is publikálták, mint amilyenek az AAAI (Association for the Advancement of Artificial Intelligence), ICLR (International Conference on Learning Representations) és EMNLP (Empirical Methods in Natural Language Processing) konferenciák:
- Dániel Zombori, Balázs Bánhelyi, Tibor Csendes, István Megyeri, Márk Jelasity: Fooling a Complete Neural Network Verifier. ICLR 2021
-Vanda Balogh, Gábor Berend, Dimitrios I. Diochnos, György Turán: Understanding the Semantic Content of Sparse Word Embeddings Using a Commonsense Knowledge Base. AAAI 2020: 7399-7406
- Gábor Berend: Sparsity Makes Sense: Word Sense Disambiguation Using Sparse Contextualized Word Representations. EMNLP (1) 2020: 8498-8508
- Gábor Berend: Massively Multilingual Sparse Word Representations. ICLR 2020
A Szegedi Tudományegyetem, a Rényi Alfréd Matematikai Kutatóintézet konzorciumvezetésével, az Eötvös Loránd Tudományegyetem, a Számítástechnikai és Automatizálási Kutatóintézet és a Pázmány Péter Katolikus Egyetemmel szoros együttműködésben a Nemzeti Kiválósági Program 2018-1.2.1-NKPpályázati konstrukcióján a Támogató 2018. május 28-i döntése értelmében nyert el 990 274 516 Ft támogatást a „A mesterséges intelligencia matematikai alapjai” című pályázat megvalósítására. A projekt az NKFI Alapból 100 százalékos vissza nem térítendő támogatásból valósult meg 2018. szeptember 1. és 2021. szeptember 1. között.