Egyre több cég alkalmazza a mesterséges intelligenciát, de kevesen mondhatják el, hogy tisztában vannak azzal, hogy milyen hazai és nemzetközi, pénzügyi, felügyeleti és adatvédelmi szabályokat szükséges betartaniuk és hogyan alakíthatnak ki egy biztonságos, felkészült környezetet egy AI projekt megvalósulásakor.
Ezekre a kérdésekre is választ adott Nagy Ádám Péter, a K&H információbiztonsági igazgatója az IT Festen, ahol az ország egyetlen hangalapú digitális asszisztense, Kate megalkotása és működtetése példáján keresztül nyújtott támpontokat.
A mesterséges intelligencia, ezen belül is főként a ChatGPT által berobbant generatív AI használatáról már minden fórumon rengeteget lehet hallani és olvasni, mondhatni már majdnem mindenki ért hozzá. Más azonban a helyzet, ha egy olyan AI funkció, mint Kate, az ország egyetlen hangalapú digitális asszisztensének biztonsági környezetét kell megteremteni. A K&H saját, belső fejlesztéseként megvalósuló Kate ugyanis már több mint 200 élethelyzetben tud gördülékenyen kommunikálni és segítséget nyújtani a pénzügyek intézésekor. Eddig 570 ezer K&H lakossági és kkv ügyfél került vele kapcsolatba, 220 ezer beszélgetést kezdeményeztek, és az ügyfelek 10 százaléka már havi rendszerességgel használja.
„Kate nem egy alkalmazás vagy egy chatbot, hanem egy E2E digitális segítőtárs, ami azt jelenti, hogy a teljes ügyféligényt, azaz a kommunikációt és tranzakciót is megvalósítja. Ráadásul mindez kontrolláltan, biztonságosan történik, ugyanis minden információ, adat, amit az ügyfelek Kate-tel megosztanak, a bankon belül marad – szemben például az általánosságban használt generatív AI platformokkal, ahol a betáplált adatok egy publikus felhőben tárolódnak. Tehát a fejlesztés, a tesztelés és a működtetés is bankon belül történik”
– mondta el Nagy Ádám Péter, a K&H információbiztonsági igazgatója. Az IT Fest technológiai rendezvényen ezért a magyar nyelvi modellen alapuló AI létrehozásán és működtetésén keresztül három fő kockázati pontot és javaslatot mutatott be a szakember, kitérve arra, hogy hogyan lehet egy olyan projektet megvalósítani, ami figyelembe veszi a legfontosabb biztonsági szempontokat – ráadásul nagyvállalati környezetben.
A szervezet rugalmassága legalább olyan fontos, mint maga a technológia
Ahhoz, hogy egy olyan AI projekt, mint a Kate megvalósuljon, a klasszikus nagyvállalati folyamatokat és a bankon belül működő fejlesztői csapat munkáját össze kellett hangolni, ami komoly rugalmasságot igényelt. „A K&H IT csapata leginkább egy alkotó műhelyre hasonlít, ahol olyan területeken lehet fejlődni és izgalmas projektekben részt venni, mint az AI vagy a robotika. Kezdetben azt gondoltuk, hogy a sok éve gördülékenyen működő kontrollokhoz, egységesített eljárásokhoz fog illeszkedni a fejlesztés. Hamar rájöttünk azonban arra, hogy ehhez a kreatív munkához a bankon belül működő IT alkotói műhelyt is rugalmasan kell kezelni, ami kiterjedt a folyamatokra és a hardverek használatára egyaránt. A másik oldalon, a fejlesztők részéről szintén szükség volt rugalmasságra és pontosságra, hogy minden megfelelően dokumentált és nyomon követhető legyen” – mutatta be a szakember, hogyan hangolhatók össze a bevált folyamatok és a kreatív, agilis munkavégzés.
Etikai problémák és adatvédelem
Az AI projektek másik kritikus pontja az adatok védelme: ki, mit, hol és hogyan tárol. „Esetünkben az AI-ra vonatkozó használati megkötések mellett minden hazai és nemzetközi banki elvárást és adatvédelmi előírást figyelembe kellett venni. Ehhez egyrészt a projektben részt vevők egy külön kiválasztási folyamaton mentek keresztül, másrészt a fejlesztés bizonyos fázisainál olyan ellenőrzések történtek, kontrollpontok lettek beépítve, amelyek többek között például kiszűrik a szabályoknak nem megfelelő kódrészeket” – tájékoztatott a szakember.
Hallucináció tesztelése
Az AI alkalmazásának sikerességét befolyásoló harmadik kulcstényező a hallucináció, vagyis a téves vagy félrevezető eredmények tesztelése és kizárása, amit nem szabad megspórolni. Sőt, a magyar nyelv sajátosságai miatt ez a lépés még inkább kiemelten fontos. „Kate esetében, mivel nem nagy nyelvi modellel dolgozik (LLM, Large language model), a tesztelés és tanítás arra szolgált, hogy jobban felismerje az AI modell, hogy mi az ügyfél szándéka, és annak megfelelően adja vissza az előre definiált válaszokat” – mondta el Nagy Ádám Péter.
További friss híreket talál az IoTmagazin főoldalán! Csatlakozzon hozzánk a Facebookon is!