Amennyire szórakoztatóak lehetnek a deepfake-videók, legalább annyira veszélyesek. A fejlődő algoritmusoknak köszönhetően ma már egyre nehezebb megmondani, hogy a valóságot látja-e az ember, vagy egy számítógéppel összeügyeskedett videót. Mindez az álhírek terjedésének újabb melegágya lehet, hiszen honnan tudná az ember, hogy nem épp az amerikai elnök, hanem egy algoritmus beszél hozzá.
Tisztában van ezzel a veszéllyel a Facebook is, ezért az amerikai Michigani Egyetemmel közösen most egy új módszert mutatott be, amely nemcsak segíti detektálni a deepfake-videókat, de vissza is fejti azok eredetét. Bár a megoldás nem csúcstechnológia, az algoritmus azoknak az egyedi mintáknak a feltárásán fáradozik, amelyekre a mesterséges intelligencia támaszkodik a hamis kép megalkotása során.
Hogy ez mit jelent? A gyakorlatban azt, hogy bár az eddigi megoldások képesek voltak felismerni, hogy mely ismert algoritmus készített egy-egy deepfake-videót, azokat, amelyeket korábban nem mutattak meg a rendszernek, nem tudták detektálni. A Facebook és az egyetem által közösen fejlesztett szoftver viszont az egyedi mintázatok keresésével az eddig nem ismert algoritmusokat is felismeri. Ezek a hiperparaméterek ugyanis „egyedi ujjlenyomatot” hagynak a meghamisított képen, amit viszont fel lehet használni a forrás azonosításához.
Mindez azért rendkívül fontos előrelépés, mert a deepfake-videók készítéséhez használt algoritmusok könnyen átalakíthatók, így pedig nagyon nehéz azt felderíteni, hogy honnan származik a hamisítvány.
Tal Hassner, a Facebook kutatója a The Verge-nek azt mondta, ha valaki több platformra is feltölti a deepfake-videókat, akkor a mostani modellel meg tudják mondani, hogy mindegyik ugyanabból a forrásból származik. Ha pedig megvan a forrás, az elvezethet a tetteshez is. Hassner szerint mindez olyan, mint amikor a rendőrség a képek elemzésével tudja megmondani, hogy melyik képet melyik fényképezőgéppel készítették.
A szakember ugyanakkor figyelmeztet, hogy még a mostani sem tökéletes megoldás, a deepfake-tartalmak detektálása továbbra is komoly kihívást jelent. Ennek oka, hogy a technológia rendkívül gyorsan fejlődik, amit a különböző szoftverek egyelőre nem tudnak lekövetni, így folyamatos lemaradásban vannak a deepfake-technológia mögött.
Forrás: HVG