Szórakozás

Deepfake-technológia veszélyei

Deepfake-technológia veszélyei

A deepfake-technológia az elmúlt években olyan felismerhetetlenné és kifinomulttá vált, hogy segítségével akár teljes győzelmet is lehet aratni a valóság felett.

A valóságtorzítás napjainkban nem csak az orosz-ukrán háború miatt, hanem a biztonságos internethasználat szempontokból is kiemelkedően fontos. Egy 2019-es kutatás során 19 000 online elérhető deepfake-videót találtak, ez a szám azóta valószínűleg megsokszorozódott.

A technológia már bárki számára elérhető

A deepfake-technológia viszonylag új jelenség, magát a kifejezést 2017-ben egy Reddit-felhasználó találta ki, és a deep learning (mélytanulás) meg a fake (hamisítás, manipuláció) szavakból ered. A gyakorlatban ez azt jelenti, hogy a mesterséges intelligencia segítségével olyan tartalmakat hoznak létre, amelyekben az eredeti szereplőket egy másik személy képmásával és hangjával helyettesítik. Itt nem egyszerűen egy Snapchat vagy Instagram által használt és felettébb népszerű arccserefunkcióról van szó, ugyanis a deepfake hatékonysága jócskán felülmúlja még a legjobb photoshop-applikációét is. A technológia szinte tökéletesen leképezi az ember arcát és hangját, amit korlátlanul lehet manipulálni, ahogy csak szeretnénk. Guld Ádám szerint néhány év alatt annyit tökéletesedett a deepfake videók dinamikája, vizuális megjelenése és hatásai, hogy az átlagos felhasználó számára szinte lehetetlen megállapítani, hogy ezek a tartalmak a valóságot ábrázolják, vagy egyszerűen digitális hamisítványokról van szó.

Ráadásul míg korábban csak speciális programokkal tudtak ilyen szintű tartalmakat létrehozni, két-három évvel ezelőtt már megjelentek azok az alkalmazások is, amelyek hatására napjainkra tömegek élnek a technológia adta lehetőséggel. A fejlesztők egyre több, mindössze néhány gigabájt tárhelyet igénylő alkalmazást dobtak piacra, ilyenek például a FakeApp, a DeepFaceLab, a FaceSwap, a MyFakeApp vagy a kínai fejlesztésű Zao.

„A deepfake videók döntő többsége teljesen ártalmatlan, szórakoztató, alig néhány másodperces tartalom, készítőit nem a rossz szándék vezérli. Hetente százezrével készülnek ilyen videók, amelyek mechanizmusa a TikTokhoz hasonlít, és egyetlen céljuk van, hogy ismerőseink és követőink szórakozzanak”

– hívta fel a figyelmet a PTE BTK Kommunikáció- és Médiatudományi Tanszékének docense, aki ugyanakkor azt is elismerte, hogy ezzel a technológiával komoly károkat is lehet okozni. Guld Ádám azt is elmondta, hogy a szórakoztató videók mellett több új műfaj is megjelent, ezek közül a legismertebb az úgynevezett celebrity porn, melyben pornográf tartalmak érhetők el híres emberek arcával. A médiakutató szerint kulturális szempontból elgondolkoztató, hogy a visszaélések több mint 95 százaléka nőkkel kapcsolatos, és elsősorban híres hollywoodi színésznők arcával találkozhatunk pikáns jelenetekben.

Dezinformáció

A dezinformáció, mint olyan, elég régóta a hideg- és forró háborús stratégiák részét képezi, mára pedig, a technológiai fejlettség szintje ezt a módszert is olyan kifinomulttá tette, amellyel gyakorlatilag győzelmet lehet aratni a valóság felett. Ha belegondolunk, hogy hiteles, valós információforrásokat lehet hiteltelenné tenni hatékony dezinformáció segítségével, a deepfake megoldásokkal pedig lehetséges elérni, hogy az információt fogyasztó váljon bizonytalanná. Szerencsére azonban a mesterséges intelligencia nem csak a támadók kezében válik fegyverré, megfelelő kezekben a védekezést éppoly’ hatékonyan segítheti, mint ahogyan rombolja a hitelességet és növeli a bizonytalanságot.

A Microsoft a hónap elején jelentett be széleskörű lépéseket a dezinformáció csökkentéséért, az információfogyasztó közönség tájékoztatásáért, és további partneri kapcsolatokat épít ki a megelőzés és a felhasználói edukáció érdekében. A lépések a Microsoft átfogó, Demokráciavédelmi Programjának (Defending Democracy Program) részeként általánosan veszi fel a harcot a szándékos félretájékoztatással, és az USA-ban idén novemberben aktuális elnökválasztás védelmében is fontos bástyákat jelentenek.

A Microsoft új technológiákkal, és fontos partneri együttműködésekkel kíván küzdeni – nem csak az álhírek ellen, de az újságírói hitelesség megőrzése érdekében is. A bejelentés szerint a mesterséges intelligencia kutatás területén élen járó AI Foundationnel, valamint nemzetközi szinten jegyzett médiaszolgáltatókkal (pl. BBC, CBC, New York Times)

A BBC által bejelentett program – a Trusted News Initiative – keretében az a cél, hogy kivédjék a média hitelességét csorbító sokféle tényezőt. Project Origin néven fut az a kezdeményezés, amelyben MI és deep learning technológia bevonásával a Microsoft Video Authenticator képeket és videókat analizál, és meghatározza, hogy az adott tartalom manipulálva lett-e – majd egy digitális vízjellel látja el, annak megfelelően, hogy megbízható-e.

Ugyan a deepfake-technológia nagyon komoly eszköz a dezinformációs és közvéleménybefolyásolásra alkalmas kiberháborúban, közel sem az egyetlen. A Trusted News Initiative és a Microsoft globális célja az, hogy a legmodernebb technológiát is bevetve harcoljon a hiteles médiumokért, és gátat vessen az álhírek és következményeik terjedésének.

Mit tehetünk ellene?

A deepfake tartalmak rosszindulatú felhasználása miatt még a Magyar Nemzeti Bank is lépni kényszerült. A jegybank megújított pénzmosási rendelete szerint a pénzintézeteknek egy megbízhatóbb „élőségvizsgálat” alá kell vetnie ügyfeleit, és az auditált elektronikus hírközlő rendszernek meg kell állapítania, hogy a távoli helyszínen lévő ügyfél valós, élő személy valós időben, személyesen igazolja magát, és az élőkép semmilyen formában nem manipulált. A mondás szerint tűz ellen tűzzel lehet legjobban harcolni, a deepfake technológia ellen így a mesterséges intelligen­ciát hívták segítségül. Kutatóintézetek, IT-cégek tucatjai dolgoz­tak azon, hogy olyan szoftvert fejlesszenek ki, amely képes felismerni a manipulált tartalmakat.

Microsoft Video Authenticator a gyanús felvétel képkockáit egyesével vizsgálja, és minden egyes mozdulathoz olyan plusztartalmat ad hozzá, amely az ellenőrzésre készített mesterséges intelligenciától kikényszeríti a hibát, és ezek alapján pontozza, mennyire lehet valós a felvétel.

Források: www.innoteka.hu, systemfarmer.hu


További friss híreket talál az IoTmagazin főoldalán! Csatlakozzon hozzánk a Facebookon is!

Friss