SG.hu
Megdöbbentően jó deepfake videókat készít a ByteDance új videógenerátora

A TikTok tulajdonosának, a ByteDance-nek a kutatói bemutattak egy új mesterséges intelligencia rendszert, az OmniHuman-1-et, amely talán az eddigi legrealisztikusabb deepfake (mélyhamisított) videókat képes létrehozni.
A deepfake egy árucikk. Nincs hiány olyan alkalmazásokból, amelyek képesek valakit beilleszteni egy fotóba, vagy úgy tenni, mintha valaki olyasmit mondana, amit valójában nem mondott. De a legtöbb deepfake - és különösen a videós deepfake - nem képes átlépni az uncanny valley-t, azaz hogy hátborzongató érzést keltsen az emberben, hogy valami nincs rendben. Általában van valami árulkodó vagy nyilvánvaló jele annak, hogy a mesterséges intelligencia valahol közreműködött. Nem így az OmniHuman-1 esetében - legalábbis a ByteDance csapata által közzétett, válogatott minták alapján. Íme egy fiktív TED-előadás, ami sosem történt meg:
És itt egy hamisított Einstein előadás:
A ByteDance kutatói szerint az OmniHuman-1-nek csak egyetlen referenciaképre és hangra, például beszédre vagy énekhangra van szüksége ahhoz, hogy tetszőleges hosszúságú klipet generáljon. A kimeneti videó képaránya állítható, akárcsak az alany „testaránya” - azaz, hogy a testéből mennyi látszik a hamis felvételen. Az OmniHuman-1 19 000 órányi, nem nyilvános forrásból származó videótartalom alapján képzett, és képes a meglévő videók szerkesztésére is - akár a személy végtagjainak mozgását is módosítva. Igazán megdöbbentő, hogy milyen meggyőző tud lenni az eredmény.
Persze az OmniHuman-1 nem tökéletes. A ByteDance csapata szerint az „alacsony minőségű” referenciaképek nem a legjobb videókat eredményezik, és a rendszer bizonyos pózoknál nehézségekbe ütközik. Figyeljük meg a furcsa mozdulatokat a borospohárral ebben a videóban:
Mégis, az OmniHuman-1 könnyedén felülmúlja a korábbi deepfake-technikákat. Bár a ByteDance nem adta ki a rendszert, a mesterséges intelligencia közösségnek általában nem tart sokáig az ilyen modellek visszafejtése. A következmények aggasztóak lehetnek. Tavaly futótűzként terjedtek világszerte a politikai deepfake-ek. A tajvani választások napján egy, a Kínai Kommunista Párthoz kötődő csoport mesterséges intelligencia által generált, félrevezető hangfelvételt tett közzé, amelyen egy politikus egy Kína-barát jelölt mögé állt. Moldovában deepfake videókon az ország elnökének, Maia Sandunak a lemondását mutatták be. Dél-Afrikában pedig egy olyan deepfake keringett az ország választásait megelőzően, amelyben a rapper Eminem egy dél-afrikai ellenzéki pártot támogatott.
Az OmniHuman számtalan zenei stílust és éneklési formát ismer
A deepfake-eket egyre gyakrabban használják pénzügyi bűncselekmények elkövetésére is. A fogyasztókat csalárd befektetési lehetőségeket kínáló hírességeket ábrázoló deepfake-ekkel verik át, míg a vállalatoktól milliókat csalnak ki deepfake-imitátorok. A Deloitte szerint a mesterséges intelligencia által generált tartalmak 2023-ban több mint 12 milliárd dollárral járultak hozzá a csalási veszteségekhez, és 2027-re elérhetik a 40 milliárd dollárt az Egyesült Államokban.
Tavaly februárban a mesterséges intelligencia közösség több száz tagja írt alá egy nyílt levelet, amelyben szigorú deepfake szabályozást követeltek. Mivel az Egyesült Államokban szövetségi szinten nem született törvény a mélyhamisítás büntethetőségéről, több mint 10 állam hozott törvényt a mesterséges intelligencia által támogatott hamis megszemélyesítés ellen. A kaliforniai törvény - amely jelenleg elakadt - lenne az első, amely felhatalmazná a bírókat arra, hogy a deepfake-ek posztolóit kötelezzék azok eltávolítására, vagy pénzbüntetésre.
Sajnos a mélyhamisításokat nehéz felismerni. Bár egyes közösségi hálózatok és keresőmotorok lépéseket tettek terjedésük korlátozására, a mélyhamisított tartalmak mennyisége továbbra is riasztóan gyorsan növekszik. A Jumio személyazonosság-ellenőrző cég 2024. májusi felmérésében az emberek 60%-a mondta, hogy az elmúlt évben találkozott deepfake-tel. A felmérésben részt vevők 72 százaléka mondta, hogy aggódik amiatt, hogy naponta becsapják őket a deepfake-ek, míg a többség támogatta a mesterséges intelligencia által generált hamisítványok elterjedésével kapcsolatos jogszabályokat.
A ByteDance a YouTube-ra töltötte fel a videóit, melyről folyamatosan törlik azokat. Ha valaki további példákat szeretne látni, a bejelentésnél találja meg azokat.
A deepfake egy árucikk. Nincs hiány olyan alkalmazásokból, amelyek képesek valakit beilleszteni egy fotóba, vagy úgy tenni, mintha valaki olyasmit mondana, amit valójában nem mondott. De a legtöbb deepfake - és különösen a videós deepfake - nem képes átlépni az uncanny valley-t, azaz hogy hátborzongató érzést keltsen az emberben, hogy valami nincs rendben. Általában van valami árulkodó vagy nyilvánvaló jele annak, hogy a mesterséges intelligencia valahol közreműködött. Nem így az OmniHuman-1 esetében - legalábbis a ByteDance csapata által közzétett, válogatott minták alapján. Íme egy fiktív TED-előadás, ami sosem történt meg:
És itt egy hamisított Einstein előadás:
A ByteDance kutatói szerint az OmniHuman-1-nek csak egyetlen referenciaképre és hangra, például beszédre vagy énekhangra van szüksége ahhoz, hogy tetszőleges hosszúságú klipet generáljon. A kimeneti videó képaránya állítható, akárcsak az alany „testaránya” - azaz, hogy a testéből mennyi látszik a hamis felvételen. Az OmniHuman-1 19 000 órányi, nem nyilvános forrásból származó videótartalom alapján képzett, és képes a meglévő videók szerkesztésére is - akár a személy végtagjainak mozgását is módosítva. Igazán megdöbbentő, hogy milyen meggyőző tud lenni az eredmény.
Persze az OmniHuman-1 nem tökéletes. A ByteDance csapata szerint az „alacsony minőségű” referenciaképek nem a legjobb videókat eredményezik, és a rendszer bizonyos pózoknál nehézségekbe ütközik. Figyeljük meg a furcsa mozdulatokat a borospohárral ebben a videóban:
Mégis, az OmniHuman-1 könnyedén felülmúlja a korábbi deepfake-technikákat. Bár a ByteDance nem adta ki a rendszert, a mesterséges intelligencia közösségnek általában nem tart sokáig az ilyen modellek visszafejtése. A következmények aggasztóak lehetnek. Tavaly futótűzként terjedtek világszerte a politikai deepfake-ek. A tajvani választások napján egy, a Kínai Kommunista Párthoz kötődő csoport mesterséges intelligencia által generált, félrevezető hangfelvételt tett közzé, amelyen egy politikus egy Kína-barát jelölt mögé állt. Moldovában deepfake videókon az ország elnökének, Maia Sandunak a lemondását mutatták be. Dél-Afrikában pedig egy olyan deepfake keringett az ország választásait megelőzően, amelyben a rapper Eminem egy dél-afrikai ellenzéki pártot támogatott.
Az OmniHuman számtalan zenei stílust és éneklési formát ismer
A deepfake-eket egyre gyakrabban használják pénzügyi bűncselekmények elkövetésére is. A fogyasztókat csalárd befektetési lehetőségeket kínáló hírességeket ábrázoló deepfake-ekkel verik át, míg a vállalatoktól milliókat csalnak ki deepfake-imitátorok. A Deloitte szerint a mesterséges intelligencia által generált tartalmak 2023-ban több mint 12 milliárd dollárral járultak hozzá a csalási veszteségekhez, és 2027-re elérhetik a 40 milliárd dollárt az Egyesült Államokban.
Tavaly februárban a mesterséges intelligencia közösség több száz tagja írt alá egy nyílt levelet, amelyben szigorú deepfake szabályozást követeltek. Mivel az Egyesült Államokban szövetségi szinten nem született törvény a mélyhamisítás büntethetőségéről, több mint 10 állam hozott törvényt a mesterséges intelligencia által támogatott hamis megszemélyesítés ellen. A kaliforniai törvény - amely jelenleg elakadt - lenne az első, amely felhatalmazná a bírókat arra, hogy a deepfake-ek posztolóit kötelezzék azok eltávolítására, vagy pénzbüntetésre.
Sajnos a mélyhamisításokat nehéz felismerni. Bár egyes közösségi hálózatok és keresőmotorok lépéseket tettek terjedésük korlátozására, a mélyhamisított tartalmak mennyisége továbbra is riasztóan gyorsan növekszik. A Jumio személyazonosság-ellenőrző cég 2024. májusi felmérésében az emberek 60%-a mondta, hogy az elmúlt évben találkozott deepfake-tel. A felmérésben részt vevők 72 százaléka mondta, hogy aggódik amiatt, hogy naponta becsapják őket a deepfake-ek, míg a többség támogatta a mesterséges intelligencia által generált hamisítványok elterjedésével kapcsolatos jogszabályokat.
A ByteDance a YouTube-ra töltötte fel a videóit, melyről folyamatosan törlik azokat. Ha valaki további példákat szeretne látni, a bejelentésnél találja meg azokat.