SG.hu

Megdöbbentően jó deepfake videókat készít a ByteDance új videógenerátora

A TikTok tulajdonosának, a ByteDance-nek a kutatói bemutattak egy új mesterséges intelligencia rendszert, az OmniHuman-1-et, amely talán az eddigi legrealisztikusabb deepfake (mélyhamisított) videókat képes létrehozni.

A deepfake egy árucikk. Nincs hiány olyan alkalmazásokból, amelyek képesek valakit beilleszteni egy fotóba, vagy úgy tenni, mintha valaki olyasmit mondana, amit valójában nem mondott. De a legtöbb deepfake - és különösen a videós deepfake - nem képes átlépni az uncanny valley-t, azaz hogy hátborzongató érzést keltsen az emberben, hogy valami nincs rendben. Általában van valami árulkodó vagy nyilvánvaló jele annak, hogy a mesterséges intelligencia valahol közreműködött. Nem így az OmniHuman-1 esetében - legalábbis a ByteDance csapata által közzétett, válogatott minták alapján. Íme egy fiktív TED-előadás, ami sosem történt meg:


És itt egy hamisított Einstein előadás:


A ByteDance kutatói szerint az OmniHuman-1-nek csak egyetlen referenciaképre és hangra, például beszédre vagy énekhangra van szüksége ahhoz, hogy tetszőleges hosszúságú klipet generáljon. A kimeneti videó képaránya állítható, akárcsak az alany „testaránya” - azaz, hogy a testéből mennyi látszik a hamis felvételen. Az OmniHuman-1 19 000 órányi, nem nyilvános forrásból származó videótartalom alapján képzett, és képes a meglévő videók szerkesztésére is - akár a személy végtagjainak mozgását is módosítva. Igazán megdöbbentő, hogy milyen meggyőző tud lenni az eredmény.

Persze az OmniHuman-1 nem tökéletes. A ByteDance csapata szerint az „alacsony minőségű” referenciaképek nem a legjobb videókat eredményezik, és a rendszer bizonyos pózoknál nehézségekbe ütközik. Figyeljük meg a furcsa mozdulatokat a borospohárral ebben a videóban:


Mégis, az OmniHuman-1 könnyedén felülmúlja a korábbi deepfake-technikákat. Bár a ByteDance nem adta ki a rendszert, a mesterséges intelligencia közösségnek általában nem tart sokáig az ilyen modellek visszafejtése. A következmények aggasztóak lehetnek. Tavaly futótűzként terjedtek világszerte a politikai deepfake-ek. A tajvani választások napján egy, a Kínai Kommunista Párthoz kötődő csoport mesterséges intelligencia által generált, félrevezető hangfelvételt tett közzé, amelyen egy politikus egy Kína-barát jelölt mögé állt. Moldovában deepfake videókon az ország elnökének, Maia Sandunak a lemondását mutatták be. Dél-Afrikában pedig egy olyan deepfake keringett az ország választásait megelőzően, amelyben a rapper Eminem egy dél-afrikai ellenzéki pártot támogatott.


Az OmniHuman számtalan zenei stílust és éneklési formát ismer

A deepfake-eket egyre gyakrabban használják pénzügyi bűncselekmények elkövetésére is. A fogyasztókat csalárd befektetési lehetőségeket kínáló hírességeket ábrázoló deepfake-ekkel verik át, míg a vállalatoktól milliókat csalnak ki deepfake-imitátorok. A Deloitte szerint a mesterséges intelligencia által generált tartalmak 2023-ban több mint 12 milliárd dollárral járultak hozzá a csalási veszteségekhez, és 2027-re elérhetik a 40 milliárd dollárt az Egyesült Államokban.

Tavaly februárban a mesterséges intelligencia közösség több száz tagja írt alá egy nyílt levelet, amelyben szigorú deepfake szabályozást követeltek. Mivel az Egyesült Államokban szövetségi szinten nem született törvény a mélyhamisítás büntethetőségéről, több mint 10 állam hozott törvényt a mesterséges intelligencia által támogatott hamis megszemélyesítés ellen. A kaliforniai törvény - amely jelenleg elakadt - lenne az első, amely felhatalmazná a bírókat arra, hogy a deepfake-ek posztolóit kötelezzék azok eltávolítására, vagy pénzbüntetésre.

Sajnos a mélyhamisításokat nehéz felismerni. Bár egyes közösségi hálózatok és keresőmotorok lépéseket tettek terjedésük korlátozására, a mélyhamisított tartalmak mennyisége továbbra is riasztóan gyorsan növekszik. A Jumio személyazonosság-ellenőrző cég 2024. májusi felmérésében az emberek 60%-a mondta, hogy az elmúlt évben találkozott deepfake-tel. A felmérésben részt vevők 72 százaléka mondta, hogy aggódik amiatt, hogy naponta becsapják őket a deepfake-ek, míg a többség támogatta a mesterséges intelligencia által generált hamisítványok elterjedésével kapcsolatos jogszabályokat.


A ByteDance a YouTube-ra töltötte fel a videóit, melyről folyamatosan törlik azokat. Ha valaki további példákat szeretne látni, a bejelentésnél találja meg azokat.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • Cat #3
    Szerintem simán csak a youtube algoritmusa dolgozik, mert ha megnézed az eredeti lapot, akkor teljesen vegyesen van ami el van távolítva, és ami működik. Ha ember nézné, simán csak végigkattintaná az összeset, hogy eltávolítsa azokat. Még valami: főleg a "singing", azaz éneklős videók tűntek el, aminek oka szerintem copyright is lehet.
  • BruceZ #2
    Nem mindegy hogy demo-video, vagy deepfake. Gondolom csak utóbbiakat törlik (remélem :) )