SG.hu·

Az a videó a hírfolyamodban valódi volt vagy mesterséges intelligencia?

Az a videó a hírfolyamodban valódi volt vagy mesterséges intelligencia?
Egyes alkotók szerint munkáikat tévesen mesterséges intelligenciának jelölték meg, ami rontja a hírnevüket, míg más teljesen gépi hirdetések valahogy átjutnak a szűrőkön.

A Meta, a YouTube és a TikTok keresi a módját, hogy megőrizze a felhasználók bizalmát, miközben platformjaik tele vannak mesterséges intelligenciával generált fotókkal és videókkal olyan eseményekről, amelyek soha nem történtek meg. De a tökéletlen eszközök és önkéntes irányelvek összevisszasága néha véletlenül bünteti a "valódi” tartalmakat, és sok MI-alkotást címkézetlenül hagy.

A TikTok sztárja, Nikolai Savic például azt mondja, hogy sok népszerű videóját, amelyekben meglepő átmenetek vannak különböző jelenetek között, tévesen „MI-generált” címkével látták el, ami több millió követőjétől elutasító kommenteket váltott ki. Savic elmondta, hogy alkalmanként mesterséges intelligenciát használ a durva részek kisimítására, de egyébként standard szerkesztőeszközöket használ egy fáradságos folyamatban, amely minden klip esetében több napot is igénybe vehet. "Az emberek már eleve azt gondolják, hogy csak MI-t használok” – mondta Savic. "Ez nagyon ártott a hírnevemnek."


A legnagyobb technológiai platformok a ChatGPT 2022 végén történt megjelenése óta szorgalmazzák az MI által generált tartalmak jelölését, és ez a törekvés egyre sürgetőbbé válik, mivel a Midjourney vagy a Google új Veo 3 eszközei látványosan feljavították az MI fotó- és videószimulációk minőségét. A félelem az, hogy azok a fogyasztók, akik rájönnek, hogy MI-reklámok, hírek vagy alkotók posztjai tévesztették meg őket, szkeptikussá válnak a platformok egyéb tartalmaival szemben.

A cégek kezdeményezései lehetőséget hagynak hibákra és mulasztásokra. A Facebook és az Instagram tulajdonosa, a Meta idén bevezette azt a lehetőséget, hogy egyes hirdetők közzétehessék, ha más cégek, például az OpenAI generatív MI-eszközeit használták hirdetéseik létrehozásához vagy szerkesztéséhez. "Az emberek elvárásainak és a technológia fejlődésének megfelelően tovább fogjuk fejleszteni az MI-generált tartalmak jelölésére vonatkozó megközelítésünket, szakértőkkel, hirdetőkkel, politikai döntéshozókkal és iparági partnerekkel együttműködve” – jelentette be a Meta a szabályzat bevezetésekor.

Mindazonáltal az MI-generált videók továbbra is szabadon keringenek. A Kalshi egy olyan startup, amely lehetővé teszi az embereknek, hogy aktuális eseményekre fogadjanak. A cég a múlt havi NBA-döntőn egy olyan hirdetést futtatott a YouTube TV-n, amelyet teljes egészében a Veo 3 generált. A hirdetés szerencsejátékosokat ábrázol, akik lelkesen fogadnak - mindössze 2000 dollárba került az elkészítése és 19 millió megtekintést gyűjtött – közölte a cég szóvivője. Mire a nézők meglátják az idegent, aki egy egyetemi bulin sört iszik, rájönnek, hogy a társaság hirdetésben semmi sem valós. De nincs megjelölve, hogy MI-vel készült.


A Coign hitelkártyáit népszerűsítő Veo 3-as videó nem tartalmaz ilyen nyilvánvaló jelzést, mivel az összes szereplő a Földről származik. A hirdetés a Facebookon, a YouTube-on és a LinkedIn-en jelent meg, szintén jelölés nélkül. A Ritual multivitamin márka reklámja szintén Veo termék, és egy kis méretű, rövid ideig látható vízjelet tartalmaz, amely MI-generáltként azonosítja, de csak a YouTube-on, a LinkedIn-en vagy az Instagramon nem. A videóban anyukák szerepelnek, akik azonnal elárulják, hogy valójában MI-generált karakterek. A cég a termékeit a mai wellness-szférát elárasztó félrevezető állítások alternatívájaként pozícionálja, közölte Katerina Schneider alapító és vezérigazgató.


A TikTok volt az egyik első vállalat, amely 2023-ban megpróbálta megoldani ezt a kérdést egy olyan eszköz fejlesztésével, amely automatikusan felismeri és címkézi az MI által generált tartalmakat, valamint egy gombbal, amely lehetővé teszi a tartalomkészítőknek, hogy közzétegyék, ha saját, harmadik féltől származó MI-eszközt használnak. Mások is követték a példát, és saját módszereket dolgoztak ki az események alakulása szerint. A Meta tavaly frissítette "AI info” címkéit, hogy megkülönböztesse az MI-vel létrehozott tartalmakat és azokat, amelyeket csak más cégek MI-eszközei módosítottak, részben azért, hogy reagáljon egyes alkotók panaszaira, miszerint munkáikat pontatlanul címkézték. A Meta automatikusan címkézi az összes saját MI-eszközével létrehozott tartalmat.

A Google automatikusan kis vizuális vízjeleket csatol szinte minden, a Gemini alkalmazással - beleértve a Veót is - létrehozott tartalomhoz, és ezek a tartalmak digitális metaadat-azonosítókat is tartalmaznak, amelyek segítségével automatikusan MI-ként lehet őket címkézni. A Kalshi és a Coign hirdetései azonban vizuális jelek nélkül jelentek meg, mert a filmkészítőknek szánt Gemini eszközzel létrehozott videók mentesülnek ez alól. A Google YouTube-részlegének tavaly eleje óta érvényben lévő szabályzata előírja, hogy a tartalomkészítőknek közzé kell tenniük az MI használatát minden olyan tartalomban, amelyet a nézők összetéveszthetnek a valósággal. A YouTube csak a politikai hirdetőktől követeli meg az MI használatának közzétételét, mivel az általános MI-generált hirdetések nem sértik a fogyasztók károsításának megelőzésére kidolgozott hirdetési szabályzatot – mondta a YouTube szóvivője.

Dana Neujahr, a We Are Social nevű közösségi média és influencer cég ügyvezető igazgatója szerint a legtöbb márka szerződései tiltják a generatív MI használatát, hogy ne veszítsék el a rajongók bizalmát. Az egyik We Are Social-ügyfél TikTok-videóit azonban automatikus MI-címkékkel látták el, miután egy MI-eszközt használtak feliratok hozzáadására - tette hozzá Neujahr. "Egy kezdő vagy ebben az iparágban nem jártas személy azt gondolhatná, hogy ez az egész tartalom mesterséges intelligencia által generált” - mondta. „Ez egy kicsit csúszós lejtőnek tűnik.” A közösségi médiavállalatok részben azért fejlesztették ki ezeket a mesterséges intelligencia címkéző eszközkészleteket, hogy megelőzzék a mesterséges intelligenciával kapcsolatos tartalmakkal kapcsolatos vitákat vagy szabályozási aggályokat - mondta.


A technológiai ipar megpróbálta kollektíven és átfogóan kezelni az átláthatóság iránti igényt. A Coalition for Content Provenance and Authenticity (C2PA) nevű konzorcium olyan szabványosított tanúsítványokat kínál, amelyekkel a magánszemélyek és a vállalatok jelezhetik, hogy a tartalmuk mesterséges intelligencia által generált-e vagy sem. A LinkedIn például azt mondja, hogy a koalíció logóját - amelyre kattintva a felhasználók további információkhoz juthatnak - megjeleníti az ilyen hitelesítő adatokkal feltöltött képeken és videókon. Az OpenAI támogatja a koalíció erőfeszítéseit, bár arra is figyelmeztet, hogy a metaadatok „nem jelentenek csodát”. "Könnyen eltávolítható akár véletlenül, akár szándékosan” - írja az OpenAI a honlapján, megjegyezve, hogy a közösségi médiaplatformok gyakran eltávolítják a metaadatokat a feltöltött képekről.

Matthew Stamm, a Drexel Egyetem Multimédia és Információbiztonsági Laboratóriumának professzora szerint a C2PA által kínált hitelesítő tanúsítványok jó szándékú ötletnek tűnnek, de nem lesznek hatékonyak a megtévesztő forrásokból származó mesterséges intelligencia-tartalmakkal szemben, amelyek egyre nagyobb számban jelennek meg a közösségi médiában. "Ha ez a paradigma működni fog, akkor azt általánosan el kell fogadni” - mondta Stamm. "Számomra ez nem tűnik reális megoldásnak”.

Kapcsolódó cikkek és linkek

Hozzászólások

Jelentkezz be a hozzászóláshoz.

Nem érkezett még hozzászólás. Legyél Te az első!