21
-
ugh #21 Mert ez egy fos állókép.
A mozgókép lehetősége sokkal messzebre visz. -
#20 :) igaz, igaz, nem fogalmaztam jól.
-
#19 Leutánozza az már a felsoroltakat is... Sehol nem írtam le azt a szavat amit sikerült odalátnod. -
Cat #17 "mar itthon sincs messze a fake gyartastol"
Bírósági ítéletek vannak, ami szerint a közmédia hazudik. Persze nem ilyen deepfake videókkal, hanem vágással, kitakarással és kreatív kamerakezeléssel. Emlékezzünk csak a az Operánál megtartott ellenzéki tüntetésre, amelyen az M1 hiradója szerint nem volt ott senki.
Lomnici kitakarása: https://index.hu/kultur/media/2011/12/06/bunozokent_kezeltek_lomnicit_a_hiradoban/
Vagy amikor az MTV szerint megfutamodott a kínos kérdések elől Daniel-Cohn Bendit: feltettek neki egy sajtótájékoztatón egy kérdést, majd utána odavágták, ahogy a végén kimegy a teremből, mintha menekülne.
https://index.hu/kultur/2014/11/27/kimondta_a_birosag_hivhatjuk_hirhamisitonak_a_hirhamisito_koztevest/ -
Nos #16 Lattal mar M1 hiradot, vagy olvastal mti-t? A hivatalos kormanyoldal mediaja mar itthon sincs messze a fake gyartastol -
kvp #15 Van egy olyan fogalom hogy konfidencia (bizonyossagi) szint. Nem csak biztosan igaz es biztosan hamis kategoriak vannak hanem a ketto kozott barhol lehet egy video. A gyanus, de jo minosegu hamisitott video es a valojaban igazi, de rossz kameraval felvett is hasonloan a "nem tudom biztosra mondani" kategoriaban vegzi. A gond, hogy az emberek nagyresze nem veszi a faradtsagot a gondolkozasra es alapbol elhisz barmit. Ekkor okozhat gondot, hogy most mar a hamisitott hangfelvetelek es fotok mellett a videokat is viszonylag konnyu es olcso hamisitani. Ha nem is tokeletesre, de eleg jora a kivant celok eleresehez. -
ToxiMaxi #14 Egykor a photoshop érkezése után is voltak ilyen hangok, aztán mégsem lett világvége. -
#13 Egyébként itt mindenki gangszter meg hú így szar úgy szar mikor mindenki tudja hogy mi a helyes válasz, de úgy derülne ki az egész ha fognák a jelenleg elérhető legjobb technikát, nem 2 éveset és csinálnának olyan tesztet ahol megnézel 50-100 videót és ki kell találnod hogy deepfake vagy rendes és ha valami szarabb kamerával vennék fel szarabb tömörítéssel és homályos lenne rányomnád hogy deepfake közben meg nem is? -
#12 Wannak hangutánzó szoftverek is már csak alá kell vágni, ha egy embertől elég hangmintát talál már le tudja utánozni, ez egy átlagembernél valószerűtlen hogy találjon elég hangot de egy 8 évig elnökösködő személynél meg van dögivel :D -
#10 Hiszen a hivatalos kormányzati oldalaknak már ma sem lehet hinni -
#9 Érdekes világ érkezik, ha elterjed a fake videó gyártás.
Csak a hivatalos kormányzati oldalaknak lehet majd igazán hinni, másrészt ha valaki tényleg levideóz valakit, hogy ezt meg azt csinál nem hiszik el neki, mert tuti fake, csak lejáratni akar, így az oknyomozás elég nehézkes lesz.
De majd meglátjuk. -
#8 Hú bazzeg ezt vagy nem láttam vagy nem emlékszek már rá :D Na igen ilyenekről beszéltem korábban és egy olyan Obamáshoz hasonló anyaggal nem csak a tényleg ennyire hülyéket lehetne beugratni hanem úgy egy pár szinttel feljebb is és mint mondták a cikkben és énis tapasztaltam a helyesbítést sokkal kevesebb emberhez jut el, ezzel élnek is az újságok nap mint nap egyébként csak nézzük meg... lehozzák a pontatlan hírt, aztán 2-3 nap múlva valahol kicsiben a helyesbítést. Itt is azért elterjedne alternatív forrásokon valami kamu és jól van háborúkat nem robbantana ki, de azért pont elég átlagembert lóvá tettem. -
#7
Van még kérdésed?
Az emberek komoly százaléka annyira buta és hülye, hogy egy üveg tejet sem bíznék rájuk. -
Zulu12 #6 Az emberek annyira seggh*lyék hogy a 2018-as választásoknál a Gyurcsány chat botról azt hitték hogy igazi valós személy. Kb mint egy marék molylepke annyi eszük van. Jó persze az idősebb generációt nem akarom annyira piszkálni de nah.. eléggé szomorú. Egy ilyen videót meg abszolút nem tudnának megkülönböztetni egy valóditól az is tuti fix... -
rajdi #5 Hamarabb lesz tökéletesre csiszolva a dolog mint hogy idős meg a tech analfabéták legyünk, attól tartok... Ja, és gondolom az egyik legnagyobb befektető és profitáló a fél legális pornó ipar lesz Na azt még megvárom...
Utoljára szerkesztette: rajdi, 2020.08.26. 10:39:47 -
#4 Azt se felejtsd el hogy sok az idős meg a tech analfabéta -
#3 Jaja, én eddig csak olyan Deepfake videókat láttam. -
#2 Van egy olyan megérzésem, hogy nem az általad felvázolt két videóból összevágom a fake videóra gondolnak, annál már kicsit előrébb tart a technika.
-
#1 Hát, ha a videóban nem forgatja a fejét a "donor", akkor elképzelhető, hogy át lehet vele verni az embereket. Viszont ha igen, akkor nagyon átüt a kamuarc alatt az eredeti arc alakja. És az is probléma szokott lenni, hogy az arc egy nagyon picit rossz helyre kerül, vagy nem méretezik hozzá az arcot a "donor"-hoz, és nem passzol a fejére. (mert ugye nem minden embernek ugyanakkora az arca - fizikailag) Persze ezeken lehet javítani, de eddig a YT-os Deepfake videók mind inkább érdekesek/viccesek voltak, mint megdöbbentők, hogy "tényleg olyan, mintha igazi lenne".