SG.hu

Egyre nagyobb teret nyer a "halott internet” elmélet

A mesterségesen generált tartalmak térhódításával véget érhet az emberi internet korszaka. Az OpenAI vezetője attól tart, hogy az automatikus programok által létrehozott hálózat megkönnyíti a manipulációt és a dezinformációt.

A halott internet elmélet lényegében azt állítja, hogy az interneten, beleértve a közösségi média fiókokat is, a tevékenységeket és a tartalmakat túlnyomórészt mesterséges intelligencia ügynökök hozzák létre és automatizálják. Ezek az ügynökök gyorsan létrehozhatnak bejegyzéseket és mesterséges intelligencia által generált képeket, amelyek célja a Facebook, Instagram és TikTok platformokon való interakciók (kattintások, lájkolások, kommentek) generálása. Az egyik legkifinomultabb mesterséges intelligenciát kifejlesztő vállalat vezetője is kezd hinni az elméletben, mely miatt megsokszorozódnak a manipuláció, a dezinformáció és a szándékos viselkedéskondicionálás veszélyei. Sam Altman, az OpenAI vezérigazgatója rövid üzenete aggodalmat keltő: "Soha nem vettem komolyan a halott internet elméletét, de úgy tűnik, hogy most már sok Twitter-fiókot LLM-ek, azaz mesterséges intelligencia nyelvi modellek kezelnek”.


Aaron Harris, egy MI-alkalmazásokra szakosodott multinacionális vállalat, a Sage globális technológiai igazgatója (CTO) óvatos a jelenség elnevezésével kapcsolatban, bár nem tagadja a folyamatot: „Nem tudom, hogy halott internetnek nevezném-e, de kétségtelen a folyamat. Az automatizált tartalmak és a botok (emberi viselkedést utánozó számítógépes programok) által vezérelt interakciók térnyerése miatt egyre nehezebb megkülönböztetni a valódit a zajtól. A kérdés az, hogy hagyjuk-e, hogy ez a zaj elborítson minket, vagy inkább olyan technológia kifejlesztésére koncentrálunk, amely helyreállítja a bizalmat. Az a fontos, hogy hogyan szűrjük, ellenőrizzük és jelenítsük meg azokat az információkat, amelyekben az emberek megbízhatnak.”

Altman konkrét utalása a közösségi médiára nem véletlen. „Ez rendkívül fontos, mivel a közösségi média ma már a világ számos felhasználójának fő információforrása” - írja Jake Renzella, a New South Wales-i Egyetem (UNSW Sydney) számítástechnika tanszék vezetője és Vlada Rozova gépi tanulás kutató egy cikkben. "Ahogy ezek az MI-vezérelt fiókok egyre több követőt szereznek (sok közülük hamis, néhány valódi), a nagy számok legitimálják a fiókokat a valódi felhasználók számára. Ez azt jelenti, hogy egy fiókokból álló hadsereg jön létre. Már vannak szilárd bizonyítékok arra, hogy a közösségi médiát ezek a botok manipulálják, hogy dezinformációval befolyásolják a közvéleményt, és ez már évek óta így van” - hangsúlyozzák összhangban Altman figyelmeztetésével az ausztrál kutatók.

Az Imperva biztonsági cég két évvel ezelőtt publikált tanulmánya már akkor is úgy becsülte, hogy „az internetes forgalom csaknem fele botok által generált”. Ezek a botok nem csak egyedi tartalmakat képesek létrehozni, hanem utánozni is tudják a formulát, hogy azok tömegesen és vírusként terjedjenek. A Physical Review Letters folyóiratban megjelent, a Vermonti Egyetem és a Santa Fe Intézet kutatói által vezetett új tanulmány szerint „bármi, ami terjed, legyen az egy hit, egy vicc vagy egy vírus, valós időben fejlődik és terjedésével egyre nagyobb erőt nyer”, követve a „önmegerősítő kaszkádok” matematikai modelljét.

E kutatás szerint az, ami terjed, az mutálódik, és ez a változás segít virális terjedésében, hasonlóan a nagy erdőtüzekhez, amelyeket hagyományos eszközökkel lehetetlen eloltani. "Részben az erdőtüzek ihlettek minket: erősebbé válhatnak, amikor sűrű erdőket puszítanak el, és gyengébbé, amikor nyílt területeken haladnak át. Ugyanez az elv vonatkozik az információkra, a viccekre vagy a betegségekre is. A körülményektől függően erősödhetnek vagy gyengülhetnek” - magyarázza Sid Redner, fizikus, a Santa Fe Intézet professzora és a cikk társszerzője. Juniper Lovato, a tanulmány társszerzője, informatikus tudós úgy véli, hogy a munka segít jobban megérteni, hogyan alakulnak ki a meggyőződések, a dezinformáció és a társadalmi fertőzés. „Ez elméleti alapot ad ahhoz, hogy feltárjuk, hogyan alakulnak ki és terjednek a narratívák a hálózatokon keresztül” - mondja.

A kutatók figyelmeztetnek, hogy a manipulációt vagy a dezinformációt támogató tartalmak vírusként való terjedésének kockázata a mesterséges intelligencia eszközeinek megjelenésével megsokszorozódott, és a felhasználóktól nagyobb tudatosságot igényel az MI-asszisztensek és -ügynökök veszélyeiről. Mert ezek az újszerű MI-eszközök nemcsak azt tudják, hogyan kell elkészíteni egy tartalmat és azt virálissá tenni, hanem azt is, hogyan lehet személyessé tenni és hatékonyan befolyásolni a felhasználók interakcióiból gyűjtött információkkal.

A „Nagy segítség vagy nagy testvér? Nyomon követési audit, profilalkotás és személyre szabás generatív mesterséges intelligencia asszisztensekben” című, a Seattle-ben megrendezett USENIX biztonsági szimpóziumon bemutatott tanulmány a felhasználók befolyásolhatóságának sebezhetőségét elemzi. "A közösségi médiában való befolyásolhatóság nem csak attól függ, hogy ki vagy, hanem attól is, hogy hol vagy a hálózatban és kivel vagy kapcsolatban” - magyarázza Luca Luceri, a Dél-Kaliforniai Egyetem kutatója és a tanulmány társszerzője. Ebben az értelemben a kutatás egy olyan jelenséget tükröz, amelyet „a befolyásolhatóság paradoxonának” neveznek, és amely „olyan mintát jelent, amely szerint a felhasználók barátai átlagosan befolyásolhatóbbak, mint maguk a fiókok tulajdonosai”. A tanulmány szerint ez a viselkedés „megmagyarázhatja, hogyan válnak népszerűvé egyes viselkedésformák, trendek és ötletek, és miért sebezhetőbbek az internet egyes területei a befolyásolásra, mint mások”.

Azok, akik azért posztolnak, mert mások is azt teszik, gyakran hasonló viselkedésű, szoros körökhöz tartoznak, és a tanulmány szerint ez arra utal, hogy „a társadalmi befolyás nem csak az egyének közötti közvetlen cseréken keresztül működik, hanem a hálózat szerkezete is alakítja és korlátozza”. Így előre lehet jelezni, hogy ki hajlamosabb tartalmakat megosztani, ami az MI által gyűjtött személyes adatok alapján automatikus vírusos terjedéshez vezethet. "Sok esetben elegendő tudni, hogy egy felhasználó barátai hogyan viselkednek, hogy megbecsüljük, hogyan viselkedne a felhasználó” - figyelmeztet a tanulmány.


A mesterséges intelligencia emberi kézzel létrehozott, de egyre inkább domináns internetre gyakorolt hatásának megoldása nem csupán szabályozási kérdés. A Google Deepmind több mint húsz kutató és egyetem részvételével készített komplex és átfogó tanulmánya, Az MI fejlett asszisztenseinek etikai kérdései szerint a kihívás az MI-asszisztens, a felhasználó, a fejlesztő és a társadalom közötti négyoldalú kapcsolatban rejlik, amelynek célja „olyan értékek vagy utasítások kidolgozása, amelyek biztonságosan működnek a világban, és széles körben előnyös eredményeket hoznak”.

A kutatók munkája Asimov robotikai törvényeihez hasonlóan egy sor parancsot dolgoz ki annak elkerülésére, hogy az MI eltérjen a morális elvektől, amelyek így foglalhatók össze: nem manipulálja a felhasználót az MI (fejlesztői) érdekeinek előmozdítása vagy társadalmi költségek (például dezinformáció) generálása érdekében, nem engedi, hogy a felhasználó vagy a fejlesztők a társadalomra nézve negatív stratégiákat alkalmazzanak (uralom, kondicionálás vagy intézményi hiteltelenítés), és nem korlátozza indokolatlanul a felhasználó szabadságát.

Aaron Harris, a Sega technológiai igazgatója szerint lehetséges egy etikus internet, „de ez nem fog csak úgy megtörténni” - pontosítja. „Az átláthatóságnak és a felelősségnek kell meghatároznia, hogyan tervezik és szabályozzák az MI-t. Az MI-t fejlesztő vállalatoknak biztosítaniuk kell, hogy eredményeik ellenőrizhetők és magyarázhatók legyenek, hogy az emberek megértsék, honnan származik az információ és miért ajánlják azt. A pénzügyekben például a pontosság nem opcionális, és a hibáknak valós következményei vannak. Ugyanez az elv vonatkozik az internetre is: a felelősségteljes képzés, az egyértelmű címkézés és az eredmények megkérdőjelezésének lehetősége hozzájárulhat ahhoz, hogy az MI egy etikusabb és megbízhatóbb internet részévé váljon”.

Harris a „humánus internet” megtartását támogatja, „különösen most, hogy egyre több tartalom botok által készül”, de nem az elért eredmények feladásának árán. „Nem hiszem, hogy a megoldás az lenne, hogy visszatérjünk a mesterséges intelligencia előtti világba, és megpróbáljuk korlátozni vagy teljesen eltávolítani az általa generált tartalmakat. Már része életünknek és munkánknak, és felelősségteljes használatával valódi értéket teremthet. A kérdés az, hogy ki vállal felelősséget a tartalomért. Ez az elv, amelyet minden vállalatnak követnie kell: az MI-nak az emberi képességeket javítania kell, nem pedig helyettesítenie. Egy humánusabb internet még mindig lehetséges, de csak akkor, ha az emberek szükségleteit tartjuk szem előtt, és a felelősség terén nem alkuszunk meg.”

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • nlght #11
    Mondok egy példát, teszem hozzá én lelkes érdeklődőként tartom magam a fizika világához, nincs akadémiai címem.

    Sabine Hossenfelder német elméleti fizikusnak van egy yt-n népszerű fizikával és csillagászattal foglalkozó csatija. Nagyon kritikusan áll a JELENLEGI tudományos, akadémiai világhoz. Mert szerinte rengeteg a kamu tanulmány, ami csak azért jön létre hogy pár elméleti fizikus kapjon pénzt a megélhetésére, de valójában a hozzáértők látják a rengeteg hibát ezekben a kutatásokban, tanulmányokban. Mégis megjelennek ezek a cikkek, kutatások, hiába hemzsegnek a hibáktól. Teljesen felhígult Sabine szerint a tudományos világ, mindenhol csak trash van. A YT csatiján is rengeteg videója van, ahol kiosztja ezeket a baromságokat tartalmazó tanulmányokat. Ennek apropóján a héten kirúgta a német tudományos intézet, ahol eddig dolgozott, mert bullshitnek nevezte az egyik kókler áltudós legújabb munkáját.

    TLDR: Nehéz áttörést elérni a fizika világában, és a tudományos közösségben ezrével kóklerkednek emberek, már nem is lehet követni mik történnek, akkora a "zaj", kifordult magából a tudomány világa.

    Itt a videó, ahol kiosztja az egész rendszert.



    Utoljára szerkesztette: nlght, 2025.09.25. 11:44:04
  • end3 #10
    "Annyira teleszórták a netet felszínes tudást adó vacakokkal, hogy szinte lehetetlen kiszűrni a valóban értékes tartalmakat."

    Főként, ha még értékes és aktív emberi influenszerek hangján, (vagy közelítőleg hasonló hangon szólalnak meg,) - egyes MI-videók percekig és abszolút megtévesztve azokat a felhasználókat akik konkrét személyek véleményére, általuk szerkesztett kreatív tartalmakra kíváncsiak! (Egyelőre nem tudok konkrét bizonyítékot felmutatni, de egyre többször kapcsolok el emiatt yt-videókat pár perc után. - Mert az MI stílus egyértelműen idegesítő és e miatt könnyen azonosítható számomra.)
  • Tetsuo #9
    Undorító feje van. Vagy mire céloztál?
  • dyra #8
    Szerintem meg van. Az a cime "Egyre nagyobb teret nyer a "halott internet” elmélet". Azért halott, mert szeméttel van tele. Teljesen mindegy, hogy AI vagy ember gyártja a tartalmat ha szemét: ha az ötszázadik ember is ugyanazt szajkózza a cicáról meg a kétrés-kísérletről, és arról, hogy ’lehet, nem is létezünk’, akkor felmerül a kérdés: minek? Hat-ezer helyen elmagyarázták már az alapokat, de persze neki is muszáj csinálni egy újabb videót, mert hát a klikk számít.
  • NEXUS6 #7
    Az a gáz az egésszel, hogy az MI által kezelt információs térnek az ad struktúrát, valós mintázatot, igazságot, hogy a való világban léteznek szabályok, amelyek ezeket a mintázatokat törvényszerűen újra és újra legenerálják, gyak a természeti/társadalmi törvények, valós jelenségek.

    Az MI információs terében a szabályok, törvényszerűségek nem léteznek, csak a mintázatokból következtet rájuk, de nem ismeri fel őket, csak reprodukálja a mintázatokat. A valós mintázat pedig ebben a térben pont ugyan olyan értékű, mint a fiktív, valósággal nem korreláló.

    Valójában az emberek dolga lenne a szemét kipakolása, a lomtalanítás, hogy elutasítsanak minden irreális, vagy csak értéktelen MI kacatot.

    Ha nem tesszük meg, inkább azon vitatkozunk, jó szokás szerint, hogy kinek a felelőssége, ne csodálkozzunk, hogy belefulladunk a szemétbe.
    Utoljára szerkesztette: NEXUS6, 2025.09.23. 14:21:42
  • Cat #6
    "Bárhol, ahol egy ember beszél a kamerába és természettudományos és műszaki téma vagy technikai (pl. haditechika), azt élből lehet skippelni."
    Nagyon nem értek egyet.
    Itt van pl. Sabine Hossenfelder
    https://www.youtube.com/watch?v=LKiBlGDfRU8
  • Gabbbbbbbbbbbb #5
    Szerintem ez a hozzáállás nem helytálló. A legtöbb ilyen videó podcast formátumú és a füledet célozzák meg. A clickbait emberfejes indexképeket én is utálom, de ez a viselkedés egyenesen következik a megélhetési tartalomgyártásból és évszázados múltja van már újságírásban. Csak annyi változott, hogy túl van optimalizálva ez is.
    Utoljára szerkesztette: Gabbbbbbbbbbbb, 2025.09.23. 11:16:27
  • Gabbbbbbbbbbbb #4
    Számomra nem teljesen világos, hogy mi a problémád a kvantumfizikával való felszínes ismerkedéssel. Vallási, vagy praktikus életviteli oldalról közelíted meg? Mindegy is, szerintem ezzel nincs semmi probléma, a hasonló ábrándozás mélyen része az emberi természetnek és aligha káros. Legalábbis addig, amíg a "science communicator" valódi fizikus, nem pedig Eric Weinstein.
    Pop-tudomány fogyasztása sohasem lesz rosszabb, mint az egyéb médiatartalmak 95%-a. Magyar tartalmakat nézzük, akkor ez a szám még magasabb.

    Természetesen a hozzászólásodnak semmi köze a cikkhez. Itt az a lényeg, hogy pl. Google-ben rákeresel arra angol nyelven, hogy mi egy citromfa vízigénye és a top20 találatból 15+ mesterséges intelligencia által generált tartalom lesz, azt a dezinformációt terjesztve, hogy a citromnak alacsony a vízigénye és jajjj nehogy ne várd meg a föld felső 10 centijének a teljes kiszáradását. Szerencsére az új hajtások azonnali lankadása gyorsan ráébreszti az embert arra, hogy itt bizony megvezették.
    Utoljára szerkesztette: Gabbbbbbbbbbbb, 2025.09.23. 11:08:54
  • militavia #3
    Ha szemét és sztereotip akarnék lenni. Bárhol, ahol egy ember beszél a kamerába és természettudományos és műszaki téma vagy technikai (pl. haditechika), azt élből lehet skippelni. Akkor is, ha random stock videó és oda nem illő képek vannak. MINDIG van értelmes dolog, amit ki lehet tenni a képernyőre, nem az alkotó arcát kell bámulni. Abban nincs semmi infó. De kb. minden olyan videó is ignorálható, ahol az alkotó a saját arcképét bassza ki az indexképre.
  • kvp #2
    "Annyira teleszórták a netet felszínes tudást adó vacakokkal, hogy szinte lehetetlen kiszűrni a valóban értékes tartalmakat."

    Ezek nagy resze szemet, de legalabb valodi emberi tartalmak. A cikk arrol beszel, hogy MI generalt tartalombol van egyre tobb es ha tulsulyba kerulnek, akkor az uj MI modellek mar a korabbi benabb modellek anyagai alapjan tudnak csak tanulni. Tehat pl. ha egy uj grafikus modell a korabbi 6+ ujjat generalo modellek alapjan tanul, akkor soha nem fogja megtanulni, hogy az embereknek altalaban 5 ujjuk van egy vegtagon. Nem a mi alaltunk latott szemet miatt aggodik, hanem azon, hogy a cege elveszti az ingyenes betanitasi adatbazisat, mert az megtelik a korabbi hibas szemettel. Az aggodalom jogos, de ezert van az, hogy minden olyan MI modell amit MI modellek kimeneteibol tanitanak degradalodik. Ez sok sok iteracio utan mar csak feher zajt eredmenyez a kimeneten. Jelenleg egy olyan modell, ami az MI korszak elott lementett internetes adatokbol dolgozik jobb eredmenyt produkal mint egy olyan modell ami friss internetes adatokat hasznal es a kulonbseg folyamatosan no.