SG.hu

Egymás kimeneteiből tanulnak az MI-k és ez nagy baj

Ahogy az MI által generált adatokat egyre nehezebb felismerni, egyre valószínűbb, hogy a jövőbeli MI-k bekebelezik azokat, ami rosszabb eredményekhez vezet.

Az internetet egyre inkább elárasztják a mesterséges intelligencia által generált szavak és képek. Sam Altman, az OpenAI vezérigazgatója februárban azt írta, hogy a vállalat naponta mintegy 100 milliárd szót generál - naponta egymillió regénynyi szöveget, amelynek ismeretlen hányada kerül fel az internetre. Egy MI által generált szöveg megjelenhet éttermi kritikaként, társkereső profilként vagy közösségi média posztként is. És megjelenhet újságcikkek formájában is: a NewsGuard, egy az online félretájékoztatást nyomon követő csoport nemrégiben több mint ezer olyan weboldalt azonosított, amelyek hibás, mesterséges intelligencia által generált híreket közölnek. A valóságban nincsenek bolondbiztos módszerek az ilyen jellegű tartalmak felderítésére, így sok minden egyszerűen észrevétlen marad.

Ez a sok MI-generált információ megnehezítheti számunkra, hogy tudjuk, mi a valóság. És ez az MI vállalatok számára is problémát jelent, mert miközben a cégek új adatok után kutatnak a világhálón, hogy a következő modelljeiket betanítsák - ami egyre nagyobb kihívást jelent -, valószínűleg saját, mesterséges intelligencia által generált tartalmaik egy részét is magukba szívják. Ezzel egy nem szándékos visszacsatolási hurkot hoznak létre, amelyben az, ami egykor az egyik mesterséges intelligencia kimenete volt, egy másiknak a bemenetévé válik. Hosszú távon ez a körforgás magát az MI-t is veszélyezteti. A kutatások kimutatták, hogy ha a generatív MI-t a saját kimenetén képzik ki, akkor sokkal rosszabbá válik.

Képzeljünk el egy orvosi tanácsadással foglalkozó chatbotot, amely kevesebb olyan betegséget sorol fel, amely a tüneteinknek megfelelő, mert a korábbi chatbotok által generált orvosi tudás szűkebb spektrumán képezték ki. Vagy egy mesterséges intelligencia által generált propagandát magába szívó történelemtanár, aki már nem tudja megkülönböztetni a tényeket a fikciótól. Ahogyan egy másolat másolata is eltávolodik az eredetitől, ugyanúgy a generatív MI-k kimenete is eltávolodik a valóságtól, ha a saját tartalmán képzik ki. Egy tanulmányban egy brit és kanadai kutatócsoport kimutatta, hogy ez a folyamat idővel az MI kimenetének szűkülését eredményezi - ez az általuk „modell-összeomlásnak” nevezett folyamat korai szakasza. "A modell megmérgeződik a valóság saját kivetítésével” - írták a kutatók erről a jelenségről.

Ez a probléma nem csak a szövegekre korlátozódik. A Rice Egyetem egy kutatócsoportja azt vizsgálta, hogy mi történik, ha a képeket generáló mesterséges intelligenciákat többször is saját kimenetükön képzik ki. Ez a probléma már most is jelentkezhet, mivel a webet elárasztják az MI-generált képek. Azt találták, hogy a képalkotási hibák elkezdtek felhalmozódni az MI kimenetén, és végül torz képek jöttek ki eredményül. A kutatók úgy találták, hogy ezt a problémát csak úgy lehet elhárítani, ha az MI-ket elegendő új, valós adaton képzik ki.

Bár szelfikből biztosan nincs hiány az interneten, vannak olyan képkategóriák, ahol az MI kimenete meghaladja a valódi adatokét - mondták. Például az MI által generált van Gogh stílusú képek száma simán meghaladhatja a van Gogh-festményekről készült tényleges fényképek számát egy MI képzési adatai között, és ez hibákhoz és torzításokhoz vezethet. Ennek a problémának a korai jeleit nehéz lesz észlelni, mivel a vezető MI modellek el vannak zárva a külső vizsgálat elől, mondták a kutatók. Mindezek a problémák azért merülnek fel, mert az MI által generált adatok gyakran rosszul írják le a valóságot. Ez néha könnyen észrevehető, például amikor a chatbotok abszurd tényeket állítanak, vagy amikor az MI-generált embereknek túl sok ujjuk van. A modell összeomlásához vezető különbségek azonban nem feltétlenül nyilvánvalóak - és nehéz lehet felismerni őket.

Amikor a generatív MI-t hatalmas mennyiségű adaton „képzik”, a motorháztető alatt valójában egy statisztikai eloszlást állít össze; valószínűségek halmazát, amely megjósolja a következő szót egy mondatban vagy a pixeleket egy képen. De egy saját kimenetén kiképzett modell egyre valószínűbben dolgozik egyre szűkebb kimeneti tartományban, és a kimenet eltávolodhat az eredeti adatoktól. Ez a modell összeomlásának árulkodó jele: a ritka adatok még ritkábbá válnak. Ez nem jelenti azt, hogy a generatív MI egyhamar le fog állni, mert az ezeket az eszközöket gyártó vállalatok tisztában vannak ezekkel a problémákkal, és észre fogják venni, ha a rendszereik minősége romlani kezd. De ez lelassíthatja a dolgokat. Ahogy a meglévő adatforrások kiszáradnak, vagy elszennyeződnek MI "moslékkal”, a kutatók szerint ez megnehezíti az új belépők versenyét.

Az MI-generált szavak és képek már most kezdik elárasztani a közösségi médiát és a világhálót. A Rice kutatói szerint ezek még az MI-k betanításához használt adathalmazok némelyikében is megbújnak. "A világháló egyre veszélyesebbé válik az adatok keresésének szempontjából” - mondta Sina Alemohammad, a Rice egyik végzős hallgatója, aki azt tanulmányozta, hogy ez a szennyeződés hogyan befolyásolja a képi modelleket. A nagy szereplők is érintettek lesznek: a New York University informatikusai megállapították, hogy ha a képzési adatokban sok az MI által generált tartalom, akkor erősebb számítási teljesítményre van szükség az MI-k képzéséhez - ami több energiát és pénzt jelent. "A modellek már nem skálázódnak úgy, ahogyan skálázódniuk kellene” - mondta Julia Kempe, a munkát vezető N.Y.U.-professzor. A vezető MI modellek betanítása már most is több százmillió dollárba kerül, és elképesztő mennyiségű energiát fogyasztanak, így ez komoly problémát jelenthet.


Végül, van még egy veszély, amelyet már az összeomlás korai szakasza jelent: a sokféleség eróziója. Ez egy olyan kimenetel, amely egyre valószínűbbé válhat, ahogy a vállalatok megpróbálják elkerülni a hibákat és „hallucinációkat”, amelyek gyakran előfordulnak az ágazatban. Ezt akkor a legkönnyebb észrevenni, ha az adatok a sokféleség egy olyan formájának felelnek meg, amelyet vizuálisan felismerhetünk - az emberek arcának. Sina Alemohammad és más kutatok MI által generált arcokon tanítottak be egy MI-t, és a kimenetén ismét egy újat tréningeztek. Három generáció után az MI által generált arcok egyre hasonlóbbak lettek, majd négy generáció után az arcok egymáshoz kezdtek konvergálni. Alemohammad szerint a sokféleség csökkenése „rejtett veszélyt jelent”. „Lehet, hogy egyszerűen nem veszünk róla tudomást, és addig nem vesszük észre, amíg nem túl késő”.

Akárcsak a festmények esetében, a változások akkor a legegyértelműbbek, amikor az adatok nagy része mesterséges intelligencia által generált. A valós és szintetikus adatok reálisabb keveréke esetén a csökkenés fokozatosabb. De a probléma a valós világra is vonatkozik, mondták a kutatók, és elkerülhetetlenül bekövetkezik, hacsak az MI-cégek nem tesznek valamit a saját kimenetük elkerülése érdekében. Kapcsolódó kutatások azt mutatják, hogy amikor a nyelvi modelleket saját szavaikon képzik ki, szókincsük összezsugorodik, és mondataik nyelvtani szerkezete kevésbé változatos lesz - ez a „nyelvi sokszínűség” elvesztését jelenti. A tanulmányok pedig azt találták, hogy ez a folyamat felerősítheti az adatokban lévő torzításokat, és nagyobb valószínűséggel törli a kisebbségekre vonatkozó adatokat.

A kutatás talán legnagyobb tanulsága az, hogy a jó minőségű, változatos adatok értékesek, és a számítógépek számára nehéz utánozni őket. Az egyik megoldás az, hogy az MI-cégek fizetnek ezekért az adatokért, ahelyett, hogy az internetről szednék össze őket, így biztosítva az emberi eredetet és a magas minőséget. Az OpenAI és a Google megállapodott néhány kiadóval és weboldallal, hogy felhasználják az adataikat MI fejlesztéséhez. Az MI kimenetének jobb felismerési módjai szintén segíthetnek enyhíteni ezeket a problémákat. A Google és az OpenAI olyan mesterséges intelligencia „vízjeles” eszközökön dolgozik, amelyek olyan rejtett mintákat vezetnek be, amelyek segítségével azonosítani lehet a mesterséges intelligencia által generált képeket és szövegeket. A kutatók szerint azonban a szövegek vízjelzése kihívást jelent, mivel ezeket a vízjeleket nem mindig lehet megbízhatóan felismerni, és könnyen leszedhetők (például nem biztos, hogy túlélnek egy más nyelvre történő fordítást).

De nem de az egyetlen ok, amiért a vállalatoknak óvatosnak kell lenniük a szintetikus adatokkal. A másik probléma az, hogy az interneten lévő szavak mennyisége korlátos. Egyes szakértők becslései szerint a legnagyobb MI modelleket az interneten elérhető szövegek néhány százalékán képezték ki. Előrejelzéseik szerint ezek a modellek egy évtizeden belül kifogyhatnak a jelenlegi növekedési ütemük fenntartásához szükséges nyilvános adatokból. "Ezek a modellek olyan hatalmasak, hogy a teljes interneten lévő képek és beszélgetések összessége se biztos, hogy elég” - mondta Richard Baraniuk professzor, aki a képmodellek kutatását vezette. Növekvő adatigényük kielégítése érdekében egyes vállalatok azt fontolgatják, hogy a mai MI modellekkel adatokat generálnak a holnapi modellek betanításához. A kutatók szerint azonban ez nem kívánt következményekhez vezethet (például a minőség vagy a sokszínűség csökkenéséhez, amit fentebb láttunk).

Vannak bizonyos kontextusok, ahol a szintetikus adatok segíthetnek az MI-nek a tanulásban - például amikor egy nagyobb modell kimenetét használják egy kisebb modell betanításához, vagy amikor a helyes válasz ellenőrizhető, mint például egy matematikai probléma megoldása vagy a legjobb stratégiák olyan játékokban, mint a sakk vagy a Go. Egy új kutatás pedig azt sugallja, hogy amikor az emberek szintetikus adatokat ellenőriznek (például az MI válaszok rangsorolásával és a legjobb kiválasztásával), az enyhítheti az összeomlással járó problémák egy részét. Kempe professzor szerint a vállalatok már most is sokat költenek az adatok kurátori kezelésére, és úgy véli, hogy ez még fontosabbá válik, ahogy megismerik a szintetikus adatok problémáit. De egyelőre nem lehet helyettesíteni a valódit.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • kvp #3
    Az MI nem hisz semmit. Egyszeruen az MI kimenetek felcimkezetlensege miatt a a mas altal gyartott szandekosan hazug es/vagy veletlenul hibas kimeneteket veszi tanulo informacionak. Ennek oka az, hogy eddig is szinte teljesen szuretlenul adtak be az adatokat az MI-knek. Angolul ez a "garbage in - garbage out" szolas.

    Sokan mondtak mar az elejen, hogy ha szuretlenul kapja az adatokat egy MI, akkor megbizhatatlan lesz. E melle jott az, hogy sok esetben direkt maniakus hazudozonak tanitottak be oket, hogy magasabb legyen az elfogadottsaguk. Azt is mondtak, hogy ha nem jelolik egyertelmuen es nem veszik ki a betanitasi adatok kozzul az MI generaltakat, akkor folyamatosan romlani fog a hibas feedback miatt a betanitasi minoseg. (es mellekesen a keresok talalatai is megtelnek szemettel) Ez bekovetkezett.

    Semmilyen filozofia nincs, minden neuralis halozat ezt produkalja, ha a sajat kimenetet kotod be tanulasi celnak. Egy ido utan mar csak feher zajt general.
  • NEXUS6 #2
    Had általánosítsam a képet. Valójában minden egyes emberi generáció elköveti a kognitív autofelláció ezen érdekes változatát, mert okosabbnak hiszi magát egy ideig, mint az előző generáció, ahogy az is az újnál, ezáltal csak saját termékeit hajlandó fogyasztani, amely által aztán sikerül is újragenerálni minden egyes történelmi problémát, és a hozzákapcsolódó tragédiát, amit csak nagyjából a sumérok óta el lehetett követni! ;)
    Utoljára szerkesztette: NEXUS6, 2024.08.27. 14:48:35
  • ZenMillitia #1
    az a baj,ha nem programozzak le,hogy ez orvosolva legyen.