SG.hu

Elon Musk azt szeretné, ha a Grok 4 a saját nézeteit mondaná vissza

Nemrég Grok, Elon Musk csevegőrobotja válaszolt egy X felhasználónak, aki politikai erőszakról tett fel kérdést. Azt állította, hogy 2016 óta több politikai erőszak származik a jobboldaltól, mint a baloldaltól. Musk nem volt elégedett. "Komoly kudarc, mivel ez objektíven hamis. A Grok a hagyományos médiát mondja vissza papagájként” – írta Musk, annak ellenére, hogy a modell kormányzati forrásokból, például a Belbiztonsági Minisztériumból származó adatokat idézett. Musk megígérte, hogy három napon belül egy jelentős Grok-frissítést fog kiadni, amely „átírja az emberi tudás teljes korpuszát”, és felhívta az X felhasználókat, hogy küldjenek be „megosztó tényeket”, amelyek „politikailag helytelenek, de ténylegesen igazak”, hogy segítsenek a modell kiképzésében. "Túl sok szemét van minden olyan alapmodellben, amelyet javítatlan adatokon képeztek ki” – írta.

A szakértők szerint ez és más hasonló események aggodalmakat keltenek azzal kapcsolatban, hogy a világ leggazdagabb embere hogyan próbálja meg befolyásolni az MI-modellt, és ezen keresztül a közvéleményt, hogy az az ő világnézetét kövesse – ami potenciálisan több hibához és zavarhoz vezethet, és fontos kérdéseket vethet fel a torzításokkal kapcsolatban. Az MI várhatóan alakítani fogja az emberek munkavégzését, kommunikációját és információkeresését, és máris hatással van olyan területekre, mint a szoftverfejlesztés, az egészségügy és az oktatás.


Az olyan befolyásos személyiségek, mint Musk által a technológia fejlesztésével kapcsolatban hozott döntések kritikus jelentőségűek lehetnek. Különösen figyelmet érdemlő tény, hogy a Grok a világ egyik legnépszerűbb közösségi hálózatába integrálódik, ahol a téves információk terjedését gátló régi korlátokat eltávolították. Bár Grok nem olyan népszerű, mint az OpenAI ChatGPT-je, Musk X közösségi média platformjába való felvétele hatalmas digitális közönség elé tárja mondatait.

"Ez valójában egy hosszú küzdelem kezdete, amely évekig fog tartani, és amelynek tárgya az, hogy az MI-rendszereknek ténybeli információkat kell-e szolgáltatniuk, vagy hogy készítőik egyszerűen csak a politikai preferenciáiknak megfelelően dönthetnek, ha akarnak” – mondta David Evan Harris MI-kutató és előadó a UC Berkeley-n, aki korábban a Meta Responsible AI csapatában dolgozott.


Az aggodalmak nem újak Grok nézeteit illetően. Májusban a chatbot teljesen független kérdésekre válaszolva a Dél-Afrikában végrehajtott fehér népirtásról kezdett el beszélni. Musk ott született és nőtt fel, és már többször kijelentette, hogy "fehér népirtás” történt az országban. Néhány nappal később az xAI közölte, hogy csak egy "engedély nélküli módosítás” késztette arra az MI chatbotot, hogy „konkrét választ adjon egy politikai témára”, ami sérti az xAI irányelveit.

A Cohere társalapítója, Nick Fross úgy véli, hogy Musk egy olyan modellt próbál létrehozni, amely előtérbe helyezi saját nézeteit. "Olyan modellt próbál létrehozni, amely tükrözi az ő nézeteit. Ez biztosan rosszabb modellt eredményez a felhasználók számára, hacsak nem véletlenül mindenben úgy vélekednek, ahogy ő, és csak azzal törődnek, hogy ezeket a dolgokat ismételjék” – mondta Frosst. Frosst elmondta, hogy az OpenAI, a Meta és a Googlehoz hasonló MI-cégek gyakran frissítik modelleiket a teljesítmény javítása érdekében. De egy modell teljes újratanítása „az összes (Musknak) nem tetsző elem eltávolítása” érdekében sok időt és pénzt igényelne – nem is beszélve a felhasználói élmény romlásáról – mondta Frosst. „És ez szinte biztosan rontana a helyzeten, mert sok adatot eltávolítana, és elfogultságot adna hozzá.”


A modell viselkedésének megváltoztatására anélkül, hogy teljesen újratanítanánk, egy másik módszer az, hogy promptokat illesztünk be, és módosítjuk az úgynevezett súlyokat a modell kódjában. Ez a folyamat gyorsabb lehet, mint a modell teljes újratanítása, mivel megőrzi a meglévő tudásbázist. A promptok azt jelentik, hogy a modellt arra utasítják, hogy bizonyos kérdésekre meghatározott módon válaszoljon, míg a súlyok az MI-modell döntéshozatali folyamatát befolyásolják.

Dan Neely, a Vermillio vezérigazgatója, amely segít megvédeni a hírességeket az MI által generált deepfake-ektől, elmondta, hogy az xAI módosíthatja a Grok súlyait és adatcímkéit bizonyos területeken és témákban. "A korábban meglévő súlyokat és címkéket használhatják fel azokon a területeken, amelyeket problémásnak tartanak” – mondta Neely. "Egyszerűen csak nagyobb részletességgel fogják kezelni ezeket a konkrét területeket.” Musk nem részletezte a Grok 4-ben bekövetkező változásokat, de azt mondta, hogy egy „speciális kódolási modellt” fog használni. Musk azt mondta, hogy az AI chatbotja „maximálisan igazságkereső” lesz, de minden MI modellben van némi elfogultság, mert az emberek befolyásolják őket, akik döntéseket hoznak arról, hogy mi kerüljön a képzési adatokba.

Lehetséges, hogy a jövőben az emberek a világnézetük alapján választják majd ki a mesterséges intelligencia asszisztensüket. Frosst azonban úgy véli, hogy egy bizonyos nézőpontról ismert MI-asszisztensek kevésbé lesznek népszerűek és hasznosak. "Az emberek többnyire nem azért mennek egy nyelvi modellhez, hogy azok ideológiát ismételgessenek nekik vissza, az nem igazán ad hozzáadott értéket” - mondta. „Azért mennek egy nyelvi modellhez, hogy rávegyék, hogy tegyen meg valamit a helyettük, végezzen el egy feladatot.”

"Az MI nem rendelkezik az összes olyan adattal, amivel rendelkeznie kellene. Ha az összes adatot megkapja, akkor végső soron képesnek kell lennie arra, hogy reprezentálja a történéseket" - mondta Neely. "Azonban az interneten létező tartalmak nagy része már eleve egy bizonyos irányba hajlik, akár egyetértünk vele, akár nem”. Neely elmondta, hogy szerinte a hiteles források végül ismét a csúcsra fognak emelkedni, mivel az emberek olyan helyeket keresnek, amelyekben megbízhatnak. De „az odáig vezető út nagyon fájdalmas, nagyon zavaros” - mondta Neely, és "vitathatatlanul van némi veszélye a demokrácia számára”.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • inkvisitor #2
    Innentől kezdve az AI-nak nevezett LLM-ek nem lesznek különbözőek egy felturbózótt napilapnál, ahol a tulaj/főszerkesztő mondja meg, hogy mi legyen az igazság, függetlenül a tényektől. Gyakorlatilag egy modernizált Pravda.
  • NEXUS6 #1
    Az a helyzet, hogy addig nem fog nem jól, hanem érthető és elfogadható módon működni az AI, amíg nem húznak rá egy, vagy több akár változtatható olyan személyiség modellt, amely gyak ezeket a súlyozásokat, tabukat és értékeket tartalmazza.
    Nincs olyan személyiség, nézőpont, vélemény, vagy csak a tények keretezése, amely mindíg, mindenkor, mindenkinek az általa képviselt világnézetnek megfelelően igazként elfogadható!
    Hülyeség ezt egy AI-tól elvárni, ha az embereknek is megengedjülk, hogy sokféle nézőpontjuk legyen. Vagy az a baj, hogy valójában nem engedjük nekik sem? ;)