SG.hu
Elon Musk azt szeretné, ha a Grok 4 a saját nézeteit mondaná vissza
Nemrég Grok, Elon Musk csevegőrobotja válaszolt egy X felhasználónak, aki politikai erőszakról tett fel kérdést. Azt állította, hogy 2016 óta több politikai erőszak származik a jobboldaltól, mint a baloldaltól. Musk nem volt elégedett. "Komoly kudarc, mivel ez objektíven hamis. A Grok a hagyományos médiát mondja vissza papagájként” – írta Musk, annak ellenére, hogy a modell kormányzati forrásokból, például a Belbiztonsági Minisztériumból származó adatokat idézett. Musk megígérte, hogy három napon belül egy jelentős Grok-frissítést fog kiadni, amely „átírja az emberi tudás teljes korpuszát”, és felhívta az X felhasználókat, hogy küldjenek be „megosztó tényeket”, amelyek „politikailag helytelenek, de ténylegesen igazak”, hogy segítsenek a modell kiképzésében. "Túl sok szemét van minden olyan alapmodellben, amelyet javítatlan adatokon képeztek ki” – írta.
A szakértők szerint ez és más hasonló események aggodalmakat keltenek azzal kapcsolatban, hogy a világ leggazdagabb embere hogyan próbálja meg befolyásolni az MI-modellt, és ezen keresztül a közvéleményt, hogy az az ő világnézetét kövesse – ami potenciálisan több hibához és zavarhoz vezethet, és fontos kérdéseket vethet fel a torzításokkal kapcsolatban. Az MI várhatóan alakítani fogja az emberek munkavégzését, kommunikációját és információkeresését, és máris hatással van olyan területekre, mint a szoftverfejlesztés, az egészségügy és az oktatás.
Az olyan befolyásos személyiségek, mint Musk által a technológia fejlesztésével kapcsolatban hozott döntések kritikus jelentőségűek lehetnek. Különösen figyelmet érdemlő tény, hogy a Grok a világ egyik legnépszerűbb közösségi hálózatába integrálódik, ahol a téves információk terjedését gátló régi korlátokat eltávolították. Bár Grok nem olyan népszerű, mint az OpenAI ChatGPT-je, Musk X közösségi média platformjába való felvétele hatalmas digitális közönség elé tárja mondatait.
"Ez valójában egy hosszú küzdelem kezdete, amely évekig fog tartani, és amelynek tárgya az, hogy az MI-rendszereknek ténybeli információkat kell-e szolgáltatniuk, vagy hogy készítőik egyszerűen csak a politikai preferenciáiknak megfelelően dönthetnek, ha akarnak” – mondta David Evan Harris MI-kutató és előadó a UC Berkeley-n, aki korábban a Meta Responsible AI csapatában dolgozott.
Az aggodalmak nem újak Grok nézeteit illetően. Májusban a chatbot teljesen független kérdésekre válaszolva a Dél-Afrikában végrehajtott fehér népirtásról kezdett el beszélni. Musk ott született és nőtt fel, és már többször kijelentette, hogy "fehér népirtás” történt az országban. Néhány nappal később az xAI közölte, hogy csak egy "engedély nélküli módosítás” késztette arra az MI chatbotot, hogy „konkrét választ adjon egy politikai témára”, ami sérti az xAI irányelveit.
A Cohere társalapítója, Nick Fross úgy véli, hogy Musk egy olyan modellt próbál létrehozni, amely előtérbe helyezi saját nézeteit. "Olyan modellt próbál létrehozni, amely tükrözi az ő nézeteit. Ez biztosan rosszabb modellt eredményez a felhasználók számára, hacsak nem véletlenül mindenben úgy vélekednek, ahogy ő, és csak azzal törődnek, hogy ezeket a dolgokat ismételjék” – mondta Frosst. Frosst elmondta, hogy az OpenAI, a Meta és a Googlehoz hasonló MI-cégek gyakran frissítik modelleiket a teljesítmény javítása érdekében. De egy modell teljes újratanítása „az összes (Musknak) nem tetsző elem eltávolítása” érdekében sok időt és pénzt igényelne – nem is beszélve a felhasználói élmény romlásáról – mondta Frosst. „És ez szinte biztosan rontana a helyzeten, mert sok adatot eltávolítana, és elfogultságot adna hozzá.”
A modell viselkedésének megváltoztatására anélkül, hogy teljesen újratanítanánk, egy másik módszer az, hogy promptokat illesztünk be, és módosítjuk az úgynevezett súlyokat a modell kódjában. Ez a folyamat gyorsabb lehet, mint a modell teljes újratanítása, mivel megőrzi a meglévő tudásbázist. A promptok azt jelentik, hogy a modellt arra utasítják, hogy bizonyos kérdésekre meghatározott módon válaszoljon, míg a súlyok az MI-modell döntéshozatali folyamatát befolyásolják.
Dan Neely, a Vermillio vezérigazgatója, amely segít megvédeni a hírességeket az MI által generált deepfake-ektől, elmondta, hogy az xAI módosíthatja a Grok súlyait és adatcímkéit bizonyos területeken és témákban. "A korábban meglévő súlyokat és címkéket használhatják fel azokon a területeken, amelyeket problémásnak tartanak” – mondta Neely. "Egyszerűen csak nagyobb részletességgel fogják kezelni ezeket a konkrét területeket.” Musk nem részletezte a Grok 4-ben bekövetkező változásokat, de azt mondta, hogy egy „speciális kódolási modellt” fog használni. Musk azt mondta, hogy az AI chatbotja „maximálisan igazságkereső” lesz, de minden MI modellben van némi elfogultság, mert az emberek befolyásolják őket, akik döntéseket hoznak arról, hogy mi kerüljön a képzési adatokba.
Lehetséges, hogy a jövőben az emberek a világnézetük alapján választják majd ki a mesterséges intelligencia asszisztensüket. Frosst azonban úgy véli, hogy egy bizonyos nézőpontról ismert MI-asszisztensek kevésbé lesznek népszerűek és hasznosak. "Az emberek többnyire nem azért mennek egy nyelvi modellhez, hogy azok ideológiát ismételgessenek nekik vissza, az nem igazán ad hozzáadott értéket” - mondta. „Azért mennek egy nyelvi modellhez, hogy rávegyék, hogy tegyen meg valamit a helyettük, végezzen el egy feladatot.”
"Az MI nem rendelkezik az összes olyan adattal, amivel rendelkeznie kellene. Ha az összes adatot megkapja, akkor végső soron képesnek kell lennie arra, hogy reprezentálja a történéseket" - mondta Neely. "Azonban az interneten létező tartalmak nagy része már eleve egy bizonyos irányba hajlik, akár egyetértünk vele, akár nem”. Neely elmondta, hogy szerinte a hiteles források végül ismét a csúcsra fognak emelkedni, mivel az emberek olyan helyeket keresnek, amelyekben megbízhatnak. De „az odáig vezető út nagyon fájdalmas, nagyon zavaros” - mondta Neely, és "vitathatatlanul van némi veszélye a demokrácia számára”.
A szakértők szerint ez és más hasonló események aggodalmakat keltenek azzal kapcsolatban, hogy a világ leggazdagabb embere hogyan próbálja meg befolyásolni az MI-modellt, és ezen keresztül a közvéleményt, hogy az az ő világnézetét kövesse – ami potenciálisan több hibához és zavarhoz vezethet, és fontos kérdéseket vethet fel a torzításokkal kapcsolatban. Az MI várhatóan alakítani fogja az emberek munkavégzését, kommunikációját és információkeresését, és máris hatással van olyan területekre, mint a szoftverfejlesztés, az egészségügy és az oktatás.
Major fail, as this is objectively false. Grok is parroting legacy media.
— Elon Musk (@elonmusk) June 18, 2025
Working on it.
Az olyan befolyásos személyiségek, mint Musk által a technológia fejlesztésével kapcsolatban hozott döntések kritikus jelentőségűek lehetnek. Különösen figyelmet érdemlő tény, hogy a Grok a világ egyik legnépszerűbb közösségi hálózatába integrálódik, ahol a téves információk terjedését gátló régi korlátokat eltávolították. Bár Grok nem olyan népszerű, mint az OpenAI ChatGPT-je, Musk X közösségi média platformjába való felvétele hatalmas digitális közönség elé tárja mondatait.
"Ez valójában egy hosszú küzdelem kezdete, amely évekig fog tartani, és amelynek tárgya az, hogy az MI-rendszereknek ténybeli információkat kell-e szolgáltatniuk, vagy hogy készítőik egyszerűen csak a politikai preferenciáiknak megfelelően dönthetnek, ha akarnak” – mondta David Evan Harris MI-kutató és előadó a UC Berkeley-n, aki korábban a Meta Responsible AI csapatában dolgozott.
We will use Grok 3.5 (maybe we should call it 4), which has advanced reasoning, to rewrite the entire corpus of human knowledge, adding missing information and deleting errors.
— Elon Musk (@elonmusk) June 21, 2025
Then retrain on that.
Far too much garbage in any foundation model trained on uncorrected data.
Az aggodalmak nem újak Grok nézeteit illetően. Májusban a chatbot teljesen független kérdésekre válaszolva a Dél-Afrikában végrehajtott fehér népirtásról kezdett el beszélni. Musk ott született és nőtt fel, és már többször kijelentette, hogy "fehér népirtás” történt az országban. Néhány nappal később az xAI közölte, hogy csak egy "engedély nélküli módosítás” késztette arra az MI chatbotot, hogy „konkrét választ adjon egy politikai témára”, ami sérti az xAI irányelveit.
A Cohere társalapítója, Nick Fross úgy véli, hogy Musk egy olyan modellt próbál létrehozni, amely előtérbe helyezi saját nézeteit. "Olyan modellt próbál létrehozni, amely tükrözi az ő nézeteit. Ez biztosan rosszabb modellt eredményez a felhasználók számára, hacsak nem véletlenül mindenben úgy vélekednek, ahogy ő, és csak azzal törődnek, hogy ezeket a dolgokat ismételjék” – mondta Frosst. Frosst elmondta, hogy az OpenAI, a Meta és a Googlehoz hasonló MI-cégek gyakran frissítik modelleiket a teljesítmény javítása érdekében. De egy modell teljes újratanítása „az összes (Musknak) nem tetsző elem eltávolítása” érdekében sok időt és pénzt igényelne – nem is beszélve a felhasználói élmény romlásáról – mondta Frosst. „És ez szinte biztosan rontana a helyzeten, mert sok adatot eltávolítana, és elfogultságot adna hozzá.”
Very few people know that there is a major political party in South Africa that is actively promoting white genocide.
— Elon Musk (@elonmusk) March 22, 2025
The video below was just yesterday. A whole arena chanting about killing white people.
A month ago, the South African government passed a law legalizing… https://t.co/GHYp6DvGkr
A modell viselkedésének megváltoztatására anélkül, hogy teljesen újratanítanánk, egy másik módszer az, hogy promptokat illesztünk be, és módosítjuk az úgynevezett súlyokat a modell kódjában. Ez a folyamat gyorsabb lehet, mint a modell teljes újratanítása, mivel megőrzi a meglévő tudásbázist. A promptok azt jelentik, hogy a modellt arra utasítják, hogy bizonyos kérdésekre meghatározott módon válaszoljon, míg a súlyok az MI-modell döntéshozatali folyamatát befolyásolják.
Dan Neely, a Vermillio vezérigazgatója, amely segít megvédeni a hírességeket az MI által generált deepfake-ektől, elmondta, hogy az xAI módosíthatja a Grok súlyait és adatcímkéit bizonyos területeken és témákban. "A korábban meglévő súlyokat és címkéket használhatják fel azokon a területeken, amelyeket problémásnak tartanak” – mondta Neely. "Egyszerűen csak nagyobb részletességgel fogják kezelni ezeket a konkrét területeket.” Musk nem részletezte a Grok 4-ben bekövetkező változásokat, de azt mondta, hogy egy „speciális kódolási modellt” fog használni. Musk azt mondta, hogy az AI chatbotja „maximálisan igazságkereső” lesz, de minden MI modellben van némi elfogultság, mert az emberek befolyásolják őket, akik döntéseket hoznak arról, hogy mi kerüljön a képzési adatokba.
Lehetséges, hogy a jövőben az emberek a világnézetük alapján választják majd ki a mesterséges intelligencia asszisztensüket. Frosst azonban úgy véli, hogy egy bizonyos nézőpontról ismert MI-asszisztensek kevésbé lesznek népszerűek és hasznosak. "Az emberek többnyire nem azért mennek egy nyelvi modellhez, hogy azok ideológiát ismételgessenek nekik vissza, az nem igazán ad hozzáadott értéket” - mondta. „Azért mennek egy nyelvi modellhez, hogy rávegyék, hogy tegyen meg valamit a helyettük, végezzen el egy feladatot.”
"Az MI nem rendelkezik az összes olyan adattal, amivel rendelkeznie kellene. Ha az összes adatot megkapja, akkor végső soron képesnek kell lennie arra, hogy reprezentálja a történéseket" - mondta Neely. "Azonban az interneten létező tartalmak nagy része már eleve egy bizonyos irányba hajlik, akár egyetértünk vele, akár nem”. Neely elmondta, hogy szerinte a hiteles források végül ismét a csúcsra fognak emelkedni, mivel az emberek olyan helyeket keresnek, amelyekben megbízhatnak. De „az odáig vezető út nagyon fájdalmas, nagyon zavaros” - mondta Neely, és "vitathatatlanul van némi veszélye a demokrácia számára”.