SG.hu·

A Wikipédia betiltotta az MI által generált tartalmak nagy részét

A Wikipédia betiltotta az MI által generált tartalmak nagy részét
A közösségi enciklopédia szerint a nagy nyelvi modellek által készített tartalmak gyakran sértik az alapvető szerkesztési és forráshasználati elveket. A döntést hónapokig tartó vita előzte meg, a cél, hogy a Wikipédia továbbra is megbízható és emberi szerkesztők által ellenőrzött forrás maradjon.

A Wikipédia megtiltotta a nagy nyelvi modellek által generált tartalmak közzétételét a platformján, két kivételtől eltekintve. A platform közlése szerint a ChatGPT, a Claude, a DeepSeek és a Google Gemini által létrehozott mesterséges intelligencia tartalmak gyakran „megsértik a Wikipédia több alapvető tartalmi szabályzatát”. A Wikipédia két kivételt határozott meg az MI használatával kapcsolatban. Az első kivétel szerint a szerkesztők használhatják a nagy nyelvi modelleket szövegszerkesztési javításokra, például stilisztikai vagy nyelvtani korrekciókra, amennyiben az MI nem hoz létre saját tartalmat az adott szöveg részeként.

A bejelentés szerint „óvatosságra van szükség, mert a nagy nyelvi modellek túlléphetnek azon, amit kérnek tőlük, és úgy módosíthatják a szöveg jelentését, hogy az már nem támasztható alá a hivatkozott forrásokkal”. A Wikipédia azt is elismerte, hogy egyes szerzők és szerkesztők írásstílusa hasonlíthat egy nagy nyelvi modell stílusára. „A szankciók indoklásához több bizonyíték szükséges, mint pusztán stilisztikai vagy nyelvi jelek, és a legjobb, ha azt vizsgáljuk, hogy a szöveg megfelel-e az alapvető tartalmi szabályoknak, valamint hogy milyen legutóbbi szerkesztéseket végzett az érintett szerkesztő” áll a közleményben.

A második kivétel a fordításra vonatkozik. A Wikipédia szerint a szerkesztők „használhatják a nagy nyelvi modelleket arra, hogy egy másik nyelvű Wikipédia cikkeiből fordítást készítsenek az angol Wikipédia számára, de követniük kell a Wikipédia nagy nyelvi modellek által segített fordításra vonatkozó útmutatását”. A döntést hónapokon át tartó „heves vita” előzte meg. A szabályzatot a Wikiproject AI Cleanup nevű kezdeményezés közreműködésével dolgozták ki. A projekt oldalán az olvasható, hogy „sok nagy nyelvi modellek által generált szöveg került be a Wikipédiába 2022 és 2026 között”. „A projekt célja, hogy azonosítsa és kezelje a mesterséges intelligencia cikkekben történő helytelen használatát.”

A Wikimedia Foundation szóvivője azt mondta: „A Wikipédia ereje mindig is az emberközpontú, önkéntesek által működtetett modellben rejlett, és ez a jövőben is így marad. Az önkéntesek addig vitatják és elemzik a kérdéseket, amíg közös konszenzusra nem jutnak arról, hogy milyen információ kerüljön be, és hogyan jelenjen meg az adott tartalom” - mondta a szóvivő. „Ez a folyamat teljes mértékben nyíltan zajlik. Minden szerkesztés megtekinthető az előzményoldalakon, és minden vita elérhető a cikkek beszélgetési oldalain. Az önkéntesek rendszeresen megvitatják, felülvizsgálják és idővel továbbfejlesztik a szabályzatokat és irányelveket annak érdekében, hogy a Wikipédia továbbra is megbízható és semleges forrás maradjon mindenki számára.”

A Reddit r/wikipedia fórumán sok kommentelő úgy vélte, hogy a Wikipédia jó döntést hozott. „Ez így helyes. Most pedig adományozzatok, ha megengedhetitek magatoknak” - írta az egyik felhasználó. Egy másik hozzászóló azt írta: „Az MI által generált tartalom elkerülhetetlenül nem felel meg a Wikipédia kutatási és szerkesztési követelményeinek. A nagy nyelvi modellek képtelenek bizonyítékokat átfogó érveléssé összeállítani, ehelyett arra támaszkodnak, hogy az ilyen összegzés már eleve megtalálható legyen a tudásbázisukban. És akkor még nem is beszéltünk arról a hajlamukról, hogy forrásokat találjanak ki és hamis hivatkozásokat generáljanak.”

Más hozzászólók egy másik problémára is felhívták a figyelmet. „A nagy nyelvi modelleket fejlesztő cégek a Wikipédián található adatokat is felhasználják a modelljeik tanítására” - írta egy felhasználó. „A Wikimedia szempontjából ezért nagyon bölcs döntés elkerülni ezt, és megelőzni az úgynevezett modellösszeomlást, különben fennáll a veszélye, hogy elveszítik a legújabb bevételi forrásukat.” Ugyanakkor néhány kritikus felvetette a kérdést, hogy a Wikipédia miként tudja majd ellenőrizni a szabály betartását. „Az a kérdés, hogyan lehet megbízhatóan megállapítani, hogy egy szöveget nagy nyelvi modell írt” - kérdezte egy hozzászóló. „Valószínűleg végül úgyis a már létező szabályokhoz kell visszatérni.”

Kapcsolódó cikkek és linkek

Hozzászólások

Jelentkezz be a hozzászóláshoz.

Nem érkezett még hozzászólás. Legyél Te az első!