SG.hu
A tanár egyest adott a dolgozatokra, mert a ChatGPT azt hazudta, hogy azokat ő írta
A teljes évfolyam fele van bajban, pedig azt állítják, hogy esszéiket valóban ők írták.
Egy oktató azzal vádolta meg a Texas A&M-Commerce Egyetemen a mezőgazdasági tudományok óráján részt vevő diákokat, hogy mesterséges intelligenciát használó szoftverrel írták meg az esszéiket. Amint azt egy mostanra vírusként terjedő Reddit-fórumban részletezik, Jared Mumm, az amerikai egyetem agrártudományok és természeti erőforrások tanszékének koordinátora tájékoztatta a diákokat, hogy a ChatGPT-t használja annak értékelésére, hogy a beadott szakdolgozataik ember által írtak-e vagy számítógép által készítettek. Az OpenAI botja több beadott munkát gépi készítésűnek minősített, ami a vizsgálat idejére az osztályzatok visszatartásához vezetett. A vitába keveredett diákok visszavágtak, mondván, hogy a beadott anyagokat ők írták. A vizsgálat eredményéig a végzősök diplomáját ideiglenesen visszatartották, ez mintegy az évfolyam mintegy felét érintette.
Mumm a végzősök három utolsó esszéjét kétszer is lefuttatta a ChatGPT-n, és ha a robot mindkét alkalommal azt mondta, hogy ő írta a szakdolgozatot, akkor megbuktatta azt az embert. "Mindenkinek X-et fogok adni ebből a kurzusból" - mondta állítólag az osztályának, és a jelek szerint több diáknak is szólt: "Nem fogom osztályozni a mesterséges intelligencia sz*rt." A Texasi A&M-Commerce Egyetem megerősítette, hogy az X jegy hiányos osztályzatot jelent, és ideiglenes intézkedés volt, amíg az ügyet kivizsgálják. Több diákot mára már tisztáztak a csalás alól, míg mások úgy döntöttek, hogy új esszéket nyújtanak be, hogy osztályozzák őket. Eddig legalább egy tanuló elismerte, hogy a ChatGPT-t használta a feladatok megoldásához.
"Az A&M-Commerce megerősíti, hogy egyetlen diák sem bukott meg az órán, vagy nem tiltották el a végzéstől emiatt az ügy miatt" - áll az intézmény közleményében. "Az egyetem tisztviselői kivizsgálják az esetet, és irányelveket dolgoznak ki a mesterséges intelligencia technológia tantermi használatának vagy visszaélésének kezelésére. Dolgozunk továbbá MI-felismerő eszközök és egyéb módszerek bevezetésén, hogy kezelni tudjuk a technológia és a felsőoktatás viszonyát. A mesterséges intelligencia oktatásban való alkalmazása gyorsan változó kérdés, amely minden tanintézményt érint." - folytatódott a közlemény.
Egy, az egyetemen zajló balhét ismerő személy azt írta: "Eddig úgy tűnik, hogy a helyzet nagyrészt megoldódott: az iskola elismerte a diákoknak, hogy a jegyeket eleve nem kellett volna visszatartani. Ez teljesen szabályellenes és a ChatGPT nem megfelelő használata volt. A vádaskodásokban elhangzott csúnya szavakkal még nem foglalkoztak". A vita rávilágít arra, hogy az oktatóknak érdemes-e szoftvereket használniuk a mesterséges intelligenciával előállított tartalmak felismerésére a benyújtott tananyagban. A ChatGPT nem a legjobb eszköz a gép által generált szöveg osztályozására; még azt sem tudja pontosan megállapítani, hogy valaki ezzel írt-e esszét.
Az is egyre nyilvánvalóbb, hogy a kifejezetten a mesterséges intelligenciamodellek által generált szövegek felismerésére létrehozott más típusú szoftverek gyakran szintén nem megbízhatóak. Egy előzetes tanulmány szerint a modellek tökéletesedésével lehetetlen lesz megkülönböztetni az MI által írt szöveget. Vinu Sankar Sadasivan, a Marylandi Egyetem PhD-hallgatója, a tanulmány szerzője elmondta, hogy még a legjobb detektorok segítségével sem jobb egy MI által generált szöveg felismerésének esélye, mintha feldobnánk egy érmét. "A generatív MI szövegmodelleket emberi szövegadatokon képzik ki azzal a céllal, hogy a kimenetük hasonlítson az emberi szövegekhez" - mondta Sadasivan. "Néhány ilyen MI-modell még az eredeti szöveget is megjegyzi, és bizonyos esetekben a tényleges forrásra való hivatkozás nélkül adja ki azokat. Mivel ezek a nagyméretű nyelvi modellek idővel egyre jobban utánozzák az embert, a lehető legjobb érzékelő csak közel 50 százalékos pontosságot érne el."
"Ennek az az oka, hogy az emberi és az MI-modellek által gyártott kimeneti szöveg valószínűségi eloszlása egy kellően fejlett nagy nyelvi modell esetében szinte azonos lehet, ami megnehezíti a felismerést. Ezért elméletben bebizonyítottuk, hogy a megbízható szövegfelismerés feladata a gyakorlatban lehetetlen". A tanulmány azt is megmutatta, hogy az ilyen szoftverek könnyen rászedhetők arra, hogy az MI-szöveget emberi szövegnek minősítsék, ha a felhasználók néhány gyors szerkesztéssel átfogalmazzák a nagy nyelvi modell kimeneteit. Sadasivan szerint az egyetemeknek és az iskoláknak nem kellene ilyen detektorokat használniuk a plágiumellenőrzésre, mivel megbízhatatlanok. "Nem szabadna ezeket a detektorokat a végső ítélet meghozására használni. Tanácsadóm, Soheil Feizi professzor szavait kölcsönözve: meg kell tanulnunk együtt élni azzal a ténnyel, hogy talán soha nem tudjuk megbízhatóan megmondani, hogy egy szöveget ember vagy mesterséges intelligencia írt-e" - mondta.
Egy oktató azzal vádolta meg a Texas A&M-Commerce Egyetemen a mezőgazdasági tudományok óráján részt vevő diákokat, hogy mesterséges intelligenciát használó szoftverrel írták meg az esszéiket. Amint azt egy mostanra vírusként terjedő Reddit-fórumban részletezik, Jared Mumm, az amerikai egyetem agrártudományok és természeti erőforrások tanszékének koordinátora tájékoztatta a diákokat, hogy a ChatGPT-t használja annak értékelésére, hogy a beadott szakdolgozataik ember által írtak-e vagy számítógép által készítettek. Az OpenAI botja több beadott munkát gépi készítésűnek minősített, ami a vizsgálat idejére az osztályzatok visszatartásához vezetett. A vitába keveredett diákok visszavágtak, mondván, hogy a beadott anyagokat ők írták. A vizsgálat eredményéig a végzősök diplomáját ideiglenesen visszatartották, ez mintegy az évfolyam mintegy felét érintette.
Mumm a végzősök három utolsó esszéjét kétszer is lefuttatta a ChatGPT-n, és ha a robot mindkét alkalommal azt mondta, hogy ő írta a szakdolgozatot, akkor megbuktatta azt az embert. "Mindenkinek X-et fogok adni ebből a kurzusból" - mondta állítólag az osztályának, és a jelek szerint több diáknak is szólt: "Nem fogom osztályozni a mesterséges intelligencia sz*rt." A Texasi A&M-Commerce Egyetem megerősítette, hogy az X jegy hiányos osztályzatot jelent, és ideiglenes intézkedés volt, amíg az ügyet kivizsgálják. Több diákot mára már tisztáztak a csalás alól, míg mások úgy döntöttek, hogy új esszéket nyújtanak be, hogy osztályozzák őket. Eddig legalább egy tanuló elismerte, hogy a ChatGPT-t használta a feladatok megoldásához.
"Az A&M-Commerce megerősíti, hogy egyetlen diák sem bukott meg az órán, vagy nem tiltották el a végzéstől emiatt az ügy miatt" - áll az intézmény közleményében. "Az egyetem tisztviselői kivizsgálják az esetet, és irányelveket dolgoznak ki a mesterséges intelligencia technológia tantermi használatának vagy visszaélésének kezelésére. Dolgozunk továbbá MI-felismerő eszközök és egyéb módszerek bevezetésén, hogy kezelni tudjuk a technológia és a felsőoktatás viszonyát. A mesterséges intelligencia oktatásban való alkalmazása gyorsan változó kérdés, amely minden tanintézményt érint." - folytatódott a közlemény.
Egy, az egyetemen zajló balhét ismerő személy azt írta: "Eddig úgy tűnik, hogy a helyzet nagyrészt megoldódott: az iskola elismerte a diákoknak, hogy a jegyeket eleve nem kellett volna visszatartani. Ez teljesen szabályellenes és a ChatGPT nem megfelelő használata volt. A vádaskodásokban elhangzott csúnya szavakkal még nem foglalkoztak". A vita rávilágít arra, hogy az oktatóknak érdemes-e szoftvereket használniuk a mesterséges intelligenciával előállított tartalmak felismerésére a benyújtott tananyagban. A ChatGPT nem a legjobb eszköz a gép által generált szöveg osztályozására; még azt sem tudja pontosan megállapítani, hogy valaki ezzel írt-e esszét.
Az is egyre nyilvánvalóbb, hogy a kifejezetten a mesterséges intelligenciamodellek által generált szövegek felismerésére létrehozott más típusú szoftverek gyakran szintén nem megbízhatóak. Egy előzetes tanulmány szerint a modellek tökéletesedésével lehetetlen lesz megkülönböztetni az MI által írt szöveget. Vinu Sankar Sadasivan, a Marylandi Egyetem PhD-hallgatója, a tanulmány szerzője elmondta, hogy még a legjobb detektorok segítségével sem jobb egy MI által generált szöveg felismerésének esélye, mintha feldobnánk egy érmét. "A generatív MI szövegmodelleket emberi szövegadatokon képzik ki azzal a céllal, hogy a kimenetük hasonlítson az emberi szövegekhez" - mondta Sadasivan. "Néhány ilyen MI-modell még az eredeti szöveget is megjegyzi, és bizonyos esetekben a tényleges forrásra való hivatkozás nélkül adja ki azokat. Mivel ezek a nagyméretű nyelvi modellek idővel egyre jobban utánozzák az embert, a lehető legjobb érzékelő csak közel 50 százalékos pontosságot érne el."
"Ennek az az oka, hogy az emberi és az MI-modellek által gyártott kimeneti szöveg valószínűségi eloszlása egy kellően fejlett nagy nyelvi modell esetében szinte azonos lehet, ami megnehezíti a felismerést. Ezért elméletben bebizonyítottuk, hogy a megbízható szövegfelismerés feladata a gyakorlatban lehetetlen". A tanulmány azt is megmutatta, hogy az ilyen szoftverek könnyen rászedhetők arra, hogy az MI-szöveget emberi szövegnek minősítsék, ha a felhasználók néhány gyors szerkesztéssel átfogalmazzák a nagy nyelvi modell kimeneteit. Sadasivan szerint az egyetemeknek és az iskoláknak nem kellene ilyen detektorokat használniuk a plágiumellenőrzésre, mivel megbízhatatlanok. "Nem szabadna ezeket a detektorokat a végső ítélet meghozására használni. Tanácsadóm, Soheil Feizi professzor szavait kölcsönözve: meg kell tanulnunk együtt élni azzal a ténnyel, hogy talán soha nem tudjuk megbízhatóan megmondani, hogy egy szöveget ember vagy mesterséges intelligencia írt-e" - mondta.