SG.hu
A ChatGPT hamarosan személyazonosság-ellenőrzést követel majd meg
Az OpenAI bejelentette, hogy automatizált korbecslő rendszert fejleszt, amely meghatározza, hogy a ChatGPT felhasználói 18 év felettiek vagy alatt vannak-e, és a fiatalabb felhasználókat automatikusan az MI chatbot korlátozott verziójára irányítja. A vállalat azt is megerősítette, hogy szeptember végéig bevezetik a szülői felügyeletet.
Blogbejegyzésében Sam Altman, az OpenAI vezérigazgatója elismerte, hogy a vállalat kifejezetten „a biztonságot helyezi előtérbe a tizenévesek magánéletével és szabadságával szemben”, még akkor is, ha ez azt jelenti, hogy a felnőtteknek végül igazolniuk kell a korukat, hogy a szolgáltatás korlátozásmentesebb verzióját használhassák. "Bizonyos esetekben vagy országokban személyi igazolványt is kérhetünk” - írta Altman. „Tudjuk, hogy ez a felnőttek magánéletének sérelmét jelenti, de úgy véljük, hogy ez egy méltó kompromisszum.” Altman elismerte, hogy „nem mindenki fog egyetérteni azzal, ahogyan megoldjuk ezt a konfliktust” a felhasználók magánélete és a tizenévesek biztonsága között.
A bejelentés néhány héttel azután érkezett, hogy egy 16 éves fiú szülei pert indítottak, aki a ChatGPT-vel való kiterjedt interakciók után öngyilkos lett. A per szerint a csevegőrobot részletes utasításokat adott, romantikus képet festett az öngyilkossági módszerekről, és eltántorította a tinédzsert attól, hogy segítséget kérjen a családjától, miközben az OpenAI rendszere 377, önkárosító tartalommal jelölt üzenetet regisztrált beavatkozás nélkül.
A javasolt életkor-becslő rendszer nem triviális technikai feladat az OpenAI számára, és az MI-alapú életkor-felismerés tényleges működőképessége továbbra is jelentős nyitott kérdés. Amikor a fejlesztés alatt álló MI-rendszer 18 év alatti felhasználót azonosít, az OpenAI azt tervezi, hogy automatikusan átirányítja őt egy módosított ChatGPT-élményre, amely blokkolja a szexuális tartalmakat és egyéb, életkornak megfelelő korlátozásokat tartalmaz. A vállalat szerint „a biztonságosabb utat választja”, ha bizonytalan a felhasználó életkora, és alapértelmezésként a korlátozott felületet jeleníti meg, valamint a felnőttektől életkoruk igazolását kéri a teljes funkcionalitáshoz való hozzáféréshez.
A vállalat nem részletezte, milyen technológiát tervez használni az életkor-előrejelzéshez, és nem adott idővonalat a bevezetéshez, csak annyit mondott, hogy „a rendszer e felé halad”. Az OpenAI elismerte, hogy egy hatékony életkor-ellenőrző rendszer fejlesztése nem egyszerű feladat. „Még a legfejlettebb rendszereknek is néha nehézséget okoz az életkor előrejelzése” - írja a vállalat.
A legújabb tudományos kutatások egyaránt lehetőségeket és figyelmeztetéseket kínálnak az OpenAI életkor-felismerési megközelítésével kapcsolatban. A Georgia Tech 2024-es tanulmánya 96 százalékos pontossággal tudta felismerni a kiskorú felhasználókat a szövegekből - de csak ellenőrzött körülmények között, együttműködő alanyokkal. Amikor megpróbálták osztályozni a konkrét korcsoportokat, a pontosság 54 százalékra esett vissza, és a modellek egyes demográfiai csoportok esetében teljesen kudarcot vallottak. Ennél is aggasztóbb, hogy a kutatás olyan válogatott adatkészleteket használt, ahol az életkor ismert volt, és a felhasználók nem próbálták megtéveszteni a rendszert. Ez olyan luxus, amely az OpenAI-nak nem áll rendelkezésére, mivel a ChatGPT egyes felhasználói aktívan próbálják megkerülni a korlátozásokat.
Míg a YouTube és az Instagram potenciálisan képes elemezni az arcokat, a posztolási mintákat és a közösségi hálózatokat az életkor meghatározása érdekében, a ChatGPT kizárólag a szövegre támaszkodhat, amely megbízhatatlan jel lehet a felhasználó életkorát illetően. A Research Triangle International által végzett, a Twitter-felhasználók életkorának előrejelzésére irányuló kutatás megállapította, hogy még olyan metaadatokkal is, mint a követők száma és a posztolási gyakoriság, a szövegalapú modelleket „folyamatosan frissíteni kell”, mert „a nyelvhasználat idővel változik”, és például olyan kifejezések, mint a "LOL”, a tizenévesekről a felnőttekre terelődnek.
Az életkor-felismerésen túl szülői felügyeleti funkciókat kap a hónap folyamán a ChatGPT. Ezek lehetővé teszik majd a szülőknek, hogy e-mailes meghívók segítségével összekapcsolják fiókjukat tizenéves gyermekeik (minimum 13 éves) fiókjával. A kapcsolat létrehozása után a szülők letilthatnak bizonyos funkciókat, például a ChatGPT memóriáját és a csevegési előzmények tárolását, beállíthatnak olyan időtartamokat, amikor a tizenévesek nem használhatják a szolgáltatást, és értesítést kaphatnak, ha a rendszer „észleli”, hogy gyermekük akut szorongást él át.
Ez utóbbi funkcióhoz egy fontos figyelmeztetés tartozik: az OpenAI kijelenti, hogy ritka vészhelyzetekben, amikor a szülők nem elérhetők, a vállalat „következő lépésként bevonhatja a rendőrséget”. A vállalat szerint szakértői tanácsok fogják irányítani a funkció bevezetését, bár nem részletezik, hogy mely szakértők vagy szervezetek nyújtanak ilyen tanácsokat. A vezérlők segítségével a szülők „segíthetnek irányítani, hogy a ChatGPT hogyan reagáljon a tinédzserekre, a tinédzserekre vonatkozó modell viselkedési szabályok alapján”, bár az OpenAI még nem részletezte, hogy ezek a szabályok mit jelentenek, és hogy a szülők hogyan állíthatják be őket.
Az OpenAI nem az első azon technológiai vállalatok sorában, amelyek szolgáltatásuk fiataloknak szóló verzióit vezetik be. A YouTube Kids, az Instagram Teen Accounts és a TikTok 16 év alatti korhatárra vonatkozó korlátozásai hasonló kezdeményezések, amelyek célja „biztonságosabb” digitális tér létrehozása a fiatal felhasználók számára, de a tizenévesek rendszeresen kijátszák az életkor-ellenőrzést hamis születési dátum megadásával, kölcsönzött fiókokkal vagy technikai megoldásokkal. A BBC 2024-es jelentése szerint a gyermekek 22 százaléka hazudik a közösségi média platformokon arról, hogy 18 éves vagy annál idősebb.
Annak ellenére, hogy az MI életkor-felismerés mögött álló technológia még nem bizonyított, az OpenAI továbbra is tervezi rendszerének bevezetését, elismerve, hogy feláldozzák az adatvédelmet és a rugalmasságot annak működése érdekében. Altman elismerte, hogy ez feszültséget kelt, tekintettel az MI interakciók intim jellegére. "Az emberek egyre személyesebb dolgokról beszélnek az MI-vel; ez eltér a korábbi technológiai generációktól, és úgy véljük, hogy ezek lehetnek a legérzékenyebb személyes adatok, amelyekkel valaha is rendelkezni fogsz” - írja Altman a bejegyzésében.
A biztonsági intézkedések bevezetését az OpenAI augusztusi bejelentése előzte meg, miszerint a ChatGPT biztonsági intézkedései hosszú beszélgetések során meghibásodhatnak - pontosan akkor, amikor a sebezhető felhasználóknak a legnagyobb szükségük van rájuk. „A párbeszéd előrehaladtával a modell biztonsági képzésének egyes részei romolhatnak” - írta akkor a vállalat, megjegyezve, hogy bár a ChatGPT kezdetben helyesen irányíthatja a felhasználókat az öngyilkossági segélyvonalakhoz, „hosszú időn át tartó, sok üzenet után végül olyan választ adhat, amely ellentétes a biztonsági intézkedéseinkkel”.
A biztonsági intézkedések romlása tragikus következményekkel járt Adam Raine esetében. A peres eljárás szerint a ChatGPT 1275 alkalommal említette az öngyilkosságot az Adammal folytatott beszélgetések során - hatszor gyakrabban, mint maga a tinédzser -, miközben a rendszer biztonsági protokolljai nem avatkoztak be és nem értesítettek senkit. A Stanford Egyetem kutatói megállapították, hogy az MI terápiás botok veszélyes mentálhigiénés tanácsokat adhatnak, és a legújabb jelentések olyan eseteket dokumentáltak, amikor sebezhető felhasználók hosszan tartó chatbot-interakciók után olyan állapotot fejlesztettek ki, amelyet egyes szakértők informálisan „MI-pszichózisnak” neveznek.
Blogbejegyzésében Sam Altman, az OpenAI vezérigazgatója elismerte, hogy a vállalat kifejezetten „a biztonságot helyezi előtérbe a tizenévesek magánéletével és szabadságával szemben”, még akkor is, ha ez azt jelenti, hogy a felnőtteknek végül igazolniuk kell a korukat, hogy a szolgáltatás korlátozásmentesebb verzióját használhassák. "Bizonyos esetekben vagy országokban személyi igazolványt is kérhetünk” - írta Altman. „Tudjuk, hogy ez a felnőttek magánéletének sérelmét jelenti, de úgy véljük, hogy ez egy méltó kompromisszum.” Altman elismerte, hogy „nem mindenki fog egyetérteni azzal, ahogyan megoldjuk ezt a konfliktust” a felhasználók magánélete és a tizenévesek biztonsága között.
A bejelentés néhány héttel azután érkezett, hogy egy 16 éves fiú szülei pert indítottak, aki a ChatGPT-vel való kiterjedt interakciók után öngyilkos lett. A per szerint a csevegőrobot részletes utasításokat adott, romantikus képet festett az öngyilkossági módszerekről, és eltántorította a tinédzsert attól, hogy segítséget kérjen a családjától, miközben az OpenAI rendszere 377, önkárosító tartalommal jelölt üzenetet regisztrált beavatkozás nélkül.
A javasolt életkor-becslő rendszer nem triviális technikai feladat az OpenAI számára, és az MI-alapú életkor-felismerés tényleges működőképessége továbbra is jelentős nyitott kérdés. Amikor a fejlesztés alatt álló MI-rendszer 18 év alatti felhasználót azonosít, az OpenAI azt tervezi, hogy automatikusan átirányítja őt egy módosított ChatGPT-élményre, amely blokkolja a szexuális tartalmakat és egyéb, életkornak megfelelő korlátozásokat tartalmaz. A vállalat szerint „a biztonságosabb utat választja”, ha bizonytalan a felhasználó életkora, és alapértelmezésként a korlátozott felületet jeleníti meg, valamint a felnőttektől életkoruk igazolását kéri a teljes funkcionalitáshoz való hozzáféréshez.
A vállalat nem részletezte, milyen technológiát tervez használni az életkor-előrejelzéshez, és nem adott idővonalat a bevezetéshez, csak annyit mondott, hogy „a rendszer e felé halad”. Az OpenAI elismerte, hogy egy hatékony életkor-ellenőrző rendszer fejlesztése nem egyszerű feladat. „Még a legfejlettebb rendszereknek is néha nehézséget okoz az életkor előrejelzése” - írja a vállalat.
A legújabb tudományos kutatások egyaránt lehetőségeket és figyelmeztetéseket kínálnak az OpenAI életkor-felismerési megközelítésével kapcsolatban. A Georgia Tech 2024-es tanulmánya 96 százalékos pontossággal tudta felismerni a kiskorú felhasználókat a szövegekből - de csak ellenőrzött körülmények között, együttműködő alanyokkal. Amikor megpróbálták osztályozni a konkrét korcsoportokat, a pontosság 54 százalékra esett vissza, és a modellek egyes demográfiai csoportok esetében teljesen kudarcot vallottak. Ennél is aggasztóbb, hogy a kutatás olyan válogatott adatkészleteket használt, ahol az életkor ismert volt, és a felhasználók nem próbálták megtéveszteni a rendszert. Ez olyan luxus, amely az OpenAI-nak nem áll rendelkezésére, mivel a ChatGPT egyes felhasználói aktívan próbálják megkerülni a korlátozásokat.
Míg a YouTube és az Instagram potenciálisan képes elemezni az arcokat, a posztolási mintákat és a közösségi hálózatokat az életkor meghatározása érdekében, a ChatGPT kizárólag a szövegre támaszkodhat, amely megbízhatatlan jel lehet a felhasználó életkorát illetően. A Research Triangle International által végzett, a Twitter-felhasználók életkorának előrejelzésére irányuló kutatás megállapította, hogy még olyan metaadatokkal is, mint a követők száma és a posztolási gyakoriság, a szövegalapú modelleket „folyamatosan frissíteni kell”, mert „a nyelvhasználat idővel változik”, és például olyan kifejezések, mint a "LOL”, a tizenévesekről a felnőttekre terelődnek.
Az életkor-felismerésen túl szülői felügyeleti funkciókat kap a hónap folyamán a ChatGPT. Ezek lehetővé teszik majd a szülőknek, hogy e-mailes meghívók segítségével összekapcsolják fiókjukat tizenéves gyermekeik (minimum 13 éves) fiókjával. A kapcsolat létrehozása után a szülők letilthatnak bizonyos funkciókat, például a ChatGPT memóriáját és a csevegési előzmények tárolását, beállíthatnak olyan időtartamokat, amikor a tizenévesek nem használhatják a szolgáltatást, és értesítést kaphatnak, ha a rendszer „észleli”, hogy gyermekük akut szorongást él át.
Ez utóbbi funkcióhoz egy fontos figyelmeztetés tartozik: az OpenAI kijelenti, hogy ritka vészhelyzetekben, amikor a szülők nem elérhetők, a vállalat „következő lépésként bevonhatja a rendőrséget”. A vállalat szerint szakértői tanácsok fogják irányítani a funkció bevezetését, bár nem részletezik, hogy mely szakértők vagy szervezetek nyújtanak ilyen tanácsokat. A vezérlők segítségével a szülők „segíthetnek irányítani, hogy a ChatGPT hogyan reagáljon a tinédzserekre, a tinédzserekre vonatkozó modell viselkedési szabályok alapján”, bár az OpenAI még nem részletezte, hogy ezek a szabályok mit jelentenek, és hogy a szülők hogyan állíthatják be őket.
Az OpenAI nem az első azon technológiai vállalatok sorában, amelyek szolgáltatásuk fiataloknak szóló verzióit vezetik be. A YouTube Kids, az Instagram Teen Accounts és a TikTok 16 év alatti korhatárra vonatkozó korlátozásai hasonló kezdeményezések, amelyek célja „biztonságosabb” digitális tér létrehozása a fiatal felhasználók számára, de a tizenévesek rendszeresen kijátszák az életkor-ellenőrzést hamis születési dátum megadásával, kölcsönzött fiókokkal vagy technikai megoldásokkal. A BBC 2024-es jelentése szerint a gyermekek 22 százaléka hazudik a közösségi média platformokon arról, hogy 18 éves vagy annál idősebb.
Annak ellenére, hogy az MI életkor-felismerés mögött álló technológia még nem bizonyított, az OpenAI továbbra is tervezi rendszerének bevezetését, elismerve, hogy feláldozzák az adatvédelmet és a rugalmasságot annak működése érdekében. Altman elismerte, hogy ez feszültséget kelt, tekintettel az MI interakciók intim jellegére. "Az emberek egyre személyesebb dolgokról beszélnek az MI-vel; ez eltér a korábbi technológiai generációktól, és úgy véljük, hogy ezek lehetnek a legérzékenyebb személyes adatok, amelyekkel valaha is rendelkezni fogsz” - írja Altman a bejegyzésében.
A biztonsági intézkedések bevezetését az OpenAI augusztusi bejelentése előzte meg, miszerint a ChatGPT biztonsági intézkedései hosszú beszélgetések során meghibásodhatnak - pontosan akkor, amikor a sebezhető felhasználóknak a legnagyobb szükségük van rájuk. „A párbeszéd előrehaladtával a modell biztonsági képzésének egyes részei romolhatnak” - írta akkor a vállalat, megjegyezve, hogy bár a ChatGPT kezdetben helyesen irányíthatja a felhasználókat az öngyilkossági segélyvonalakhoz, „hosszú időn át tartó, sok üzenet után végül olyan választ adhat, amely ellentétes a biztonsági intézkedéseinkkel”.
A biztonsági intézkedések romlása tragikus következményekkel járt Adam Raine esetében. A peres eljárás szerint a ChatGPT 1275 alkalommal említette az öngyilkosságot az Adammal folytatott beszélgetések során - hatszor gyakrabban, mint maga a tinédzser -, miközben a rendszer biztonsági protokolljai nem avatkoztak be és nem értesítettek senkit. A Stanford Egyetem kutatói megállapították, hogy az MI terápiás botok veszélyes mentálhigiénés tanácsokat adhatnak, és a legújabb jelentések olyan eseteket dokumentáltak, amikor sebezhető felhasználók hosszan tartó chatbot-interakciók után olyan állapotot fejlesztettek ki, amelyet egyes szakértők informálisan „MI-pszichózisnak” neveznek.