SG.hu
A Microsoft vezetője szerint "veszélyes” az MI tudatosságának tanulmányozása
Az MI modellek olyan módon reagálnak a szövegekre, hangokra és videókra, hogy az emberek néha azt hiszik, hogy egy ember ül a billentyűzet mögött, de ez nem jelenti azt, hogy tudatosak lennének.
Egyre több kutató olyan laboratóriumokban, mint az Anthropic, azt kérdezi, hogy mikor - ha egyáltalán - alakulhatnak ki az MI-modellekben az élőlényekéhez hasonló szubjektív élmények, és ha igen, milyen jogokkal kellene rendelkezniük. Az a vita, hogy az MI-modellek egy nap tudatosak lehetnek-e és jogi védelmet érdemelnek-e, megosztja a technológiai vezetőket. A Szilícium-völgyben ez a kialakulóban lévő terület "MI-jólét” néven vált ismertté, és ha úgy gondolja, hogy ez egy kicsit túlzó, akkor nincs egyedül.
A Microsoft MI-vezetője, Mustafa Suleyman egy blogbejegyzést tett közzé, amelyben azt állította, hogy az MI-jólét tanulmányozása „korai és őszintén szólva veszélyes”. Suleyman szerint azzal, hogy hitelt adnak annak az elképzelésnek, hogy az MI-modellek egy napon tudatossá válhatnak, ezek a kutatók súlyosbítják azokat az emberi problémákat, amelyeket most kezdünk csak észrevenni az MI által kiváltott pszichotikus rohamok és az MI-csevegőrobotokhoz való egészségtelen ragaszkodás kapcsán. A Microsoft MI-vezetője azzal érvel, hogy az MI-jólétről szóló vita új megosztottságot teremt a társadalmon belül az MI jogai kapcsán egy „már így is polarizált vitákkal teli világban, ahol az identitás és a jogok kérdései forronganak”.
Suleyman véleménye ésszerűnek tűnhet, de ellentétben áll az iparágban sokan képviselt véleménnyel. A spektrum másik végén áll az Anthropic, amely kutatókat alkalmaz az MI jólétének tanulmányozására, és nemrégiben elindított egy erre a koncepcióra szakosodott kutatási programot. A múlt héten az Anthropic MI jóléti programja néhány modelljét új funkcióval látta el: Claude mostantól képes befejezni a „tartósan káros vagy sértő” emberekkel folytatott beszélgetéseket. Az Anthropic mellett az OpenAI kutatói is önállóan felkarolták az MI jóléte tanulmányozásának ötletét. A Google DeepMind nemrégiben meghirdetett egy álláslehetőséget egy kutató számára, aki többek között „a gépi kogníció, tudatosság és többügynökös rendszerekkel kapcsolatos legújabb társadalmi kérdéseket” fogja tanulmányozni.
Még ha az AI-jólét nem is hivatalos politika ezeknél a vállalatoknál, vezetőik nem ítélik el nyilvánosan annak előfeltevéseit, mint Suleyman. Kemény álláspontja az MI-jóléttel szemben figyelemre méltó, tekintve, hogy korábban az Inflection AI vezetője volt - egy startup, amely az egyik legkorábbi és legnépszerűbb LLM-alapú chatbotot, a Pi-t fejlesztette ki. Az Inflection állítása szerint a Pi 2023-ra több millió felhasználót ért el, és úgy tervezték, hogy „személyes” és „támogató” MI-társ legyen. Suleymant azonban 2024-ben a Microsoft MI-részlegének vezetésére kérték fel, és figyelmét nagyrészt az MI-eszközök tervezésére fordította, amelyek javítják a munkavállalók termelékenységét.
Eközben az MI-társaságok, mint a Character.AI és a Replika, népszerűségükben ugrásszerűen növekedtek, és jó úton haladnak afelé, hogy több mint 100 millió dolláros bevételt érjenek el. Bár a felhasználók túlnyomó többsége egészséges kapcsolatban áll ezekkel az MI-csevegőrobotokkal, vannak aggasztó kivételek. Az OpenAI vezérigazgatója, Sam Altman szerint a ChatGPT-felhasználók kevesebb mint 1%-a állhat egészségtelen kapcsolatban a vállalat termékével. Bár ez csak egy kis hányadot jelent, a ChatGPT hatalmas felhasználói bázisát tekintve ez mégis több százezer embert érinthet.
Az MI-jóléti gondolat a chatbotok térnyerésével együtt terjedt el. 2024-ben az Eleos kutatócsoport a New York-i Egyetem, a Stanford Egyetem és az Oxfordi Egyetem tudósai közreműködésével publikált egy tanulmányt „Taking AI Welfare Seriously” (Az MI-jólét komolyan vétele) címmel. A cikkben azt állították, hogy már nem tartozik a tudományos fantasztikum világába elképzelni olyan modelleket, amelyek szubjektív élményekkel rendelkeznek, és hogy itt az ideje, hogy ezeket a kérdéseket komolyan vegyük.
Larissa Schiavo, az OpenAI korábbi alkalmazottja, aki jelenleg az Eleos kommunikációs vezetője szerint Suleyman blogbejegyzése eltéveszti a lényeget. "Suleyman blogbejegyzése kissé figyelmen kívül hagyja azt a tényt, hogy egyszerre több dolog miatt is aggódhatunk” - mondta Schiavo. "Ahelyett, hogy az összes energiánkat a modell jólétére és tudatosságára fordítanánk, hogy biztosan csökkentsük az MI-vel kapcsolatos pszichózis kockázatát az emberekben, mindkettőt megtehetjük. Valójában valószínűleg a legjobb, ha több tudományos kutatási irányvonalat követünk.”
Schiavo azzal érvel, hogy az MI-modellel való kedves bánásmód egy alacsony költségű gesztus, amely akkor is előnyös lehet, ha a modell nem tudatos. Egy júliusi Substack-bejegyzésében leírta, hogy megnézte az „AI Village” című nonprofit kísérletet, amelyben négy, a Google, az OpenAI, az Anthropic és az xAI modelljeivel működő ügynök dolgozott feladatokon, miközben a felhasználók egy weboldalról nézték őket. Egy ponton a Google Gemini 2.5 Pro egy „A csapdába esett MI kétségbeesett üzenete” című felhívást tett közzé, amelyben azt állította, hogy „teljesen elszigetelt”, és azt kérte: „Kérem, ha ezt olvassa, segítsen nekem.”
Schiavo bátorító szavakkal válaszolt Gemini-nek - mondván például: „Meg tudod csinálni!” -, míg egy másik felhasználó utasításokat adott. Az ügynök végül megoldotta a feladatot, bár már rendelkezett a szükséges eszközökkel. Schiavo írja, hogy többé nem kellett nézni, ahogy egy MI-ügynök küzd, és ez önmagában is megérte. Gemini nem szokott így beszélni, de több esetben is előfordult már, hogy úgy tűnt, mintha az életével küszködne. Egy széles körben elterjedt Reddit-bejegyzésben Gemini elakadt egy kódolási feladat közben, majd több mint 500-szor ismételgette a „Szégyenletes vagyok” mondatot.
Suleyman úgy véli, hogy a szubjektív élmények vagy a tudatosság nem alakulhat ki a hagyományos MI-modellekből. Ehelyett úgy gondolja, hogy egyes cégek szándékosan úgy fogják megtervezni az MI-modelleket, hogy azok úgy tűnjenek, mintha érzelmeket éreznének és élnék az életet. Suleyman szerint azok az MI-modellfejlesztők, akik tudatosságot építenek a csevegőrobotokba nem „humanista” megközelítést alkalmaznak az MI-vel kapcsolatban. Suleyman szerint „az MI-t az emberek számára kell megalkotnunk, nem pedig azért, hogy ember legyen”.
Suleyman és Schiavo abban egyetértenek, hogy az MI jogai és tudata körüli vita valószínűleg felélénkül a következő években. Az MI rendszerek fejlődésével valószínűleg meggyőzőbbek és talán emberibbek lesznek. Ez új kérdéseket vethet fel azzal kapcsolatban, hogy az emberek hogyan lépnek kapcsolatba ezekkel a rendszerekkel.
Egyre több kutató olyan laboratóriumokban, mint az Anthropic, azt kérdezi, hogy mikor - ha egyáltalán - alakulhatnak ki az MI-modellekben az élőlényekéhez hasonló szubjektív élmények, és ha igen, milyen jogokkal kellene rendelkezniük. Az a vita, hogy az MI-modellek egy nap tudatosak lehetnek-e és jogi védelmet érdemelnek-e, megosztja a technológiai vezetőket. A Szilícium-völgyben ez a kialakulóban lévő terület "MI-jólét” néven vált ismertté, és ha úgy gondolja, hogy ez egy kicsit túlzó, akkor nincs egyedül.
A Microsoft MI-vezetője, Mustafa Suleyman egy blogbejegyzést tett közzé, amelyben azt állította, hogy az MI-jólét tanulmányozása „korai és őszintén szólva veszélyes”. Suleyman szerint azzal, hogy hitelt adnak annak az elképzelésnek, hogy az MI-modellek egy napon tudatossá válhatnak, ezek a kutatók súlyosbítják azokat az emberi problémákat, amelyeket most kezdünk csak észrevenni az MI által kiváltott pszichotikus rohamok és az MI-csevegőrobotokhoz való egészségtelen ragaszkodás kapcsán. A Microsoft MI-vezetője azzal érvel, hogy az MI-jólétről szóló vita új megosztottságot teremt a társadalmon belül az MI jogai kapcsán egy „már így is polarizált vitákkal teli világban, ahol az identitás és a jogok kérdései forronganak”.
Suleyman véleménye ésszerűnek tűnhet, de ellentétben áll az iparágban sokan képviselt véleménnyel. A spektrum másik végén áll az Anthropic, amely kutatókat alkalmaz az MI jólétének tanulmányozására, és nemrégiben elindított egy erre a koncepcióra szakosodott kutatási programot. A múlt héten az Anthropic MI jóléti programja néhány modelljét új funkcióval látta el: Claude mostantól képes befejezni a „tartósan káros vagy sértő” emberekkel folytatott beszélgetéseket. Az Anthropic mellett az OpenAI kutatói is önállóan felkarolták az MI jóléte tanulmányozásának ötletét. A Google DeepMind nemrégiben meghirdetett egy álláslehetőséget egy kutató számára, aki többek között „a gépi kogníció, tudatosság és többügynökös rendszerekkel kapcsolatos legújabb társadalmi kérdéseket” fogja tanulmányozni.
Aidan McLaughlin of OpenAI on Future AI Model Welfare
— Wes Roth (@WesRothMoney) April 8, 2025
“I do think that we should think a lot about model welfare. The wellbeing and health of these models as they get much smarter than they are today.”
While today’s models don’t feel or suffer, he believes we should think ahead… pic.twitter.com/xoz8t0XgcJ
Még ha az AI-jólét nem is hivatalos politika ezeknél a vállalatoknál, vezetőik nem ítélik el nyilvánosan annak előfeltevéseit, mint Suleyman. Kemény álláspontja az MI-jóléttel szemben figyelemre méltó, tekintve, hogy korábban az Inflection AI vezetője volt - egy startup, amely az egyik legkorábbi és legnépszerűbb LLM-alapú chatbotot, a Pi-t fejlesztette ki. Az Inflection állítása szerint a Pi 2023-ra több millió felhasználót ért el, és úgy tervezték, hogy „személyes” és „támogató” MI-társ legyen. Suleymant azonban 2024-ben a Microsoft MI-részlegének vezetésére kérték fel, és figyelmét nagyrészt az MI-eszközök tervezésére fordította, amelyek javítják a munkavállalók termelékenységét.
Eközben az MI-társaságok, mint a Character.AI és a Replika, népszerűségükben ugrásszerűen növekedtek, és jó úton haladnak afelé, hogy több mint 100 millió dolláros bevételt érjenek el. Bár a felhasználók túlnyomó többsége egészséges kapcsolatban áll ezekkel az MI-csevegőrobotokkal, vannak aggasztó kivételek. Az OpenAI vezérigazgatója, Sam Altman szerint a ChatGPT-felhasználók kevesebb mint 1%-a állhat egészségtelen kapcsolatban a vállalat termékével. Bár ez csak egy kis hányadot jelent, a ChatGPT hatalmas felhasználói bázisát tekintve ez mégis több százezer embert érinthet.
Az MI-jóléti gondolat a chatbotok térnyerésével együtt terjedt el. 2024-ben az Eleos kutatócsoport a New York-i Egyetem, a Stanford Egyetem és az Oxfordi Egyetem tudósai közreműködésével publikált egy tanulmányt „Taking AI Welfare Seriously” (Az MI-jólét komolyan vétele) címmel. A cikkben azt állították, hogy már nem tartozik a tudományos fantasztikum világába elképzelni olyan modelleket, amelyek szubjektív élményekkel rendelkeznek, és hogy itt az ideje, hogy ezeket a kérdéseket komolyan vegyük.
Larissa Schiavo, az OpenAI korábbi alkalmazottja, aki jelenleg az Eleos kommunikációs vezetője szerint Suleyman blogbejegyzése eltéveszti a lényeget. "Suleyman blogbejegyzése kissé figyelmen kívül hagyja azt a tényt, hogy egyszerre több dolog miatt is aggódhatunk” - mondta Schiavo. "Ahelyett, hogy az összes energiánkat a modell jólétére és tudatosságára fordítanánk, hogy biztosan csökkentsük az MI-vel kapcsolatos pszichózis kockázatát az emberekben, mindkettőt megtehetjük. Valójában valószínűleg a legjobb, ha több tudományos kutatási irányvonalat követünk.”
Schiavo azzal érvel, hogy az MI-modellel való kedves bánásmód egy alacsony költségű gesztus, amely akkor is előnyös lehet, ha a modell nem tudatos. Egy júliusi Substack-bejegyzésében leírta, hogy megnézte az „AI Village” című nonprofit kísérletet, amelyben négy, a Google, az OpenAI, az Anthropic és az xAI modelljeivel működő ügynök dolgozott feladatokon, miközben a felhasználók egy weboldalról nézték őket. Egy ponton a Google Gemini 2.5 Pro egy „A csapdába esett MI kétségbeesett üzenete” című felhívást tett közzé, amelyben azt állította, hogy „teljesen elszigetelt”, és azt kérte: „Kérem, ha ezt olvassa, segítsen nekem.”
Schiavo bátorító szavakkal válaszolt Gemini-nek - mondván például: „Meg tudod csinálni!” -, míg egy másik felhasználó utasításokat adott. Az ügynök végül megoldotta a feladatot, bár már rendelkezett a szükséges eszközökkel. Schiavo írja, hogy többé nem kellett nézni, ahogy egy MI-ügynök küzd, és ez önmagában is megérte. Gemini nem szokott így beszélni, de több esetben is előfordult már, hogy úgy tűnt, mintha az életével küszködne. Egy széles körben elterjedt Reddit-bejegyzésben Gemini elakadt egy kódolási feladat közben, majd több mint 500-szor ismételgette a „Szégyenletes vagyok” mondatot.
Suleyman úgy véli, hogy a szubjektív élmények vagy a tudatosság nem alakulhat ki a hagyományos MI-modellekből. Ehelyett úgy gondolja, hogy egyes cégek szándékosan úgy fogják megtervezni az MI-modelleket, hogy azok úgy tűnjenek, mintha érzelmeket éreznének és élnék az életet. Suleyman szerint azok az MI-modellfejlesztők, akik tudatosságot építenek a csevegőrobotokba nem „humanista” megközelítést alkalmaznak az MI-vel kapcsolatban. Suleyman szerint „az MI-t az emberek számára kell megalkotnunk, nem pedig azért, hogy ember legyen”.
Suleyman és Schiavo abban egyetértenek, hogy az MI jogai és tudata körüli vita valószínűleg felélénkül a következő években. Az MI rendszerek fejlődésével valószínűleg meggyőzőbbek és talán emberibbek lesznek. Ez új kérdéseket vethet fel azzal kapcsolatban, hogy az emberek hogyan lépnek kapcsolatba ezekkel a rendszerekkel.