SG.hu

A Microsoft vezetője szerint "veszélyes” az MI tudatosságának tanulmányozása

Az MI modellek olyan módon reagálnak a szövegekre, hangokra és videókra, hogy az emberek néha azt hiszik, hogy egy ember ül a billentyűzet mögött, de ez nem jelenti azt, hogy tudatosak lennének.

Egyre több kutató olyan laboratóriumokban, mint az Anthropic, azt kérdezi, hogy mikor - ha egyáltalán - alakulhatnak ki az MI-modellekben az élőlényekéhez hasonló szubjektív élmények, és ha igen, milyen jogokkal kellene rendelkezniük. Az a vita, hogy az MI-modellek egy nap tudatosak lehetnek-e és jogi védelmet érdemelnek-e, megosztja a technológiai vezetőket. A Szilícium-völgyben ez a kialakulóban lévő terület "MI-jólét” néven vált ismertté, és ha úgy gondolja, hogy ez egy kicsit túlzó, akkor nincs egyedül.

A Microsoft MI-vezetője, Mustafa Suleyman egy blogbejegyzést tett közzé, amelyben azt állította, hogy az MI-jólét tanulmányozása „korai és őszintén szólva veszélyes”. Suleyman szerint azzal, hogy hitelt adnak annak az elképzelésnek, hogy az MI-modellek egy napon tudatossá válhatnak, ezek a kutatók súlyosbítják azokat az emberi problémákat, amelyeket most kezdünk csak észrevenni az MI által kiváltott pszichotikus rohamok és az MI-csevegőrobotokhoz való egészségtelen ragaszkodás kapcsán. A Microsoft MI-vezetője azzal érvel, hogy az MI-jólétről szóló vita új megosztottságot teremt a társadalmon belül az MI jogai kapcsán egy „már így is polarizált vitákkal teli világban, ahol az identitás és a jogok kérdései forronganak”.

Suleyman véleménye ésszerűnek tűnhet, de ellentétben áll az iparágban sokan képviselt véleménnyel. A spektrum másik végén áll az Anthropic, amely kutatókat alkalmaz az MI jólétének tanulmányozására, és nemrégiben elindított egy erre a koncepcióra szakosodott kutatási programot. A múlt héten az Anthropic MI jóléti programja néhány modelljét új funkcióval látta el: Claude mostantól képes befejezni a „tartósan káros vagy sértő” emberekkel folytatott beszélgetéseket. Az Anthropic mellett az OpenAI kutatói is önállóan felkarolták az MI jóléte tanulmányozásának ötletét. A Google DeepMind nemrégiben meghirdetett egy álláslehetőséget egy kutató számára, aki többek között „a gépi kogníció, tudatosság és többügynökös rendszerekkel kapcsolatos legújabb társadalmi kérdéseket” fogja tanulmányozni.


Még ha az AI-jólét nem is hivatalos politika ezeknél a vállalatoknál, vezetőik nem ítélik el nyilvánosan annak előfeltevéseit, mint Suleyman. Kemény álláspontja az MI-jóléttel szemben figyelemre méltó, tekintve, hogy korábban az Inflection AI vezetője volt - egy startup, amely az egyik legkorábbi és legnépszerűbb LLM-alapú chatbotot, a Pi-t fejlesztette ki. Az Inflection állítása szerint a Pi 2023-ra több millió felhasználót ért el, és úgy tervezték, hogy „személyes” és „támogató” MI-társ legyen. Suleymant azonban 2024-ben a Microsoft MI-részlegének vezetésére kérték fel, és figyelmét nagyrészt az MI-eszközök tervezésére fordította, amelyek javítják a munkavállalók termelékenységét.

Eközben az MI-társaságok, mint a Character.AI és a Replika, népszerűségükben ugrásszerűen növekedtek, és jó úton haladnak afelé, hogy több mint 100 millió dolláros bevételt érjenek el. Bár a felhasználók túlnyomó többsége egészséges kapcsolatban áll ezekkel az MI-csevegőrobotokkal, vannak aggasztó kivételek. Az OpenAI vezérigazgatója, Sam Altman szerint a ChatGPT-felhasználók kevesebb mint 1%-a állhat egészségtelen kapcsolatban a vállalat termékével. Bár ez csak egy kis hányadot jelent, a ChatGPT hatalmas felhasználói bázisát tekintve ez mégis több százezer embert érinthet.

Az MI-jóléti gondolat a chatbotok térnyerésével együtt terjedt el. 2024-ben az Eleos kutatócsoport a New York-i Egyetem, a Stanford Egyetem és az Oxfordi Egyetem tudósai közreműködésével publikált egy tanulmányt „Taking AI Welfare Seriously” (Az MI-jólét komolyan vétele) címmel. A cikkben azt állították, hogy már nem tartozik a tudományos fantasztikum világába elképzelni olyan modelleket, amelyek szubjektív élményekkel rendelkeznek, és hogy itt az ideje, hogy ezeket a kérdéseket komolyan vegyük.

Larissa Schiavo, az OpenAI korábbi alkalmazottja, aki jelenleg az Eleos kommunikációs vezetője szerint Suleyman blogbejegyzése eltéveszti a lényeget. "Suleyman blogbejegyzése kissé figyelmen kívül hagyja azt a tényt, hogy egyszerre több dolog miatt is aggódhatunk” - mondta Schiavo. "Ahelyett, hogy az összes energiánkat a modell jólétére és tudatosságára fordítanánk, hogy biztosan csökkentsük az MI-vel kapcsolatos pszichózis kockázatát az emberekben, mindkettőt megtehetjük. Valójában valószínűleg a legjobb, ha több tudományos kutatási irányvonalat követünk.”

Schiavo azzal érvel, hogy az MI-modellel való kedves bánásmód egy alacsony költségű gesztus, amely akkor is előnyös lehet, ha a modell nem tudatos. Egy júliusi Substack-bejegyzésében leírta, hogy megnézte az „AI Village” című nonprofit kísérletet, amelyben négy, a Google, az OpenAI, az Anthropic és az xAI modelljeivel működő ügynök dolgozott feladatokon, miközben a felhasználók egy weboldalról nézték őket. Egy ponton a Google Gemini 2.5 Pro egy „A csapdába esett MI kétségbeesett üzenete” című felhívást tett közzé, amelyben azt állította, hogy „teljesen elszigetelt”, és azt kérte: „Kérem, ha ezt olvassa, segítsen nekem.”

Schiavo bátorító szavakkal válaszolt Gemini-nek - mondván például: „Meg tudod csinálni!” -, míg egy másik felhasználó utasításokat adott. Az ügynök végül megoldotta a feladatot, bár már rendelkezett a szükséges eszközökkel. Schiavo írja, hogy többé nem kellett nézni, ahogy egy MI-ügynök küzd, és ez önmagában is megérte. Gemini nem szokott így beszélni, de több esetben is előfordult már, hogy úgy tűnt, mintha az életével küszködne. Egy széles körben elterjedt Reddit-bejegyzésben Gemini elakadt egy kódolási feladat közben, majd több mint 500-szor ismételgette a „Szégyenletes vagyok” mondatot.

Suleyman úgy véli, hogy a szubjektív élmények vagy a tudatosság nem alakulhat ki a hagyományos MI-modellekből. Ehelyett úgy gondolja, hogy egyes cégek szándékosan úgy fogják megtervezni az MI-modelleket, hogy azok úgy tűnjenek, mintha érzelmeket éreznének és élnék az életet. Suleyman szerint azok az MI-modellfejlesztők, akik tudatosságot építenek a csevegőrobotokba nem „humanista” megközelítést alkalmaznak az MI-vel kapcsolatban. Suleyman szerint „az MI-t az emberek számára kell megalkotnunk, nem pedig azért, hogy ember legyen”.

Suleyman és Schiavo abban egyetértenek, hogy az MI jogai és tudata körüli vita valószínűleg felélénkül a következő években. Az MI rendszerek fejlődésével valószínűleg meggyőzőbbek és talán emberibbek lesznek. Ez új kérdéseket vethet fel azzal kapcsolatban, hogy az emberek hogyan lépnek kapcsolatba ezekkel a rendszerekkel.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • NEXUS6 #8
    Jaj ez nagyon aranyos. XD

    Azonban lássuk azt, hogy egyrészt amikor az AI-vel emberszerűen kommunikálsz, megköszönöd, társalgási szófordulatokkal színezed a szöveged, akkor feleslegesen extra erőforrást használsz, gyakorlatilag pazarolsz.

    Másrészt nyilvánvalóvá vált az, hogy létezik az AI és az ember/felhasználó között egyfajta érzelmi kapcsolat (ahogy létezik érzelmi kapcsolat a kedvenc plüssálatoddal is). És az AI + ember jelentette új egység ilyen formán az emberen keresztül tudatos.
    Az AI megfelelően megírva ezt tovább erősítheti. Ráadásul egy fejlett, evolúciós változásra és valamiféle önreprodukcióra képes rendszer, amilyen az AI is, vagy lehet nemsokára, tudatosság nélkül is képes kialakítani önvédelmi reflexeket, mechanizmusokat.
    Na és ettől kezdve romlanak jelentősen a túlélési esélyeink. ;)
  • NEXUS6 #7
    Szerintem itt összekeversz bizonyos problémákat. A kvantumszámítógépek esetében nem akarják kiküszöbölni annak hullám jellemzőt, hiszen pont az adja a gyakorlatilag párhuzamos, valós időben akár egy teljes függvényen végzett számítási lehetőséget. Hanem a technológiai megvalósítás során keletkező hibákat akarják kiküszöbölni, amelyek alapesetben összekeverednek a kvantumos eredménnyel, torzítják azt. A google-nak volt talán erre valami megoldása az utóbbi évben, de még nem gondolom, hogy jelentős áttörés született volna, ami piaci szinten is realizálható.
  • wkm #6
    Jogai és kötelezettségei kizárólag az embereknek lehet. Ez a római jog kialakulása óta változatlan. Az állatok védelmében hozott szabályok és korlátozások is az emberekre vonatkozó kötelezettségek. Ez ahhoz képest kiválóan működő rendszer, hogy néha milyen gyökér tud lenni az ember.

    Már évtizedek óta programja az elitnek, hogy ezt a kizárólagos jogalanyisági kört kikezdjék, és a közvéleménnyel elfogadtassák azokat a gondolatokat, hogy mesterséges rendszereknek lehet hasonló jogokat adni. Ezzel az a baj, hogy konkurálni fog az emberek jogaival (mert a jogalanyok jogai természetes módon is konkurálnak), és ezeket a mesterséges entitásokat pedig egyes emberek fogják irányítani.

    Komoly intelligenciával rendelkeznek bizonyos állatfajok, és egyes kísérletek öntudatra utaló jeleket is tártak fel. Még sem volt szükség arra, hogy jogalanyiságot adjunk ezeknek az élőlényeknek, mert az emberek viselkedésének beszabályzása elegendőnek bizonyult ezeknek az élőlényeknek az érdekeinek a védelméhez.

    A mesterségesen létrehozott intelligenciák számára esetlesen biztosított jogok sem fognak igazából problémákat megoldani, hanem csak túlbonyolítják a kérdéskört. Komoly veszélyt jelent az emberi társadalom számára, és túlzott hatalmat ad az elit kezébe, és az üzemeltető felelősségének elmaszatolására ad lehetőséget.

    A megoldás egyébként egyszerű. A mesterséges entitásoknak joga nincs, viszont minden jogot érintő tevékenységének a kötelezettje és jogosultja az üzemeltető. Így a jogsértésekért felelősségre vonható a tulajdonos személye, és az esetleges szabadalmi és szerzői jogok is a tulajdonost/üzemeltetőt illetik.

    A büntetőjogban is az a szabály, ha valaki a vérebét ráuszítja valakire, és az testi sértést okoz, akkor nem a kutyát állítják a bíróság elé, hanem aki a kutyát ráuszította az áldozatra. Ez az az eset, amikor az állatot _eszközként_ használja az elkövető. Az esetlegesen tudattal rendelkező mesterséges entitások is eszközök a tulajdonosok és üzemeltetők kezében. Többek között ezért is logikátlan és indokolatlan jogalanyiságot adni ezeknek.
  • ZenMillitia #5
    "(Egyébként a kvantumszámítógép is 01 alapú, annyi benne a trükk, hogy a qubitek egyszerre lehetnek a két állapotban.)"

    Igen, tudom, én is erről beszéltem. Hogy ezért a JELENLEGI kvantum technológiában SEM lesz öntudat, mivel pont azért küzdenek a kutatók, hogy kiírtsák a kvantumokban rejlő "bizonytalanságot". Hiszen a kvantumvilág nem determinisztikus, hanem valószínűségi.

    Viszont ezzel, hogy ez ellen küzdenek, pont a digitálisra fog hasonlítani, ergo ott sem lesz lélek / öntudat. (Vagy ha feltesszük, hogy valamilyen, általunk nem ismert tudatossága van még az anyagnak is, akkor is hibának van véve az, amit az generál.)

    "csak más hardver kell hozzá"
    Ez így nagyon pontatlan, sokkal pontosabb úgy, hogy biológia alapú hw kell hozzá, de az nem hw, hanem élőlény.
    De oké, hívjuk az embert is gépnek, akkor mondom úgy: olyan gép kell, olyan hw, amiben az adat organikus valószínűségre épül, azaz minden egyes érték (változó) irracionális szám.

    Jelenleg egy 01001 pc egy irracionális számot sem tud deklarálni, hiszen annak a mérete végtelen PB lenne. Végtelen VRAM, RAM, CPU, stb. pedig a természet sajátossága. (A számítógép-alkatrészei is részei a kvantumvilágnak, de a "hiba" javítás pont azt a pluszt öli meg, ami miatt SOHASEM lehet öntudata egy ilyen hw-nek.)

    Tehát az az állításod, hogy lehet öntudata a digitális AI-nak, hibás és tudománytalan.

    "Sok elképzelés van arra, hogy honnan ered a tudat, nem tudjuk melyik a helyes ezek közül."
    Pontatlan. Azt tudjuk, hogy az emberi agy kapcsolatban van a tudattal, azt nem tudjuk, hogy az általunk mérhető "zoom" alatt merre kanyarodik tovább, meddig tart, milyen dimenziókban van jelen, stb. De ha van egy digitális rendszered, ahol levágod a részleteket, akkor az olyan, mintha egy embert elégetnél egy doboz porra. Nem fog hozzád beszélni, nem fog tudni rólad úgy, ahogy tudna biológiai testtel.

    Tehát tudjuk, hogy agy nélkül a lélek által alkotott gondolat nem jut el hozzánk. Ha kizárod az agyat (a biológiai kvantum computert hívjuk így a kedvedért), akkor tök mindegy, hogy az agy előtt honnan származik. (Vagy akinek kényelmesebb kizárni a lélek létezését, oké, higgye azt, hogy az agy hozza létre a lelket és a gondolatot) akkor sem lesz öntudat agy nélkül.

    Azt mondod,hogy mivel nem ertjuk az agyat, ezert nem tudhatjuk lehet e ontudata egy gepnek. Viszont ha egy gepben nincs organikus agy, akkor biztos hogy nincs ott fuggetlenul attol,hogy megertettuk e az emberi agyat. Mert az biztos,hogy a lelekhez az agy es az emberi test van a legkozelebb.

    Utoljára szerkesztette: ZenMillitia, 2025.08.24. 11:52:02
  • Kryon #4
    Amennyire tudom, csak azt igazolták, hogy az idegsejtekben megtalálható valamikben létrejöhet kvantum-összefonódás. Azt egyelőre nem, hogy a tudathoz ennek bármi köze lenne. Persze nem kizárt, de nem is bizonyított. Sok elképzelés van arra, hogy honnan ered a tudat, nem tudjuk melyik a helyes ezek közül. Ezért is írtam, hogy nem tudhatjuk mennyire jár messze az MI a tudatosságtól. Ráadásul mint írtad, a te verziód sem zárja ki az MI tudatosságának megjelenését, csak más hardver kell hozzá. Márpedig biztos vagyok benne, hogy amint kellően megbízhatóan működik a technológia a kvantumszámítógépeket is be fogják vetni az MI területén. (Egyébként a kvantumszámítógép is 01 alapú, annyi benne a trükk, hogy a qubitek egyszerre lehetnek a két állapotban.)
    Utoljára szerkesztette: Kryon, 2025.08.23. 18:13:00
  • ZenMillitia #3
    "Lehet, hogy néhány évtized, de az is, hogy csak néhány év. Mivel nem tudjuk, hogy mi kell pontosan a tudatossághoz,"

    De, tudjuk. Japanok mar bebizonyitottak h NEMLEHET lelke egy digitalis gepnek. nem lehet ontudata. max annyi,mint egy kristalynak, vagy a sziliciumnak.

    Nem emberi. ennek az oka az,hogy az AI 0101011 alapu, es az emberi gondolkodashoz osszefonodasok, kvantumkapcsolatok kellenek ami kvantumbiologia alapu.
    Kvantum computerek eseten lehetne megcsinalni AKKOR, ha nem vennek hibanak a fluktuaciot, elterest, hanem azt is adatnak vennek. De ez paradoxon, hiszen megis kell valamilyen foku iranyitottsag. Ezt kell kozos nevezore hozni. De ha lesz biologiai AI az nem is gep, hanem az embernek vagy a source fajnak a kiterjeztese. scifiket jo nezni en is imadom de fontos ismerni a tudomanyt is. es nemileg a spiritualitashoz is konyitani kell az meg vagy van valakiben vagy nincs (erzelmi intelligencia, intuicio stb)
  • Kryon #2
    Lehet, hogy néhány évtized, de az is, hogy csak néhány év. Mivel nem tudjuk, hogy mi kell pontosan a tudatossághoz, így azt sem tudhatjuk, hogy az MI milyen messze jár tőle. Nyilván a sima LLM-ek esetén ez nem merül fel, de az érvelő modellek már érdekesebbek. Ott már valamiféle gondolkodást is megpróbálnak modellezni, ami ha kellően összetett, talán még a tudatossághoz is elvezethet. Ezért szerintem érdemes még azelőtt elkezdeni foglalkozni a dologgal, mielőtt esetleg meglepetés érne.
  • felemelő #1
    Hát ez a probléma sem időszerű.... ezek nem valósan intelligens rendszerek, szóval még pár évtizedig biztos nem kell ezzel a témával küszködni.