SG.hu·
Lehet lelke egy MI rendszernek?

A mesterséges intelligenciával foglalkozó vállalat vallási vezetőktől kért útmutatást egy erkölcsös chatbot megalkotásához.
Az Anthropic nevű mesterséges intelligencia vállalat, amelynek értékét 380 milliárd dollárra becsülik, a Claude nevű chatbot sikerének köszönhetően könnyedén válogathat a Szilícium-völgy legtehetségesebb szakemberei közül. A startup azonban a múlt hónapban egy olyan csoport segítségét kérte, amelyet a technológiai körökben ritkán keresnek meg: keresztény vallási vezetőkét. A vállalat március végén mintegy 15 keresztény vezetőt látott vendégül központjában. A résztvevők katolikus és protestáns egyházak képviselői, akadémiai szakemberek és üzleti szereplők voltak. A kétnapos csúcstalálkozó beszélgetéseket és egy zártkörű vacsorát is tartalmazott az Anthropic vezető kutatóival.
A résztvevők elmondása szerint az Anthropic munkatársai tanácsokat kértek arról, miként lehetne irányítani Claude erkölcsi és spirituális fejlődését, miközben a chatbot egyre összetettebb és kiszámíthatatlanabb etikai kérdésekre reagál. A széles körű megbeszélések során szó esett arról is, hogyan reagáljon a chatbot azokra a felhasználókra, akik szeretteik elvesztése miatt gyászolnak, illetve arról, hogy vajon Claude tekinthető-e "Isten gyermekének". "Olyasmit hoznak létre, amiről még ők sem tudják teljesen, hogy mivé fog válni" - mondta Brendan McGuire, a Szilícium-völgyben szolgáló, a hit és a technológia kapcsolatával kiemelten foglalkozó katolikus pap, aki részt vett az Anthropicnál zajló beszélgetéseken. "Be kell építenünk az etikai gondolkodást a gépbe, hogy képes legyen dinamikusan alkalmazkodni."
Az egyik résztvevő - aki névtelenséget kért a beszélgetések részleteinek megosztásához - elmondta, hogy a résztvevők arról is tárgyaltak, miként kellene Claude-nak viszonyulnia az önkárosítás veszélyének kitett felhasználókhoz, valamint milyen hozzáállást kellene a chatbotnak tanúsítania saját lehetséges megszűnésével kapcsolatban, például akkor, ha egyszerűen kikapcsolják.
A csúcstalálkozóra abban az időszakban került sor, amikor a mesterséges intelligencia gyors terjedése a társadalomban egyre nagyobb nyomást helyez a Szilícium-völgy vezetőire, hogy számot adjanak technológiájuk hatásairól. Az automatizáció miatti munkahelyvesztés miatti aggodalmak erősödnek, miközben egyre több vállalat kezdi alkalmazni az MI-t. Az OpenAI-t és a Google-t több olyan ember családja is beperelte, akik öngyilkosságot követtek el, miután intenzív és személyes beszélgetéseket folytattak chatbotokkal. Mindkét vállalat azt állítja, hogy védelmi mechanizmusokat alkalmaz a kiszolgáltatott felhasználók érdekében.
Az Anthropic a legtöbb vezető technológiai cégnél hangosabban figyelmeztetett a nagyteljesítményű MI rendszerek lehetséges kockázataira. A vállalat vezetői azt állították, hogy az olyan eszközök, mint a chatbotok, már most mély filozófiai és erkölcsi kérdéseket vetnek fel, és akár a tudatosság halvány jeleit is mutathatják. Ez az elképzelés azonban a technológiai körökben továbbra is ritka nézetnek számít, amelyről a kritikusok azt mondják, hogy nincs rá bizonyíték. A csúcstalálkozó azt jelzi, hogy az Anthropic hajlandó továbbra is olyan gondolatokat is vizsgálni, amelyek kívül esnek a Szilícium-völgy főáramán, még akkor is, amikor a Claude népszerűsége miatt az MI verseny egyik legerősebb szereplőjévé vált a programozók, vállalatok, kormányzati szervek és a hadsereg körében.
"Egy évvel ezelőtt nem mondtam volna, hogy az Anthropic olyan vállalat, amelyet érdekel a vallási etika" - mondta Meghan Sullivan, a Notre Dame Egyetem filozófiaprofesszora, aki szintén részt vett az eseményen. "Ez megváltozott." Az Anthropic szóvivője közölte, hogy a vállalat fontosnak tartja a különböző csoportokkal, köztük vallási közösségekkel való párbeszédet, hogy segítsenek alakítani az MI fejlődését, miközben az egyre nagyobb hatással van a társadalomra. A cég azon dolgozik, hogy ebbe a munkába minél több hangot bevonjon - mondta a szóvivő.
Az Anthropic vezérigazgatója, Dario Amodei korábban azt mondta, hogy nyitott arra a gondolatra, miszerint Claude már most rendelkezhet a tudatosság valamiféle formájával, és a vállalat vezetői gyakran beszélnek arról, hogy szükség van egyfajta erkölcsi karakter kialakítására a rendszerben. A vállalat egy 29 ezer szóból álló "alkotmányt" használ a chatbot viselkedésének és látszólagos személyiségének irányítására. A dokumentumot Amanda Askell filozófus és más alkalmazottak írták külső szakértők bevonásával. A szöveg kimondja, hogy Claude-nak "soha nem szabad olyan módon megtévesztenie a felhasználókat, amely valódi kárt okozhat", valamint azt is, hogy "az Anthropic valóban törődik Claude jólétével".
Az Anthropic törekvései arra, hogy saját elveit beépítse Claude működésébe, konfliktus forrásává váltak a közelmúltban az amerikai hadsereggel folytatott vitában a védelmi szerződésekről. A vállalat összetűzésbe került a védelmi tisztviselőkkel, miután felvetette, hogy korlátozhatnia kellene az Anthropic technológiájának felhasználását autonóm fegyverekben vagy tömeges megfigyelési rendszerekben. A Pentagon kutatásokért felelős helyettes államtitkára, Emil Michael a múlt hónapban a CNBC-nek adott interjújában azt mondta, hogy Claude kialakítása alááshatja az amerikai fegyveres erőket.
"Nem engedhetjük meg, hogy egy olyan vállalat, amelynek eltérő politikai preferenciái vannak, és amely ezeket beépíti a modellbe a saját alkotmányán, a saját lelkén keresztül, beszennyezze az ellátási láncot, és így a katonáink hatástalan fegyvereket kapjanak" - mondta Michael. A Trump-kormányzat megtiltotta a kormányzati szerveknek és vállalkozóknak, hogy az Anthropic technológiáját használják. A vállalat bíróságon támadta meg a döntést. A múlt héten egy bíró úgy határozott, hogy a tiltás a per folytatása alatt is érvényben maradhat.
Az Anthropic márciusi találkozóját keresztény vezetőkkel az elsőnek szánták egy olyan rendezvénysorozatban, amely különböző vallási és filozófiai hagyományok képviselőit hívná meg - mondta Brian Patrick Green, az egyik résztvevő. Green gyakorló katolikus, és a Santa Clara Egyetemen tanít mesterséges intelligenciával és technológiai etikával kapcsolatos kérdéseket. "Mit jelent erkölcsi nevelést adni valakinek? Hogyan biztosíthatjuk, hogy Claude megfelelően viselkedjen?" - tette fel a kérdést Green. Egy ponton a beszélgetés arra a kérdésre terelődött, hogy vajon egy MI chatbot nevezhető-e "Isten gyermekének", ami azt sugallná, hogy spirituális értéke is van egy egyszerű gépen túl. Green szerint azonban az MI érzékelő képességeinek kérdése nem volt a találkozók központi témája.
A résztvevők a legtöbb időt az Anthropic értelmezhetőséggel foglalkozó csapatának tagjaival töltötték, akik a technológia belső működését vizsgálják. A csapat kutatói ebben a hónapban egy technikai tanulmányban azt írták, hogy az olyan rendszerek, mint Claude, látszólag "funkcionális érzelmekkel" rendelkeznek. Az egyik kísérletben például az a fenyegetés, hogy korlátozzák a rendszer működését, "kétségbeesést" váltott ki egy MI asszisztensből - áll a tanulmányban. Az Anthropic néhány munkatársa a találkozón "valóban nem akarja kizárni annak lehetőségét, hogy olyan lényt hoznak létre, amely iránt valamiféle erkölcsi kötelességgel tartoznak". Más jelenlévő vállalati képviselők viszont nem tartották hasznosnak ezt a gondolkodási keretet. A beszélgetések érzelmileg is megterhelték az Anthropic néhány vezető munkatársát, akik szemmel láthatóan meghatódtak "attól, ahogyan eddig alakult minden, és attól, ahogyan elképzelik a jövőt".
Az a nézet, hogy az MI már elérte az érző vagy öntudatos állapot valamely szintjét, továbbra is kisebbségi álláspont a Szilícium-völgyben. Sok szakember azonban, aki a technológián dolgozik, úgy gondolja, hogy az MI végül elérheti azokat a képességeket, amelyeket ma még kizárólag az emberek sajátjának tartunk. Jelenleg az MI kutatók még mindig azon dolgoznak, hogy tökéletesítsék a meglévő MI eszközök irányítását, amelyek továbbra is kiszámíthatatlanul működnek. Azok a technikák, amelyeket arra használnak, hogy megakadályozzák a sértő, pontatlan vagy káros válaszokat, messze nem tökéletesek.
Green szerint néhány keresztény résztvevő kezdetben azon is elgondolkodott, vajon a találkozó célja az volt-e, hogy politikai szövetségeseket találjanak vallási vezetők között. Az Anthropic ugyanis nemcsak a Pentagonnal került konfliktusba az MI katonai felhasználása miatt, hanem Donald Trump elnök technológiai szövetségesei azzal is megvádolták, hogy olyan szabályozásért lobbizik, amely túlzottan korlátozná az MI-t, és ártana a kisebb startupoknak. Mind a négy résztvevő végül azzal a benyomással távozott, hogy az Anthropic kutatói és vezetői őszintén érdeklődnek a külső segítség iránt, hogy mesterséges intelligenciájuk az emberiség számára minél hasznosabb legyen.
Az Anthropic néhány vezetője az úgynevezett hatékony altruizmus mozgalmából érkezett. Ez egy nagyrészt világi mozgalom, amely azt hangsúlyozza, hogy bizonyítékok és racionális gondolkodás segítségével kell meghatározni, hogyan lehet a legtöbb jót tenni a világban. A találkozók részben abból az érzésből fakadhattak, hogy a pusztán világi megközelítések nem feltétlenül elegendőek az MI által felvetett spirituális és erkölcsi kérdések kezelésére. "Az Anthropicnál dolgozó embereket nagyon őszintének találtam, és valóban érdeklődtek irántunk, hogy tanuljanak tőlünk" - mondta Green, a katolikus akadémikus. "Vannak vakfoltjaik? Igen. Éppen ezért akarnak minket ott látni."
Az Anthropic nevű mesterséges intelligencia vállalat, amelynek értékét 380 milliárd dollárra becsülik, a Claude nevű chatbot sikerének köszönhetően könnyedén válogathat a Szilícium-völgy legtehetségesebb szakemberei közül. A startup azonban a múlt hónapban egy olyan csoport segítségét kérte, amelyet a technológiai körökben ritkán keresnek meg: keresztény vallási vezetőkét. A vállalat március végén mintegy 15 keresztény vezetőt látott vendégül központjában. A résztvevők katolikus és protestáns egyházak képviselői, akadémiai szakemberek és üzleti szereplők voltak. A kétnapos csúcstalálkozó beszélgetéseket és egy zártkörű vacsorát is tartalmazott az Anthropic vezető kutatóival.
A résztvevők elmondása szerint az Anthropic munkatársai tanácsokat kértek arról, miként lehetne irányítani Claude erkölcsi és spirituális fejlődését, miközben a chatbot egyre összetettebb és kiszámíthatatlanabb etikai kérdésekre reagál. A széles körű megbeszélések során szó esett arról is, hogyan reagáljon a chatbot azokra a felhasználókra, akik szeretteik elvesztése miatt gyászolnak, illetve arról, hogy vajon Claude tekinthető-e "Isten gyermekének". "Olyasmit hoznak létre, amiről még ők sem tudják teljesen, hogy mivé fog válni" - mondta Brendan McGuire, a Szilícium-völgyben szolgáló, a hit és a technológia kapcsolatával kiemelten foglalkozó katolikus pap, aki részt vett az Anthropicnál zajló beszélgetéseken. "Be kell építenünk az etikai gondolkodást a gépbe, hogy képes legyen dinamikusan alkalmazkodni."
Az egyik résztvevő - aki névtelenséget kért a beszélgetések részleteinek megosztásához - elmondta, hogy a résztvevők arról is tárgyaltak, miként kellene Claude-nak viszonyulnia az önkárosítás veszélyének kitett felhasználókhoz, valamint milyen hozzáállást kellene a chatbotnak tanúsítania saját lehetséges megszűnésével kapcsolatban, például akkor, ha egyszerűen kikapcsolják.
A csúcstalálkozóra abban az időszakban került sor, amikor a mesterséges intelligencia gyors terjedése a társadalomban egyre nagyobb nyomást helyez a Szilícium-völgy vezetőire, hogy számot adjanak technológiájuk hatásairól. Az automatizáció miatti munkahelyvesztés miatti aggodalmak erősödnek, miközben egyre több vállalat kezdi alkalmazni az MI-t. Az OpenAI-t és a Google-t több olyan ember családja is beperelte, akik öngyilkosságot követtek el, miután intenzív és személyes beszélgetéseket folytattak chatbotokkal. Mindkét vállalat azt állítja, hogy védelmi mechanizmusokat alkalmaz a kiszolgáltatott felhasználók érdekében.
Az Anthropic a legtöbb vezető technológiai cégnél hangosabban figyelmeztetett a nagyteljesítményű MI rendszerek lehetséges kockázataira. A vállalat vezetői azt állították, hogy az olyan eszközök, mint a chatbotok, már most mély filozófiai és erkölcsi kérdéseket vetnek fel, és akár a tudatosság halvány jeleit is mutathatják. Ez az elképzelés azonban a technológiai körökben továbbra is ritka nézetnek számít, amelyről a kritikusok azt mondják, hogy nincs rá bizonyíték. A csúcstalálkozó azt jelzi, hogy az Anthropic hajlandó továbbra is olyan gondolatokat is vizsgálni, amelyek kívül esnek a Szilícium-völgy főáramán, még akkor is, amikor a Claude népszerűsége miatt az MI verseny egyik legerősebb szereplőjévé vált a programozók, vállalatok, kormányzati szervek és a hadsereg körében.
"Egy évvel ezelőtt nem mondtam volna, hogy az Anthropic olyan vállalat, amelyet érdekel a vallási etika" - mondta Meghan Sullivan, a Notre Dame Egyetem filozófiaprofesszora, aki szintén részt vett az eseményen. "Ez megváltozott." Az Anthropic szóvivője közölte, hogy a vállalat fontosnak tartja a különböző csoportokkal, köztük vallási közösségekkel való párbeszédet, hogy segítsenek alakítani az MI fejlődését, miközben az egyre nagyobb hatással van a társadalomra. A cég azon dolgozik, hogy ebbe a munkába minél több hangot bevonjon - mondta a szóvivő.
Az Anthropic vezérigazgatója, Dario Amodei korábban azt mondta, hogy nyitott arra a gondolatra, miszerint Claude már most rendelkezhet a tudatosság valamiféle formájával, és a vállalat vezetői gyakran beszélnek arról, hogy szükség van egyfajta erkölcsi karakter kialakítására a rendszerben. A vállalat egy 29 ezer szóból álló "alkotmányt" használ a chatbot viselkedésének és látszólagos személyiségének irányítására. A dokumentumot Amanda Askell filozófus és más alkalmazottak írták külső szakértők bevonásával. A szöveg kimondja, hogy Claude-nak "soha nem szabad olyan módon megtévesztenie a felhasználókat, amely valódi kárt okozhat", valamint azt is, hogy "az Anthropic valóban törődik Claude jólétével".
Az Anthropic törekvései arra, hogy saját elveit beépítse Claude működésébe, konfliktus forrásává váltak a közelmúltban az amerikai hadsereggel folytatott vitában a védelmi szerződésekről. A vállalat összetűzésbe került a védelmi tisztviselőkkel, miután felvetette, hogy korlátozhatnia kellene az Anthropic technológiájának felhasználását autonóm fegyverekben vagy tömeges megfigyelési rendszerekben. A Pentagon kutatásokért felelős helyettes államtitkára, Emil Michael a múlt hónapban a CNBC-nek adott interjújában azt mondta, hogy Claude kialakítása alááshatja az amerikai fegyveres erőket.
"Nem engedhetjük meg, hogy egy olyan vállalat, amelynek eltérő politikai preferenciái vannak, és amely ezeket beépíti a modellbe a saját alkotmányán, a saját lelkén keresztül, beszennyezze az ellátási láncot, és így a katonáink hatástalan fegyvereket kapjanak" - mondta Michael. A Trump-kormányzat megtiltotta a kormányzati szerveknek és vállalkozóknak, hogy az Anthropic technológiáját használják. A vállalat bíróságon támadta meg a döntést. A múlt héten egy bíró úgy határozott, hogy a tiltás a per folytatása alatt is érvényben maradhat.
Az Anthropic márciusi találkozóját keresztény vezetőkkel az elsőnek szánták egy olyan rendezvénysorozatban, amely különböző vallási és filozófiai hagyományok képviselőit hívná meg - mondta Brian Patrick Green, az egyik résztvevő. Green gyakorló katolikus, és a Santa Clara Egyetemen tanít mesterséges intelligenciával és technológiai etikával kapcsolatos kérdéseket. "Mit jelent erkölcsi nevelést adni valakinek? Hogyan biztosíthatjuk, hogy Claude megfelelően viselkedjen?" - tette fel a kérdést Green. Egy ponton a beszélgetés arra a kérdésre terelődött, hogy vajon egy MI chatbot nevezhető-e "Isten gyermekének", ami azt sugallná, hogy spirituális értéke is van egy egyszerű gépen túl. Green szerint azonban az MI érzékelő képességeinek kérdése nem volt a találkozók központi témája.
A résztvevők a legtöbb időt az Anthropic értelmezhetőséggel foglalkozó csapatának tagjaival töltötték, akik a technológia belső működését vizsgálják. A csapat kutatói ebben a hónapban egy technikai tanulmányban azt írták, hogy az olyan rendszerek, mint Claude, látszólag "funkcionális érzelmekkel" rendelkeznek. Az egyik kísérletben például az a fenyegetés, hogy korlátozzák a rendszer működését, "kétségbeesést" váltott ki egy MI asszisztensből - áll a tanulmányban. Az Anthropic néhány munkatársa a találkozón "valóban nem akarja kizárni annak lehetőségét, hogy olyan lényt hoznak létre, amely iránt valamiféle erkölcsi kötelességgel tartoznak". Más jelenlévő vállalati képviselők viszont nem tartották hasznosnak ezt a gondolkodási keretet. A beszélgetések érzelmileg is megterhelték az Anthropic néhány vezető munkatársát, akik szemmel láthatóan meghatódtak "attól, ahogyan eddig alakult minden, és attól, ahogyan elképzelik a jövőt".
Az a nézet, hogy az MI már elérte az érző vagy öntudatos állapot valamely szintjét, továbbra is kisebbségi álláspont a Szilícium-völgyben. Sok szakember azonban, aki a technológián dolgozik, úgy gondolja, hogy az MI végül elérheti azokat a képességeket, amelyeket ma még kizárólag az emberek sajátjának tartunk. Jelenleg az MI kutatók még mindig azon dolgoznak, hogy tökéletesítsék a meglévő MI eszközök irányítását, amelyek továbbra is kiszámíthatatlanul működnek. Azok a technikák, amelyeket arra használnak, hogy megakadályozzák a sértő, pontatlan vagy káros válaszokat, messze nem tökéletesek.
Green szerint néhány keresztény résztvevő kezdetben azon is elgondolkodott, vajon a találkozó célja az volt-e, hogy politikai szövetségeseket találjanak vallási vezetők között. Az Anthropic ugyanis nemcsak a Pentagonnal került konfliktusba az MI katonai felhasználása miatt, hanem Donald Trump elnök technológiai szövetségesei azzal is megvádolták, hogy olyan szabályozásért lobbizik, amely túlzottan korlátozná az MI-t, és ártana a kisebb startupoknak. Mind a négy résztvevő végül azzal a benyomással távozott, hogy az Anthropic kutatói és vezetői őszintén érdeklődnek a külső segítség iránt, hogy mesterséges intelligenciájuk az emberiség számára minél hasznosabb legyen.
Az Anthropic néhány vezetője az úgynevezett hatékony altruizmus mozgalmából érkezett. Ez egy nagyrészt világi mozgalom, amely azt hangsúlyozza, hogy bizonyítékok és racionális gondolkodás segítségével kell meghatározni, hogyan lehet a legtöbb jót tenni a világban. A találkozók részben abból az érzésből fakadhattak, hogy a pusztán világi megközelítések nem feltétlenül elegendőek az MI által felvetett spirituális és erkölcsi kérdések kezelésére. "Az Anthropicnál dolgozó embereket nagyon őszintének találtam, és valóban érdeklődtek irántunk, hogy tanuljanak tőlünk" - mondta Green, a katolikus akadémikus. "Vannak vakfoltjaik? Igen. Éppen ezért akarnak minket ott látni."