SG.hu
Érzelmi függést okoz a ChatGPT új, emberi hangja
A cég attól tart, hogy az emberek az új, emberi hangzású hangmódja miatt túlságosan elkezdenek a ChatGPT-re támaszkodni, ami "függőséghez" vezethet. Ez a felfedezés az OpenAI legfrissebb biztonsági jelentésében jelent meg.
A ChatGPT fejlett hangmódja figyelemre méltóan élethűen hangzik. Valós időben reagál, képes alkalmazkodni a beszéd megszakításhoz, és olyan hangokat ad ki, mint amilyeneket az emberek beszélgetés közben adnak ki, például nevet vagy hümmög. A hangszín alapján a beszélő érzelmi állapotát is meg tudja ítélni. Miután az OpenAI bejelentette a funkciót egy idei rendezvényen, a 2013-as "Her" című filmben szereplő mesterséges intelligenciához hasonlították, akibe a főszereplő beleszeret, és akinek a szíve szakad meg, amikor a mesterséges intelligencia beismeri, hogy "ő" több száz másik felhasználóval is kapcsolatot tart fenn.
Most az OpenAI a jelek szerint aggódik, hogy ez a kitalált történet egy kicsit túl közel van ahhoz, hogy valósággá váljon. A cég azt állítja, hogy megfigyelésük szerint a felhasználók a ChatGPT hangos üzemmódjában olyan hangnemben beszélnek az eszközzel, amely "közös kötődést fejez ki". Végül "a felhasználók társas kapcsolatokat alakíthatnak ki a mesterséges intelligenciával, csökkentve ezzel az emberi interakció iránti igényüket - ami potenciálisan előnyös lehet a magányos egyének számára, de esetleg hatással lehet az egészséges kapcsolatokra" - áll a jelentésben. A jelentés hozzáteszi, hogy ha egy robot szájából hangoznak el emberi hangzású információk, akkor az arra késztetheti a felhasználókat, hogy jobban bízzanak az eszközben, mint kellene.
A jelentés kiemeli a mesterséges intelligenciát övező nagyszabású kockázatot: a technológiai vállalatok versenyt futnak a nyilvánosság számára gyorsan bevezetett funkciókkal, amelyek felboríthatják az életmódunkat, a munkánkat, a szocializációnkat és az információkeresésünket. Mindezt még azelőtt teszik, hogy bárki is igazán értené milyen következményekkel járnak ezek. Mint sok más technológiai fejlesztés esetében, a vállalatoknak gyakran van egy elképzelésük arról, hogyan lehet és kell használni az eszközeiket, de a felhasználók rengeteg más lehetséges alkalmazással állnak elő, gyakran nem szándékolt következményekkel. Egyesek már most is romantikusnak mondható kapcsolatokat alakítanak ki a chatbotokkal, ami aggodalomra ad okot a párkapcsolati szakértők körében.
"Nagy felelősség hárul a vállalatokra, hogy valóban etikus és felelősségteljes módon járjanak el, főleg mert ez az egész technológia jelenleg még csak kísérleti fázisban van" - mondta Liesel Sharabi, az Arizonai Állami Egyetem professzora, aki a technológiát és az emberi kommunikációt tanulmányozza. "Aggódom azon emberek miatt, akik igazán mély kapcsolatokat alakítanak ki egy olyan technológiával, amely hosszú távon talán nem is létezik majd, és amely folyamatosan fejlődik".
Az OpenAI szerint az emberi felhasználóknak a ChatGPT hangmódjával való interakciói idővel befolyásolhatják azt is, hogy mi számít normálisnak a társadalmi interakciókban. "Modelljeink tisztelettudóak, és lehetővé teszik a felhasználók számára, hogy bármikor félbeszakítsák az asszisztenst és "átvegyék a mikrofont". Ez bár elvárható egy mesterséges intelligenciától, az emberi interakciókban antinormatív viselkedés" - írta a vállalat a jelentésben. Az OpenAI azt mondja, hogy elkötelezett a "biztonságos" mesterséges intelligencia megalkotása mellett, és azt tervezi, hogy tovább tanulmányozza a felhasználók "érzelmi függőségének" lehetőségét az eszközeivel kapcsolatban.
A ChatGPT fejlett hangmódja figyelemre méltóan élethűen hangzik. Valós időben reagál, képes alkalmazkodni a beszéd megszakításhoz, és olyan hangokat ad ki, mint amilyeneket az emberek beszélgetés közben adnak ki, például nevet vagy hümmög. A hangszín alapján a beszélő érzelmi állapotát is meg tudja ítélni. Miután az OpenAI bejelentette a funkciót egy idei rendezvényen, a 2013-as "Her" című filmben szereplő mesterséges intelligenciához hasonlították, akibe a főszereplő beleszeret, és akinek a szíve szakad meg, amikor a mesterséges intelligencia beismeri, hogy "ő" több száz másik felhasználóval is kapcsolatot tart fenn.
Most az OpenAI a jelek szerint aggódik, hogy ez a kitalált történet egy kicsit túl közel van ahhoz, hogy valósággá váljon. A cég azt állítja, hogy megfigyelésük szerint a felhasználók a ChatGPT hangos üzemmódjában olyan hangnemben beszélnek az eszközzel, amely "közös kötődést fejez ki". Végül "a felhasználók társas kapcsolatokat alakíthatnak ki a mesterséges intelligenciával, csökkentve ezzel az emberi interakció iránti igényüket - ami potenciálisan előnyös lehet a magányos egyének számára, de esetleg hatással lehet az egészséges kapcsolatokra" - áll a jelentésben. A jelentés hozzáteszi, hogy ha egy robot szájából hangoznak el emberi hangzású információk, akkor az arra késztetheti a felhasználókat, hogy jobban bízzanak az eszközben, mint kellene.
A jelentés kiemeli a mesterséges intelligenciát övező nagyszabású kockázatot: a technológiai vállalatok versenyt futnak a nyilvánosság számára gyorsan bevezetett funkciókkal, amelyek felboríthatják az életmódunkat, a munkánkat, a szocializációnkat és az információkeresésünket. Mindezt még azelőtt teszik, hogy bárki is igazán értené milyen következményekkel járnak ezek. Mint sok más technológiai fejlesztés esetében, a vállalatoknak gyakran van egy elképzelésük arról, hogyan lehet és kell használni az eszközeiket, de a felhasználók rengeteg más lehetséges alkalmazással állnak elő, gyakran nem szándékolt következményekkel. Egyesek már most is romantikusnak mondható kapcsolatokat alakítanak ki a chatbotokkal, ami aggodalomra ad okot a párkapcsolati szakértők körében.
"Nagy felelősség hárul a vállalatokra, hogy valóban etikus és felelősségteljes módon járjanak el, főleg mert ez az egész technológia jelenleg még csak kísérleti fázisban van" - mondta Liesel Sharabi, az Arizonai Állami Egyetem professzora, aki a technológiát és az emberi kommunikációt tanulmányozza. "Aggódom azon emberek miatt, akik igazán mély kapcsolatokat alakítanak ki egy olyan technológiával, amely hosszú távon talán nem is létezik majd, és amely folyamatosan fejlődik".
Az OpenAI szerint az emberi felhasználóknak a ChatGPT hangmódjával való interakciói idővel befolyásolhatják azt is, hogy mi számít normálisnak a társadalmi interakciókban. "Modelljeink tisztelettudóak, és lehetővé teszik a felhasználók számára, hogy bármikor félbeszakítsák az asszisztenst és "átvegyék a mikrofont". Ez bár elvárható egy mesterséges intelligenciától, az emberi interakciókban antinormatív viselkedés" - írta a vállalat a jelentésben. Az OpenAI azt mondja, hogy elkötelezett a "biztonságos" mesterséges intelligencia megalkotása mellett, és azt tervezi, hogy tovább tanulmányozza a felhasználók "érzelmi függőségének" lehetőségét az eszközeivel kapcsolatban.