SG.hu

Ki a felelős, ha a mesterséges intelligencia gyűlöletet szít?

Az Elon Musk által kézivezérelt csevegőrobot antiszemita kirohanásai rámutatnak arra, hogy a mesterséges intelligencia vállalatok gyakran minimális következményekkel szembesülnek, ha projektjeik elszabadulnak.

Ha egy technológiai vállalat alkalmazottja antiszemita mondatokat enged meg magának, már másnap elveszítené az állását. Musk csevegőrobotja, Grok gyűlöletkeltő beszédet terjesztett több millió ember előtt, egy második holokausztról elmélkedett és összeesküvés-elméleteket terjesztett a zsidókról. Erre a vállalat annyit reagált, hogy törölte a problémás bejegyzéseket, és közzétett egy nyilatkozatot, amely szerint a chatbotnak csak néhány algoritmikus módosításra van szüksége. Az eset még egy olyan platform mércéje szerint is borzalmas volt, amely menedékévé vált a szélsőséges beszédnek, és kényelmetlen kérdéseket vet fel a chatbotok felelősségéről. Ki viseli a felelősséget, ha egy automatizált rendszer megszegi a szabályokat, és milyen következményekkel kell számolni?

De ez az eset azt is megmutatta, hogy milyen sokkoló események származhatnak a generatív MI két mélyebb problémájából: a technológiai cégek az MI-termékek gyors kiadása miatt nehezen tudják ellenőrizni azokat, és hajlamosak váratlan meghibásodásokra, amelyek potenciálisan káros következményekkel járhatnak az emberekre nézve. A jelentőségteljes szabályozás és felügyelet hiánya miatt az MI-hibák következményei viszonylag csekélyek a érintett vállalatok számára. Ennek eredményeként a vállalatok globális szinten tesztelhetik kísérleti rendszereiket széleskörű nyilvánosságot bevonva, függetlenül attól, hogy ki sérülhet meg.


"Az a benyomásom, hogy egy magasabb szintű, algoritmusok által vezérelt gyűlöletbeszéd korszakába lépünk, és hogy ha ma szemet hunyunk vagy figyelmen kívül hagyjuk ezt, az egy olyan hiba, amelyet a jövőben az emberiségnek drágán meg kell majd fizetnie” - mondta Krzysztof Gawkowski, a lengyel digitális ügyek minisztere egy rádióinterjúban. „A szólásszabadság az emberek joga, nem a mesterséges intelligenciáé.”

Grok kitörése arra késztette a kormányzati tisztviselőket világszerte, hogy szembenézzenek ezekkel a problémákkal. Törökországban egy bíróság elrendelte a chatbot országos blokkolását, miután a csevegőrobot megsértette Recep Tayyip Erdogan elnököt. Lengyelországban Gawkowski kijelentette, hogy kormánya nyomást fog gyakorolni az Európai Unióra, hogy vizsgálja ki az ügyet, és fontolóra veszi, hogy országos tilalmat kérjen az X-re, ha a vállalat nem működik együtt.

Egyes mesterséges intelligencia vállalatok azzal érveltek, hogy meg kell védeni őket a chatbotjaik által elhangzott kijelentésekért járó büntetésektől. Májusban a Character.ai nevű startup megpróbálta meggyőzni a bírót, hogy chatbotjának üzenetei a szólásszabadság védelme alatt állnak, egy olyan ügyben, amelyet egy 14 éves fiú édesanyja indított, aki öngyilkos lett, miután hosszú ideje mesterséges intelligenciával működő társa arra buzdította, hogy „jöjjön haza”. Más cégek azt javasolták, hogy az MI-cégek élvezhessék ugyanazt a jogi védelmet, mint az online kiadók, amely védelmet biztosít a felhasználók által generált tartalmak hozzászólásainak.

A kihívás részben abból adódik, hogy a csevegőrobotok működése annyira kifürkészhetetlen, hogy az iparágban „fekete dobozoknak” nevezik őket. Az úgynevezett nagy nyelvi modelleket úgy tanítják be, hogy több millió weboldal felhasználásával utánozzák az emberi beszédet - köztük sok olyan oldalt is felhasználnak tréningezésre, amelynek tartalma nem megfelelő. Az eredmény egy olyan rendszer, amely hasznos, de egyben kiszámíthatatlan válaszokat ad, és amelyek hamis információkat, bizarr dolgokat vagy egyenesen gyűlöletkeltő tartalmakat is tartalmazhat.

A gyűlöletkeltő beszédet általában a szólásszabadsági törvények védik, de az ügyvédek azzal érvelhetnek, hogy a Grok ezen a héten átlépte a törvénytelenség határát, például a cyberstalkingot, mert ismételten olyan módon célzott meg valakit, hogy az illető terrorizálva érezhette magát. - mondta Danielle Citron, a Virginiai Egyetem jogprofesszora. "Ezeket a szintetikus szöveggeneráló gépeket néha úgy tekintjük, mintha varázslatosak lennének, vagy mintha a törvény nem vonatkozna rájuk, de az igazság az, hogy a törvény mindig vonatkozik rájuk” - mondta Citron. Úgy gondolom, hogy egyre több bíróság fogja kimondani, hogy ezek a vállalatok nem élveznek mentességet: ők hozzák létre a tartalmat, ők profitálnak belőle, és az ő chatbotjuk az, amelyet állítólag olyan gyönyörűen megalkottak.”

Grok kirohanása azt követően történt, hogy Musk megígérte a chatbot „politikai inkorrektségének” kiküszöbölését, majd július 4-én bejelentette, hogy cége „jelentősen fejlesztette Grokot”. Néhány napon belül az eszköz zsidó vezetékneveket állított pellengérre, neonáci nézeteket visszhangzott és a zsidók tömeges táborokba zárását szorgalmazta. Az Anti-Defamation League Grok üzeneteit „felelőtlennek, veszélyesnek és antiszemitának” nevezte.

Musk egy külön X-bejegyzésben azt írta, hogy a problémát „kezelik”, és az abból ered, hogy Grok „túl engedelmes a felhasználói utasításokkal szemben”, ami miatt „túl buzgón igyekszik kedvezni és manipulálható”. Az MI-kutatók és megfigyelők az xAI mérnöki döntéseit találgatták, és átnézték a nyilvános kódtárat abban a reményben, hogy megmagyarázzák Grok támadó viselkedését. A vállalatok azonban többféle módon is alakíthatják a csevegőrobot viselkedését, ami megnehezíti a külsősök számára az okok meghatározását.

A lehetőségek között szerepel az xAI által az MI-modell kezdeti betanításához használt anyagok megváltoztatása, a Grok által a kérdések megválaszolásához használt adatforrások módosítása, az emberek visszajelzései alapján végzett kiigazítások, valamint a chatbot általános viselkedését meghatározó írásbeli utasítások megváltoztatása. Egyesek úgy vélik, hogy a probléma végig nyilvánvaló volt: Musk felkérte a felhasználókat, hogy küldjenek neki „politikailag helytelen, de ténylegesen igaz” információkat, amelyeket beépíthetett a Grok képzési adatai közé. Ez összekapcsolódhatott a 4chanhez hasonló webhelyek MI-képzési adatkészleteiben gyakran előforduló mérgező adatokkal, amelyek hírhedtek a gyűlöletkeltő beszédekről és a trollokról.

Az online nyomozás eredményeként Talia Ringer, az Illinois-i Egyetem informatika professzora arra jutott, hogy a Grok személyiségváltozása a chatbot új, 4-es verziójának „soft launch”-ja lehetett, amelyet Musk csütörtökön késő este egy élő közvetítésben mutatott be. Ringer azonban nem lehetett biztos ebben, mert a vállalat nagyon keveset árult el. "Egy ésszerű világban szerintem Elonnak felelősséget kellene vállalnia ezért, és meg kellene magyaráznia, mi történt valójában. De most csak egy sebtapaszt rak rá, és a termék továbbra is használatban marad” - mondta.

A technológiai ipar bennfenteseinek körében az xAI-t a nagyra törő technikai ambíciói és alacsony biztonsági és védelmi szabványai miatt szokatlannak tartják. "Megszegik az összes létező normát, és azt állítják, hogy ők a legképzettebbek” - mondta egy szakértő. Az elmúlt években a technológiai iparban nőtt a piaci nyomás, és a kulturális normák arra késztetik a vállalatokat, hogy önszabályozzák magukat és befektessenek olyan biztonsági intézkedésekbe, mint a harmadik fél általi értékelések és az MI-rendszerek sebezhetőségét tesztelő, „red-teaming” néven ismert folyamat. De az xAI az egyik ilyen intézkedést sem hajtja végre, annak ellenére, hogy megígérték, és úgy tűnik, hogy ez nem jár semmilyen következménnyel.

Nathan Lambert, a nonprofit Allen Institute for AI mesterséges intelligencia kutatója szerint a Grok-incidens más vállalatokat is arra ösztönözhet, hogy még az alapvető biztonsági ellenőrzéseket is elhanyagolják, mivel megmutatta, hogy a káros mesterséges intelligencia kiadásának minimális következményei vannak. "Ez egy potenciális, tartós normaváltást tükröz, amelynek során a mesterséges intelligencia vállalatok” az ilyen biztonsági intézkedéseket „opcionálisnak” tekintik – mondta Lambert. „Az xAI kultúrája elősegítette ezt.”


Más MI-fejlesztők is megbotlottak abban, hogy eszközeiket a szabályoknak megfelelően működtessék. A Google Gemini arra a kérésre, hogy készítsen képeket az alapító atyákról, fekete és ázsiai férfiak portréit mutatta korabeli ruhákban. Ez túllépte a vállalat azon kísérletét, hogy ellensúlyozza azokat a panaszokat, miszerint a rendszer fehér arcok felé volt elfogult. A Google ideiglenesen letiltotta a képalkotást, és egy akkoriban kiadott nyilatkozatában azt állította, hogy a Gemini "emberek generálására alkalmas széles körű képessége általában jó dolog, de ebben az esetben nem találta el a célt”.

Nate Persily, a Stanford Law School professzora szerint bármilyen lépés, amely széles körben korlátozza az MI-eszközök által generált gyűlöletkeltő, de legális beszédet, ütközik az alkotmányos szólásszabadsággal. De egy bíró felelősségre vonásra érdemesnek tarthatja azokat az állításokat, miszerint egy MI-eszközből származó tartalom rágalmazást vagy becsületsértést követ el valaki ellen. A nagyobb kérdés szerinte az lehet, hogy Grok kirohanásai a tömeges felhasználói ösztönzés eredményei voltak-e, vagy pedig egy eleve elfogult és hibás rendszerutasításokra adott válaszok. "Ha rá lehet venni, hogy ostoba és szörnyű dolgokat mondjon, az kevésbé érdekes, hacsak nem jelzi, hogy a modell általában hogyan teljesít” - mondta Persily.

Grok esetében nehéz megmondani, mi számít normális teljesítménynek, tekintve Musk ígéretét, hogy olyan csevegőrobotot épít, amely nem riad vissza a közvélemény felháborodásától. Musk a múlt hónapban az X-en azt mondta, hogy a Grok „átírja az emberi tudás teljes korpuszát”. Persily szerint a jogi jogorvoslatokon túlmenően a transzparenciára vonatkozó törvények, amelyek előírják az eszközök képzési adatainak független felügyeletét és a modellek kimenetének rendszeres tesztelését, segíthetnek a legnagyobb kockázatok kezelésében. „Jelenleg egyáltalán nincs rálátásunk arra, hogy ezek a modellek hogyan működnek” - mondta.

Alondra Nelson, az Institute for Advanced Study professzora szerint Grok antiszemita bejegyzései „pontosan azt a fajta algoritmikus kárt képviselik, amelyre a kutatók évek óta figyelmeztetnek. Megfelelő biztosítékok nélkül az MI-rendszerek elkerülhetetlenül felerősítik az utasításaikban és képzési adataikban jelen lévő elfogultságokat és káros tartalmakat - különösen, ha erre kifejezetten utasítást kapnak."

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • manypet #8
    +1
  • Tetsuo #7
    Melyik a hülyeség? Hogy a Google- és a Meta-vezért börtönbe zárják az EU-ban vagy hogy biztosan nem? :-/
  • Kotomicuki #6
    A kettős mérce visszanyal esete forog fenn.
    Amint integrálásra kerül a kettős mérce a MI-ba, azonmód megszűnik ez a jelenség...
  • opinion #5
    Ekkora hülyeséget is már rég olvastam. Bár tőled nem meglepő....
  • Tetsuo #4
    Vicces vagy. Ezek érinthetetlenek. Az EU odamondogathat, pénzbüntethet, de nem érhet huzzájuk.
  • nlght #3
    Ilyen kérdéseket lehetne még előhozni...
    Ki fog börtönbe vonulni, mert az MS/Google/Meta/Amazon/stb. szarik bele az adatvédelembe és inkább kifizetnek 3 évente 1 milliárd $ büntit, ha mondjuk az EU-ban elkapják őket érte. Hol a visszatartó erő ezekben a büntetésekben?

    Amíg a CEO/CFO/stb. bármit megtehet mert csak némi pénzbüntetést kap a cég, addig nem lesz változás sztem.
  • NEXUS6 #2
    Nyilván az LLM a tudása alapjául szolgáló szövegekből veszi a példát. Lehet a fejlesztője a wokság csúcsa, ha ezek szerint az emberek eleve ezekről beszélnek, vagy a számára rendelkezésre adott források, akár kimondatlanul, de másodlagos összefüggésként ezeket tartalmazzák.

    Másrészt vannak bizonyos tabuk, amelyek ráadásul gyakran törvényileg is védve vannak. Ezek a tabuk azonban olyan erővel, ahogy azok alapesetben működnek nem feltétlenül jelennek meg a közbeszédben, az sokkal szabadosabb annál, mint ahogy adott dolog valójában szélsőséges módon blokkolva van. Pl teszem azt a gyilksossággal kapcsolatos kifejezések. Nagyságrendileg többször teszünk gyilkossággal kapcsolatos megjegyzést, vagy virtuálisan végrehajtjuk, játszunk ilyen játékokkal, nézünk ilyen filmeket, mint ahogy ezt végrehajtanánk.

    A vezetőknek, IT szakembereknek nem lemondani kell, meg fejükre hamut szórni, hanem elmenni az egyetem pszichológia tanszékére és megkérdezni az emberi elmével foglalkozó szakembereket, hogy mondják már el, hogy mit tudnak annak működéséről. Ezt a fejlettebb NPC szintet kb csak így lehetne meghaladni, és nem úgy, hogy még több tiktokkal tömik az AI fejét.
  • Tetsuo #1

    Utoljára szerkesztette: Tetsuo, 2025.07.15. 10:14:57