SG.hu

Kalifornia állam saját törvényt hoz a mesterséges intelligencia szabályozására

Scott Wiener, Kalifornia állam szenátora meg akarja akadályozni veszélyes mesterséges intelligenciák létrehozását, de kritikusai szerint elhamarkodottan cselekszik.

Egy kaliforniai törvényjavaslat korlátozásokat vezetne be a mesterséges intelligenciára. Ha Gavin Newsom kormányzó aláírja a törvényt, a jogszabály előírná a vállalatok számára, hogy teszteljék a nagy teljesítményű mesterséges intelligencia technológiák biztonságosságát mielőtt azokat a nyilvánosság elé tárnák. Lehetővé tenné továbbá, hogy a kaliforniai főügyész beperelje a vállalatokat, ha a technológiájuk súlyos károkat okoz, például tömeges vagyoni károkat vagy emberi áldozatokat. Csütörtökön a törvényjavaslat átment a kaliforniai költségvetési bizottságon, ami fontos lépés a törvényerőre emelkedés felé.

Az SB 1047 nevű törvényjavaslat körüli vita jól tükrözi azokat az érveket, amelyek a mesterséges intelligencia iránti intenzív érdeklődésre ösztönöznek. Az ellenzők úgy vélik, hogy a jogszabály megfojtja a dolgozók termelékenységének növelését, az egészségügyi ellátás javítását és az éghajlatváltozás elleni küzdelmet ígérő technológiák fejlődését. A támogatók ezzel szemben úgy vélik, hogy a törvényjavaslat segít megelőzni a katasztrófákat, és védőkorlátokat állít a túlságosan profitorientált vállalatok munkájára. Éppen tavaly számos MI-szakértő és technológiai vezető folytatott nyilvános vitát az MI kockázatairól, és még a washingtoni törvényhozókat is felszólították, hogy segítsenek felállítani ezeket a védőkorlátokat.

Most pedig a technológiai ipar egy fordulatot téve visszariad attól a kísérlettől, hogy Kaliforniában pontosan ezt tegyék. Mivel az államban van a székhelyük, vagy ott folytatnak üzleti tevékenységet, számos vezető MI-céget - köztük a Google-t, a Metát, az Anthropicot és az OpenAI-t - kötelezné a javasolt törvény, amely precedenst teremthet más államok és nemzeti kormányok számára. A törvényjavaslat - a legkeményebb kritikusai szerint - az MI fejlesztését más államokba terelheti, miközben a régió éppen most éledezik fel a világjárvány okozta visszaesésből.

Néhány neves MI-kutató támogatja a törvényjavaslatot, köztük Geoff Hinton, a Google korábbi kutatója és Yoshua Bengio, a Montreali Egyetem professzora. Ők ketten az elmúlt 18 hónapot azzal töltötték, hogy a technológia veszélyeire figyelmeztettek. Más mesterséges intelligencia úttörők a törvényjavaslat ellen foglaltak állást, köztük a Meta vezető mesterséges intelligencia kutatója, Yann LeCun, valamint a Google korábbi vezetői és a Stanford professzorai, Andrew Ng és Fei-Fei Li. Az OpenAI szóvivője szerint a törvényjavaslat lelassíthatja az innovációt, mivel bizonytalan jogi környezetet teremt az MI-k építéséhez. A vállalat elmondta, hogy a törvényjavaslatot kidolgozó Scott Wiener kaliforniai szenátor irodájával folytatott megbeszéléseken kifejezte aggályait, és hogy a komoly MI-kockázatok nemzetbiztonsági kérdéseket jelentenek, amelyeket a szövetségi kormánynak kellene szabályoznia, nem pedig az államoknak.

A törvényjavaslat gyökerei a San Franciscóban tartott „MI-találkozókon” keresendők. Tavaly Wiener részt vett egy sor ilyen eseményen, ahol fiatal kutatók, vállalkozók, aktivisták és amatőr filozófusok vitatták meg a mesterséges intelligencia jövőjét. Miután részt vett ezeken a megbeszéléseken, Wiener a Center for AI Safety (Központ az MI Biztonságáért) szervezet közreműködésével megalkotta az SB 1047-es javaslatot. Ez az agytröszt kapcsolatban áll a hatékony altruizmussal, egy olyan mozgalommal, amely már régóta foglalkozik az MI által jelentett egzisztenciális fenyegetések megelőzésével.


Kalifornia kormányzója (jobbra) nagyon jól ismeri a mesterséges intelligencia problémáit

A törvényjavaslat biztonsági teszteket írna elő azon rendszerek számára, amelyek fejlesztési költsége meghaladja a 100 millió dollárt, és amelyeket bizonyos mennyiségű nyers számítási teljesítmény felhasználásával képeznek ki. Emellett létrehozna egy új állami ügynökséget, amely meghatározza és felügyeli ezeket a teszteket. Dan Hendrycks, a Center for AI Safety egyik alapítója szerint a törvényjavaslat a legnagyobb technológiai cégeket arra kényszerítené, hogy azonosítsák és távolítsák el a legdrágább technológiáikból a káros viselkedést. "Az összetett rendszerek váratlanul viselkednek. Erre lehet számítani” - mondta Dr. Hendrycks. "A törvényjavaslat annak biztosítására szólít fel, hogy ezek a rendszerek ne legyenek veszélyesek, vagy ha a veszélyek mégis fennállnak, akkor a rendszerek rendelkezzenek a megfelelő biztosítékokkal.”

A mai mesterséges intelligencia technológiák segíthetnek a dezinformáció online terjesztésében, beleértve a szövegeket, állóképeket és videókat. Emellett kezdenek elvenni néhány munkahelyet is. Az OpenAI és mások által az elmúlt évben végzett tanulmányok azonban azt mutatták, hogy a mai MI-technológiák nem lényegesen veszélyesebbek, mint a keresőmotorok. Néhány szakértő mégis azt állítja, hogy komoly veszélyek vannak a láthatáron. Dario Amodei, az Anthropic nevű, nagy feltűnést keltő MI startup vezérigazgatója például tavaly a kongresszusnak azt mondta, hogy a technológia segítségével képzetlen emberek hamarosan nagyszabású biológiai támadásokat hajthatnak végre.

Wiener azt mondta, hogy megpróbálta megelőzni ezeket az ijesztő forgatókönyveket. "Történelmileg mindig megvártuk, hogy rossz dolgok történjenek, aztán a kezünket tördeltük, és később foglalkoztunk vele, néha már akkor, amikor a ló már kint volt az istállóból, és már túl késő volt” - mondta egy interjúban. „Az én véleményem tehát az, hogy próbáljuk meg nagyon óvatosan megelőzni a kockázatokat.” A Google és a Meta levelet küldött Wienernek, amelyben aggodalmukat fejezték ki a törvényjavaslattal kapcsolatban. Az Anthropic szintén ellenezte a törvényjavaslatot jelenlegi formájában, és olyan változtatásokat javasolt, amelyek lehetővé tennék a vállalatok számára, hogy maguk ellenőrizzék a biztonsági teszteket. A vállalat szerint a kormánynak csak akkor kellene beavatkoznia, ha valódi károkat okoznak.

Wiener szerint a technológiai óriások ellenállása vegyes üzeneteket küld. A vállalatok már megígérték a Biden-kormányzatnak és a globális szabályozó hatóságoknak, hogy tesztelni fogják rendszereik biztonságosságát. "A Meta, a Google és az OpenAI vezérigazgatói - mindannyian - önként vállalták a tesztelést, és ez a törvényjavaslat csupán erre kéri őket” - mondta. A törvényjavaslat kritikusai viszont attól tartanak, hogy a biztonsági szabályok új felelősséget rónak majd az MI-fejlesztésre, mivel a vállalatoknak ígéretet kell tenniük arra, hogy ésszerű lépéseket tettek modelljeik biztonságosságának biztosítására, mielőtt kiadják azokat. Azzal is érvelnek, hogy az állami főügyész jogi lépésekkel való fenyegetése elriasztja a technológiai óriásokat attól, hogy a technológiájuk alapjául szolgáló szoftverkódot megosszák más vállalkozásokkal és szoftverfejlesztőkkel.

A nyílt forráskód elterjedt az informatika világában. Ez lehetővé teszi a kisvállalkozások és magánszemélyek számára, hogy nagyobb szervezetek munkájára építsenek, de az SB 1047 kritikusai szerint a törvényjavaslat súlyosan korlátozhatja az olyan induló vállalkozások lehetőségeit, amelyek nem rendelkeznek az olyan technológiai óriások erőforrásaival, mint a Google, a Microsoft és a Meta. "Ez elfojtja az innovációt” - mondta Lauren Wagner, befektető és kutató, aki a Google-nek és a Meta-nak is dolgozott. A nyílt forráskód támogatói úgy vélik, hogy a kód megosztása lehetővé teszi a mérnökök és kutatók számára, hogy gyorsan azonosítsák és javítsák a problémákat és fejlesszék a technológiákat.

Jeremy Howard, vállalkozó és MI-kutató, aki részt vett a vezető MI-rendszereket működtető technológiák létrehozásában, azt mondta, hogy az új kaliforniai törvényjavaslat biztosítaná, hogy a legerősebb MI-technológiák kizárólag a legnagyobb technológiai cégeké legyenek. És ha ezek a rendszerek végül meghaladnák az emberi agy teljesítményét - ahogyan azt néhány MI-kutató gondolja - a törvényjavaslat néhány vállalat kezében összpontosítaná a hatalmat. "Ezek a szervezetek nagyobb hatalommal rendelkeznének, mint bármely ország - bármilyen szervezet. Ők irányítanának egy mesterséges szuperintelligenciát” - mondta Howard. „Ez a katasztrófa receptje.”

Mások azzal érvelnek, hogy ha a nyílt forráskódú fejlesztés nem virágozhat az Egyesült Államokban, akkor az más országokba, köztük Kínába áramlik majd. Szerintük a megoldás az, hogy inkább azt kell szabályozni, hogy az emberek hogyan használják az MI-t, mintsem hogy az alaptechnológia létrehozását szabályozzák. "Az MI olyan, mint egy konyhakés, amelyet jó dolgokra lehet használni, például hagymát vágni, és rossz dolgokra, például leszúrni egy embert” - mondta Sebastian Thrun, MI-kutató és vállalkozó, a Google önvezető autó projektjének alapítója. "Nem kellene megpróbálnunk kapcsolót tenni egy konyhakésre. Meg kellene próbálnunk megakadályozni, hogy az emberek visszaéljenek vele”.

Pillanatokkal az SB 1047 csütörtöki elfogadása után az Egyesült Államok Kongresszusának nyolc, Kaliforniát képviselő tagja levélben kérte Newsom kormányzót, hogy vétózza meg az SB 1047-et. Azt írják, hogy a törvényjavaslat „nem lenne jó az államunknak, a startup közösségnek, a tudományos fejlődésnek, de még a mesterséges intelligencia fejlesztésével kapcsolatos esetleges károkkal szembeni védelemnek sem”. Az SB 1047 most a kaliforniai közgyűlés elé kerül, ahol a végső szavazásra kerül sor. Ha ott átmegy, módosítások miatt vissza kell utalni a kaliforniai szenátusba szavazásra. Ha mindkettőn átmegy, akkor Newsom kormányzó asztalára kerül, aki megvétózhatja vagy törvénybe iktathatja.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • RJoco #2
    Remélem életbe léptetik.
    Ezt a hülyeséget, hogy majd a cégek ellenőrzik magukat, csak a hülyék veszik be.
    A lényeg a pénz. Mindegy, milyen áron.
    Attól meg nem félek, hogy ezek közül bármelyik is öntudatra ébred. Ahhoz túl buták ezek a programok.
  • CommieSlayer #1
    Azt se tudják mi az.