SG.hu

Kalifornia kormányzója megvétózta az állam MI biztonsági törvényét

Gavin Newsom kaliforniai kormányzó megvétózta a helyi mesterséges intelligencia biztonsági törvényjavaslatot, miután a technológiai ágazat képviselői szerint az el fogja űzni a mesterséges intelligenciával foglalkozó vállalatokat az államból és akadályozhatja az innovációt.

Newsom elmondta, hogy felkérte a generatív mesterséges intelligencia vezető szakértőit, hogy segítsenek Kaliforniának „működőképes védőkorlátok kidolgozásában”, amelyek „empirikus, tudományos alapú elemzésen” alapulnak. Arra is utasította az állami ügynökségeket, hogy bővítsék ki az MI alkalmazásához kapcsolódó potenciális katasztrófaeseményekből eredő kockázatok értékelését. A generatív mesterséges intelligencia - amely nyílt végű kérésekre válaszolva képes szöveget, fényképeket és videókat létrehozni - izgalmat keltett, ugyanakkor egyes munkahelyeket feleslegessé tehet, befolyásolhatók általa a választások és potenciálisan felülkerekedhet az embereken, ami katasztrofális következményekkel járhat.

A törvényjavaslat előterjesztője, Scott Wiener demokrata állam szenátora szerint jogszabályra van szükség a lakosság védelmére, mielőtt a mesterséges intelligencia fejlődése ellenőrizhetetlenné válik. A vétót visszalépésnek nevezte mindazok számára, akik hisznek a hatalmas vállalatok felügyeletében, amelyek kritikus döntéseket hoznak, amelyek hatással vannak a lakosság biztonságára és jólétére, valamint a bolygó jövőjére”. A mesterséges intelligencia ipar gyorsan növekszik Kaliforniában, és egyes vezetők megkérdőjelezték e vállalatok jövőjét az államban, ha a törvényjavaslat törvényerőre emelkedik. Wiener azt mondta, hogy a vétó kevésbé biztonságossá teszi Kaliforniát, és azt jelenti, hogy „a rendkívül nagy teljesítményű technológia létrehozására törekvő vállalatok nem szembesülnek kötelező érvényű korlátozásokkal”. Hozzátette, hogy „az ipar önkéntes kötelezettségvállalásai nem végrehajthatóak, és ritkán sülnek el jól a lakosság szempontjából”. Azt is állította, hogy a törvényjavaslat körüli vita „drámaian előmozdította a mesterséges intelligencia biztonságának kérdését a nemzetközi színtéren”.

A javaslat az MI-modelleket fejlesztő vállalatokat tette volna felelőssé a „kritikus károk” megelőzését célzó biztonsági protokollok végrehajtásáért. A szabályok csak azokra a modellekre vonatkoztak volna, amelyek legalább 100 millió dollárba kerülnek, és a képzés során 1026 FLOPS-t (lebegőpontos műveletek, a számítás mértékegysége) használnak. Miután Kalifornia állam törvényhozása elfogadta az SB 1047-es törvényt, az ellenzők abban reménykedtek, hogy Newsom megvétózza azt -főleg mert már korábban jelezte, hogy fenntartásai vannak a törvényjavaslattal kapcsolatban. A mai vétóról szóló nyilatkozatában Newsom a következőket mondta: „Bár jó szándékú, az SB 1047 nem veszi figyelembe, hogy a mesterséges intelligencia rendszert magas kockázatú környezetben alkalmazzák-e, és kritikus döntéshozatalt vagy érzékeny adatok felhasználását foglalja-e magában. Ehelyett a törvényjavaslat szigorú előírásokat alkalmaz még a legalapvetőbb funkciókra is - mindaddig, amíg egy nagyvállalat telepíti azt. Nem hiszem, hogy ez a legjobb megközelítés a lakosság védelmére a technológia által jelentett valós fenyegetésektől.”

"Nem engedhetjük meg magunknak, hogy megvárjuk egy nagyobb katasztrófa bekövetkeztét, mielőtt lépéseket teszünk a lakosság védelme érdekében” - mondta Newsom, de hozzátette, hogy nem ért egyet azzal, hogy "meg kell elégednünk egy olyan megoldással, amelyet nem a mesterséges intelligencia rendszerek és képességek empirikus elemzése alapoz meg." Newsom elmondta, hogy a következő ülésszakban együtt fog dolgozni a törvényhozással a mesterséges intelligenciáról szóló jogszabályokon. Fontos kiemelni, hogy a biztosítékokat meghatározó jogszabályok az amerikai kongresszusban is elakadtak, ezért a Biden-kormányzat MI-szabályozási javaslatokkal kerülné meg a törvényhozást. Newsom szerint „egy kizárólag Kaliforniára korlátozódó megközelítés indokolt lehet - különösen a Kongresszus szövetségi intézkedésének hiányában”.

A Chamber of Progress - egy tech-iparági koalíció - dicsérte Newsom vétóját, mondván, hogy „a kaliforniai technológiai gazdaság mindig is a verseny és a nyitottság pártján állt”. Az intézkedés egyebek mellett biztonsági teszteket írt volna elő a legfejlettebb, 100 millió dollárnál többe kerülő, vagy meghatározott mennyiségű számítási teljesítményt igénylő mesterséges intelligenciamodellek számára. Az államban működő mesterséges intelligencia-szoftverek fejlesztőinek továbbá meg kellett volna határozniuk a mesterséges intelligencia-modellek kikapcsolásának módszereit, azaz egyfajta „kill switch”-et. A törvényjavaslat létrehozott volna egy állami szervet, amely felügyeli az olyan úgynevezett „határmodellek” fejlesztését, amelyek meghaladják a jelenlegi legfejlettebb meglévő modellek képességeit.

A törvényjavaslatot számos csoport hevesen ellenezte. A Google, a Microsoft által támogatott OpenAI és a Meta - amelyek mind generatív MI modelleket fejlesztenek - aggodalmukat fejezték ki a javaslattal kapcsolatban. Az amerikai kongresszus néhány demokrata képviselője, köztük Nancy Pelosi képviselő is ellenezte a javaslatot. A képviselőház hosszú ideig hivatalban lévő elnöke azért bírálta a javaslatot, mert az „jó szándékú, de rosszul informált”. A vétó bejelentése után dicsérte Newsomot, amiért „felismerte a lehetőséget és a felelősséget, amelyben mindannyian osztozunk, hogy a kisvállalkozók és a tudományos élet - nem pedig a nagy technológiai cégek - dominálhassanak”. De a támogatók között volt a Tesla vezérigazgatója, Elon Musk, aki egy xAI nevű mesterséges intelligenciával foglalkozó céget is vezet. Az Amazon által támogatott Anthropic szerint a törvényjavaslat előnyei valószínűleg meghaladták volna a negatívumokat, bár szerintük vannak olyan szempontok, amelyek aggasztónak vagy kétértelműnek tűnnek.

Newsom aláírta egy olyan külön jogszabályt, amely előírja, hogy az államnak fel kell mérnie a generatív MI által Kalifornia kritikus infrastruktúrájára jelentett potenciális veszélyeket. Elemzezzük az energetikai infrastruktúrát érintő kockázatokat, és ugyanezt a kockázatértékelést a következő évben a vízügyi infrastruktúra szolgáltatóival, később pedig a kommunikációs szektorral is elvégezzük - mondta Newsom.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
Nem érkezett még hozzászólás. Legyél Te az első!