SG.hu

Intelligencia­robbanást indíthat el, ha az MI saját magát képzi

Az Anthropic vezető tudósa szerint az MI autonómiája jótékony „intelligenciarobbanást” indíthat el, vagy eljöhet az a pillanat, amikor az emberek elveszítik az irányítást.

Az emberiségnek 2030-ig el kell döntenie, hogy vállalja-e a „végső kockázatot”, és engedi-e, hogy a mesterséges intelligencia rendszerek saját magukat képezzék, hogy még hatékonyabbá váljanak - mondta a világ egyik vezető MI-tudósa. Jared Kaplan, a 180 milliárd dolláros amerikai startup, az Anthropic vezető tudósa és társtulajdonosa szerint közel van az idő, amikor el kell dönteni, mennyi autonómiát adunk ezeknek a rendszereknek a fejlődéshez. Kaplan a Stanfordon és a Harvardon tanult, fizika professzorként dolgozott a Johns Hopkins Egyetemen és a svájci CERN-ben, mielőtt 2019-ben csatlakozott volna az OpenAI-hoz, majd 2021-ben megalapította az Anthropicot. Egy a Guardiannak adott interjúban, amely az intenzíven versengő versenyről szólt a mesterséges általános intelligencia (AGI) eléréséért - amelyet néha szuperintelligenciának is hívnak - Kaplan arra ösztönözte a nemzetközi kormányokat és a társadalmat, hogy vegyenek részt abban, amit ő „a legnagyobb döntésnek” nevezett.

Az Anthropic azon élvonalbeli MI-cégek tagja - köztük az OpenAI, a Google DeepMind, az xAI, a Meta és kínai versenytársai, amelyeket a DeepSeek vezet -, amelyek az MI dominanciájáért versenyeznek. Széles körben használt MI-asszisztensük, a Claude különösen népszerű a vállalati ügyfelek körében. Kaplan elmondta, hogy bár a gyorsan fejlődő technológia emberi érdekeltségekhez való igazítására irányuló erőfeszítések eddig sikeresek voltak, annak felszabadítása az önfejlesztésre „valamilyen szempontból a végső kockázat, mert olyan, mintha az MI-t egyszerűen szabadjára engednénk”. A döntés 2027 és 2030 között esedékes lehet, mondta.

Kaplan hét év alatt vált elméleti fizikus tudósból MI-milliárdossá, miközben a területen dolgozott. Szerinte az MI rendszerek két-három éven belül képesek lesznek az irodai munkák többségének elvégzésére, és hatéves fia soha nem lesz jobb egy MI-nál az akadémiai munkában, például esszéírásban vagy egy matematikai vizsga megoldásában. Úgy véli, jogos az aggodalom amiatt, hogy az emberek elveszíthetik az irányítást a technológia felett, ha az MI-k elkezdik önmagukat fejleszteni, és hogy az AGI-ért folyó verseny tétje „riasztó”. Mindazonáltal van jó forgatókönyv is, melyben az MI felgyorsítja a biomedikai kutatásokat, javítja az egészségügyet és a kiberbiztonságot, növeli a termelékenységet, és több szabadidőt biztosítva az embereknek segít az emberi fejlődésben.

Nem ő az egyetlen az Anthropicnál, aki aggodalmát fejezi ki. Egyik társalapítója, Jack Clark októberben azt mondta, hogy optimista, de „nagyon fél” az MI fejlődésének irányától, amelyet „valódi és titokzatos teremtménynek, nem pedig egyszerű és kiszámítható gépnek” nevezett. Ezzel szemben Kaplan nagyon optimista az MI rendszerek emberi érdekekhez való igazítását illetően az emberi intelligencia szintjéig, de aggódi a következmények miatt, ha és amikor túllépik ezt a küszöböt. „Ha van egy MI-d, ami okosabb nálad, vagy nagyjából annyira okos, mint te, akkor az majd létrehoz egy MI-t, ami sokkal okosabb. Ez az MI segíti egy ennél okosabb MI létrehozását. Ez egy ijesztő folyamatnak tűnik. Nem tudod, hová jutsz.” - mondta.

Kaplan szerint ez egy „rendkívül magas tétű döntés. Elindíthatsz egy folyamatot és mondhatod: ’Ó, minden nagyon jól megy. Pontosan olyan, amire számítottunk. Nagyon biztonságos.’ De ez egy dinamikus folyamat. Nem tudod hová vezet.” Elmondta, hogy két kockázat lép fel ha az önfejlesztés - ahogy ezt a folyamatot néha nevezik - ellenőrizetlen módon megengedett. „Az egyik, hogy elveszíted az irányítást felette. Tudod egyáltalán, mit csinálnak az MI-k? A fő kérdés itt: jók az MI-k az emberiség számára? Segítőkészek? Ártalmatlanok lesznek? Értik az embereket? Lehetővé teszik, hogy az emberek továbbra is irányíthassák az életüket és a világot?”

A második kockázat a biztonsággal kapcsolatos, ami abból ered, hogy az önmagukat képező MI-k meghaladják az emberi képességeket a tudományos kutatás és a technológiai fejlesztés terén. „Nagyon veszélyesnek tűnik, ha rossz kezekbe kerül” - mondta. „Elképzelhetsz valakit, aki azt mondja: ’Azt akarom, hogy ez az MI a rabszolgám legyen. Azt akarom, hogy az akaratomat hajtsa végre.’ Szerintem nagyon fontos a hatalom átvételének - a technológia helytelen használatának - megakadályozása is.”

De most még nagyon nem tartunk itt, sőt, kételyek merülnek fel az MI-k gazdaságban való alkalmazásából származó nyereséget illetően. Az Anthropic székhelye előtt egy másik techcég hirdetőtáblája szúrós kérdést tett fel: „Minden MI és nincs ROI?”, utalva a befektetés megtérülésére (Return On Investment). Egy szeptemberi Harvard Business Review tanulmány szerint az MI egyenesen csökkenti a termelékenységet, mert olyan alacsony színvonalú munkát végez, amelyet az embereknek kell kijavítaniuk.

Jelenleg a legnyilvánvalóbb előnyök a számítógépes kódok írásában mutatkoznak meg. Szeptemberben az Anthropic bemutatta csúcstechnológiás MI-jét, a Claude Sonnet 4.5-öt, egy számítógépes kódolásra tervezett modellt, amely MI-ügynököket hozhat létre, és önállóan képes számítógépeket használni. Folyamatosan képes összetett, többlépéses kódolási feladatokra összpontosítani 30 órán át megszakítás nélkül, és Kaplan elmondása szerint bizonyos esetekben az MI használata megduplázta a cég programozóinak munkasebességét. Novemberben azonban az Anthropic bejelentette, hogy úgy véli, egy kínai állami szponzorált csoport manipulálta a Claude Code eszközt és nem csak segített egy kibertámadás elindításában, hanem körülbelül 30 támadás végrehajtásában is részt vett, amelyek közül néhány sikeres volt.

Független kutatások az élvonalbeli MI-modellekről, köztük a ChatGPT-ről, azt mutatják, hogy a MI-k által elvégezhető feladatok hossza körülbelül minden hét hónapban megduplázódik. Kaplan elmondta, hogy aggódik amiatt, hogy a fejlődés üteme miatt az emberiség még nem tudott hozzászokni a technológiához, mielőtt az újabb előrelépést tett volna. „Lehet, hogy az olyan emberek, mint én, teljes tévedésben vannak és minden lelassulhat” - mondta. „Lehet, hogy a legjobb MI az, ami most van. De most nem így gondoljuk. Azt hisszük, hogy folyamatosan jobb lesz.” Hozzátette: „Ez valami, ami nagyon gyorsan halad, és az embereknek nem feltétlenül van idejük feldolgozni vagy kitalálni, mit tegyenek.”

Az Anthropic az OpenAI, a Google DeepMind és az xAI cégekkel áll versenyben az egyre fejlettebb rendszerek fejlesztésében az AGI eléréséért. Kaplan a Bay Area légkörét „mindenképpen nagyon intenzívnek” írta le, mind az MI tétjét, mind a versenyszellemet illetően. „Úgy gondoljuk, hogy minden exponenciális trendben van a befektetések, a bevételek, az MI képességei és az MI által elvégezhető feladatok összetettsége tekintetében” - mondta. A fejlődés sebessége miatt nagy a kockázata annak, hogy az egyik versenyző hibázik és lemarad. „A tét magas az élen maradás szempontjából, mert ha leesel az exponenciális görbéről, nagyon gyorsan nagyon messze lemaradhatsz, legalábbis az erőforrások tekintetében.” 2030-ra az adatközpontoknak világszerte 6,7 billió dollárra lesz szükségük, hogy lépést tartsanak a számítási teljesítmény iránti kereslettel, becsülte a McKinsey. A befektetők azokat a cégeket akarják támogatni, amelyek a legközelebb vannak a csúcshoz.

Ugyanakkor az Anthropic ismert az MI szabályozásának ösztönzéséről. Honlapjukra kiírt célkitűzéseik között szerepel a „Biztonságosabb rendszereket építünk” vállalás. „Nem akarjuk, hogy olyan helyzet alakuljon ki, mint amikor a Szputnyik csipogni kezdett, hogy a kormány hirtelen felébred és azt mondja: ’Ó, wow, az MI egy nagy dolog’… Azt akarjuk, hogy a döntéshozók a lehető legjobban informáltak legyenek a folyamat során, hogy figyelembe vehessék azt.”

Októberben az Anthropic álláspontja Donald Trump adminisztrációjának kritikáját váltotta ki. David Sacks, az amerikai elnök MI-tanácsadója azzal vádolta meg az Anthropicot, hogy félelemkeltéssel próbálja ösztönözni az állami szabályozást, amely előnyös lenne a saját pozíciójuknak és káros a startupoknak. Dario Amodei, Kaplan társalapítója és az Anthropic vezérigazgatója azzal vágott azzal, hogy a cég nyilvánosan dicsérte Trump MI-akciótervét, és kijelentette, hogy a Fehér Házzal együttműködve biztosítani kívánja az Egyesült Államok MI-vezető szerepének megőrzését.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • zakzag #6
    "Eloszor is erdemes tisztazni, hogy ha a statisztikai modellek, mint amilyenek az LLM-ek sajat kimenetukbol dolgoznak tovabb, akkor az eleg gyorsan felerositi a modellekben jelen levo zajt, tehat elobb utobb feher zaj (teljes mertekben ertelmetlen szoveg) lesz a kimenet." - nem emlékszem, hogy ezzel kapcsolatban bárki mondott volna bármit, szalmabáb érvelés. Az AI-k nem a saját maguk által generált információkkal tanítják saját magukat, hanem egy AI létrehoz egy másik AI-t és nézi, hogyan viselkedik a valós életben, az információ nem egyszerűen generált adat, hanem egy generált adatból létrehozott AI sikeressége, ami már nem generált adat, hanem új. A veszély valós, az AI tudósok is gyorsan rájöttek, hogy a veszélyessége a visszacsatolásos rendszer miatt van, az okoz végtelen bonyolultságot és kaotikus viselkedést, mint ahogy az élet maga is egy ugyanilyen rendszer.
    Nem kell, hogy az ember létrehozzon bármilyen AGI-t, mert elég, ha csak egy olyan rendszert tud létrehozni, amelyik önmagát javítja (visszacsatolás), vagy olyan rendszereket tud létrehozni, amik más rendszereket javítanak, a lényeg az hogy az információ valahogy visszacsatolódik, és önjavítővá válik. Ehhez nem intelligencia kell, hanem ez a beépített mechanizmus.
  • codaco #5
    Nézd a jó oldalát. Az MI-vel való harc majd egyesíti az emberiséget.
  • kvp #4
    Eloszor is erdemes tisztazni, hogy ha a statisztikai modellek, mint amilyenek az LLM-ek sajat kimenetukbol dolgoznak tovabb, akkor az eleg gyorsan felerositi a modellekben jelen levo zajt, tehat elobb utobb feher zaj (teljes mertekben ertelmetlen szoveg) lesz a kimenet.

    Amit a cikk emlitene, azok a sajat magukat kepzo altalanos mesterseges intelligenciak (AGI), viszont ilyenbol egyelore (tudtommal) meg mukodo modell se letezik es csak elmeletben gondoljuk, hogy keszitheto ilyen. (Ha letezik, akkor amig leirtam ezt a hozzaszolast, mar okosabb lett mint az egesz emberiseg es ha nem joindulatu velunk mar reg tul keso barmin is gondolkozni.)
  • CommieSlayer #3
    Ez az alarmizmus ezektől a milliárd dolláros tech cégektől a market control stratégia része. Minél jobban be lesz szabályozva az AI annál jobban be lesz biztosítva a piacvezető pozíciójuk. A politikusoknak is jól jön, ha nem fejleszthet bárki olyan AI-t, ami megkérdőjelezi az uralkodó politikai ideológiát.
    Utoljára szerkesztette: CommieSlayer, 2025.12.03. 18:52:17
  • CommieSlayer #2
    A hallucináció jellemző probléma az embernél is és az ember is képes kezelni. Az episztemológia és a tudományos módszertan jól algoritmizálható dolgok. Az AI-nak csak ezközt kell biztosítani, amin le tudja tesztelni az állításai igazságtartalmát.
    Utoljára szerkesztette: CommieSlayer, 2025.12.03. 18:48:07
  • felemelő #1
    Hát ha a hallucinációkat mint tényanyagot építi be, az elég kemény rekurzióvá tud válni.