Berta Sándor

A mesterséges intelligencia olyan veszélyes, mint az atombomba

A Google egykori vezetője szerint a nagyhatalmaknak önkorlátozást kellene tanúsítaniuk.

Eric Schmidt, a reklámcég korábbi vezérigazgatója az Aspeni Biztonsági Fórumon a féktelen mesterséges intelligencia-fegyverkezési versenytől óvott. A menedzser úgy véli, hogy a mesterséges intelligencia olyan veszélyes, mint az atombomba. Kifejtette, hogy munkába állásakor még ő maga is naiv volt a technológia erejét illetően. Az üzletember egy új megállapodás megkötését szorgalmazta, amelyet a nukleáris fegyverek elterjedésének megakadályozásáról szóló szerződés mintájára dolgoznának ki és fogadnának el.

Schmidt rámutatott az Amerikai Egyesült Államok és Kína közötti mesterséges intelligencia-fegyverkezési verseny veszélyére és a jelenlegi helyzetet az 1950-es és 1960-as évekhez hasonlította, amikor egy esetleges nukleáris támadás horrorforgatókönyve Damoklész kardjaként lebegett egyes országok felett. Miután az USA 1945 augusztusában atombombát dobott Hirosimára és Nagaszakira, pár évvel később Kína és a Szovjetunió is létrehozta a saját fegyvereit. Az USA, Kína és a Szovjetunió mellett Franciaország és Nagy-Britannia is azon öt úgynevezett hivatalos atomhatalom közé tartozott, amelyek aláírták az 1970-ben hatályba lépett atomsorompó-szerződést, igaz, azt Franciaország és Kína csak 1992-ben jegyezte ellen. Ezenkívül India, Pakisztán, Észak-Korea és Izrael is rendelkezik nukleáris fegyverekkel.

Hivatalosan ezek az eszközök kölcsönösen elrettentő hatásúak. Az elmélet szerint a nukleáris hatalmak azért tartanak az első csapástól, mert fel kell tételezniük, hogy a másik nukleáris hatalom vissza fog csapni - és végül a világ, ahogyan mi ismerjük, megsemmisülne. A meglepetések elkerülésére ezért a kísérleti rakétakilövések előtt az államok előre figyelmeztették egymást, így növelték az egymás iránti bizalmat. Schmidt valami hasonló szabályozást követel a mesterséges intelligencia ágazat számára.

Szerinte ez az egyetlen módja annak, hogy megakadályozzuk, hogy a világ egy mesterséges intelligencia által kiváltott katasztrófával érjen véget. Kínának és az USA-nak ennek megfelelően tárgyalnia kellene egy békés egymás mellett élésről szóló szerződésről - függetlenül attól, hogy mit gondolnak a másik országról és annak politikai rendszeréről. Probléma, hogy kormányzati szinten még egyik ország sem áll készen erre, még azt se tudni ki fog az elképzelt asztalhoz ülni, nemhogy a konkrét kérdésekről vitatkoznának.


"Nagyon aggaszt, hogy az Egyesült Államok úgy tekint Kínára, mint korruptra, kommunistára vagy bármi másra, a kínaiak pedig Amerikát kudarcnak látják" - hangsúlyozta a menedzser, ezért bármit el tudnak képzelni a másikról és egy veszélyes eszkaláció kezdődik. A Google egykori vezetője azt kérte, hogy a technológiát jobban igazítsák az emberi etikához és erkölcshöz, akiket szolgál. Az ugyanakkor kérdéses, hogy valóban össze lehet-e és kell-e hasonlítani a mesterséges intelligenciát a nukleáris fegyverekkel. A létrehozott rendszerek teremtőinek tükörképei, és nem pusztítanak, hacsak a fejlesztői meg nem tanítják erre.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • Tetsuo #22
    Butaság az amit írsz. Teljesen más a lényeges, mint amin rugózni szoktál. Igen, minden egyes vitádban. Valami defekt van nálad. Oké, én a veled való komoly beszélgetést elengedtem, úgy még szórakoztató is lehet.
  • Agyturbinikusz #21
    De hát Te esetedben is X éves korig egy tanulási hálót tréningeztek mint egy alap algoritmus, aztán kinek a biblia kinek más jutott amin tovább tréningezik, és tadam egy olyan algoritmust kapsz ami adott bementekre adott kimenet produkál, és senki sem akarja még megnézni sem a logikai hálót, hiszen olyan bonyolult.

    Csak nem is létezik semmilyen intelligencia? Se MI sem természetes?
    Utoljára szerkesztette: Agyturbinikusz, 2022.08.01. 10:28:58
  • Gabbbbbbbbbbbb #20
    Egy normalis vilagban buta algoritmusokkal diszitett gepi tanulast nem hivnak MI-nek, itt a technologiat felhaszalo emberekben van a kutya elasva, mert veszelyesnek tenyleg veszelyes, de majd pont Google ..
  • Agyturbinikusz #19
    Akkor elárulom mi az amit nem sikerült értelmezni, egy szó: hiányos.
    Vagyis a reakciód, hülyeség és irreleváns, hiszen nem tudod bebizonyítani, hogy nem egy öntanuló algoritmus vagy.
    Minden jel arra mutat, hogy egy hiányos MI vagy semmi több. ;)
  • Tetsuo #18
    A fórumot nem csak te meg én olvassuk. ;-)
  • Agyturbinikusz #17
    Akkor minek reagált rá az úr?

    Mert hülye és irreleváns?
  • Tetsuo #16
    Ezek mindig ilyen rózsaszín álmokról hadoválnak, majd szankciózgatnak, kiközösítenek, belerúgnak stb.
  • Tetsuo #15
    Mindig hülyeséget, irreleváns dolgokat írsz, nem érdemes vele foglalkozni.
  • wraithLord #14
    Pont ezzel voltam elfoglalva, hogy mi abban a meglepő, hogy az ember veszélyes. :D Ráadásul pont a Google volt CEO-ja, aztán elnökségi vezetője, aztán műszaki tanácsadója magyaráz erről, aki 19 évig volt egy olyan cégnél, akik az elsők között kezdték el a témát, és már most is tulajdonképpen nagyon hasonló dolgokat csinálnak vagy "törik a fejüket", pár más hasonló tech konszernnel együtt, csak éppen nem katonai céllal. (mondjuk ezt vehetnénk úgy is, hogy tudja, mit beszél... :D)
  • quatlander #13
    "Kínának és az USA-nak ennek megfelelően tárgyalnia kellene egy békés egymás mellett élésről szóló szerződésről - függetlenül attól, hogy mit gondolnak a másik országról és annak politikai rendszeréről."

    Sok sikert!