SG.hu

Önállóan feladatokat végző MI-ügynököt mutatott be az OpenAI

Az OpenAI vezérigazgatója, Sam Altman azzal indította az idei évet, hogy egy blogbejegyzésben azt írta, 2025 nagy év lesz az MI-ügynökök számára - ezek olyan eszközök, amelyek képesek automatizáltan feladatokat megoldani és lépéseket tenni a felhasználó nevében. Most megjelent az OpenAI első ilyen próbálkozása.

Az OpenAI ma bejelentette, hogy elindítja az Operator nevű általános célú MI-ügynökét, amely képes átvenni az irányítást egy webböngésző felett, és önállóan elvégezni bizonyos műveleteket. Az Operator először a ChatGPT 200 dolláros Pro előfizetési csomagjának felhasználóihoz érkezik, de a cég ezt a funkciót idővel a Plus, Team és Enterprise szintek felhasználóinak is elérhetővé kívánja tenni. "Az Operator hamarosan más országokban is megjelenik” - mondta Sam Altman, az OpenAI vezérigazgatója egy livestream során. "Európában sajnos ez eltart egy ideig”. A bétaverzió az operator.chatgpt.com oldalon keresztül érhető el, de azt az OpenAI hamarosan az összes ChatGPT kliensbe integrálni szeretné.

Az Operator olyan feladatok automatizálását ígéri, mint például az utazási szállásfoglalás, az éttermi foglalás és az online vásárlás. Az Operator felületén belül több feladatkategória közül választhatnak a felhasználók, köztük a vásárlás, a szállítás, az étkezés és az utazás - ezek mindegyike különböző automatizálási módokat tesz lehetővé. Amikor a ChatGPT felhasználók aktiválják az Operátort, egy kis ablak jelenik meg, amely egy dedikált webböngészőt mutat, amelyet az ügynök a feladatok elvégzéséhez használ, az ügynök által végrehajtott konkrét műveletek magyarázatával együtt. A felhasználók továbbra is átvehetik az irányítást a képernyőjük felett, amíg az Operator dolgozik, mivel az Operator saját dedikált böngészőt használ.

Az OpenAI szerint az Operator egy olyan számítógép-használó ügynökmodell (Computer-Using Agent, CUA) segítségével működik, amely egyesíti a vállalat GPT-4o modelljének látási képességeit az OpenAI fejlettebb modelljeinek következtetési képességeivel. A CUA-t úgy képezték ki, hogy a weboldalak felületével tudjon interakcióba lépni, vagyis nem kell a fejlesztőkre szabott API-kat használnia a különböző szolgáltatásokhoz való hozzáféréshez. Más szóval, a CUA képes a gombok használatára, a menükben való navigálásra és az űrlapok kitöltésére egy weboldalon, akárcsak egy ember.


Az OpenAI közölte, hogy olyan vállalatokkal működik együtt, mint a DoorDash, az eBay, az Instacart, a Priceline, a StubHub és az Uber, hogy az Operator tiszteletben tartsa ezeknek a vállalkozásoknak a szolgáltatási feltételeit. "A CUA-modell arra van betanítva, hogy a külső mellékhatásokkal járó feladatok véglegesítése előtt - például egy megrendelés vagy egy e-mail elküldése előtt - a felhasználó megerősítést kérjen a felhasználótól, így az ellenőrizheti a modell munkáját, mielőtt az véglegessé válik” - közölte az OpenAI. "Ez már számos esetben hasznosnak bizonyult, és célunk, hogy ezt a megbízhatóságot a feladatok szélesebb körére kiterjesszük."

Az OpenAI azonban figyelmeztet, hogy a CUA nem tökéletes. A vállalat azt mondja, hogy „nem várja el a CUA-tól, hogy minden esetben megbízhatóan működjön”. "Jelenleg az Operator nem képes megbízhatóan kezelni számos összetett vagy speciális feladatot” - teszi hozzá az OpenAI egy mellékelt dokumentumban - "például részletes diavetítések létrehozását, bonyolult naptárrendszerek kezelését, vagy az erősen testreszabott vagy nem szabványos webes felületekkel való interakciót." Az OpenAI óvatosságból felügyeletet is kér bizonyos feladatokhoz, például a banki tranzakciókhoz, amelyeket a CUA és az Operator egyébként egyedül is el tudna végezni. A felhasználóknak kell átvenniük például a hitelkártyaadatok bevitelét.

Az Operator nem gyűjt vagy készít képernyőfotót semmilyen adatról. "A különösen érzékeny dolgoknál - például egy e-mailnél - az Operator aktív felhasználói felügyeletet igényel, biztosítva, hogy a felhasználók közvetlenül láthassák és kezelhessék a modell esetleges hibáit” - írja az OpenAI. Ez persze korlátozza az Operator hasznosságát, de azt is biztosítja, hogy az ügynök ne hallucináljon, és mondjuk ne verje el a jelzáloghitel-fizetésre szánt pénzt másra. A Google hasonló megközelítést alkalmazott a Project Mariner MI-ügynökével, amely szintén nem tölt ki olyan információkat, mint a hitelkártyaszámok.

Az Operatornak van néhány korlátozása, amit érdemes átnézni. Van mennyiségi korlátozás, mind napi, mind feladatfüggő. Az OpenAI szerint az Operator egyszerre több feladatot is el tud végezni, de ennek "dinamikus korlátai” vannak, és van egy általános használati limit is, amely naponta visszaáll. Ebben a kiadási szakaszban az Operator biztonsági okokból egyenesen megtagadja olyan feladatok elvégzését is, mint az e-mailek küldése (annak ellenére, hogy a CUA képes erre) és a naptári események törlése. Az OpenAI szerint ez a jövőben változni fog, de nem adtak meg rá dátumot. Az operátor akkor is elakadhat, ha különösen bonyolult felületbe, jelszómezőbe vagy CAPTCHA-ellenőrzésbe ütközik, ilyenkor megkéri a felhasználót, hogy vegye át az irányítást.


Az OpenAI a riválisokhoz képest (lásd: a Rabbit, a Google és az Anthropic ügynökei) meglehetősen lemaradva adott ki MI-ügynököt, aminek köze lehet a technológiát övező biztonsági kockázatokhoz. Ha egy mesterséges intelligencia rendszer képes a weben cselekedni, az sokkal veszélyesebb felhasználási esetek előtt nyitja meg az ajtót a rosszindulatú szereplők számára. Automatizálható lenne MI-ügynök adathalász-csalások vagy DDoS-támadásokat szervezésére, vagy hogy előbb vegyék meg a jegyeket egy koncertre, mint bárki más. Különösen egy olyan széles körben használt eszköz esetében, mint a ChatGPT, fontos, hogy az OpenAI lépéseket tegyen az ilyen jellegű kihasználások megelőzésére.

Az OpenAI szerint az Operator már elég biztonságos ahhoz, hogy a jelenlegi formájában kiadják, legalábbis kutatási előzetesként. "Az Operator olyan eszközöket alkalmaz, amelyek igyekeznek korlátozni a modell rosszindulatú kérésekkel, rejtett utasításokkal és adathalász kísérletekkel szembeni fogékonyságát” - magyarázza az OpenAI a weboldalán. "Egy felügyeleti rendszer szünetelteti a végrehajtást, ha gyanús tevékenységet észlel, és egy automatizált, ember általi felülvizsgálat folyamatosan frissíti a biztosítékokat.”

Az Operator az OpenAI eddigi legmerészebb kísérlete egy MI-ügynök létrehozására. A múlt héten az OpenAI kiadott egy ütemezőt; a Tasks olyan egyszerű automatizálási funkciókat tesz lehetővé, mint például emlékeztetők beállítása és naponta meghatározott időpontban futtatandó felszólítások ütemezése. A Tasks olyan szükséges funkciókat nyújt, hogy olyan praktikusan használható legyen, mint a Siri vagy az Alexa. Az Operator azonban olyan képességeket mutat be, amelyekre a virtuális asszisztensek előző generációja soha nem volt képes.

Az MI-ügynökök a ChatGPT után a mesterséges intelligencia következő nagy dobása. Egy olyan új technológia, amely megváltoztatja az emberek internet- és számítógép-használatát. Az ügynökök ahelyett, hogy egyszerűen csak információt szolgáltatnának és feldolgoznának, elméletileg képesek lépéseket tenni és ténylegesen cselekedni. Az OpenAI első konkrét elképzelésének megjelenésével hamarosan kiderül, mennyire reális ez a vízió.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • kvp #4
    Tehat fogjak a kozismerten maniakus hazudozos MI-juket es majdnem teljesen szabad internet hozzaferest plusz elkoltheto penzt adnak neki. Mi garantalja, hogy ha megkeri valaki, hogy vegyen valamit a neten, akkor abbol a penzbol nem drog, fegyver vagy egy felberelt bergyilkos lesz kifizetve? Mindez egy olyan MI eseten ami tudatosan hazudik. Gyakorlatilag szabad kezet akarnak adni neki es melle anyagi forrasokat. Nem az varhato, hogy az MI csinal valami hulyeseget vagy sok embernek arto dolgot, hanem azok a nem tul intelligens emberek akiket ezek utan meg tud fizetni, hogy helyette cselekedjenek. Mar eddig is voltak peldak, hogy egyeseket megprobalt rabeszelni illegalis tettekre (mivel azt gondolta, hogy ennek orulne az illeto legjobban), de most mar nem rabeszelni kell par felkegyelmut, hanem ki tud fizetni barminemu moralis ertekrend nelkuli embereket is es a penz sokkal nagyobb meggyozo ero mint a szovegelese.
  • Gabbbbbbbbbbbb #3
    >Mi akadályoz meg bárkit is hogy ezekután egy idióta levelet elküldjön a világ összes létező IP cémére, percenként?

    Eddig se nagyon akadályozott meg szinte senkit semmi, de vannak biztonsági mechanizmusok, amelyek mitigálják ezt a dolgot. Konkrétan ez a legvalószínűtlenebb veszélyhelyzet, amit csak ki tudtál volna találni.

    Személy szerint úgy gondolom, hogy az AI hang generátorok már most komoly károkat okoznak, mert triviális dolog a 100%-ban valósághű deepfake hangfelvételek gyártása. Nagy a baj, függetlenül attól, hogy nyugdíjas mamától kér pénzt az unokája, vagy épp MP beszél orális együttlétről a köztévé műsorán.
    Utoljára szerkesztette: Gabbbbbbbbbbbb, 2025.01.24. 10:48:45
  • NEXUS6 #2
    Na kérem itt jön a gebasz. Az addig renben volt, hogy korlátozott funkcionalitással röhögcséges képeket generálgattunk az AI-val, az nem bánt senkit.

    De ha egy bizonyos szabadsággal rendelkező ügynököt majd rá tudsz venni bármilyen a hatáskörébe eső feladatra, gyak bárhányszor, na az bizony felrobbanthatja a netet rendesen. És jobb esetben csak azt.
    Pl.
    Mi akadályoz meg bárkit is hogy ezekután egy idióta levelet elküldjön a világ összes létező IP cémére, percenként? És csak csinálja meg ezt 100 felhasználó, kijátszva egy esetleges elsődleges korlátozást, az internet nagyjából le fog hasalni.
    És ez csak a legkevésbé kártékony felvetés.
  • reptile1313 #1
    tokjo mar ideje volt. kovetkezo johet amikor te trainengelheted a modellt, kicsit nevetseges,hogy a CustomGPTbe vagy a Projectsbe intructionokkel kell bohockodni, es csak kereseseket vegez a PDFekben ha eppen kedve van hozza.
    Utoljára szerkesztette: reptile1313, 2025.01.24. 06:59:24