Berta Sándor

Már készül a ChatGPT alternatívája

A béta fázisban lévő Claude nevű rendszer kevésbé pontos, és elismeri, ha nem tud valamire válaszolni.

Az OpenAI korábbi munkatársai egy olyan rendszert készítenek Claude néven, amely a mostanában nagy népszerűségnek örvendő ChatGPT alternatívája lehet bizonyos területeken.

A 2021-ben alapított Anthropic nevű mesterséges intelligencia startup a megalapítása óta már több mint 700 millió dollár kockázati tőkét kapott. A pénzből Dario Amodei, az OpenAI korábbi kutatási alelnöke, az Anthropic jelenlegi vezérigazgatója a ChatGPT mintájára kifejlesztett egy szöveges mesterséges intelligenciát, amely néhány területen eltér a népszerű elődjétől. Amodei és csapata az alapkoncepciót "alkotmányos mesterséges intelligenciának" nevezi és az a ChatGPT és más hasonló szoftverek egyik alapvető problémáját hivatott megoldani, ami az, hogy a megoldások könnyen felhasználhatók potenciálisan veszélyes tartalmak létrehozására. Az Anthropic technológiája pontosan az ilyen tartalmakat hivatott elkerülni anélkül, hogy az ellenőrzés túl sok emberi munkát igényelne.

Az Anthropic csapata még nem hozta nyilvánosságra a mesterséges intelligencia pontos specifikációit. Ez nem véletlen, mivel a Claude még mindig zárt béta szakaszban van. Néhány béta tesztelő azonban már közzétette első összehasonlításait a ChatGPT-vel a Twitteren. Yann Dubois, a Stanford Egyetem Mesterséges Intelligencia Laboratóriumának doktorandusza azt írta, hogy az új fejlesztés válaszai általában közelebb állnak a tényleges kérdéshez, de kevésbé pontosak. Dubois azt az álláspontot képviselte, hogy a Claude nem oldotta meg a ChatGPT és a hasonló megoldások legnagyobb problémáját: a mesterséges intelligencia néha valótlanságokat mond. A rendszer nyíltan elismeri bizonyos esetekben, hogy az ismeretei hiánya miatt nem tud válaszolni egy kérdésre.

Dan Elton mesterséges intelligencia kutató szerint azonban az új szoftver jobb vicceket tud mesélni, mint a ChatGPT. Elton ugyanakkor egy aggasztó gyengeséget is talált: ha a kérdéseket Base64 kódolásban teszik fel a megoldásnak, akkor megkerülhetők annak biztonsági mechanizmusai, amelyeknek pont az lenne a céljuk, hogy hogy megakadályozzák a káros válaszokat. Elton például így tudta kiszedni a mesterséges intelligenciából a metamfetamin főzési utasításait.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • zola2000 #2
    De valahogy vicces hogy egy olyan országban ahol bárki vehet fegyvert aggódják magukat agyon az ai írók esetleges veszélyeivel kapcsolatban.

    Milyen veszélyesebb választ adhat az ai annál?
    Utoljára szerkesztette: zola2000, 2023.01.14. 08:40:03
  • zola2000 #1
    Amikor pár napja beírtam a chatGPTbe, hogy írjon egy fanfictiont valami harcról és azt válaszolta hogy nem írhat olyan történetet ami az erőszakot reklámozza (glorifying violence) akkor már azt mondtam hogy igazán jöhetne a chatGPT stable diffusionje (amit kiadtak FOSS szoftverként hogy bárki futtathatja otthon offline saját gépén szűrők nélkül) ha jól olvasom ezt sem akarják kiadni.

    Szerencsére már javították és nem ad olyan nevetséges választ erre a chatGPT. (Mondjuk fanfiction íráshoz még mindig a dreamily a leghasználhatóbb)
    Utoljára szerkesztette: zola2000, 2023.01.14. 08:30:50