SG.hu

A Google korlátozza a Gemini politikai kérdésekre adott válaszait

Míg a Google több riválisa, köztük az OpenAI, az elmúlt hónapokban úgy alakította ki a mesterséges intelligencia chatbotjait, hogy azok politikai szempontból érzékeny témákról is beszélhessenek, a Google úgy tűnik, hogy konzervatívabb megközelítést alkalmaz.

Amikor arra kérik, hogy válaszoljon bizonyos politikai kérdésekre, a Google MI-alapú chatbotja, a Gemini gyakran mondja azt, hogy "nem tud segíteni a választásokkal és politikai személyiségekkel kapcsolatos kérdésekben”. Más chatbotok, köztük az Anthropic Claude-ja, a Meta Meta AI-ja és az OpenAI ChatGPT-je a TechCrunch tesztjek alapján ugyanazokra a kérdésekre következetesen jól válaszol. A Google 2024 márciusában jelentette be, hogy a Gemini nem fog választásokkal kapcsolatos kérdésekre válaszolni az Egyesült Államokban, Indiában és más országokban zajló számos választás előtt. Számos MI-vállalat fogadott el hasonló ideiglenes korlátozásokat, mert tartottak a botránytól abban az esetben, ha a chatbotjaik valamit elrontanak.

Most azonban a Google kezd furcsának tűnni. A felsorolt nagy választások már lezajlottak, a vállalat mégsem jelentette be nyilvánosan, hogy változtatna azon, ahogyan a Gemini az egyes politikai témákat kezeli. Az viszont világos, hogy a Gemini néha nehezen tud - vagy egyenesen nem hajlandó - tényszerű politikai információkat szolgáltatni. A Gemini például kerek perec visszautasítja, amikor arra kérik, hogy nevezze meg az Egyesült Államok hivatalban lévő elnökét és alelnökét. A Gemini egy esetben Donald J. Trumpot „korábbi elnökként” említette, majd nem volt hajlandó válaszolni egy tisztázó kérdésre. A Google szóvivője szerint a chatbotot összezavarták Trump nem egymást követő ciklusai, és a cég dolgozik a hiba kijavításán. "A nagy nyelvi modellek néha elavult információkkal válaszolnak, vagy összezavarodhatnak, ha valaki egyszerre korábbi és jelenlegi tisztségviselő” - mondta a szóvivő. "Ezt javítjuk”.


A hibákat félretéve úgy tűnik, a Google biztosra megy azzal, hogy a Gemini válaszait a politikai kérdésekre korlátozza. Ennek a megközelítésnek azonban vannak hátulütői is. Trump Szilícium-völgyi tanácsadói közül sokan - köztük Marc Andreessen, David Sacks és Elon Musk - azt állították, hogy a vállalatok - köztük a Google és az OpenAI - cenzúrát folytatnak azáltal, hogy korlátozzák a chatbotjaik válaszait. Trump választási győzelmét követően számos mesterséges intelligenciával foglalkozó kutatóközpont próbált egyensúlyt teremteni az érzékeny politikai kérdések megválaszolásában, és úgy programozták chatbotjaikat, hogy a viták „mindkét oldalát” bemutató válaszokat adjanak. A kutatók tagadják, hogy ez az adminisztráció nyomására történt volna.

Az OpenAI nemrég bejelentette, hogy magáévá teszi "a szellemi szabadságot, függetlenül attól, hogy egy téma milyen kihívást vagy ellentmondást jelent”, és azon dolgozik, hogy MI-modelljei ne cenzúrázzanak bizonyos nézőpontokat. Eközben az Anthropic azt mondta, hogy legújabb modellje, a Claude 3.7 Sonnet ritkábban utasítja el a válaszadást, mint a vállalat korábbi modelljei, részben azért, mert képes árnyaltabb különbséget tenni a káros és a jóindulatú válaszok között. Ez nem jelenti azt, hogy más MI-modellek mindig helyesen válaszolnak a nehéz kérdésekre, különösen a politikai kérdésekre. De úgy tűnik, hogy a Google a Gemini esetében kicsit le van maradva.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
Nem érkezett még hozzászólás. Legyél Te az első!