SG.hu
Siri annyira béna, hogy az OpenAI vagy Anthropic technológiája lép a helyébe
Az Apple nem tudta teljesíteni a 2025-re ígért főbb fejlesztéseket, ezért a cég azt fontolgatja, hogy az OpenAI vagy az Anthropic technológiáját használja fel hangsegédjének teljes átprogramozására.
Sirinak agyátültetésre van szüksége. Ezt már régóta hangoztatja alkotója, Dag Kittlaus, akit még Steve Jobs toborzott, hogy ezt az ígéretes alkalmazást az iPhone elengedhetetlen részévé tegye. 2011-ben még mérföldkő volt a mesterséges intelligencia alkalmazásában: az emberek először beszéltek egy géppel, és kérték meg arra, hogy végezzen el feladatokat vagy keressen információkat. Persze a válaszok nem mindig voltak kielégítőek, vagy mémekké váltak. Néhány évnyi nagyon csekély innováció után a Siri-t felülmúlta az Amazon hangsegédje, Alexa, de igazán a ChatGPT 2022-es megjelenése tett be neki. A valódi MI kirívóan rámutatott Siri hiányosságaira, és már nehéz intelligensnek nevezni az új generatív MI chatbotok mellett, amelyek hozzá képest szinte zseninek tűnnek.
Most az Apple az OpenAI és az Anthropic generatív nyelvi modelljeinek (LLM) használatát fontolgatja - amelyek a ChatGPT és riválisa, a Claude mögött állnak - hogy Siri-t teljesen újraprogramozzák. Az Apple célja az lenne, hogy 2026 végétől végre piacra dobjon egy új generációs asszisztenst, amely képes természetesen beszélgetni a felhasználókkal és sokkal jobban megérteni az igényeiket. Ez a lehetséges külső segítség arra szolgálna, hogy a technológiai óriáscéget kihozza abból a patthelyzetből, amelybe az MI-vel került: a Siri első, szerényebb frissítésének kudarca miatt le kellett fékezni azokat a várakozásokat, amelyeket az Apple Intelligence 2024-es bemutatásával keltett a WWDC konferenciáján. Így az Apple legutóbbi, júniusban megrendezett globális találkozóján az alkalmazásfejlesztőkkel a vállalat teljesen megváltoztatta a generatív MI versenyben való részvételét bemutató módját.
Míg a tavalyi eseményen Tim Cook vezérigazgató és vezetői a konferencia nyitóelőadásának 40 percét szentelték az Apple Intelligence szolgáltatásnak, 2025-ben mindössze 4 percet szántak rá, és egyetlen új funkciót sem jelentettek be. Egyszerűen áttekintették az elért eredményeket, és megjegyezték, hogy a Siri új intelligens funkciói nem feleltek meg a vállalat minőségi követelményeinek, és több időre van szükségük, hogy „a következő év folyamán” bevezessék őket.
A probléma az, hogy a 2024. júniusi WWDC-n az Apple bemutatott - de csak egy videón, nem egy valódi iPhone-on élőben - néhány ilyen funkciót, például azt, hogy ha megkérdezzük Siritől: "Mikor érkezik anyám repülője?” és a hangsegéd képes volt válaszolni, átkutatva a felhasználó üzeneteit és e-mailjeit, és feldolgozva a felhasználó telefonján tárolt magáninformációkat, anélkül, hogy azokat a felhőbe kellene vinni, ahogyan azt a versenytársak teszik. Hónapokkal később az Apple még egy reklámot is kiadott, amelyben ezt az új „személyes intelligenciát” népszerűsítette, hogy ösztönözze új iPhone 16-os modelljeinek eladásait. A reklámban Siri kisegítette Bella Ramsey színésznőt, a The Last of Us sorozat főszereplőjét: nem emlékezett egy személy nevére, akivel hamarosan találkozni fog, és akivel hónapokkal korábban egy bizonyos kávézóban találkozott; ez az információ elég volt ahhoz, hogy Siri megtalálja a nevet a korábbi találkozók elemzésével.
Az idő múlásával mindez fikciónak bizonyult. Ez megtévesztése volt azoknak a felhasználóknak, akik várták ezeket a funkciókat, és talán azért vásároltak egy ilyen telefont, hogy használják ezeket a funkciókat; az Apple Intelligence szolgáltatás viszont a bejelentéskor a felhasználók 90%-ának iPhone-ján nem működött. Ráadásul az iPhone 16-ok nem rendelkeztek az Apple új intelligenciájával, amikor 2024 szeptemberében megjelentek a piacon, és bár az első generatív ?I funkciók a következő hónapokban megérkeztek - néhány nagyon vitatott hibával -, a várt új Siri-funkciók nem jelentek meg az iOS 18 egymást követő frissítéseiben.
Siri első nagy megújulása 2011 óta tavaly tavaszra volt tervezve, amikor az Apple bevezette generatív mesterséges intelligenciáját az angol nyelven kívül más nyelveken is, köztük spanyolul. De néhány nappal az iOS 18.4 frissítés előtt - amely április elején érkezett meg - a vállalat elismerte, hogy még nem fogja bevezetni Siri új „személyes intelligenciáját”, anélkül, hogy új bevezetési dátumot közölt volna; ráadásul visszavonta Bella Ramsey reklámját. A megtévesztő reklámok miatti panaszok kezdtek felhalmozódni. A neves technológiai elemző, John Gruber - aki hosszú évek óta mélyrehatóan foglalkozik az Apple termékekkel - egy lesújtó cikket tett közzé, amelyben azzal vádolta a vállalatot, hogy hamis ígéreteket tett, amikor videóiban olyan Siri-bemutatókat szimulált, amelyek valójában nem működtek megfelelően.
A júniusban megrendezett WWDC során több interjúban Craig Federighi, az Apple szoftverekért felelős alelnöke adott magyarázatot elsőként a történtekre. Federighi elmondta, hogy a technológiai óriáscég a Siri működését biztosító számítógépes kód két verzióján dolgozott: az egyiken, hogy minél hamarabb bevezethesse az új személyes intelligencia funkciókat, a másik pedig a végleges verzió lett volna. A vezető elismerte, hogy az Apple által fejlesztett első generációs architektúra „túl korlátozott volt”, ezért végül az Apple „úgy döntött, hogy Siri-t teljesen át kell állítani egy második generációs architektúrára”.
Egy másik a vállalaton kívüli elemző, Mark Gurman valamivel technikaiabb magyarázatot ad a hibára. Az Apple-en belüli névtelen forrásokra hivatkozva Gurman azt állítja, hogy a Siri új architektúrájának első verziója egy hibrid volt a régi programkód - amelyet a szokásos feladatok, például az ébresztő beállítására használtak - és az új kód - a személyes intelligencia funkciókhoz és a magánadatok kezeléséhez - között. Bár külön-külön minden funkció működött, összerakva a rendszer instabillá vált, és a válaszok megbízhatatlanná váltak. Gurman szerint a Siri új architektúrájának második verziója már teljes egészében új kóddal van ellátva. Ez a technikai magyarázat, amely összhangban áll az Apple vezetői nyilvános nyilatkozataival, rávilágít arra, hogy a generatív mesterséges intelligencia korszakában sokkal könnyebb nulláról kezdeni, mint az OpenAI vagy az Anthropic esetében, mint már létező mesterséges intelligencia rendszereket adaptálni. Ezt jól tudják az Amazonnál is, ahol szintén megbotlottak az Alexa megújításával, és végül az Anthropic technológiájához kellett folyamodniuk, hogy végre piacra dobhassák az Alexa+ nevű új generációs hangsegédet, amelynek bevezetése nagyon lassan halad.
Gurman szerint az OpenAI vagy az Anthropic technológiájára váltás nem azt jelenti, hogy az Apple a már többször elhalasztott személyes intelligenciával ruházza fel a Sirit. Sokkal inkább egy sokkal mélyrehatóbb megújulásról lenne szó, Siri teljes újraprogramozásáról, vagy - ahogyan azt feltalálója, Dag Kittlaus követeli - egy teljes agyátültetésről.
Sirinak agyátültetésre van szüksége. Ezt már régóta hangoztatja alkotója, Dag Kittlaus, akit még Steve Jobs toborzott, hogy ezt az ígéretes alkalmazást az iPhone elengedhetetlen részévé tegye. 2011-ben még mérföldkő volt a mesterséges intelligencia alkalmazásában: az emberek először beszéltek egy géppel, és kérték meg arra, hogy végezzen el feladatokat vagy keressen információkat. Persze a válaszok nem mindig voltak kielégítőek, vagy mémekké váltak. Néhány évnyi nagyon csekély innováció után a Siri-t felülmúlta az Amazon hangsegédje, Alexa, de igazán a ChatGPT 2022-es megjelenése tett be neki. A valódi MI kirívóan rámutatott Siri hiányosságaira, és már nehéz intelligensnek nevezni az új generatív MI chatbotok mellett, amelyek hozzá képest szinte zseninek tűnnek.
Most az Apple az OpenAI és az Anthropic generatív nyelvi modelljeinek (LLM) használatát fontolgatja - amelyek a ChatGPT és riválisa, a Claude mögött állnak - hogy Siri-t teljesen újraprogramozzák. Az Apple célja az lenne, hogy 2026 végétől végre piacra dobjon egy új generációs asszisztenst, amely képes természetesen beszélgetni a felhasználókkal és sokkal jobban megérteni az igényeiket. Ez a lehetséges külső segítség arra szolgálna, hogy a technológiai óriáscéget kihozza abból a patthelyzetből, amelybe az MI-vel került: a Siri első, szerényebb frissítésének kudarca miatt le kellett fékezni azokat a várakozásokat, amelyeket az Apple Intelligence 2024-es bemutatásával keltett a WWDC konferenciáján. Így az Apple legutóbbi, júniusban megrendezett globális találkozóján az alkalmazásfejlesztőkkel a vállalat teljesen megváltoztatta a generatív MI versenyben való részvételét bemutató módját.
Míg a tavalyi eseményen Tim Cook vezérigazgató és vezetői a konferencia nyitóelőadásának 40 percét szentelték az Apple Intelligence szolgáltatásnak, 2025-ben mindössze 4 percet szántak rá, és egyetlen új funkciót sem jelentettek be. Egyszerűen áttekintették az elért eredményeket, és megjegyezték, hogy a Siri új intelligens funkciói nem feleltek meg a vállalat minőségi követelményeinek, és több időre van szükségük, hogy „a következő év folyamán” bevezessék őket.
A probléma az, hogy a 2024. júniusi WWDC-n az Apple bemutatott - de csak egy videón, nem egy valódi iPhone-on élőben - néhány ilyen funkciót, például azt, hogy ha megkérdezzük Siritől: "Mikor érkezik anyám repülője?” és a hangsegéd képes volt válaszolni, átkutatva a felhasználó üzeneteit és e-mailjeit, és feldolgozva a felhasználó telefonján tárolt magáninformációkat, anélkül, hogy azokat a felhőbe kellene vinni, ahogyan azt a versenytársak teszik. Hónapokkal később az Apple még egy reklámot is kiadott, amelyben ezt az új „személyes intelligenciát” népszerűsítette, hogy ösztönözze új iPhone 16-os modelljeinek eladásait. A reklámban Siri kisegítette Bella Ramsey színésznőt, a The Last of Us sorozat főszereplőjét: nem emlékezett egy személy nevére, akivel hamarosan találkozni fog, és akivel hónapokkal korábban egy bizonyos kávézóban találkozott; ez az információ elég volt ahhoz, hogy Siri megtalálja a nevet a korábbi találkozók elemzésével.
Az idő múlásával mindez fikciónak bizonyult. Ez megtévesztése volt azoknak a felhasználóknak, akik várták ezeket a funkciókat, és talán azért vásároltak egy ilyen telefont, hogy használják ezeket a funkciókat; az Apple Intelligence szolgáltatás viszont a bejelentéskor a felhasználók 90%-ának iPhone-ján nem működött. Ráadásul az iPhone 16-ok nem rendelkeztek az Apple új intelligenciájával, amikor 2024 szeptemberében megjelentek a piacon, és bár az első generatív ?I funkciók a következő hónapokban megérkeztek - néhány nagyon vitatott hibával -, a várt új Siri-funkciók nem jelentek meg az iOS 18 egymást követő frissítéseiben.
Siri első nagy megújulása 2011 óta tavaly tavaszra volt tervezve, amikor az Apple bevezette generatív mesterséges intelligenciáját az angol nyelven kívül más nyelveken is, köztük spanyolul. De néhány nappal az iOS 18.4 frissítés előtt - amely április elején érkezett meg - a vállalat elismerte, hogy még nem fogja bevezetni Siri új „személyes intelligenciáját”, anélkül, hogy új bevezetési dátumot közölt volna; ráadásul visszavonta Bella Ramsey reklámját. A megtévesztő reklámok miatti panaszok kezdtek felhalmozódni. A neves technológiai elemző, John Gruber - aki hosszú évek óta mélyrehatóan foglalkozik az Apple termékekkel - egy lesújtó cikket tett közzé, amelyben azzal vádolta a vállalatot, hogy hamis ígéreteket tett, amikor videóiban olyan Siri-bemutatókat szimulált, amelyek valójában nem működtek megfelelően.
A júniusban megrendezett WWDC során több interjúban Craig Federighi, az Apple szoftverekért felelős alelnöke adott magyarázatot elsőként a történtekre. Federighi elmondta, hogy a technológiai óriáscég a Siri működését biztosító számítógépes kód két verzióján dolgozott: az egyiken, hogy minél hamarabb bevezethesse az új személyes intelligencia funkciókat, a másik pedig a végleges verzió lett volna. A vezető elismerte, hogy az Apple által fejlesztett első generációs architektúra „túl korlátozott volt”, ezért végül az Apple „úgy döntött, hogy Siri-t teljesen át kell állítani egy második generációs architektúrára”.
Egy másik a vállalaton kívüli elemző, Mark Gurman valamivel technikaiabb magyarázatot ad a hibára. Az Apple-en belüli névtelen forrásokra hivatkozva Gurman azt állítja, hogy a Siri új architektúrájának első verziója egy hibrid volt a régi programkód - amelyet a szokásos feladatok, például az ébresztő beállítására használtak - és az új kód - a személyes intelligencia funkciókhoz és a magánadatok kezeléséhez - között. Bár külön-külön minden funkció működött, összerakva a rendszer instabillá vált, és a válaszok megbízhatatlanná váltak. Gurman szerint a Siri új architektúrájának második verziója már teljes egészében új kóddal van ellátva. Ez a technikai magyarázat, amely összhangban áll az Apple vezetői nyilvános nyilatkozataival, rávilágít arra, hogy a generatív mesterséges intelligencia korszakában sokkal könnyebb nulláról kezdeni, mint az OpenAI vagy az Anthropic esetében, mint már létező mesterséges intelligencia rendszereket adaptálni. Ezt jól tudják az Amazonnál is, ahol szintén megbotlottak az Alexa megújításával, és végül az Anthropic technológiájához kellett folyamodniuk, hogy végre piacra dobhassák az Alexa+ nevű új generációs hangsegédet, amelynek bevezetése nagyon lassan halad.
Gurman szerint az OpenAI vagy az Anthropic technológiájára váltás nem azt jelenti, hogy az Apple a már többször elhalasztott személyes intelligenciával ruházza fel a Sirit. Sokkal inkább egy sokkal mélyrehatóbb megújulásról lenne szó, Siri teljes újraprogramozásáról, vagy - ahogyan azt feltalálója, Dag Kittlaus követeli - egy teljes agyátültetésről.