Berta Sándor
Emberként fog gondolkodni a Google keresője
A Google naponta több mint 3 milliárd keresést dolgoz fel és a közeljövőben jelentős változások várhatók a működésében. A szolgáltatás hamarosan szavak nélkül is meg fogja érteni a felhasználókat.
Elizabeth Reid számítógépekkel foglalkozik. Egy egyszerű példával szemléltette, hogy jelenleg mi a probléma a Google keresőjével: a kerékpárváltója fotóját mutatja, amelynek egyik alkatrésze eltört, azonban fogalma sincs, hogy azt hogy hívják. Így természetesen rákeresni sem tud a problémára a neten, legfeljebb felhívhatja egy hozzáértő barátját, hogy segítsen neki. Azonban informatikusként inkább a Google-t hívná segítségül, ha tehetné.
A probléma oka, hogy a számítógépek másképp értelmezik az információkat, mint az emberek és szükségük van pontos megnevezésekre, melyek nélkül tehetetlenek. Ez vezetett oda, hogy Reid és csapata egy olyan megoldást fejlesztettek ki, amelyet most a Google Seach On nevű rendezvényén mutattak be. A rendszer neve Multitask Unified Model (MUM) és a mesterséges intelligenciára épül. A céljuk az, hogy a technológia megértse, hogy mit akar a keresést végző személy, míg a távlati elképzelés az, hogy a kereső hosszú távon úgy gondolkodjon, mint egy ember.
A MUM nem csupán a szövegeket tudja feldolgozni, hanem a képeket is. Vagyis a felhasználóknak elegendő egy képet készíteniük egy elromlott alkatrészről és feltenniük a kérdést, hogy hogyan javíthatják meg azt vagy hol szerezhetnek be egy újat. A funkciót a következő hónapokban integrálni fogják a Google Lens képfelismerő alkalmazásba, de a kapcsolódó kérdéseket kizárólag angol nyelven lehet majd megfogalmazni.
A szakember hozzátette, hogy a megoldásnak akár videók is megadhatók lesznek. Ezáltal felismerheti a YouTube rendszerében elérhető filmek témáját és azokhoz kapcsolódó felvételeket tud javasolni. Szintén lehetőség lesz hangos keresésekre, de a kutatók a mobiltelefonokba integrált diktálási funkció helyett egy olyan fejlesztésen dolgoznak, amelynek segítségével úgy lehet majd beszélgetni a szolgáltatással, mint egy baráttal.
A Google nem csupán meg akarja válaszolni a feltett kérdéseket, hanem ezzel párhuzamosan alternatív lehetőségeket is be szeretne mutatni. A következő hónapokban várható egy ilyen, Things to know nevű modul integrálása is a rendszerbe. Egy ételfotó esetén kaphatunk receptet, helyet, ahol ehetünk olyat és egyéb lehetőségeket. A keresésekben a jövőben az eddiginél több kép fog megjelenni. Az alkalmazott algoritmus ugyanis felismeri majd, hogy valaki egy fotóval összefüggésben keres valamit, akkor automatikusan ki fog listázni felvételeket is.
Az összes újítás először a mobiltelefonokra érkezik majd és csak azután az asztali számítógépekre. Ennek oka, hogy a mobilkészülékek jelentősége folyamatosan nő, immár az összes keresések több mint fele ilyen eszközökről valósul meg.
Elizabeth Reid számítógépekkel foglalkozik. Egy egyszerű példával szemléltette, hogy jelenleg mi a probléma a Google keresőjével: a kerékpárváltója fotóját mutatja, amelynek egyik alkatrésze eltört, azonban fogalma sincs, hogy azt hogy hívják. Így természetesen rákeresni sem tud a problémára a neten, legfeljebb felhívhatja egy hozzáértő barátját, hogy segítsen neki. Azonban informatikusként inkább a Google-t hívná segítségül, ha tehetné.
A probléma oka, hogy a számítógépek másképp értelmezik az információkat, mint az emberek és szükségük van pontos megnevezésekre, melyek nélkül tehetetlenek. Ez vezetett oda, hogy Reid és csapata egy olyan megoldást fejlesztettek ki, amelyet most a Google Seach On nevű rendezvényén mutattak be. A rendszer neve Multitask Unified Model (MUM) és a mesterséges intelligenciára épül. A céljuk az, hogy a technológia megértse, hogy mit akar a keresést végző személy, míg a távlati elképzelés az, hogy a kereső hosszú távon úgy gondolkodjon, mint egy ember.
A MUM nem csupán a szövegeket tudja feldolgozni, hanem a képeket is. Vagyis a felhasználóknak elegendő egy képet készíteniük egy elromlott alkatrészről és feltenniük a kérdést, hogy hogyan javíthatják meg azt vagy hol szerezhetnek be egy újat. A funkciót a következő hónapokban integrálni fogják a Google Lens képfelismerő alkalmazásba, de a kapcsolódó kérdéseket kizárólag angol nyelven lehet majd megfogalmazni.
A szakember hozzátette, hogy a megoldásnak akár videók is megadhatók lesznek. Ezáltal felismerheti a YouTube rendszerében elérhető filmek témáját és azokhoz kapcsolódó felvételeket tud javasolni. Szintén lehetőség lesz hangos keresésekre, de a kutatók a mobiltelefonokba integrált diktálási funkció helyett egy olyan fejlesztésen dolgoznak, amelynek segítségével úgy lehet majd beszélgetni a szolgáltatással, mint egy baráttal.
A Google nem csupán meg akarja válaszolni a feltett kérdéseket, hanem ezzel párhuzamosan alternatív lehetőségeket is be szeretne mutatni. A következő hónapokban várható egy ilyen, Things to know nevű modul integrálása is a rendszerbe. Egy ételfotó esetén kaphatunk receptet, helyet, ahol ehetünk olyat és egyéb lehetőségeket. A keresésekben a jövőben az eddiginél több kép fog megjelenni. Az alkalmazott algoritmus ugyanis felismeri majd, hogy valaki egy fotóval összefüggésben keres valamit, akkor automatikusan ki fog listázni felvételeket is.
Az összes újítás először a mobiltelefonokra érkezik majd és csak azután az asztali számítógépekre. Ennek oka, hogy a mobilkészülékek jelentősége folyamatosan nő, immár az összes keresések több mint fele ilyen eszközökről valósul meg.