daweed

A Web 500x nagyobb, mint a keresőszerverek gondolják

Az Internet hihetetlen ütemben növekszik, és a folyamat egyre csak gyorsul. Segítségre van szükségünk a minket érintő dolgok felkutatására. A keresőszerverek csak a felszínét érintik a Web haszontalan információinak tovahaladva a számunkra értékes adatok felett. - derül ki egy szerdai tanulmányból.

A 41 oldalas kutatási anyag melyet egy Dél Dakota-i cég adott ki, kifejlesztett egy programot, amely az Internet legmélyebb részeit is felkutatja. Így tudtak rávilágítani arra a tényre, hogy a Net 500-szor nagyobb, mint ahogyan azt a keresőszerverek feltérképezik. Rengeteg fontos információ rejtve marad, amit néhány egyszerű szóösszetétel megadásával meg kellene kapnunk.

Manapság a keresőszervereket az időjáráshoz szokták hasonlítani: Mindenki panaszkodik rájuk. - nyilatkozta Danny Sullivan egy keresőszervereket elemző lap a SearchEngineWatch.com szerkesztője. 1994 közepén a Lycosnak 54,000 oldalról volt tudomása. A mai szerverek kb. 1 milliárd weblapot tartanak nyilván, az új szoftver pedig 500 milliárdot ismer. Nyilvánvalóan nagy utat tettek meg a keresők 1994-től, de az Internet változásait nem vették figyelembe. Azóta hatalmas adatbázisokat készítettek egyes cégek és számos egyetem. A keresők azon technológiát használják melyek az állandó weblapokat tartják nyilván, a dinamikus oldalakat viszont nem tudják figyelemmel kísérni, mint pl. az adatbázisokban tárolt adatokat.

A LexiBot nevü program melyet a BrightPlanet fejleszt nemcsak a weboldalak statikus részét tekinti át hanem az adatbázisokba is belenéz. A pontosabb információért vistont áldozni kell. Ez a szoftver nem ingyenes és nem is olyan gyors, mint ezt manapság megszokhattuk. Egy tipikus keresés 10 és 25 perc körüli időt vesz igénybe, ha viszont még átfogóbb kutatásra van szükségünk másfél óránkba is beletelhet. 30 napos teszt után 89.95 dollárt kell fizetni. A LexiBot valószínűleg felkapott lesz az egyetemek körében, és a cég az üzleti szférát is meg fogja célozni.

"A Word Wide Web egyre hatalmassabbá növi ki magát, és túl gyorsan fejlődik. Ezért specialitált keresőmotorokat kell kifejleszteni. A jelenlegi egységesített megoldás egyre inkább elveszti eredményességét." - nyilatkozta Carl Malamud a Web láthatatlan világának egyik kutatója.

Nem egészen két éve magyar tudósok is kutatták a Web rejtett részeit. Azt is bebizonyították, hogy két véletlenszerű Weblap 18,5 kattintásnyira van egymástól. Ők is belekezdtek egy keresőszerver kifejlesztésébe, de sajnos azóta nincs hír róluk.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • [HUN]PAStheLoD #6
    de mindeki azután keres .. statisztika .. az az élet megrontója :DD

    meg tudni kell hol keresni ;>