BlackRose#8
Na ezek a metadata dolgok rendben vannak, de túl kezdetleges, ettől sokkal jobb megoldást kellene kitalálni.
Az meg, hogy valamit meg találsz e vagy nem az nem kérdés, a baj a következőkben van:
Mekkora esély van rá, hogy az adott információ minősége megfelelő szintű legyen?
Mert amikor általános dolgokról keresgélsz akkor ez relatív rövid idő alatt megtörténik, de még akkor is van, hogy valami más úton 2-3 hónapra az adott keresés után valami sokkal jobb forrást, sokkal minőségesebb információt találok egy adott dologról, pl. úgy, hogy olvasgatok valami portált és annak archivájában van egy link ami aranyat ér, viszont a Google vagy akármelyik másik kereső ezt a linket csak a 29-edik oldalára rangolja... na ez akkor nekem elegendő ok, hogy ne legyek megelégedve a Google-val vagy akármelyik keresővel. Ha pl. Six Sigma-val mérnénk a keresők teljesítményét akkor 0 Sigma lenne, ugyanis 1.000.000 keresésből legalább fele nem elégiti ki a felhasználót, ezt pl. ha átmásolnád valami más területre, mit szólnál ha több mint fele esetben az orvosok nem megfelelő orvosságot irnának ki a betegnek, vagy a megfelelő orvosságot a 18-adik nekifutásra találnák el... na ha így nézed a dolgokat akkor nagyon nagyon nem leszel megelégedve a szolgáltatással.
Tehát ez vezet bennünket a második fontos dolog felé, az pedig ha a keresett információt megtalálod a kereső álltal, olyan minőségben amelyel meg vagy elégedve, akkor ez mennyi időbe kerül?