Gyurkity Péter
Egybillió egyedi URL az interneten
A Google újabb rekord felállításáról számolt be, ebben ezúttal ők csak megfigyelők - az interneten saját keresőjük immár egybillió egyedi címet indexelt be. Szakértők eközben a feketelisták tökéletesítésén dolgoznak.
A keresőcég beszámolójából kiderül, hogy amikor 1998-ban saját motorjukkal elvégezték az első nagyobb indexelést, összesen 26 millió weboldalt találtak. Az ezredfordulóra ez a szám hihetetlen mértékben megugrott és meg is haladta az egybilliót, mostanra azonban ugyanennyi egyedi URL található a világhálón, ami jól jelzi annak gyors terjedését.
A Google némi magyarázatot is szolgáltat a puszta számok mellett, hogy a laikusoknak is legyen némi elképzelése az összegzés mibenlétéről. Elsőként az előkelő helyen szereplő, sokak által használt és hivatkozott portálokat gyűjtik össze, majd az ezen oldalakon található internetes hivatkozásokat követve jutnak el a kevésbé forgalmas lapokra. Az egybillió egyedi URL azonban nem jelenti pontosan ugyanennyi különálló, teljesen egyedi oldal meglétét, hiszen több portál egyszerre számos címmel is rendelkezik annak érdekében, hogy minél könnyebben megtalálható legyen. A számot az egyértelmű másolatok kiszűrése után kapták meg, hozzátéve, hogy a lapok globális száma eközben igen gyors ütemben növekszik.
Az internet "méretének" meghatározásában természetesen az is szerepet játszik, hogy pontosan mit tartunk hasznos, valóban egyedi, értékes információt közvetítő oldalnak. A hivatkozások követése nem mindig a legjobb megoldás, hiszen például a webes naptárak esetében ez azt jelentené, hogy a következő napra kattintva egy "új" oldalra jutunk, mely a végtelenségig folytatható. Azt a Google munkatársai is megjegyzik, hogy számos oldal redundáns, előre generált tartalommal jelenik meg, ám a pontos számot nem tudják meghatározni, erre nyilván senkinek nincs ideje.
Biztonsági szakértők eközben az internetes feketelisták tökéletesítésén dolgoznak, ez ugyanis a világháló növekedésével egyre fontosabb problémát jelent. Az ezen a héten esedékes 17. Usenix Security Symposium alatt mutatják be a Sans Intézet munkatársai a "highly predictive blacklisting" (HPB) névre keresztelt megoldásukat, amely a helyi és a hálózati adminisztrátorok által frissített feketelisták között helyezkedik el. A fejlesztés azon a megfigyelésen alapul, az egymással kapcsolatban álló hálózatok támadóit általában külön veszik azoktól, amelyek teljesen önálló, egymás számára ismeretlen hálózatokat vesznek célba.
A fejlesztők szerint a megoldással jobban meg tudják becsülni, hogy várható-e újabb támadás, a feketelista maga pedig hatékonyabb és pontosabb a jelenleg használt változatoknál.
A keresőcég beszámolójából kiderül, hogy amikor 1998-ban saját motorjukkal elvégezték az első nagyobb indexelést, összesen 26 millió weboldalt találtak. Az ezredfordulóra ez a szám hihetetlen mértékben megugrott és meg is haladta az egybilliót, mostanra azonban ugyanennyi egyedi URL található a világhálón, ami jól jelzi annak gyors terjedését.
A Google némi magyarázatot is szolgáltat a puszta számok mellett, hogy a laikusoknak is legyen némi elképzelése az összegzés mibenlétéről. Elsőként az előkelő helyen szereplő, sokak által használt és hivatkozott portálokat gyűjtik össze, majd az ezen oldalakon található internetes hivatkozásokat követve jutnak el a kevésbé forgalmas lapokra. Az egybillió egyedi URL azonban nem jelenti pontosan ugyanennyi különálló, teljesen egyedi oldal meglétét, hiszen több portál egyszerre számos címmel is rendelkezik annak érdekében, hogy minél könnyebben megtalálható legyen. A számot az egyértelmű másolatok kiszűrése után kapták meg, hozzátéve, hogy a lapok globális száma eközben igen gyors ütemben növekszik.
Az internet "méretének" meghatározásában természetesen az is szerepet játszik, hogy pontosan mit tartunk hasznos, valóban egyedi, értékes információt közvetítő oldalnak. A hivatkozások követése nem mindig a legjobb megoldás, hiszen például a webes naptárak esetében ez azt jelentené, hogy a következő napra kattintva egy "új" oldalra jutunk, mely a végtelenségig folytatható. Azt a Google munkatársai is megjegyzik, hogy számos oldal redundáns, előre generált tartalommal jelenik meg, ám a pontos számot nem tudják meghatározni, erre nyilván senkinek nincs ideje.
Biztonsági szakértők eközben az internetes feketelisták tökéletesítésén dolgoznak, ez ugyanis a világháló növekedésével egyre fontosabb problémát jelent. Az ezen a héten esedékes 17. Usenix Security Symposium alatt mutatják be a Sans Intézet munkatársai a "highly predictive blacklisting" (HPB) névre keresztelt megoldásukat, amely a helyi és a hálózati adminisztrátorok által frissített feketelisták között helyezkedik el. A fejlesztés azon a megfigyelésen alapul, az egymással kapcsolatban álló hálózatok támadóit általában külön veszik azoktól, amelyek teljesen önálló, egymás számára ismeretlen hálózatokat vesznek célba.
A fejlesztők szerint a megoldással jobban meg tudják becsülni, hogy várható-e újabb támadás, a feketelista maga pedig hatékonyabb és pontosabb a jelenleg használt változatoknál.