SG.hu
IBM adattárolók a svájci részecskegyorsítóban
Az IBM és a CERN, az Európai Nukleáris Kutatóintézet ma jelentette be, hogy az IBM tárolás-virtualizáló szoftvere úttörő teljesítményt ért el a CERN intézetben végzett belső adattesztelés során.
E kihívást jelentő teszt a CERN intézetben jelenleg folyó vizsgálat része volt, melynek célja, hogy szimulálja az LHC-gyorsító szuperszámítógépének (Large Hadron Collider Computing Grid) számítógépes szükségleteit. Ez utóbbi berendezés a legnagyobb, tudományos célokra használt szuperszámítógép a világon. Az LHC várhatóan nagy mennyiségű, évente 15 millió gigabájtnyi adatot produkál majd, amikor 2007-ben elkezdi működését. A közelmúltban kapott eredmények jelentős mérföldkövet képviselnek a CERN számára, amely jelenleg csúcstechnológiájú adatkezelési megoldások tesztelését végzi az OpenLab nevű ipari társulás keretében.
A CERN OpenLab a CERN és a vezető ipari szervezetek között megvalósult együttműködés, melynek célja az adatintenzív szuperszámítógépes technológiák megvalósítása és tesztelése, melyek segítik majd az LHC-gyorsító kutatóinak munkáját. Az IBM 2003-ban kezdett együttműködni a svájci OpenLab for Data Grid Applications csoporttal, melynek célja olyan nagy méretű adatkezelési rendszerek megoldásainak tesztelése volt, amelyek képesek lehetnek az ilyen típusú szuperszámítógépes környezet támogatására. Az elmúlt két év során folytatták az együttműködést annak érdekében, hogy bővítsék a SAN fájlrendszer adottságait, melynek eredményeképpen a rendszer kezelni tudja majd azt a példátlan mennyiségű adatzuhatagot (illetve a világ minden részén dolgozó kutatók számára hozzáférést biztosít a rendszer számára), mely várhatóan akkor keletkezik majd, amikor az LHC 2007-ben megkezdi online működését.
Az IBM TotalStorage SAN-fájlrendszer tárolás-virtualizáló szoftverének használatával a belső tesztek megdöntötték az eddigi teljesítményrekordokat a CERN intézetben végrehajtott, kihívást jelentő adatteszt során azáltal, hogy 1 GB/s értéket meghaladó sebességgel írták és olvasták az adatokat a lemezre illetve a lemezről, miközben a teljes I/O meghaladta az 1 petabájt (1 millió gigabájt) mennyiséget egy 13-napos időtartamon belül. Ez az eredmény azt mutatja, hogy az IBM megoldása képes a világ leginkább adatintenzív kísérleténél jelentkező előre látott szükségletek menedzselésére.
E kihívást jelentő teszt a CERN intézetben jelenleg folyó vizsgálat része volt, melynek célja, hogy szimulálja az LHC-gyorsító szuperszámítógépének (Large Hadron Collider Computing Grid) számítógépes szükségleteit. Ez utóbbi berendezés a legnagyobb, tudományos célokra használt szuperszámítógép a világon. Az LHC várhatóan nagy mennyiségű, évente 15 millió gigabájtnyi adatot produkál majd, amikor 2007-ben elkezdi működését. A közelmúltban kapott eredmények jelentős mérföldkövet képviselnek a CERN számára, amely jelenleg csúcstechnológiájú adatkezelési megoldások tesztelését végzi az OpenLab nevű ipari társulás keretében.
A CERN OpenLab a CERN és a vezető ipari szervezetek között megvalósult együttműködés, melynek célja az adatintenzív szuperszámítógépes technológiák megvalósítása és tesztelése, melyek segítik majd az LHC-gyorsító kutatóinak munkáját. Az IBM 2003-ban kezdett együttműködni a svájci OpenLab for Data Grid Applications csoporttal, melynek célja olyan nagy méretű adatkezelési rendszerek megoldásainak tesztelése volt, amelyek képesek lehetnek az ilyen típusú szuperszámítógépes környezet támogatására. Az elmúlt két év során folytatták az együttműködést annak érdekében, hogy bővítsék a SAN fájlrendszer adottságait, melynek eredményeképpen a rendszer kezelni tudja majd azt a példátlan mennyiségű adatzuhatagot (illetve a világ minden részén dolgozó kutatók számára hozzáférést biztosít a rendszer számára), mely várhatóan akkor keletkezik majd, amikor az LHC 2007-ben megkezdi online működését.
Az IBM TotalStorage SAN-fájlrendszer tárolás-virtualizáló szoftverének használatával a belső tesztek megdöntötték az eddigi teljesítményrekordokat a CERN intézetben végrehajtott, kihívást jelentő adatteszt során azáltal, hogy 1 GB/s értéket meghaladó sebességgel írták és olvasták az adatokat a lemezre illetve a lemezről, miközben a teljes I/O meghaladta az 1 petabájt (1 millió gigabájt) mennyiséget egy 13-napos időtartamon belül. Ez az eredmény azt mutatja, hogy az IBM megoldása képes a világ leginkább adatintenzív kísérleténél jelentkező előre látott szükségletek menedzselésére.