Berta Sándor
Alig tudja kezelni a rengeteg adatot a CERN
Az atomok tanulmányozása elképesztő mennyiségű adatot generál, ami miatt jelentős mértékű fejlesztésekre lesz szükség a szervezet IT-rendszerében.
Az Európai Nukleáris Kutatási Szervezet (CERN) a következő években számos olyan kísérletet akar folytatni, amelyek hatalmas mennyiségű adatot generálhatnak majd. Az információk tárolása és kezelése már most is komoly feladatot jelent a CERN IT-szakembereinek, így előrelátható, hogy az új kihívások még nagyobb próbatétel elé fogják őket és az IT-infrastruktúrát állítani.
A szervezet archívumaiban jelenleg mintegy 100 petabyte adatot őriznek. Az idei év végéig ez a mennyiség további 27 petabyte információval növekszik. Összehasonlításul: az Amerikai Egyesült Államok egyetemi könyvtáraiban lévő adatmennyiség 2 petabyte. A kísérletek során a keletkező adatmennyiséget algoritmusok tanulmányozzák és a tudósok számára alig vagy egyáltalán nem érdekes információkat már azelőtt kiszűrik, mielőtt a tényleges elemzések egyáltalán elkezdődnének.
A szakemberek azzal számolnak, hogy a nagy hadronütköztető 2017-ben kezdődő és 2023-ig tartó kísérletei miatt 400 petabyte lesz az évente keletkező plusz adatmennyiség. Ezt azonban már aligha lehet majd eltárolni, még akkor sem, ha a számítástechnika folyamatosan fejlődni fog. Már a tároláshoz szükséges további szerverek hűtését sem lehetne megoldani, ezért jelenthet megoldást az OpenStack, egy cloud-infrastruktúra, amit már jelenleg is alkalmaznak és gőzerővel zajlik a továbbfejlesztése.
Tim Bell, a CERN IT-infrastruktúráért felelős vezetője közölte, hogy a szervezet most négy OpenStack-rendszert használ. A legnagyobb kereken 3000 szerverből áll. 2015 első negyedévéig további számítógép-központokat helyeznek majd üzembe.
Az Európai Nukleáris Kutatási Szervezet (CERN) a következő években számos olyan kísérletet akar folytatni, amelyek hatalmas mennyiségű adatot generálhatnak majd. Az információk tárolása és kezelése már most is komoly feladatot jelent a CERN IT-szakembereinek, így előrelátható, hogy az új kihívások még nagyobb próbatétel elé fogják őket és az IT-infrastruktúrát állítani.
A szervezet archívumaiban jelenleg mintegy 100 petabyte adatot őriznek. Az idei év végéig ez a mennyiség további 27 petabyte információval növekszik. Összehasonlításul: az Amerikai Egyesült Államok egyetemi könyvtáraiban lévő adatmennyiség 2 petabyte. A kísérletek során a keletkező adatmennyiséget algoritmusok tanulmányozzák és a tudósok számára alig vagy egyáltalán nem érdekes információkat már azelőtt kiszűrik, mielőtt a tényleges elemzések egyáltalán elkezdődnének.
A szakemberek azzal számolnak, hogy a nagy hadronütköztető 2017-ben kezdődő és 2023-ig tartó kísérletei miatt 400 petabyte lesz az évente keletkező plusz adatmennyiség. Ezt azonban már aligha lehet majd eltárolni, még akkor sem, ha a számítástechnika folyamatosan fejlődni fog. Már a tároláshoz szükséges további szerverek hűtését sem lehetne megoldani, ezért jelenthet megoldást az OpenStack, egy cloud-infrastruktúra, amit már jelenleg is alkalmaznak és gőzerővel zajlik a továbbfejlesztése.
Tim Bell, a CERN IT-infrastruktúráért felelős vezetője közölte, hogy a szervezet most négy OpenStack-rendszert használ. A legnagyobb kereken 3000 szerverből áll. 2015 első negyedévéig további számítógép-központokat helyeznek majd üzembe.