MTI
Létrehoznák a Földet egy szimulátorban
Egy nemzetközi tudóscsoport olyan szimulátort akar létrehozni, amely leutánoz mindent, ami a Földön történik, a globális időjárási jelenségektől és a betegségek terjedésétől kezdve a nemzetközi pénzügyi tranzakciókig, vagy egy forgalmas úton keletkező dugóig.
Az Élő Föld Szimulátor (Living Earth Simulator - LES) névre keresztelt projekt célja a tudományos ismeretek gyarapítása arról, ami a bolygón lejátszódik, mégpedig a társadalmakat formáló emberi cselekvés és a fizikai világot meghatározó környezeti erők közeli tanulmányozása révén. "Sok mai probléma - beleértve a társadalmi és gazdasági bizonytalanságokat, háborúkat, betegségeket - az emberi viselkedéshez köthető, de a társadalom és a gazdaság működésére vonatkozó ismereteink erősen hiányosak - mondja Dirk Helbing, a Svájci Műszaki Egyetem tudósa, a szimulátort létrehozni kívánó FutirICT vezetője.
"Hála az olyan létesítményeknek, mint az Európai Nukleáris Kutatási Szervezet (CERN) által épített nagy hadronütköztető, a tudósok többet tudnak a világegyetem korai állapotáról, mint saját bolygónkról. Amire szükség van, az egy tudásgyorsító, amely ütközteti az ismeretek különböző területeit. A rejtett törvények és a társadalmak mélyén lejátszódó folyamatok feltárása az évszázad legnagyobb tudományos kihívása". Az e kihívásra adott válasz a LES, amely képes lesz előre jelezni az olyan fertőző betegségek terjedését, mint a sertésinfluenza, megadni a klímaváltozások azonosításának módszereit, vagy éppen érzékelni egy közeledő pénzügyi válság jeleit. De hogyan fog működni ez a kolosszális rendszer? "Indulásként adatokkal kell benépesíteni, rengeteg adattal, amelyek felölelik a bolygón zajló összes tevékenységet" - magyarázza Helbing.
Az egészet még megépítésre váró, óriási adatfeldolgozó kapacitással rendelkező számítógépek fogják vezérelni. Bár a hardware még nincs kész, az adatok nagy része már rendelkezésre áll. Az amerikai űrügynökség, a NASA által vezetett Planetary Skin projekt például a levegőből, a földről, a tengerről és az űrből klimatikus adatokat gyűjtő szenzorok hatalmas hálózatát hozza létre. Ráadásul a FutirICT vezetője és több mint kétszáz tudósból álló csapata már legalább 70 olyan online adatforrást azonosított, amelyekről úgy gondolják, hogy hasznosíthatók. Szerepel köztük a Wikipedia, a Google Maps és a brit kormány adattára, a data. gov.uk is. "Ezeknek a valós idejű adatoknak milliónyi más, a pénzügyi piacoktól és orvosi feljegyzésektől a médiáig terjedő adatforrással való integrálása táplálja majd a szimulátort" - fejti ki Helbing.
A következő lépés annak a szerkezetnek a létrehozása, amely lehetővé teszi, hogy az adatok tömegéből modellek jöjjenek létre, amelyek pontosan ismétlik mindazt, ami ma a Földön végbemegy. Ez csak úgy lesz lehetséges, ha társadalomtudósok, számítógépes szakemberek és mérnökök együtt dolgozzák ki és határozzák meg a LES működési szabályait. Helbing szerint a rendszer működtetéséhez szükséges technológia csak a következő évtizedben fog elkészülni: miközben a LES-nek képesnek kell lennie adatok óriási tömegének asszimilálására, ezzel párhuzamosan értenie kell azt is, hogy mit jelentenek ezek az adatok. "Ezt az úgynevezett szemantikus webtechnológiák fejlődése teszi majd lehetővé" - mutat rá Helbing.
Ma egy légszennyezettségi adatokkal dugig tömött adatbázis nagyjából ugyanazt jelenti egy számítógép számára, mint a globális bankügyletek adatbázisa - lényegében csupán rengeteg számot. De a szemantikus webtechnológia az adat mellett az adat leírását is kódolja, lehetővé téve ezzel a számítógépeknek, hogy összefüggéseikben "értsék" az adatokat. Mi több, az adatok összegzésének úgy kell megtörténnie, hogy kiválasztható legyen közülük az az információ, amely közvetlenül egy-egy egyénre vonatkozik. Mindez képessé teszi majd a LES-t arra, hogy hatalmas mennyiségű, az emberi tevékenységre vonatkozó adatot kezeljen anélkül, hogy veszélyeztetné az egyének magánszféráját.
Ha a hatalmas mennyiségű társadalmi és gazdasági adat előállításának módjában sikerül egyetérteni, utána meg kell építeni azokat a szuperkomputer-központokat, amelyek képesek az adatok feldolgozására és a Föld szimulálására. Egy olyan számítástechnikai kapacitás létrehozása, amely képes kezelni a rendszer feltöltéséhez szükséges adatokat, jelentős kihívás, de nem kivitelezhetetlen. "Ha megvizsgáljuk például a Google adatfeldolgozó kapacitását, akkor nyilvánvalóvá válik, hogy a LES-t sem fogja hátráltatni a feldolgozás műszaki szükséglete" - húzza alá Pete Warden, az OpenHeatMap projekt megalapozója, az adatelemzés szakértője.
Bár a Google igyekszik titokban tartani, hogy mennyi adatot dolgoz fel, 2010 májusában úgy becsülték, hogy mintegy 39 ezer szervert használ havi egy exabyte anyagmennyiség kezeléséhez - ez azt jelenti, hogy havonta kétmilliárd CD-t tudna megtölteni adatokkal.
"Ha abból indulunk ki, hogy a világon évente keletkező több száz exabyte-nyi adatnak csak egy kis részét lehet és kell majd alkalmazni a szimulációhoz, akkor beláthatjuk, hogy nem az adatfeldolgozó kapacitás képezi majd a szűk keresztmetszetet - állítja Warden, és hozzáteszi: az adathoz való hozzáférés, illetve annak kitalálása, hogy mi hasznosat lehet kezdeni vele, sokkal nagyobb kihívás. - Ha sok adatunk van, az önmagában nem elég a bolygó elfogadható modellezésére. Például a közgazdaságtan és a szociológia az elmúlt száz évben képtelen volt megalapozott előrejelző képességgel bíró elméletet létrehozni, jóllehet rengeteg adat állt a rendelkezésükre. Kételyeim vannak azt illetően hogy kiterjedtebb adatbázisok nagyobb változást igényelnének."
A szakember szerint "nem az a baj, hogy nincs elég adatunk nagyon sok problémáról a klímaváltozástól a rendkívüli szegénységig, amellyel a világnak szembe kell néznie, hanem hogy a birtokunkban lévő sok információ ellenére sem teszünk semmit". "Függetlenül a kihívásoktól, amelyekkel meg kell küzdenünk a projekt kivitelezése során, a nagyobb veszélyt az jelenti, ha meg sem próbáljuk felhasználni a már rendelkezésünkre álló és a jövőben keletkező számítástechnikai eszközöket arra, hogy jobban megértsük a globális társadalmi-gazdasági trendeket" - toldja meg Helbing.
Az Élő Föld Szimulátor (Living Earth Simulator - LES) névre keresztelt projekt célja a tudományos ismeretek gyarapítása arról, ami a bolygón lejátszódik, mégpedig a társadalmakat formáló emberi cselekvés és a fizikai világot meghatározó környezeti erők közeli tanulmányozása révén. "Sok mai probléma - beleértve a társadalmi és gazdasági bizonytalanságokat, háborúkat, betegségeket - az emberi viselkedéshez köthető, de a társadalom és a gazdaság működésére vonatkozó ismereteink erősen hiányosak - mondja Dirk Helbing, a Svájci Műszaki Egyetem tudósa, a szimulátort létrehozni kívánó FutirICT vezetője.
"Hála az olyan létesítményeknek, mint az Európai Nukleáris Kutatási Szervezet (CERN) által épített nagy hadronütköztető, a tudósok többet tudnak a világegyetem korai állapotáról, mint saját bolygónkról. Amire szükség van, az egy tudásgyorsító, amely ütközteti az ismeretek különböző területeit. A rejtett törvények és a társadalmak mélyén lejátszódó folyamatok feltárása az évszázad legnagyobb tudományos kihívása". Az e kihívásra adott válasz a LES, amely képes lesz előre jelezni az olyan fertőző betegségek terjedését, mint a sertésinfluenza, megadni a klímaváltozások azonosításának módszereit, vagy éppen érzékelni egy közeledő pénzügyi válság jeleit. De hogyan fog működni ez a kolosszális rendszer? "Indulásként adatokkal kell benépesíteni, rengeteg adattal, amelyek felölelik a bolygón zajló összes tevékenységet" - magyarázza Helbing.
Az egészet még megépítésre váró, óriási adatfeldolgozó kapacitással rendelkező számítógépek fogják vezérelni. Bár a hardware még nincs kész, az adatok nagy része már rendelkezésre áll. Az amerikai űrügynökség, a NASA által vezetett Planetary Skin projekt például a levegőből, a földről, a tengerről és az űrből klimatikus adatokat gyűjtő szenzorok hatalmas hálózatát hozza létre. Ráadásul a FutirICT vezetője és több mint kétszáz tudósból álló csapata már legalább 70 olyan online adatforrást azonosított, amelyekről úgy gondolják, hogy hasznosíthatók. Szerepel köztük a Wikipedia, a Google Maps és a brit kormány adattára, a data. gov.uk is. "Ezeknek a valós idejű adatoknak milliónyi más, a pénzügyi piacoktól és orvosi feljegyzésektől a médiáig terjedő adatforrással való integrálása táplálja majd a szimulátort" - fejti ki Helbing.
A következő lépés annak a szerkezetnek a létrehozása, amely lehetővé teszi, hogy az adatok tömegéből modellek jöjjenek létre, amelyek pontosan ismétlik mindazt, ami ma a Földön végbemegy. Ez csak úgy lesz lehetséges, ha társadalomtudósok, számítógépes szakemberek és mérnökök együtt dolgozzák ki és határozzák meg a LES működési szabályait. Helbing szerint a rendszer működtetéséhez szükséges technológia csak a következő évtizedben fog elkészülni: miközben a LES-nek képesnek kell lennie adatok óriási tömegének asszimilálására, ezzel párhuzamosan értenie kell azt is, hogy mit jelentenek ezek az adatok. "Ezt az úgynevezett szemantikus webtechnológiák fejlődése teszi majd lehetővé" - mutat rá Helbing.
Ma egy légszennyezettségi adatokkal dugig tömött adatbázis nagyjából ugyanazt jelenti egy számítógép számára, mint a globális bankügyletek adatbázisa - lényegében csupán rengeteg számot. De a szemantikus webtechnológia az adat mellett az adat leírását is kódolja, lehetővé téve ezzel a számítógépeknek, hogy összefüggéseikben "értsék" az adatokat. Mi több, az adatok összegzésének úgy kell megtörténnie, hogy kiválasztható legyen közülük az az információ, amely közvetlenül egy-egy egyénre vonatkozik. Mindez képessé teszi majd a LES-t arra, hogy hatalmas mennyiségű, az emberi tevékenységre vonatkozó adatot kezeljen anélkül, hogy veszélyeztetné az egyének magánszféráját.
Ha a hatalmas mennyiségű társadalmi és gazdasági adat előállításának módjában sikerül egyetérteni, utána meg kell építeni azokat a szuperkomputer-központokat, amelyek képesek az adatok feldolgozására és a Föld szimulálására. Egy olyan számítástechnikai kapacitás létrehozása, amely képes kezelni a rendszer feltöltéséhez szükséges adatokat, jelentős kihívás, de nem kivitelezhetetlen. "Ha megvizsgáljuk például a Google adatfeldolgozó kapacitását, akkor nyilvánvalóvá válik, hogy a LES-t sem fogja hátráltatni a feldolgozás műszaki szükséglete" - húzza alá Pete Warden, az OpenHeatMap projekt megalapozója, az adatelemzés szakértője.
Bár a Google igyekszik titokban tartani, hogy mennyi adatot dolgoz fel, 2010 májusában úgy becsülték, hogy mintegy 39 ezer szervert használ havi egy exabyte anyagmennyiség kezeléséhez - ez azt jelenti, hogy havonta kétmilliárd CD-t tudna megtölteni adatokkal.
"Ha abból indulunk ki, hogy a világon évente keletkező több száz exabyte-nyi adatnak csak egy kis részét lehet és kell majd alkalmazni a szimulációhoz, akkor beláthatjuk, hogy nem az adatfeldolgozó kapacitás képezi majd a szűk keresztmetszetet - állítja Warden, és hozzáteszi: az adathoz való hozzáférés, illetve annak kitalálása, hogy mi hasznosat lehet kezdeni vele, sokkal nagyobb kihívás. - Ha sok adatunk van, az önmagában nem elég a bolygó elfogadható modellezésére. Például a közgazdaságtan és a szociológia az elmúlt száz évben képtelen volt megalapozott előrejelző képességgel bíró elméletet létrehozni, jóllehet rengeteg adat állt a rendelkezésükre. Kételyeim vannak azt illetően hogy kiterjedtebb adatbázisok nagyobb változást igényelnének."
A szakember szerint "nem az a baj, hogy nincs elég adatunk nagyon sok problémáról a klímaváltozástól a rendkívüli szegénységig, amellyel a világnak szembe kell néznie, hanem hogy a birtokunkban lévő sok információ ellenére sem teszünk semmit". "Függetlenül a kihívásoktól, amelyekkel meg kell küzdenünk a projekt kivitelezése során, a nagyobb veszélyt az jelenti, ha meg sem próbáljuk felhasználni a már rendelkezésünkre álló és a jövőben keletkező számítástechnikai eszközöket arra, hogy jobban megértsük a globális társadalmi-gazdasági trendeket" - toldja meg Helbing.