Gyurkity Péter

Százszor gyorsabb chipeket kap a NASA

Hamarosan ugyanis új rendszerrel cserélik le a régi megoldásokat a JPL telephelyén.

A NASA kapcsán legutóbb arról számoltunk be, hogy az amerikai űrügynökség a kozmikus kannibalizmust tanulmányozza, korábban viszont arról is írtunk, hogy az ESA végre frissíti a Mars Express szoftverét, amely eredetileg a Windows 98 operációs rendszerrel épült. Most az amerikai kollégákon van a sor, ők a JPL dél-kaliforniai telephelyén készülnek komoly frissítésre.

A hivatalos közleményben arról olvashatunk, hogy az illetékesek a Microchip nevű vállalat közreműködésével készülnek az úgynevezett High-Performance Spaceflight Computing (HPSC) chipek leváltására, amelyre már igencsak megérett az idő. Ezt különösen annak fényében jelenthetjük ki, hogy a jelenleg használt rendszerek 30 éves megoldáson alapulnak, vagyis a teljesítmény terén emiatt akár kereken százszoros ugrást is elérhetnek, ám ugyanezen időszak alatt a hibatűrés és a megbízhatóság területén is komoly előrelépést sikerült elérni, ami legalább ennyire fontos részlet, különösen a NASA esetében.

Az új HPSC a hatékonyság kapcsán is jelentős javulást ígér, mivel az éppen használatban nem lévő számítási kapacitást és funkciókat lekapcsolhatják, vagyis a fogyasztás is optimalizálható lesz, bár az új rendszerek megtervezése, kialakítása, és leszállítása több évet vesz majd igénybe. A Microchip a tervek szerint 3 év múlva adja majd át az új platformot a JPL munkatársainak, ezért cserébe pedig 50 millió dollárra tesz szert, legalábbis a most aláírt szerződés értelmében. Utóbbi cég nyilván további kormányzati érdeklődésre számít, siker esetében akár nagyobb ügynökség is jelezhetik majd érdeklődésüket a hasonló frissítésekre, generációváltásokra.

Az új rendszernek (elődjéhez hasonlóan) meg kell felelnie az űrben uralkodó viszonyok miatti nagyobb kihívásoknak, elsősorban emiatt nem mindegy, hogy kire bízzák annak kifejlesztését.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • caprine #8
    Van egy csomó műhold felettünk, csak musk fellött vagy 150-t, a kínai meg orosz egyebekről ne is beszéljünk. Ezek teli vannak chippekkel, képfeldolgó egységekkel, egyéb elektronikákkal amiknek több évig kell bírnia az ür légkörét vagy inkább légkörmentességét, innentől kezdve nem hiszem, hogy valami totál új dolgot kellene kitalálni.
  • Sequoyah #7
    Legtobb rendszer eseteben igen. De azert jo lenne neha egy modern CPU az urben is.
    Pl egy automatizalt robotnak mar egyre gyakrabban kell eloben elemezni egy kepet/videot, peldaul amikor landolaskor masodpercei vannak a leszallohely azonositasahoz. A kepfelismeres (pl a sziklak elkerulesehez) pedig igencsak processzor-igenyes.

    Alaprendszerek mukodtetesehez, es palyakorrekciok szamitasahoz persze eleg a 20 eves is.
  • t_robert #6
    Mondjuk nem biztos, hogy egy ürben használt elektronikának feltétlenül szüksége van TFLOPS szintű teljesítményre. Sokkal fontosabb a megbizhatóság és a környezeti hatások elviselése. Minnél kisebb csíkszélességen készül egy elektronika vagyis minél kisebb az elektronikus elemek közti távolság annál érzékenyebb az egész a sugárzásokra. Jól mutatja a dolgot, hogy például műholdak vezérlésében egészen a 2010-es évekig előszeretettel használták az akkor már 25 éves Intel 80186-os CPU-t. A maga 8-25 Mhz-ével és pár száz ezer 16 bites müveleti sebességével.(ma egy fitness karkötőben nagyobb teljesítmény van) Mi például a korai PC-k lemezvezérlőiben találkoztunk vele ott tette a dolgát anélkül, hogy a többség tudta volna. De annyira megbizható és kiismert volt a mérnökök előtt, hogy szívesen alapoztak rá elektronikai vezérléseket, ha elég volt a teljesítmény a feladathoz. nem is szólva róla, hogy 2 vatt körüli fogyasztással beérte.
  • Zoliz #5
    Azt gondolod "űrálló" kivitel és standard ARM architectura?
    Ez az amit a nyilvánosság tudhat. Valószinűleg már sokkal fejlettebb procikat tartanak talonban és titokban, mert harc folyik, hogy ne tudják rivális országok másolni.
    Kicsit gondolkozni kéne.
  • Ellaberin #4
    Nyilván az extrém körülmények amik az elsődlegesek. Főleg a sugárzás a félvezetők miatt. De ott van a szeren a többszörös redundancia és a nulla fele konvergáló stand by .
    Az hogy milyen architektúra kb mindegy. De egy ilyen választásnál sokat jelent ami egyszer/többször már bizonyított. Mind az arch, mind a cég tekintetében.
    Az árat én még "olcsónak" is tartom onnan nézve mennyire egyedi és professzionális terméket kell fejleszteni.
  • kvp #3
    Mar egyszer leirtam, de az a cikk eltunt valahova az osszes hozzaszolassal egyutt, hogy sugarzasallo ARM chipeket gyart a Microchip a NASA szamara. Keramiatokos, vakuum, fagy es forrosag allo kivitelben, szabvanyos ARM architekturaval, raadasul az USA-ban. Gyakorlatilag ugyanazt kapjak ami az osszes telefonban, tabletben es ujabb jarmuben van, csak urallo kivitelben.
  • Irasidus #2
    Ezt azért gondolt újra, annak fényében hány űrszondát, és innovatív űrkísérletet hajtottak végre, a földi berendezések fejlesztéséről nem beszélve. Szerintem te kevered valamivel (tippelhetek mivel?) a NASA-t és fejlesztés szót...
  • Ellaberin #1
    Mivel az utóbbi időkben csak a magántőke fejlesztett és a NASA látszólag átadta a terepet, ez is előre lépésnek számít. Gondolom akár 16 bitre is fel fognak váltani oprendszer szinten. :gonoszvigyor: