Berta Sándor

Intelligens szoftvereket készíthet egy új laboratórium

A következő években teljesen más típusú programokat fejleszthetnek ki.

A Dynatrace és a linzi Johannes Kepler Egyetem innovációs központot alapított az automatizált és öngyógyító szoftverek fejlesztésére. A centrumban a Dynatrace Research IT-szakértői akadémikusokkal és egyetemi hallgatókkal közösen dolgozhatnak, s megoldhatják az intelligens programok elkészítésekor jelentkező legnagyobb problémák némelyikét.

Alois Reitbauer, a Dynatrace Research vezetője kifejtette, hogy az új laboratóriumban olyan alaptechnológiákat kutatnak, amelyekre 5 esztendő múlva vagy még később lesz majd szükség. A kutatások a megosztott adatrendszerekre, a valós idejű elemezésekre, az adattudományra és a felhőkörnyezeti natív biztonságra összpontosítanak.

A megosztott adatrendszerek az egyre növekvő adatmennyiségek hatékony kezelését célozzák. Reitbauer rámutatott, hogy a jövőben már nem terabájtokról fogunk beszélni, hanem petabájtokról vagy akár exabájtokról. Amíg az egyes vállalatok 10 évvel ezelőtt még több száz szerverrel dolgoztak, akkor most már több százezerrel vagy akár több millióval. A szakemberek azzal foglalkoznak, hogy az összes adatot hatékonyan tárolják és lekérdezhessék. Reitbauer kiemelte, hogy nagyon szuper, hogy egy adott válallat többet tud és pontosabb adatokkal rendelkezik a saját üzletéről, az IT-rendszerei teljesítményéről és a folyamatai biztonságáról, de ezekkel az információkkal tudni kell dolgozni is, helyes kérdéseket kell feltenni a hasznos válaszokhoz.

A valós idejű elemzések lényege, hogy észszerű felismerésekre és tudásra lehessen szert tenni a hatalmas adatmennyiség kiértékelésének köszönhetően. Az eljárások a gépi tanulásra épülnek. Az elemzések, valamint a hibák felismerése és megoldása gyorsan kell történjen. Reitbauer közölte, hogy ezredmásodpercekről van szó, hiszen egy felbosszantott felhasználó gyorsan elhagyhat egy honlapot, ha az lassan reagál.

Az adattudományok területén azt kutatják, hogy a gépi tanulási modelleket miként lehet felkészíteni arra, hogy egy állandóan változó rendszert kezeljenek és annak állapotát megfelelően értelmezzék. A frissítések egyre rövidebb időközönként érkeznek, a megoldások folyamatosan változnak. Néha nagyon nem egyszerű megmondani, hogy a számítást végző modell éppen felismeri egy rendszer téves magatartását vagy rosszul reagál.

Különösen fontos a felhőkörnyezeti natív biztonság változásainak a megfelelő besorolása. A cél a kibertámadások kivédése és az adatok megvédése. A távlati cél az, hogy az IT-rendszerek maguk állapítsák meg, hogy ha bizonyos komponenseik vagy a felhasználók gyanúsan viselkednek. Jó példa erre, hogy ha az internetes vásárláskor a fizetési adatok megadását valaki egyszerűen átugorja. Reitbauer végül hangsúlyozta, hogy régen úgy hitték, hogy ha egy rendszer egyszer biztonságos, akkor az úgy is marad. Ma már nincsenek ilyen "feltörhetetlen" rendszerek.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • caprine #1
    Semmit mondó cikk, semmi újat nem tudtunk meg belőle.