41
-
#41 Amúgy mielőtt félre értené még valaki, mert ez lentebb már megtörtént, azért elárulom, hogy nekem személy szerint semmi kifogásom a szerver-linux párosításall sőt.
Nekem csak avval van a gondom, ha ebből próbáltok párhuzamot vonni a linux és a windows közé, ami véleményem szerint nem éppen a legszerencsésebb dolog. Szerverre tökéletes a linux, ha valami gebasz van, rögtön lehet turkálni a kernelben, windows esetében ezt nem igen tudnám elképzelni. -
#40 Már előre elnézést kérek hogy így rádtámadok, de te egy tipikus példája vagy az opensource pom pom lányoknak. Leírod hogy simán kidobnád a pcdet ha lenne elég pénzed, de miért is ???
Esetleg folytatsz otthon valami olyan tevékenységet ami igényli a plussz teljesítményt, renderelés, videóvágás, esetleg bonyolultabb számítási feladatok, neadisten lekérések kliens oldalról. Ne haragudj még egyszer, biztosan űberfasza ez az M50k vagy micsoda, de ha már annyira lelkesedsz miatta hogy már a saját lakásodba is beleképzelted, azért nem ártana leírnod hogy mire is jó, vagy mire is lenne jó ez a masina.
Persze ha nem tévedek akkor ezek szerver gépek, aminek otthon ugyebár semmiféle hasznát nem vesszük -
#39 ahham -
roliika #38 Akkor sejtem hol melózol....én is melóztam ott és azt a munkát rühelltem...Zalaegerszegen gyártják még őket? :) -
#37 Nem mondom meg hol dolgozom, de lentebb lattam egy emlitest a sun M5000-rol.
Na azokat javitom a sun M4000-el egyetemben, valamint a SUN storagetech es tarsai-t. Megmondom oszinten, ha annyi penzem lenne, hogy nem kene neznem mit veszek, akkor kidobnam a 2magos intel procimat es az egesz szaros pc platformot az ablakon, es vennek egy sparc architekturas gepet. A SUN tudja mitol doglik a legy, es most sajat felhasznalasra nem az M5k-ra gondoltam, minek vennem meg 50 millaert, meg fizethetnem a villanyt :) Lattam 2000-ben keszult gepeket, amik jelenleg a DUT-ok hostjai. Termeszetesen solaris, debugterminalok, linux(ubu az ecceruseg kedveert). Azok a gepek 366 Mhz-n ketyegtek, es mar akkor tobb proci mehetett egy gepbe, a jo ki sscsi architektura vitte a kuldo egysegeket, es meglepodtem milyen szamitasi kapacitasra voltak kepesek. Egy 2Ghz cerkat lealazott egy 366os gep, nem hittem a szememnek. Szal abbol lenne most egy 2.1-es quad core procim, par sas verezlesu, (vagy fibre channel )hddvel(15k rpm es hangja nincs lol) hat az biztos hogy nem varogatnek orakat egy kep renderelesere. Szoval hajra SUN, hajra open source!
Megjegyeznem mielott jonnenek a kritizalo kommentek, a mai PC-s gepekre a win tokeletes valasztas, es a linux csak probalja utolerni szintben, bar nem csinalja rosszul, kezd egre jobb lenni, de a desktop szegmensben akkor is a win a jobb MEG. -
BlackRose #36 OK, de most legyünk komolyak egy pillanatra, nem mondom, hogy nincs, de viszonylag nehéz lenne találni olyen embereket a Sun saját táborán kívül akik ezt összedobnák és belőnnék és még mindezt gazdaságos áron. :)
Különben az IBM BlueGene rendszerét is megveheted, ugyanis a cégek általában azért csinálnak valamit, hogy eladják :) most persze az nem éppen PC blade komponensekből áll, de az teljesen más dolog, hogy az IBM az inkább még mindég a zárt mainframe piacot szeretné és legalább ott ahol még birja (szuperszámítógépek) ott a mainframe időkből való viselkedést gyakorolja, a HP és Sun viszont már többé kevésbé az Intel/AMD platformokban látja a jövőt.
De azért én most itt azt hiszem, hogy nem ez a fontos (mármint, hogy off the shelf komponentsek vagy nem) hanem az, hogy ezeket a szuperszámítógépeket nem olyan egyszerű dolog üzemeltetni, tehát itt általában nem elég a user és valami admin aki segít, hanem programozócsoportok is kellenek, mert alkalmazástól alkalmazásig elég sok apróságot kell módosítani és ezt legtöbbször kódolás nélkül nem lehet megúszni. Szóval ez még nem olyan mindennapi felhasználóbarát környezet, gondolom erre gondoltak azok akik azt mondták, hogy egy szuperszámítógépet nem lehet, csak úgy összedobni. -
ozric #35 de azért az első 10-ben ilyen nincs
Még egyszer átfutottam a listát és találtam egyet a top10-ben, a [URL=http://services.tacc.utexas.edu/index.php/ranger-user-guide]#8 szörny[/URL] személyében. Sőt, könnyebben megvásárolható mint a HP.
3936 x 16 utas SunBlade x6420
2 x Sun Datacenter InfiniBand switch
72 x Sun Fire x4500 disk server -
BlackRose #34 Azért aki csak kopasz hálozatot is csinál az is tudja, hogy egy pici tervezés mégis csak kell :) különben igazad van vannak viszonylag "off the shelf" szuperszámítógépek is, de azért az első 10-ben ilyen nincs. -
ozric #33 5 perc alatt találtam (top #18):
96 x HP Cluster Platform 3000BL
1796 x HP BL460c
5 x InfiniBand DDR switch
12 x HP Storage blade (40TB)
Megreneled, pár hét alatt kiszállítják. Mindez a polcon van és nem kell megtervezni és legyártani mint az IBM BlueGene rendszereket. Általános célú, bármire használhatod. Csak el ne felejtsd kivenni a kezed a biliből... -
BlackRose #32 eh... ez már régi módszer, ma már az Newegg-en veszik meg a vasat :))) vagy esetleg az ebay-en... -
Kheller #31 Jól van pistike, igen, igazad van. Úgy csinálják a szuperszámitógépeket, hogy lemennek a sarki közértbe vesznek jó sok vasat, felugranak az ubuntu.com-ra lehúzzák az aktuális linux verziót, szétteritik a vasakon, duplakatt a cluster ikonra aztán hajrá...
Na felets el... -
BlackRose #30 Az OS is (Kernel) egy layer a rendszerben és én most itt nem arról beszéltem, hogy fizikailag hol történik a parallelizáció hanem arról, hogy ha egy algoritmus elvileg nem párhuzamos akkor maga a rendszer (bele értve a kernelt, a processzort stb.) nem képes olyan szintre hozni a dolgokat mint abban az esetben ha az alkalmazás párhuzamos futtatásra lett szerkesztve és kódolva. Ugyanakkor ha multiprocessor/multicore parallelizációról beszélünk akkor nem igen hiszem, hogy a CPU mikro szinten történő parallelizációról beszélünk (mint amikor az egy magban történő parallelizációról beszélünk), itt már inkább egy másik layer-ben történik a parallelizáció és itt már maga a kernel is komoly szerepet játszik. Persze ez most itt egyáltalán nem fontos, bár akkor nem ha azt nézzük, hogy a jelenlegi szoftver mennyire képes kihasználni a 2 vagy 4 magot és mennyire lesz képes kihasználni a 8 vagy annál is több magot. -
ozric #29 az OS próbálja a hagyományos algoritmusokat parallelizálni (kisebb vagy nagyobb sikerrel)
Ezt gondold át még egyszer. Egyedül a processzor képes "out-of-order" trükkre, de az csak mikro szinten párhuzamos és nem minden processzor tudja. Egyetlen OS sem képes ilyesmire. Vagy kevered a processzor affinitás-sal? -
ozric #28 itt az alkalmazáshoz faragják az egész rendszert, hardvert, szoftvert.
A kettőnk között az az alapvető különbség, hogy megnéztem a top50 listát és értelmazni is tudom, ellenben csak sztereotip butus dolgokat irogatsz és még véletlenül sem vagy hajlandó gondolkodni, inkább személyeskedsz. Aki megnézi a [URL=http://www.top500.org/system/9504]#18 masinát[/URL], annak világos hogy az egy sarki bó'tban kapható HP penge szabványos InfiniBand hálózattal. Klasszikus general purpose megoldás, ordít róla. Sekol nincs benne egyedileg tervezett hardver. Kedves Pistike, ugye megint tévdek?
LOL
Köszönöm a kimerítő érvelést.
(...) kimeriti a röhej kategóriát.
Ha láttál már komolyabb HA vagy LB fürtöt, akkor nem írnál ilyneket. Ráadásul van a listán webszerver is, ami megint nem téged erősít. Ja, hogy már a rövidítéseknél elakadtál? Bocsi... -
BlackRose #27 Akkor szerinted az olyan dolgok mint pl. az Intel Threading Building Blocks/Parallel Studio vagy a Microsoft Parallel Extensions (PLINQ, Task Parallel Library) és annak alkalmazása csak úgy szórakozás és nem valami ami szükséges mert a Win7 már támogatja és "kihasználni" is képes 128 magot? Nagy különbség van az között, hogy az OS próbálja a hagyományos algoritmusokat parallelizálni (kisebb vagy nagyobb sikerrel) és ha egy alkalmazás már parallel algoritmusokal lett megírva. Ég és föld a különbség.
Szóval jelenleg a hardver néhány évvel a szoftver előtt jár, bár ami a párhuzamos technológiák kihasználását illeti. -
roliika #26 Optimális esetben ezzel a mezei programozónak nemkell foglalkoznia..az oprendszer feladata a magok optimális kihasználása.
A win7 már lépes elvileg 128 magot is használni....elvileg 2020-ra lesz még 3-4 win generáció váltás.
Hát igen a kvantumszámítógép olyan mértékben alakítaná át a számítástechnikát amit még el sem nagyon lehet képzelni...például elvileg nem lehetne írni semmilyen titkosító programot, mert szinte azonnal bruteforce-al kipörgetné...a logikai alapjait még csak most dolgozzák ki ennek a rendszernek, éshát nem egyszerű..pl az a tény, hogy egy bit egyszerre két állapotot is felvehet, normális logikával nem követhető. -
Kheller #25 "miért kell egy OS-t (linux) erősen átalakítani egy fürthöz"
ehh... Nem azért kell átalakitani, hogy elinduljon rajta egy teljesen alap, általános célú fürt szolgáltatás, hanem, hogy az éppen futtatott alkalmazás, éppen kialakitott architektúra, kommunikációs csatorna, diszk alrendszer stb-stb hatékonyan működjön. Ez itt már nem az otthoni pistike szinjte, itt az alkalmazáshoz faragják az egész rendszert, hardvert, szoftvert.
"Szerintem elég hozzá egy jól beállított MPI és már hasít is, ami az OS-t illeti"
LOL
"Bejöttél a csőbe, a "get the facts" kampánynak annyi köze van a valós desktop/szerver állapothoz mint a szuperszámítógépekhez"
LOL 2, magyarázhatod most már a bizonyitványt, a get the facts egy posztban emlitése a szuperszámitógépek OS statiszikájával, kimeriti a röhej kategóriát. -
ozric #24 nem fog kelleni olyan sok "general purpose" mag, hanem a többmagosoknak több féle magjuk lesz
A jelenlegi GPGPU implementációk is így működnek, csoportokba szervezett több száz maggal. Csakhogy a csoportok közötti adatcsere nagyjából két nagyságrenddel lassabb, mint a csoporton belül. Ezért lesz lassabb a 1TFlops/s sebességű GPU-n futó szoftver a CPU-nál... -
ozric #23 Nagyságrendileg 16-32 mag felett programozási módszert kell váltani a nagy szinkronizációs terhelés miatt, 256 mag felett inkább használhatóbbak a DMA (Distrubuted Memory Architecture: cluster és MPP) algoritmusok, mint az SMP. Akkor még nem beszéltem az új hibrid módszerről (SMP+GPU stream). Lehet hogy 2020-ra lesz 16192 magos processzor, de csak 2050-re lesz szoftver ami kihasználja. -
BlackRose #22 Attól félek ez az előrelátásod éppen úgy fog járni mint a közgazdászok előrelátásai a gazdasági növekedés esetében :). kb. 6-8 év múlva (de lehet, hogy előbb is) elérjük a szilicium határait és akkor ez már tovább nem fog menni, addig szerintem kb. 64 magos procikról fogunk beszélni de ez sem biztos, mert jelenleg a fejlesztések már irányban haladnak, vagyis nem fog kelleni olyan sok "general purpose" mag, hanem a többmagosoknak több féle magjuk lesz, és a magok többsége egyszerű mag lesz nem pedig komplex (hasonló mint a Cell esetében), az Intel Larrabee és az AMD Bulldozer is ilyen irányban halad. Persze ez a szilicium alapú megoldás, léteznek más irányú kutatások is mint pl. a quantum számítógép stb. Ami a 3D megoldásokat illeti memoriák esetében elképzelhatő, de CPU-k esetében már sokkal komplikáltabb mert az energiafogyasztás és ez miatt a hőtermelés sokkal de sokkal nagyobb és a megoldás sokkal bonyolultabb. -
BlackRose #21 Node-onként 128GB de mivel clusterekről van szó ez nem gond, hiszen a Linux clusterek sem szoktak ennyinél többet használni node-onként. Különben a Shangai Supercomputer központban működik egy 180 TFLOPS teljesítményű Windows HPC cluster amelyben 7680 darab 4 magos Opteron dolgozik amely ha jól emlékszem a 6 hónappal ezelőtti TOP500 listán éppen a 10. helyet foglalta el és amelyben 120TB RAM található. Ezenkívül az ismertebb cégek közül a Dassault és a Ferrari is alkalmaz már Windows HPC Server szuperszámítógépeket. -
ozric #20 Vártam hogy talán valakinek lelesik miért érdekes az 1%. Május felé volt nemzetközi hír (sokan írtak róla, de az SG nem), hogy a web böngészős reklám statisztika alapján 2009 május elején lépte át a linux destop/browser a globális 1%-os küszöböt. Innen a linux vs Windows postom eredete, de a kettő 1%-nak semennyi köze sincs egymáshoz, kivéve hogy mindkettő külön-külön érdekesség. -
roliika #19 Épp tegnap számolgattam, hogy 2020-ra egy desktop gépen 16192 magos lesz a proci, vagy ennek megfelelő lesz a teljesítménye a Moor törvény szerint...egész elképesztő..akkor a szerverekkel milesz, náluk hol a határ? :D De 2015-re is 256 magos lesz egy átlagos proci vagy ennek megfelelő teljesítményű, és úgynézki, tudják is tartani addig a fejlesztés ütemét, mert már most megvannak erre a generációra a félkész prototipusok (a fogyasztás csökkentése mellett pl újfajta félvezető kapuk és 3d-s felépítés...3d-s felépítés már most is van, a Samsung gyárt ilyen memóriákat tegnap olvastam, ami szerintem nagy lépés). -
BlackRose #18 Különben kár, hogy itt is Linux vs Windows duma alakul ki, mert mindkét rendszer jó és mindkét rendszernek megvannak a saját előnyei és hátrányai... -
roliika #17 Tudom. Ennek a HPC dolognak több tera ram sem okoz gondot, vagy 256 darab fölötti proci sem? -
BlackRose #16 :) a legtöbb gépen Novell SuSE Enterprise vagy Red Hat Enterprise Linux fut, de nem éppen a disztró "vanilla" kernelével, habár jelenleg már nincs szükség túl nagy testreszabásra (ami nem volt mindég az eset). -
ozric #15 nyugodj bele, ezeken nem az ubuntu.com-ról lehúzott linux fut, hanem erősen átalakitott OS
Már bocs, de a Top500 82%-a cluster, emiatt a nincs erősen átalakított OS (kivéve az MPP-t, de a vektor és egyéb architertúrák kezdenek kihalni). Persze ettől még megindokolhatod miért kell egy OS-t (linux) erősen átalakítani egy fürthöz (bigSMP/NUMA/egyébMPP most nem játszik). Szerintem elég hozzá egy jól beállított MPI és már hasít is, ami az OS-t illeti. De ezt is nyugodtan megcáfolhatod.
A "fejekben lévő baj" a get the facts-re vonatkozott, ami köztudomásúlag az otthoni és a vállalati rendszerekkel foglalkozik és még véletlenül sem a szuperszámitógépekkel.
Bejöttél a csőbe, a "get the facts" kampánynak annyi köze van a valós desktop/szerver állapothoz mint a szuperszámítógépekhez. Nagyjából semmi. Hacsaknem a Mercedes szalonban kérdezed meg, hogy jó-e a BMW. Csak mert szerinted a Microsoft abszolúte tárgyilagos a Windows vs linux összehasonlításban. Get the facts. -
BlackRose #14 Igen de ez már nem éppen igaz a WIndows HPC Server esetében amely clusterekre van optimizálva és cluster management is van bele építve. Különben maga a Cray is dobott a piacra ezzel működő szuperszámítógépet (Cray CX1) amely éppen annak a trendnek az első fecskéje amelyről irtam az előbbiekban.
http://www.microsoft.com/hpc/en/us/default.aspx
Különben ne keverjük a virtualizációt és a szuperszámítógépeket, mert a kettőnek egymáshoz semmi köze, a virtualizáció erőforrás optimizálásról szól (ott ahol az erőforrás nincs kihasználva, ott ahol ki van ott a virtualizációnak semmi értelme), a szuperszámítógép viszont paralelizáció által elért nagy teljesítményű matematikai számdaráló amelyet többnyire fizikai, kémiai és biológiai szimulációknál alkalmaznak, és általában cluster formában valósítják meg őket és a cluster éppen a virtualizáció ellentéte. Vagyis míg a cluster esetében több fizikai gépből egy nagy (fizikai) gépet hozunk létre addig a virtualizáció nem más mint particionálás, vagyis egy fizikai gépből több (virtuális) gépet hozunk létre. A kettőnek teljesen eltérő alkalmazásköre van. -
who am I 7 #13 Tudtommal linuxról van szó, nem mosóporról... -
roliika #12 Vagy Solarist használnak. :D
BlackRose...azért még van mit fejlődnie a winnek, még ahhoz is, hogy egy SUN M5000-en megnyikkanjon egyáltalán...működhet persze, ha többszörös virtualizációt használnak, és több win fut egy vason, de ez erős erőforrás pocsékolás, hiszen 1 win nem képes felhasználni a gép teljes erőforrását, több pedig csak virtualizálva.
És több cikkből is kiderül, hogy a virtualizáció, ha nem is drasztikus, de bizony erőforrás igénnyel jár még akkoris ha hardveresen támogatott, így aztán felmerül a kérdés, hogy mi a bánatért használjak 4 oprendszert(vagy többet) egy gépen 4*es licenszel, mikor 1 oprendszer(Solaris) képes kihasználni a teljes gépet....és ez még nem szuperszámítógép (legalábbis nem a szó szoros értelmében), 128-256 mag és 512-1tera ram...namost ha ebből összerakok 4-et 5-öt hogy ebből valami szuperszámítógép féleség legyen, hát a win erősen nézegetne, hogy mivan...na ezért nem használnak wint szuperszámítógépeken, arról nem is beszélve, hogy a SUN architektúrákat natívan nem ismeri.
Ravkin...mintha csak én mondtam volna.
Nexus6! Majd én majd én! 42 -
Kheller #11 nyugodj bele, ezeken nem az ubuntu.com-ról lehúzott linux fut, hanem erősen átalakitott OS, ahogy a win is speciális rajtuk, a futtatott szoftverek pedig végképp egyediek rajtuk.
A "fejekben lévő baj" a get the facts-re vonatkozott, ami köztudomásúlag az otthoni és a vállalati rendszerekkel foglalkozik és még véletlenül sem a szuperszámitógépekkel. Tehát, ha te a TOP 500 OS statiszikája alapján gondolod a get the facts-et megcáfolva, akkor csúnyán el vagy tévedve, ahogy sokan mások is. KÖZE NINCS AHHOZ, hogy mit érdemes otthon vagy vállalati szervereken, desktopokon futtatni. -
BlackRose #10 A Linux azért ilyen elterjedt a szuperszámítógépeknél mert:
1. A szuperszámítógépeket olyan cégek készítik mint pl. az IBM, Cray, Sun stb. amelyek UNIX specializáltak (tehát a Linux természetes választásuk).
2. Mert a Linux kernelt függetlenül lehet adaptálni (open source) a gép szükségleteihez.
3. Mert az egyetemeken szeretik a nyilt forrást (mert tudnak rajta módosítani).
4. Mert a Microsoft nem készített HPC Windows verziót 2007 előtt.
Különben szerintem még sokáig a Linux marad fölényben a TOP100-ban de a TOP500-ban idővel a Windows előre fog törni (nem mondom, hogy 50% fölé de jovall több lesz mint jelenleg), mert a Windows HPC nem is annyira a high end szuperszámítógépek piacát célozta meg (jelenleg) hanem a kis és középszuperszámítógépek piacára koncentrál amelyből sokkal több lesz a közeljövőben mint a nagy gépekből.
Ugyanis a szuperszámítógépeknél is decentralizációra számíthatunk, a kis cégek, laboratóriumok, iskolák, egyetemek, kutatócsapatok stb. igényeit kiszolgáló kisebb szuperszámítógépek esetében a Win HPC természetes megoldás mert tökéletesen integrálódik az MS infrastruktúrába amely egyébként is fölényesen uralja az üzleti szférát, könnyű lesz a menedzment, futtatható rajta minden PC megoldás, fejleszthetünk a megszokott Visual Studio környezetben stb. A Microsoft csak ott tud győzni ahol tömeges piacról van szó, a szuperszámítógépek még nem számítanak tömeges piacnak, de most indult el ez a piac a "consumer" irányba (pl. nVidia Tesla - CUDA, OpenCL, stb.) és persze nem szabad elfelejteni, hogy az Intel QPI (QuickPath Interconnect) is megérkezett... a többmillió MS specializált programozók tömege ezen a téren is nagy előnyt fog jelenteni a Microsoftnak amikor eljön az idő a paralelizált alkalmazások fejlesztésére amelyek PC-ken működni fognak de igazán a Windows HPC gépeken tudnak majd a labdába rugni, ebben a pillanatban bekövetkezik a Windows HPC nagy előretörése, addig nem igen.
-
ozric #9 Milyen specializált OS-ről beszélsz? A Microsoft Windows HPC Server 2008 nem egy alapjaiban újraírt OS, hanem egy kiherélt Windows Server + HPC csomag. A linuxok nagy többsége mezei disztrib, nem egy agyon módosított rendszer. Van egyedi OS a Top500 között, de az se nem Windows, se nem linux alapú, hanem UNIX alapú.
Írd csak le, milyen következtetést vontam le (vagy bárki más is megteheti) a #3 postban. Szerintem nincs következtetés, de legalább sikeresen megcáfoltad. Gratulálok hozzá. -
#8
Értem, értem, mindentutdó szentember!
És esetleg azt is megtudnád mondani, melyik a legjobb mosópor és azt mikor és mire használjuk, a te határtalan tudásoddal?
-
ozric #7 Látom, van aki sikeresen megcáfolja azokat, amit nem állítottam és nem is céloztam rá. Vicces. Vagy csak szomorú. -
#6 nos, nekem tökéletes megfelel otthonra is a linux; még nem találkoztam olyan feladattal, amit ne tudtam volna megcsinálni rajta (nem játszok!, sakkprogi fut linuxon is) villámgyorsan....nem vagyok mazoista, ha valamit nem tudnék megoldani, simán elindítanám virtualboxban a winemet... -
Kheller #5 Ebben inkább az a durva, hogy egyáltalán bekerlült 5 db win-es szuperszámitógép, figyelembe véve a win license költségeit és az általában az ilyen gépeken futtatott szoftvereket...
Mondjuk elég nagy baj lehet a fejekben, ha valaki a teljesen specializált feladatokra használt, teljesen specializált programokat futtató szuperszámitógépek OS statiszikája alapján akar igazolni bármit is, az otthoni, de még akárcsak a mezei vállalati szervereken használt oprendszerkkel kapcsolatban. -
#4 Azért jó hogy itt tépem a számat már évek óta úgy látszik az emberek még mindíg ugyan olyan hülyék sőt hülyék is maradnak.
Windows otthoni felhasználásra, linux minden másra, ha olvasgatnád néha a fórumot, talán észrevehetted volna párszor ezt már elugattam. A linux tökéletesen jó például webszervernek, vagy egy nagyobb cég szervergépének tűzfalnak, amin éppenségel nem szereték ha lerohadnának róla az adatok, vagy hogy a hálózatokon vírus terjedjen. Ezek szerint a szuperszámítógépeken is kedvelik a linuxot, szerintem ez nyílt forráskódja miatt logikusnak mondható. Amitől viszont borzong a hátam az az, hogy 1-2 infó zseni majom kipróbálja a linuxot, talán még egy doc filet is sikerül megnyitnia alatta, és ez már elég bátorságot ad neki ahoz, hogy oprendszer szakértőként konferálja fel magát, és magasról lehugyozza a windowst. Elárulom ha még nem lenne világos, otthoni felhasználás terén, értem ezalatt a játékok filmek zenék vagy irodai szintű felhasználását a számítógépnek, még mindíg a windows a vezető, és egyenlőre nincs is versenytársa. Valószínűsíthető hogy a közeljövőben nem is lesz. Úgy hogy légyszives kíméljetek meg attól, hogy vesztek egy manapság korszerűnek mondható játéggépet, és arra linuxot húztok, csak azért mert az jobb mint a windows.
Ne fárasszatok -
ozric #3 Megnéztem az OS toplistát, és nem hittem a szememnek:
Linux: 443 (88.6%)
Windows: 5 (1%)
Mi van? Nem arról szólt a Microsoft "Get the facts" (~nézzük a tényeket) kampánya, hogy a Windows mennyire kiforrott és stabil, a Linux meg bughalmaz? Nem értem miért szopatná magát az, aki több millió dollárt fizetett egy hardverért. -
who am I 7 #2 "04:38, Szerda" ilyenkor bármi elő fordulhat...Péter még nem dobta be a hajnali kvját..van ilyen.