• Caro
    #80
    Nem érted...
    Attól hogy open-source, nem azt jelenti, hogy a _világon mindenki_ belenézhet, leszedheti!
    Hanem azt, hogy aki megveszi, az miért ne nézhetne bele?
    Azért írtam, hogy ettől rosszabb nem lenne a helyzet, mert a szoftveren jogi védettség van! Tehát belenézhet, magának módosíthat, de nem árulhatja, mert a többi részét szerzői jog védi.
    Szerinted az MS miért tűri ennyire a warezt? Volt itt szó mindenféle winxp aktiválásról, meg mindenről, de semmi se lett belőle.(Nekem eredeti home sose kért aktiválást)
    Pont azért, mert akkor nem tudná fenntartani a monopolhelyzetét! Hülye lenne a user használni, ha ott lenne benne, hogy a BSA bármikor kopogtathat az ajtón, sőt, a BSA ki is jelentette, hogy magánfelhasználókat nem zaklatnak.
    Nem beszélve arról, hogy akkor perkálás nélkül aligha tudná használni(legfeljebb törtet, de ha akarnák, ezt is meg tudnák oldani).
    És ezeknek az embereknek 75%-a nem fizetne érte 30000 Ft-ot.(itthon)
    De visszakanyarodva:
    1) nem arról beszélek, amikor szoftvert akarnak fejleszteni. A programozó minden esetben ért hozzá. Hanem arról, hogy ha a usernek nem tetszik a notepad, de alapjában jó, csak mondjuk szüksége lenne a cserealgoritmus rafinálására(egyszerű eset), akkor ezt így sehogy nem teheti meg. Szóval, újra kell írni az egész notepadet(egyik haverom megcsinálta :))
    2)látszik mikor láthattál linuxot utoljára. Egy IT szakember sem az, ha nem konyít a linuxhoz.(diplomát nem is kap nélküle).

    a)Azért van az, hogy a diszribben benne van a régi kernel is.
    b)A kernelt _fejlesztik_. A linux kernelben olyan dolgok vannak, hogy a win nem is álmodhatna róla. Hol van pl. csak a traffic shaping a windows kernelből?(egyetlen példa, de eláraszthatnálak vele). Ezért elkerülhetetlen, hogy elavult funkciókat cserélnek, de az új rendszermag működik a régi csomagokkal is általában. Erre való a /dev eszközfilerendszer, ami nagyon kényelmes a fejesztők számára, mert minden eszköz egy helyen található meg. Linux alá pl nem kell külön megírni a CD író programhoz az ATAPI és a SCSI drivert, mert a kernel az ATAPI-t is tudja SCSI-nak láttatni. Mert kompatibilis.
    Szoftverek terén sincs szétszórtság. A libek egy helyen vannak, és vagy megvannak, vagy nincsenek. Ha nincsenek, akkor le kell őket szedni, semmi több.
    Nincs registry. Olyan nincs, hogy ha egyetlen file megsérül, akkor az egész rendszer használhatatlan. Az /etc-ben vannak a beállítások, és ott minden konfigolható egyszerre. Nem kell ablakokkal vesződni, mikor ott a kényelmes mcedit, csak search-ölök, és átírom, winben egy ablak nem nyílil meg ennyi idő alatt.
    És már megbocsáss, de ha nem vagy developer, akkor a forráskódba nem kell nyúlkálni. Ha meg az vagy, akkor tudod mit csinálsz.
    3) hol nem sikerült megvalósítani? talán le szokott fagyni a net?(routerek ugye...)
    Felhasználói programok? Mikor fagy?
    És a funkciók is megvannak, ha nincsenek speciális igényeid. Ha meg vannak, akkor hívod a programozót, aki max egy hét alatt megcsinálja neked.(de ez otthon nem szokott előfordulni)
    4)A hardverfejlődésről:
    mindennek vannak korlátai. Szerinted poénból kezdék el a magokat többszörözni, mikor mindenki tudja, hogy az egy erős mag jobb teljesítményt ad?
    Egy egyszerű, de sokat használt művelet: két maggal a másodfokú egyeneletet 150%-al lehet gyorsabban megoldani, gépi kódú utasításokkal. Nem 200%! Persze egy ideig jó, amíg sok szoftvert futtatunk, vagy könnyen többszálúsítható a feladat(renderelés pl), de ha a gépnek egy naggyal kell megbírkóznia, akkor már közel sem lesz olyan jó az eredmény.
    Úgy látom nem veszed figyelembe amit leírtam. Egy atomból már nem lehet tranzisztort építeni, ahogy bizonyos adatsűrűségnél többet sem lehet egy merevlemezen tárolni(max 400Gbit/inch^2), efölött az atomok termikus energiája is elég egy elemi adat megváltozásához. Persze lehet hűteni. Egy ideig. Ezek kiszámított adatok!
    Jelenleg ott tartunk, hogy a P4 fajlagos fogyasztása rosszabb, mint a 80486-é! Ha kiszámolod egy processzor magjára eső teljesítmény 10x akkora mint egy villanyrezsóé! A lábak fele így is az áramfelvétel miatt kell(lassan 100A-nél tartunk)
    Persze most az optoprociktól várjuk a megváltást, meg a kvantumszámítógépektől, de minél bonyolultabb egy rendszer, annál nagyobb az esélye , hogy elromlik!
    És a Heisenberg reláció minden adatsűrüségnek gátat szab, a feldolgozási sebességnek pedig a relativitás. Fénysebességnél gyorsabban információ sem haladhat. És az elektronikus számítógépeknél a frekvencia növelésével az elektromágneses disszipáció, valamint a zavar is nő. Ilyen GHz-s jeleket max néhány cm távolságra lehet biztonságosan továbbítani.
    Szóval: a kétszerezési idők eddig szépen tartották magukat, de lassan fizikai korlátokba ütközünk, amiket nem lehet legyűrni.
    És hogy miért kerül emiatt előtérbe az open-source? Mert amíg a kereskedelmi termékeket már nem lehet új funkciókkal ellátni, mert nincs az a vas, amin futnának, ezért mindkét tábor szépen elkezdi a bugmentesítést, és a még maradék kisebb gépigényű ötletek implementálását. De ebből már nem sokáig élnek meg! Az ilyen funkciók nem fognak az embereknek kelleni, főleg pénzért nem. (már most sem tudnak nagy áttöréseket produkálni)
    Szóval ezalatt az idő alatt az open-source szépen beéri a kereskedelmi termékeket, mellesleg ingyenes marad. Szóval ki fizetne érte, ha ingyen is az övé lehet?