5
  • AxxE
    #5
    Szerintem erre gondol
    Utoljára szerkesztette: AxxE, 2016.04.06. 08:11:43
  • Berber
    #4
    Ezt a második világháborús (1939-es) (amerikai) IBM által közölt Zsidó adatbázist ugye nem mondtad komolyan? Mert igen nagy marhaságnak tűnik. Vagy alapozd meg. :D
  • kvp
    #3
    Igen, ha a szoftvereket emberi viselkedessel tanitjuk, akkor ember szeruen fognak donteni. Nem tul hatasos peldanak ott van az amerikaiak terrorista felismero szoftvere, ami a betanitas utan a muzulman vallasuak 95%-at terroristagyanusnak vette. Vicces, de alapvetoen akar igaza is lehet, ezt a tapasztalati alapu feltetelezes rendszert hivjak eloiteletnek es pont az a lenyege, hogy tobbszor bizonyul helyesnek mint nem. Persze attol meg nem korrekt, sot kifejezetten nem az, csak hasznos. Egy ceget meg jellemzoen nem a politikai korrektseg, hanem a haszon maximalizalasa jellemez, meg akkor is ha ehhez rasszistanak kell lennie. A zart mukodesu szoftverek itt segitenek elfedni a dontesi mechanizmusokat. Az amerikai cegek etikai kodexerol pedig csak annyit, hogy a holokauszthoz is az ibm adott el a naciknak adatbaziskezelo rendszereket, amik pontosan kimutattak, hogy a megadott parameterek alapjan kiket kell megsemmisiteni. Lehet rajta vitatkozni, hogy ez a szemlelet etikailag jo vagy nem, de uzletileg nagy haszonnal jart es ez volt az egyetlen amit a ceges donteshozoknak tenylegesen ellenorizniuk kellett es a mai napig meg is teszik minden globalis vallalatnal.
  • Archenemy
    #2
    Egy szoftvernek nem tökéletesnek kell lennie, csak jobbnak, mint egy ember. Egy ember sem dönt tökéletesen.
  • BCs design
    #1
    alapvetően az oktatási rendszer brutálisan rossz, mindenhol, a hatékonysághoz semmi köze sincs

    alapvetően a nagy cégeknek saját maguknak kellene embereket képezni, olyan embereket kellene felvenniük a komolyabb helyekre, akik jól teljesítenek egy iq, eq és erkölcsi vizsgán, így lehet a legjobb munkaerőt felvenni, habár ezt ma még nagyon kevesen tudják vagy fogják fel