Józsibácsi#35
Erre a problémára majd érdemes lesz akkor visszatérni, amikor új generációs kibernetika lesz, és nanotechnológiával, neurális technológiával illetve kvantum-computeres technológiával épített robotokat tudunk tesztelni. (mely utóbbiak ugyebár - már ha lesz végre egy tökéletesen üzemelő kitesztelt prototípus - akár tízezerszeres kód komplexitással bírnak, mint a mai legfejlettebb szuperszámítógép). A mai őskövületekkel felesleges kisérletezni, pontosan azért hezitált és a hezitálás elvezetett az unetikus (?) nem várt döntéshez illetve hibához; tekintve hogy lassú, kevés ideje volt alaposan mérlegeni, egy jövőben (évek-évtizedek múlva) üzembiztosan kiforrottan működő akár nanocomputer, akár kvantumcopmuter illetve neurális rendszer nagyságrendekkel gyorsabb lesz, ezért több ideje lesz az alapos mérlegelésre ilyen döntésnél, továbbá nagyságrendekkel komplexebb is lesz, ergo mint írtam ezer és tízezerszeres hatásfok növekedés lesz... Korai tehát még az ilyen jellegű etikai teszt és azért bukik. De az meg már filozófiai kérdés - és persze a szoftver megalkotóján is állhat vagy bukhat, hogy kvázi "érthetően" kódolja le a gép számára a problematikát - hogy bizonyos szituációban vagyjon valóban helyes-e/etikus-e az embert menteni és nem a gépet..? Tekintve hogy a mi ökölszabályunk, hogy emberélet mindenek előtt és felett, vajon valóban mindent felülíró abszolút etika-e vagy csak a mi szubjektív egosita etikánk? Mi van ha van olyan szituáció, amikor emberi etika ide vagy oda, a gép léte, megmentés lényegesen fontosabb az adott cél érdekében, mint az ott szerencsétlenkedő emberé...? (mi van ha egy gép ezt történetesen HELYESEN ismeri fel, és helyes döntést hoz, hogy nem az embert menti hanem a gépet... annak ellenére hogy humánetikailag hibázott...?)
Egy szó mint száz, ma még ezen a dilemmán korai, és botor dolog túlzottan keseregni...