SG.hu

A mesterséges intelligencia esete a gorillákkal

Sem a Google, sem az Apple fotós alkalmazása nem meri megjelölni a képeken a gorillákat. Nyolc évvel azután, hogy a képelemző szoftverek tévesen jelöltek meg színesbőrű embereket a technológiai óriások a számítógépes látás terén elért nagy előrelépések ellenére még mindig attól tartanak, hogy a hiba megismétlődik.

Amikor a Google 2015 májusában kiadta a Fotók alkalmazást az embereket lenyűgözte, hogy mire képes: elemzi a képeket, hogy felcímkézze a rajtuk szereplő embereket, helyeket és dolgokat, ami akkoriban meghökkentő bejelentés volt. Néhány hónappal a megjelenés után azonban egy szoftverfejlesztő, Jacky Alciné felfedezte, hogy a Google "gorilláknak" címkézte a róla és egy barátjáról készült fotókat. Mindketten feketék, és ez számukra különösen sértő, hiszen évszázados rasszista toposzokat idéz fel.

A hiba egyértelműen nem rasszista indíttatású volt, hanem a tréningezésre használt adatbázisból következett. A Google két volt alkalmazottja, akik ezen a technológián dolgoztak, azt mondta, hogy a vállalat nem tett elég színesbőrűről készített fotót abba a képgyűjteménybe, amelyet a rendszer betanításához használt. Ennek következtében a technológia nem ismerte eléggé a sötétebb bőrű embereket, és összetévesztette őket a gorillákkal. Az ezt követő botrány miatt a Google letiltotta, hogy szoftvere bármit is gorillának minősítsen, és megfogadta, hogy orvosolja a problémát. Nyolc év telt el azóta és a mesterséges intelligencia rengeteget fejlődött, de ezen a téren látványos a kudarc.


Az Apple, a Google, az Amazon és a Microsoft által készített fotóalkalmazások gépi tanulásra támaszkodnak, hogy lehetővé tegyék számunkra, hogy az egyre nagyobb méretű fotógyűjteményeinkben bizonyos elemek után kutassunk és megtaláljunk konkrét dolgokat. A New York Times riportere 8000 kép között 44 állatkerti fotót rejtett el, és tesztje szerint a helyzet továbbra is siralmas: a gyűjteményben macskákra és kengurukra keresve remek eredményeket kapott, de a Google Photos egyetlen gorillát sem talált. A keresést kibővítve páviánokra, csimpánzokra, orangutánokra és majmokra hasonlóan lyukra futott, annak ellenére, hogy a gyűjteményben mindegyik főemlősről volt kép.

Tesztje alapján az Apple Photos ugyanezzel a problémával küzd: pontosan meg tudta találni az egyes állatokról készült fotókat, kivéve a főemlősöket. A Microsoft OneDrive fényképkeresője minden állat esetében eredménytelen volt. Az Amazon Photos gorillára keresve egy főemlősökből álló gyűjteményt mutatott, és ezt a mintát megismételte más állatok esetében is. A főemlősök családjának egy tagját, a makikat a Google és az Apple is felismerte. Mindkét szoftver nagyon fejlett képelemzés terén, mégis, mindkét cég a biztonság mellett döntött, amikor kikapcsolta a főemlősök vizuális keresésének lehetőségét.

A fogyasztóknak nyilván ez nem túl fontos téma, a probléma azonban szélesebb körű kérdéseket vet fel a vizuális képeket értelmező technológiára támaszkodó szolgáltatásokat tekintve, valamint az egyéb, mesterséges intelligencia által működtetett termékekben rejlő egyéb, nem javított vagy nem javítható hibákkal kapcsolatban. Számítógépes látást alkalmazó kamerákkal védjük ingatlanainkat, és a szolgáltatás olyan kritikus feladatoknál is használatban van, mint az autók navigálása vagy elkövetők megtalálása egy rendőrségi adatbázisban. Ahogy a mesterséges intelligencia egyre jobban beépül az életünkbe, úgy nőnek a nem szándékos következmények miatti félelmek. Bár a gépi tanulást használó termékek és az olyan mesterséges intelligencia chatbotok, mint a ChatGPT alapvetően különböznek egymástól, mindkettő a betanításukra használt adathalmazoktól függ, és mindkettő hibázhat az adatokban lévő hibák vagy a kódba beépített elfogultságok miatt.


Az Apple Watch karóra oxigénszint-mérési kudarca miatti per még tart

Látványos hiba volt, amikor nem sokkal indulás után a Microsoft korlátozta a Bingbe épített chatrobot hozzáférhetőségét, miután az fura irányba vezette a beszélgetéseket. Ugyanígy a Google azon döntése, hogy algoritmusában letiltja a gorillák azonosítását egy általános iparági megközelítést illusztrál: a hibásan működő technológiai funkciókat javítás helyett inkább elzárják. De így hogyan lehetne megbízni ezekben a szoftverekben? Michael Marconi, a Google szóvivője elmondta, hogy úgy értékelték, hogy az előny "nem ellensúlyozza a kár kockázatát". Az Apple nem kívánta kommentálni, hogy a felhasználók nem tudnak főemlősre keresni az alkalmazásában.

A Google számtalanszor bocsánatot kért a gorillás incidensért, de ez csak egyike volt a technológiai iparágban előforduló számos hasonló epizódnak. További kritizált termékek közé tartoznak a HP arckövető webkamerái, amelyek nem tudták felismerni a sötét bőrű embereket, valamint az Apple Watch karóra, amely nem tudta pontosan leolvasni a vér oxigénszintjét nem fehér embereken. A hibák azt sugallják, hogy az elektronikai eszközöket nem sötétebb bőrű emberek számára és részvételével tervezik. A Google otthoni biztonsági kamerája, a Nest vásárlói hasonló hibákat jeleztek: 2021-ben egy vásárló arról kapott riasztást, hogy az édesanyja csenget, de helyette az anyósát találta az ajtó túloldalán. Amikor a felhasználók arra panaszkodtak, hogy a rendszer összekeveri az általuk "ismerősnek" megjelölt arcokat, a fórumon az ügyfélszolgálat egyik képviselője azt tanácsolta nekik, hogy töröljék az összes címkét, és kezdjék elölről.


A HP arckövetésre képes webkamerájának esete ma már mintapélda

2019-ben a Google megpróbálta javítani az androidos okostelefonok arcfelismerő funkcióját, és növelte a sötét bőrű emberek számát az adathalmazban. De a vállalkozók, akiket a Google felkért a portrék elkészítésére aggasztó módszerrel kompenzálták az adatok sokszínűségének hiányát: hajléktalanokat és diákokat kerestek meg. A Google vezetői "nagyon nyugtalanítónak" nevezték az esetet. Tehát ugyan a színfalak mögött dolgoztak a technológia javításán, de a felhasználóknak soha nem engedték meg, hogy ezeket az erőfeszítéseket megítéljék.

A Google azóta kiadott egy jobb képelemző terméket, a Google Lens-t, amivel fotókkal lehet keresni a weben. A Wired 2018-ban fedezte fel, hogy az eszköz szintén képtelen volt azonosítani egy gorillát. A Lensnek egy kutyáról készült fotót megmutatva még a fajtát is megtippeli, de a gorillánál, csimpánznál, páviánnál vagy egy orángutánnál a Lens láthatóan megakad. Nem hajlandó megjelölni, hogy mi van a képen, és csak "vizuális egyezéseket" - az eredeti képhez hasonlónak ítélt fotókat - hoz felszínre. A gorillák esetében más gorillák fotóit mutatja, ami arra utal, hogy a technológia felismeri az állatot, de a vállalat fél a címkézéstől. Ezek a rendszerek sosem bolondbiztosak, és mivel több milliárd ember használja a Google szolgáltatásait, még az olyan ritka hibák is felszínre kerülnek, amelyek az egymilliárd felhasználóból csak egy emberrel fordulnak elő. Elég egyetlen hiba ahhoz, hogy hatalmas társadalmi következményei legyenek. A Google és az Apple most már képes lehet megkülönböztetni a főemlősöket az emberektől, de nem akarják engedélyezni a funkciót, tekintettel a lehetséges reputációs kockázatra, ha az ismét félresikerül.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • gosub #17
    Ezen a szálon elindulva, ha vészhelyzetben dönthet egy program, akkor ez begyűrűzhet más területre is.
  • wraithLord #15
    Ez igaz. Van olyan helyzet is, amikor nincs jó választás, csak vélt kisebbik rossz. Tehát pl. nem tud megállni, és hogy a zebrán átkelő embereket csapja el, vagy rántsa el a kormányt, és az utasait ölje meg. Mérlegelnie kell, hogy kik ülnek az autóban, és kik vannak a zebrán. Remélhetőleg ilyenkor nem az emberek etnikai hovatartozása lesz az elsődleges szempont... miután sikerült megoldani, hogy az afrikaiakat ne nézze gorillának. :D
  • gosub #15
    Van helyzet mikor az utasok védelme/biztonsága érdekében elüthető az útra tévedő állat. Ilyenkor azért már nem mindegy hogy sikerült e azonosítani.
    A valóság néha rácáfol a művi kategorizálásra.
  • wraithLord #14
    Azokat se, mert állatokat se csapunk el kocsival, meg ráadásul a gorillák védettek. :D

    Mindenesetre elég vicces, hogy nem tudja őket megkülönböztetni, egyáltalán nem hasonlítanak egymásra, legalábbis azon túl, hogy nyilván annyira radikálisan nem különbözhetnek, mert az ember is és a gorilla is az emberfélékhez tartozik rendszertanilag.
  • duke #13
    "ha egy hibát 8 év alatt nem tudnak kijavítani. Hogyan bízzuk rá az algoritmusokra az autók vezetését? "
    Ne aggodj, csak a negereket fogjak elutni.
    :)
    Utoljára szerkesztette: duke, 2023.05.25. 10:23:26
  • zola2000 #12
    Lehet valaki néger ha otthon a négy fal között csinálja
  • M0RN1NGST4R #11
    nem kellene négernek lenni és akkor az ai sem zavarodna össze
  • inkvisitor #10
    És ha egy albínó gorillával?
  • 0Fritz #9
  • Sippie #8
    alapvetően a felső tízezer által kontrollált média, és különböző szervezetek (mint pl BLM, vagy LMBGHDTV+) szintén irányítottan rinyálnak folyton. Ennek az az oka, hogy összeugrasszák az nagyjából hasonló társadalmi rétegbe tartozó embereket, így azok nem foglalkoznak olyan apróságokkal, hogy miért lettek világszinten az ingatlan árak többszörösei az 50 évvel ezelőttinek, miközben a fizetések sok helyen alig nőttek, ellenben a felsőbb osztályúak vagyonaikat megsokszorozták. Ez csak az egyik dolog, amiről tökéletesen terelik el az emberek figyelmét, de több mint valószínű, hogy ennél sokkal több zajlik a háttérben, a tudatos rabszolgasorba hajtása az embereknek, az albérletbe kényszerítés, vagy életed végéig fizetendő hitel felvétellel, vagy a technológia szándékos hátráltatása, hogy ne legyen túl nagy a "jólét", emellett valószínűleg egyéb politikai játszmák is zajlanak a háttérben, amit így leszarunk, mert azzal foglalkozunk, hogy mér nem lehet a buziknak is gyereke, vagy éppen mé vonulnak fel a buzik!
    szívás
    Utoljára szerkesztette: Sippie, 2023.05.22. 21:43:11