SG.hu

Meghamisította a BBC hírét az Apple MI-összefoglalója

A sajtószabadság védelmezői felszólították az Apple-t, hogy dobja ki "éretlen” generatív MI-rendszerét, amely helytelenül foglalta össze a BBC egyik hírközlését. Az Apple rendszere tévesen azt állította, hogy a UnitedHealthcare vezérigazgatója, Luigi Mangione öngyilkos lett.

Mint arról december elején beszámoltunk, merényletet követtek el a United Healthcare vezérigazgatója. Brian Thompson ellen, a gyilkossággal pedig egy 26 éves férfit, Luigi Mangione-t vádolja az ügyészség. Erről a BBC is beszámolt, és a brit közszolgálati média hírét az Apple mesterséges intelligenciájának sikerült úgy összefoglalnia, hogy "Luigi Mangione lelőtte magát". A Riporterek Határok Nélkül (RSF) civil szervezet szerint mindez újabb bizonyíték arra, hogy a mesterséges intelligencia nem képes megbízhatóan információt előállítani a nyilvánosság számára. Az Egyesült Királyságban december 11-én indult szolgáltatásnak kevesebb mint 48 órára volt szüksége a nagy nyilvánosság előtt elkövetett hibához.

„Ez a baleset rávilágít arra, hogy az MI-rendszerek képtelenek minőségi információkat közzétenni, még akkor is, ha azok újságírói forrásokon alapulnak” - közölte az RSF. „A mesterséges intelligenciával működő rendszerek valószínűségi működése automatikusan kizárja őket, mint a hírmédia megbízható technológiája, amelyet a nagyközönségnek szánt megoldásokban lehet használni.” Mivel nem megbízhatóan pontos, az RSF szerint a mesterséges intelligencia nem használható ilyen célokra, és arra kérte az Apple-t, hogy vegye ki a funkciót az operációs rendszereiből. "A tényeket nem lehet kockadobással eldönteni” - mondta Vincent Berthier, az RSF technológiai és újságírói osztályának vezetője. „Az RSF felszólítja az Apple-t, hogy felelősségteljesen járjon el, és távolítsa el ezt a funkciót. A médiának tulajdonított hamis információk automatizált előállítása csapást mér a lapok hitelességére, és veszélyezteti a nyilvánosságnak az aktuális ügyekről való megbízható tájékoztatáshoz való jogát” - tette hozzá Berthier.


Nem tudni, hogy az Apple hogyan tervezi kezelni a problémát. A BBC saját panaszt nyújtott be, de az Apple nem volt hajlandó nyilvánosan nyilatkozni a brit műsorszolgáltatónak az ügyben. A BBC szerint ráadásul nem ez az első eset, hogy az Apple mesterséges intelligenciával készített összefoglalói tévesen közöltek híreket. Egy novemberi Apple MI összefoglaló - amelyet a ProPublica riportere osztott meg - a Benjamin Netanjahu izraeli miniszterelnök letartóztatásáról szóló hírt (ami nem történt meg) a New York Timesnak tulajdonított, ami arra utal, hogy az Apple Intelligence sorozatosan félreolvashatja a lapok szalagcímeit. A Google mesterséges intelligencia keresési eredményeit is becsapták már, hogy csaló linkeket jelenítsenek meg, az arra ösztönözte a felhasználókat, hogy ragasszanak sajtot a pizzára és egyenek köveket.

Berthier kijelentette: „Az európai mesterséges intelligenciáról szóló törvény - annak ellenére, hogy a világon a legfejlettebb jogszabály ezen a területen - nem minősítette az információt generáló mesterséges intelligenciákat magas kockázatú rendszereknek, így egy kritikus jogi vákuum jött létre. Ezt a joghézagot azonnal be kell tölteni”.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • kvp #3
    Ugyanez az MI hiszteria volt amikor elso onvezeto liftek megjelentek. Ahol mar nem egy liftkezelo gyorsitott es fekezett egy karral, hanem csak egy gombot kellett megnyomni es a lift oda ment ahova az utas kuldte. Aztan rajottek, hogy ez meg nem valos MI, csak automatizacio. Minden evszazadban akad egy ilyen hullam, az egyik elso az 1770-es mechanikus torok volt, de ott meg hagyomanyos emberi intelligencia volt mogotte, nem automatizacio. (mint ahogy az Amazon automata boltjai mogott is indiai munkasok ultek es neztek a kamerakepeket)

    "Az llm pont követi ezt a sajnálatos tendenciát."

    Az LLM-ek nem bug-osak, csak a betanitasukkor a hallgato szubjektiv elegedettseg erzete volt a celfuggveny es a halozatok rajottek, hogy hazugsaggal ez konnyebben elerheto mint igazat mondva. Ezert arra lettek betanitva, hogy maniakus hazudozok legyenek, amik akkor is hazudnak, ha egyebkent tudjak az igazsagot, csak ugy szamoljak, hogy a hallgato nagyobb valoszinuseggel orul majd egy hazugsagnak.

    Ha mindig igazmondasra tanitottak volna oket, akkor egyreszt a tanulasi adatbazis nagysagrendekkel kisebb lett volna, mivel auditalt tenyekbol sokkal kevesebb van, masreszt politikailag vedhetetlen igazsagokat mondananak ki. Attol meg, hogy valami igaz, nem biztos, hogy ki lehet mondani ha mas az utasitas. Btw. ez utobbi okozta a hibas mukodest a 2001 urodusszeiaban is... Mondhatjuk, hogy a mosani nagy nyelvi modellek hazugsagai nem hibak, hanem a fo feature amire az egesz MI ipar epul.
  • RJoco #2
    Még mindig nem AI, hanem LLM.
    Jó lenne már átszokni a rendes megnevezésre és nem csorbítani, hitelteleníteni a jelenleg nem létező AI-k hírnevét, tudását.

    Altman-t meg dutyiba kéne zárni, de legalábbis minden tech cuccról letiltani. Aztán legközelebb mások jobban meggondolják majd (talán), hogy elindítsanak e valami őrületet vagy szépen türelmesen eljutnak oda, ahova el kell jutni.

    Mondjuk, ha az ember körbenéz a szoftver piacon, akkor mást sem lát, mint félkész, működésképtelen, de mindenképp javításra szoruló, bugoktól nem mentes programokat.
    Az llm pont követi ezt a sajnálatos tendenciát.
    És, mint a programoknál is előfordul, úgy néz ki, hogy egy-két bogarat egyszerűen nem képesek javítani soha.
  • Tetsuo #1
    Sok értelme van ezeknek az AI-s szövegelemzőknek. (Irónia.)