SG.hu·
MI-generálta avatárral próbált érvelni munkaügyi tárgyalásán egy vállalkozó

A bíró részéről szigorú megrovást ért a mesterséges intelligencia szoftverrel létrehozott videós személyiség használata.
Jerome Dewald keresztbe tett lábakkal és ölében összekulcsolt kezekkel ült egy New York állambeli fellebbviteli bírói testület előtt, készen arra, hogy érveljen egy alacsonyabb szintű bíróság döntésének megváltoztatása mellett egy korábbi munkaadójával folytatott vitájában. A bíróság engedélyezte, hogy Dewald - aki nem ügyvéd és saját magát képviselte - előre felvett videóbemutatóval kísérje érvelését. Amikor a videó lejátszása elkezdődött, az Dewald 74 événél fiatalabb férfit mutatott, aki kék inget és bézs színű pulóvert viselt, és egy elmosódottnak tűnő virtuális háttér előtt állt.
Néhány másodperccel a videó kezdete után a bíró, akit megzavart a képernyőn megjelenő kép, megkérdezte Dewaldtól, hogy a férfi az ügyvédje-e. "Ezt én generáltam” - válaszolta Dewald. „Ez nem egy valódi személy.” Sallie Manzanet-Daniels fellebbviteli bíró egy pillanatra megállt, látszott, hogy nem tetszett neki a férfi válasza. "Jó lett volna ezt már akkor tudni, amikor a kérelmét benyújtotta” - csattant rá. "Nem szeretem, ha félrevezetnek” - tette hozzá, majd odakiáltott valakinek, hogy kapcsolja ki a videót.
Dewald elmulasztotta nyilvánosságra hozni, hogy a digitális avatárt mesterséges intelligencia szoftver segítségével hozta létre, ami a legújabb példa arra, hogy az MI potenciálisan aggasztó módon kúszik be az amerikai jogrendszerbe. A március 26-i meghallgatást a bírósági rendszer kamerái rögzítették, és az Associated Press számolt be róla.
Később Dewald, az ügy felperese azt mondta, hogy a meghallgatáson zavarba jött. Nem sokkal később bocsánatkérő levelet küldött a bíráknak, amelyben mély sajnálatát fejezte ki, és elismerte, hogy cselekedeteivel „véletlenül félrevezette” a bíróságot. Elmondta, hogy azért folyamodott a szoftver használatához, mert korábbi jogi eljárások során megbotlott a szavaiban. Úgy gondolta, hogy az MI használata az előadáshoz enyhítheti a tárgyalóteremben érzett nyomást.
Elmondta, hogy azt tervezte, hogy elkészíti saját maga digitális változatát, de „technikai nehézségekbe” ütközött, ami arra késztette, hogy helyette egy hamis személyt hozzon létre a felvételhez. "Soha nem állt szándékomban a megtévesztés, hanem csak az, hogy a lehető leghatékonyabban adjam elő az érveimet” - írta a bíráknak címzett levelében. „Ugyanakkor elismerem, hogy a megfelelő nyilvánosságra hozatalnak és az átláthatóságnak mindig elsőbbséget kell élveznie”.
A magát vállalkozónak valló Dewald egy korábbi munkáltatóval folytatott szerződéses vitában hozott korábbi ítélet ellen fellebbezett. A fellebbviteli tárgyaláson végül szóbeli érvelést tartott, dadogott, és gyakori szüneteket tartott, hogy összeszedje gondolatait, és felolvassa a mobiltelefonjáról az előkészített megjegyzéseit. Bármennyire is zavarban volt, Dewaldot megnyugtathatja az a tény, hogy valódi ügyvédek is kerültek már bajba, amiért mesterséges intelligenciát használtak a bíróságon.
2023-ban egy New York-i ügyvédnek komoly következményekkel kellett szembenéznie, miután a ChatGPT segítségével hamis bírósági véleményekkel és jogi hivatkozásokkal teletűzdelt jogi beadványt készített. Az eset rávilágított a mesterséges intelligenciára való támaszkodás hibáira, és visszhangot keltett az egész jogi szakmában. Ugyanebben az évben Michael Cohen, Trump elnök egykori ügyvédje hamis jogi idézetekkel látta el ügyvédjét, amelyeket a Google Bard mesterséges intelligenciaprogramból szerzett. Cohen végül kegyelemért könyörgött az ügyében eljáró szövetségi bírónak, hangsúlyozva, hogy nem tudta, hogy a szöveggeneráló szolgáltatás hamis információkat szolgáltathat.
Egyes szakértők szerint a mesterséges intelligencia és a nagyméretű nyelvi modellek hasznosak lehetnek azok számára, akiknek jogi ügyeik vannak, de nem engedhetnek meg maguknak ügyvédet. A technológia kockázatai azonban továbbra is fennállnak. "Még mindig képesek hallucinálni - azaz olyan nagyon meggyőzőnek tűnő információkat produkálni, amelyek valójában hamisak vagy értelmetlenek" - mondta Daniel Shin, a William & Mary Law School kutatási igazgatóhelyettese. "Ezt a kockázatot kezelni kell.”
Jerome Dewald keresztbe tett lábakkal és ölében összekulcsolt kezekkel ült egy New York állambeli fellebbviteli bírói testület előtt, készen arra, hogy érveljen egy alacsonyabb szintű bíróság döntésének megváltoztatása mellett egy korábbi munkaadójával folytatott vitájában. A bíróság engedélyezte, hogy Dewald - aki nem ügyvéd és saját magát képviselte - előre felvett videóbemutatóval kísérje érvelését. Amikor a videó lejátszása elkezdődött, az Dewald 74 événél fiatalabb férfit mutatott, aki kék inget és bézs színű pulóvert viselt, és egy elmosódottnak tűnő virtuális háttér előtt állt.
Néhány másodperccel a videó kezdete után a bíró, akit megzavart a képernyőn megjelenő kép, megkérdezte Dewaldtól, hogy a férfi az ügyvédje-e. "Ezt én generáltam” - válaszolta Dewald. „Ez nem egy valódi személy.” Sallie Manzanet-Daniels fellebbviteli bíró egy pillanatra megállt, látszott, hogy nem tetszett neki a férfi válasza. "Jó lett volna ezt már akkor tudni, amikor a kérelmét benyújtotta” - csattant rá. "Nem szeretem, ha félrevezetnek” - tette hozzá, majd odakiáltott valakinek, hogy kapcsolja ki a videót.
Dewald elmulasztotta nyilvánosságra hozni, hogy a digitális avatárt mesterséges intelligencia szoftver segítségével hozta létre, ami a legújabb példa arra, hogy az MI potenciálisan aggasztó módon kúszik be az amerikai jogrendszerbe. A március 26-i meghallgatást a bírósági rendszer kamerái rögzítették, és az Associated Press számolt be róla.
Később Dewald, az ügy felperese azt mondta, hogy a meghallgatáson zavarba jött. Nem sokkal később bocsánatkérő levelet küldött a bíráknak, amelyben mély sajnálatát fejezte ki, és elismerte, hogy cselekedeteivel „véletlenül félrevezette” a bíróságot. Elmondta, hogy azért folyamodott a szoftver használatához, mert korábbi jogi eljárások során megbotlott a szavaiban. Úgy gondolta, hogy az MI használata az előadáshoz enyhítheti a tárgyalóteremben érzett nyomást.
Elmondta, hogy azt tervezte, hogy elkészíti saját maga digitális változatát, de „technikai nehézségekbe” ütközött, ami arra késztette, hogy helyette egy hamis személyt hozzon létre a felvételhez. "Soha nem állt szándékomban a megtévesztés, hanem csak az, hogy a lehető leghatékonyabban adjam elő az érveimet” - írta a bíráknak címzett levelében. „Ugyanakkor elismerem, hogy a megfelelő nyilvánosságra hozatalnak és az átláthatóságnak mindig elsőbbséget kell élveznie”.
A magát vállalkozónak valló Dewald egy korábbi munkáltatóval folytatott szerződéses vitában hozott korábbi ítélet ellen fellebbezett. A fellebbviteli tárgyaláson végül szóbeli érvelést tartott, dadogott, és gyakori szüneteket tartott, hogy összeszedje gondolatait, és felolvassa a mobiltelefonjáról az előkészített megjegyzéseit. Bármennyire is zavarban volt, Dewaldot megnyugtathatja az a tény, hogy valódi ügyvédek is kerültek már bajba, amiért mesterséges intelligenciát használtak a bíróságon.
2023-ban egy New York-i ügyvédnek komoly következményekkel kellett szembenéznie, miután a ChatGPT segítségével hamis bírósági véleményekkel és jogi hivatkozásokkal teletűzdelt jogi beadványt készített. Az eset rávilágított a mesterséges intelligenciára való támaszkodás hibáira, és visszhangot keltett az egész jogi szakmában. Ugyanebben az évben Michael Cohen, Trump elnök egykori ügyvédje hamis jogi idézetekkel látta el ügyvédjét, amelyeket a Google Bard mesterséges intelligenciaprogramból szerzett. Cohen végül kegyelemért könyörgött az ügyében eljáró szövetségi bírónak, hangsúlyozva, hogy nem tudta, hogy a szöveggeneráló szolgáltatás hamis információkat szolgáltathat.
Egyes szakértők szerint a mesterséges intelligencia és a nagyméretű nyelvi modellek hasznosak lehetnek azok számára, akiknek jogi ügyeik vannak, de nem engedhetnek meg maguknak ügyvédet. A technológia kockázatai azonban továbbra is fennállnak. "Még mindig képesek hallucinálni - azaz olyan nagyon meggyőzőnek tűnő információkat produkálni, amelyek valójában hamisak vagy értelmetlenek" - mondta Daniel Shin, a William & Mary Law School kutatási igazgatóhelyettese. "Ezt a kockázatot kezelni kell.”