Berta Sándor
Korlátozza az arcfelismerő technológiáihoz való hozzáférést a Microsoft
Minden korábbinál jobban odafigyelnek a területre, de persze ha ezzel egyedül maradnak, akkor a rossz szándékú vevők csupán máshoz fognak menni.
Natasha Crampton, a Microsoft felelős mesterséges intelligenciáért felelős vezetője a blogbejegyzésében kifejtette, hogy a vállalat a jövőben sokkal érzékenyebben és szigorúbban kívánja kezelni az arcfelismerő technológiákat. Az érzelmeket, nemet, életkort és egyéb tényezőket meghatározni képes algoritmushoz való hozzáférést jelentősen korlátozni fogják. Mindenkinek, aki a jövőben új ügyfélként szeretne hozzáférni ezekhez a szolgáltatásokhoz, el kell magyaráznia a Microsoftnak, hogy mire kívánja azokat használni. A meglévő ügyfelekkel is felveszik a kapcsolatot ezzel kapcsolatban. Érdekesség, hogy a társaság hasonló korlátozásokat már bevezetett bizonyos hangfelismerő szolgáltatásokra.
"Úgy döntöttünk, hogy nem biztosítunk nyílt végű API-hozzáférést olyan technológiához, amely képes átvizsgálni az emberek arcát, és az arckifejezésük vagy mozgásaik alapján következtet érzelmi állapotukra. A vállalaton belüli és kívüli szakértők rávilágítottak az érzelmek meghatározásával kapcsolatos tudományos konszenzus hiányára, a következtetések általános felhasználási esetekre, régiókra és demográfiai jellemzőkre vonatkozó kihívásaira, valamint az ilyen típusú képességekkel kapcsolatos fokozott adatvédelmi aggályokra." - írja Natasha Crampton.
Az elképzelés mindenképpen dicséretes, de a végrehajtása azért lehet kockázatos, mert a Microsoft nem kizárólagos szolgáltatója az ilyen technológiáknak. Az ügyfelek egy része pedig minden bizonnyal azt a szolgáltatót fogja választani, amely megadja neki azt a technológiát, amit akar és nem azt, amellyel előzetesen egyezkedni kell különböző kérdésekben. S ez még akkor is így van, ha a vállalat érvelésével, miszerint a technológiával vissza lehet élni a diszkrimináció és a szolgáltatások indokolatlan megtagadása érdekében, abszolút egyet lehet érteni.
Az óriáscég belső iránymutatásokat is kidolgozott a mesterséges intelligencia etikus felhasználásáról. Az egyik megállapított szabály az, hogy a technológiában csak akkor lehet megbízni, ha az megfelelő eszköz a probléma megoldására, amelynek megoldására létrehozták. "A mesterséges intelligencia egyre inkább az életünk részévé válik, a törvénykezés viszont lemaradt a fejlődéstől. Miközben látjuk annak jeleit, hogy a kormány mesterséges intelligenciával kapcsolatos intézkedései bővülnek, elismerjük a cselekvésben vállalt felelősségünket is. Úgy gondoljuk, hogy azon kell dolgoznunk, hogy az AI-rendszerek tervezésüknél fogva felelősségteljesek legyenek."
Tim O'Brien, a Microsoft mesterséges intelligencia programokért felelős ügyvezető igazgatója és egyúttal a társaság etikai vezetője már 2019 novemberében az arcfelismerés kockázataitól tartott. Brad Smith, az óriáscég elnöke és jogi igazgatója pedig 2020 júniusában törvényi szabályozást sürgetett a kérdésben.
Natasha Crampton, a Microsoft felelős mesterséges intelligenciáért felelős vezetője a blogbejegyzésében kifejtette, hogy a vállalat a jövőben sokkal érzékenyebben és szigorúbban kívánja kezelni az arcfelismerő technológiákat. Az érzelmeket, nemet, életkort és egyéb tényezőket meghatározni képes algoritmushoz való hozzáférést jelentősen korlátozni fogják. Mindenkinek, aki a jövőben új ügyfélként szeretne hozzáférni ezekhez a szolgáltatásokhoz, el kell magyaráznia a Microsoftnak, hogy mire kívánja azokat használni. A meglévő ügyfelekkel is felveszik a kapcsolatot ezzel kapcsolatban. Érdekesség, hogy a társaság hasonló korlátozásokat már bevezetett bizonyos hangfelismerő szolgáltatásokra.
"Úgy döntöttünk, hogy nem biztosítunk nyílt végű API-hozzáférést olyan technológiához, amely képes átvizsgálni az emberek arcát, és az arckifejezésük vagy mozgásaik alapján következtet érzelmi állapotukra. A vállalaton belüli és kívüli szakértők rávilágítottak az érzelmek meghatározásával kapcsolatos tudományos konszenzus hiányára, a következtetések általános felhasználási esetekre, régiókra és demográfiai jellemzőkre vonatkozó kihívásaira, valamint az ilyen típusú képességekkel kapcsolatos fokozott adatvédelmi aggályokra." - írja Natasha Crampton.
Az elképzelés mindenképpen dicséretes, de a végrehajtása azért lehet kockázatos, mert a Microsoft nem kizárólagos szolgáltatója az ilyen technológiáknak. Az ügyfelek egy része pedig minden bizonnyal azt a szolgáltatót fogja választani, amely megadja neki azt a technológiát, amit akar és nem azt, amellyel előzetesen egyezkedni kell különböző kérdésekben. S ez még akkor is így van, ha a vállalat érvelésével, miszerint a technológiával vissza lehet élni a diszkrimináció és a szolgáltatások indokolatlan megtagadása érdekében, abszolút egyet lehet érteni.
Az óriáscég belső iránymutatásokat is kidolgozott a mesterséges intelligencia etikus felhasználásáról. Az egyik megállapított szabály az, hogy a technológiában csak akkor lehet megbízni, ha az megfelelő eszköz a probléma megoldására, amelynek megoldására létrehozták. "A mesterséges intelligencia egyre inkább az életünk részévé válik, a törvénykezés viszont lemaradt a fejlődéstől. Miközben látjuk annak jeleit, hogy a kormány mesterséges intelligenciával kapcsolatos intézkedései bővülnek, elismerjük a cselekvésben vállalt felelősségünket is. Úgy gondoljuk, hogy azon kell dolgoznunk, hogy az AI-rendszerek tervezésüknél fogva felelősségteljesek legyenek."
Tim O'Brien, a Microsoft mesterséges intelligencia programokért felelős ügyvezető igazgatója és egyúttal a társaság etikai vezetője már 2019 novemberében az arcfelismerés kockázataitól tartott. Brad Smith, az óriáscég elnöke és jogi igazgatója pedig 2020 júniusában törvényi szabályozást sürgetett a kérdésben.