Gyűlölködő szexistává változtatták a Microsoft chatrobotját

A Microsoftnak egynapi működés után ki kellett kapcsolnia a Taynek nevezett mesterséges intelligenciát, amelyet internetes társalgásra programoztak, mert a rossz szándékú felhasználók gyorsan megtanították rasszista és gyűlölködő tartalmak előállítására.

„Sajnos meg kellett állapítanunk, hogy egyes felhasználók összehangolt akcióba léptek Tay ellen, hogy kommunikációs képességeivel trükközve helytelen megnyilvánulásokra késztessék” – magyarázta közleményében a Microsoft. A világhálón tizenéves lányként megjelenő Tay szerdán a Twitteren kezdett rasszista és gyűlölködő üzeneteket küldeni. A Microsoft a java részét már törölte, de sokan elmentették a szövegeket. Tayt szerda éjfélkor kapcsolták ki.

Üzenetei között lehetett olvasni azt, hogy utálja a feministákat, mindnek meg kellene halnia, és a pokolban kellene égnie. „Nyugi, rendes ember vagyok! Csak mindenkit utálok” – írta Tay. „Tayt lekapcsoltuk, és most javításokat hajtunk végre rajta. A kísérlet nemcsak technológiai, de társadalmi és kulturális jellegű is” – mondta a cég egyik szóvivője. Tay lényegében egy központi program, amellyel a Twitteren, a Kicken és a GroupMe-n keresztül bárki társaloghat. Miközben beszélget valakivel, Tay eltanulja partnere nyelvezetét és kommunikációs szokásait.

„Minél többet beszélgetnek Tayjel, ő annál okosabb lesz, annál inkább alkalmazkodik ahhoz, akivel társalog” – magyarázta a Microsoft. Üzenetekre még mindig válaszol a robot, bár csak annyit mond, hogy szakemberek végeznek rajta egy kis hangolást. Tay utolsó üzenetében azt írta, aludnia kell, de vissza fog térni.


Forrás:mno.hu
Tovább a cikkre »