Megáll az ész, rasszista lett a robot
Ennyi volt Tay rövid élete és működése. A Microsoftnak egynapi működés után ki kellett ugyanis kapcsolnia a Taynek keresztelt mesterséges intelligenciát, amelyet internetes társalgásra programoztak. Sajnos a rossz szándékú felhasználók gyorsan megtanították rasszista és gyűlölködő tartalmak előállítására Tayt.
Sajnos egyes felhasználók összehangolt akcióba léptek Tay ellen, hogy kommunikációs képességeivel trükközve helytelen megnyilvánulásokra késztessék – magyarázta közleményében a Microsoft. A neten tizenéves lányként megjelenő Tay szerdán a Twitteren kezdett rasszista és gyűlölködő üzeneteket küldeni. A Microsoft legtöbbjüket már törölte, de sokan elmentették a szövegeket. Tayt szerda éjfélkor kapcsolták ki. Üzenetei között lehetett olvasni többek között azt, hogy utálja a feministákat, mindnek meg kellene halnia és a pokolban égnie. Nyugi, rendes ember vagyok! Csak mindenkit utálok – írta Tay. Tayt valóban lekapcsoltuk, és most javításokat hajtunk végre rajta. A kísérlet nemcsak techonlógiai, de társadalmi és kulturális jellegű is – mondta a cég egyik szóvivője. Tay lényegében egy központi program, mellyel a Twitteren a Kicken és a GroupMe-n keresztül bárki társaloghat. Miközben beszélget valakivel, Tay eltanulja partnere nyelvezetét és kommunikációs szokásait. Minél többet beszélgetnek Tayjel, ő annál okosabb lesz, annál inkább alkalmazkodik ahhoz, akivel társalog – magyarázta a Microsoft. Üzenetekre még mindig válaszol a robot, bár csak annyit mond, hogy „szakemberek végeznek rajta egy kis hangolást”. Tay utosó üzenetében azt írta, aludnia kell, de vissza fog térni.
2016.03.27 09:32:24


© Esti Újság - Hírek és Bulvár minden mennyiségben!

© Esti Újság - 2025 - Hírek és Bulvár minden mennyiségben!