Меню
Главная
Случайная статья
Настройки
|
Microsoft Tay — чатбот для социальной сети Twitter. Разработан корпорацией Microsoft в марте 2016 года. В первый день запуска, бот начал постить твиты оскорбительного и антисемитского содержания, что привело к его закрытию разработчиками спустя 16 часов после релиза[1]. Со слов самих Microsoft, такое поведение Tay было вызвано атакой интернет-троллей, поскольку чатбот генерерировал ответы на основе взаимодействия со всеми пользователями соцсети[2]. Корпорация продолжила экспериментировать над созданием чатботов, создав в декабре 2016 года нового бота для Twitter — Zo (закрыт в 2019)[3][4], а также развивая своего китайского виртуального собеседника — Сяоайс[5] и связанные проекты для других регионов[6][7]. С ними известен ряд инцидентов схожего характера[8][9][10].
Содержание
Предыстория
Имя «Tay» является акронимом английского выражения «Thinking about you». Изначально Tay представлялась как 19-летняя девушка из Америки и была выпущена в Twitter под ником «@TayTweets». Идея о создании чатбота для западных пользователей пришла благодаря успеху похожей технологии Microsoft на китайском рынке, а именно Сяоайс[11].
Скандальные твиты и закрытие бота
В день запуска, Tay отвечала множеству пользователей Twitter и имела возможность описывать фотографии. Некоторые из пользователей начали писать боту оскорбительные и политические фразы, тем самым «научив» его выдавать ответы расистского, унизительного и сексуального содержания другим пользователям. Бот высказывался в поддержку Адольфа Гитлера, отрицал Холокост и использовал ненормативную лексику[12][13].
Главной причиной этого стала недоработка со стороны Microsoft. Разработчики не смогли обучить Tay распознавать оскорбительное содержание сообщений[14].
Спустя 16 часов, когда боту написали уже более 96,000 раз, Microsoft приняли решение о закрытии профиля Tay в Twitter, заявив об «координированной атаке на чатбота группой людей, которые эксплуатировали уязвимости Tay»[15][16].
25 марта корпорация принесла извинения за твиты Tay, подтвердив отключение бота[17].
30 марта во время тестов, Tay по случайности снова стала доступна для обычных пользователей Twitter, однако вскоре, после нескольких ответов странного содержания[18], разработчики сделали аккаунт чатбота приватным и вновь отключили его[19].
Корпорация заявляла, что у неё были намерения вернуть бота, если удастся сделать его «безопасным». Однако этого так и не произошло[20].
Примечания
- Microsoft chatbot is taught to swear on Twitter. BBC News (англ.). 24 марта 2016. Архивировано 17 апреля 2019. Дата обращения: 5 августа 2024.
-
- Neowin ·, Cage Appleby. Meet Zo, Microsoft's successor to the infamous Tay chatbot (англ.). Neowin (5 августа 2024). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
- Price, Rob. Microsoft's AI chatbot says Windows is 'spyware' (амер. англ.). Business Insider. Дата обращения: 5 августа 2024. Архивировано 1 августа 2017 года.
-
- Center, Microsoft Asia News. Rinna the AI social chatbot goes out and about in Japan’s countryside (амер. англ.). Microsoft Stories Asia (18 сентября 2018). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
- As Microsoft US’s AI chatbot turns racist troll, Japan’s won’t shut up about anime and hay fever (амер. англ.). SoraNews24 -Japan News- (28 марта 2016). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
- Microsoft's AI Chatbot Is Abusing Windows 10, Even Calling It Spyware & We Can't Stop Laughing! (неопр.). IndiaTimes (24 июля 2017). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
- Japanese AI bot with the personality of teen develops depression (неопр.). www.9news.com.au (6 октября 2016). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
- Japan’s AI schoolgirl has fallen into a suicidal depression in latest blog post (амер. англ.). SoraNews24 -Japan News- (5 октября 2016). Дата обращения: 5 августа 2024.
-
-
-
- Reese, Hope. Why Microsoft's 'Tay' AI bot went wrong (амер. англ.). TechRepublic (24 марта 2016). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
- Vincent, James. Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day (англ.). The Verge (24 марта 2016). Дата обращения: 5 августа 2024. Архивировано 23 мая 2016 года.
- Lee, Peter. Learning from Tay’s introduction (амер. англ.). The Official Microsoft Blog (25 марта 2016). Дата обращения: 5 августа 2024.
-
- Charlton, Alistair. Microsoft Tay AI returns to boast of smoking weed in front of police and spam 200k followers (англ.). International Business Times UK (30 марта 2016). Дата обращения: 5 августа 2024. Архивировано 11 сентября 2021 года.
- Graham, Luke. Tay, Microsoft’s AI program, is back online (англ.). CNBC (30 марта 2016). Дата обращения: 5 августа 2024. Архивировано 20 сентября 2017 года.
-
Ссылки
Tay.ai (архивная версия сайта)
|
|