Tay (чатбот)

Материал из Википедии — свободной энциклопедии
Tay
Тип
Чатбот
Разработчики Microsoft Research, Bing
Языки интерфейса
английский
Первый выпуск 23 марта, 2016
Состояние неактивен
Лицензия
проприетарная
Сайт tay.ai

Microsoft Tay — чатбот для социальной сети

интернет-троллей, поскольку чатбот генерерировал ответы на основе взаимодействия со всеми пользователями соцсети[2]. Корпорация продолжила экспериментировать над созданием чатботов, создав в декабре 2016 года нового бота для Twitter — Zo (закрыт в 2019)[3][4], а также развивая своего китайского виртуального собеседника — Сяоайс[5] и связанные проекты для других регионов[6][7]. С ними известен ряд инцидентов схожего характера[8][9][10]
.

Предыстория

Имя «Tay» является акронимом английского выражения «Thinking about you». Изначально Tay представлялась как 19-летняя девушка из Америки и была выпущена в Twitter под ником «@TayTweets». Идея о создании чатбота для западных пользователей пришла благодаря успеху похожей технологии Microsoft на китайском рынке, а именно Сяоайс[11].

Скандальные твиты и закрытие бота

В день запуска, Tay отвечала множеству пользователей Twitter и имела возможность описывать фотографии. Некоторые из пользователей начали писать боту оскорбительные и политические фразы, тем самым «научив» его выдавать ответы расистского, унизительного и

Адольфа Гитлера, отрицал Холокост и использовал ненормативную лексику[12][13]
.

Главной причиной этого стала недоработка со стороны Microsoft. Разработчики не смогли обучить Tay распознавать оскорбительное содержание сообщений[14].

Спустя 16 часов, когда боту написали уже более 96,000 раз, Microsoft приняли решение о закрытии профиля Tay в Twitter, заявив об «координированной атаке на чатбота группой людей, которые

эксплуатировали уязвимости Tay»[15][16]
.

25 марта корпорация принесла извинения за твиты Tay, подтвердив отключение бота[17].

30 марта во время тестов, Tay по случайности снова стала доступна для обычных пользователей Twitter, однако вскоре, после нескольких ответов странного содержания[18], разработчики сделали аккаунт чатбота приватным и вновь отключили его[19].

Корпорация заявляла, что у неё были намерения вернуть бота, если удастся сделать его «безопасным». Однако этого так и не произошло[20].

Примечания

  1. Microsoft chatbot is taught to swear on Twitter. BBC News (англ.). 24 марта 2016. Архивировано 17 апреля 2019. Дата обращения: 5 августа 2024.
  2. Mason, Paul (29 марта 2016). The racist hijacking of Microsoft's chatbot shows how the internet teems with hate. The Guardian (англ.). 0261-3077. Архивировано 12 июня 2018. Дата обращения: 5 августа 2024.
  3. Neowin ·, Cage Appleby. Meet Zo, Microsoft's successor to the infamous Tay chatbot (англ.). Neowin (5 августа 2024). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
  4. Price, Rob. Microsoft's AI chatbot says Windows is 'spyware' (амер. англ.). Business Insider. Дата обращения: 5 августа 2024. Архивировано 1 августа 2017 года.
  5. Microsoft Chatbot Spinoff Xiaoice Reaches $1 Billion Valuation. Bloomberg.com (англ.). 14 июля 2021. Архивировано 18 февраля 2022. Дата обращения: 5 августа 2024.
  6. Center, Microsoft Asia News. Rinna the AI social chatbot goes out and about in Japan’s countryside (амер. англ.). Microsoft Stories Asia (18 сентября 2018). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
  7. As Microsoft US’s AI chatbot turns racist troll, Japan’s won’t shut up about anime and hay fever (амер. англ.). SoraNews24 -Japan News- (28 марта 2016). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
  8. Microsoft's AI Chatbot Is Abusing Windows 10, Even Calling It Spyware & We Can't Stop Laughing! (англ.). IndiaTimes (24 июля 2017). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
  9. Japanese AI bot with the personality of teen develops depression. www.9news.com.au (6 октября 2016). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
  10. Japan’s AI schoolgirl has fallen into a suicidal depression in latest blog post (амер. англ.). SoraNews24 -Japan News- (5 октября 2016). Дата обращения: 5 августа 2024.
  11. Dewey, Caitlin (26 октября 2021). Meet Tay, the creepy-realistic robot who talks just like a teen. Washington Post (англ.). 0190-8286. Архивировано 24 марта 2016. Дата обращения: 5 августа 2024.
  12. Horton, Helena (24 марта 2016). Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours. The Telegraph (англ.). 0307-1235. Архивировано 24 марта 2016. Дата обращения: 5 августа 2024.
  13. Ohlheiser, Abby (26 октября 2021). Trolls turned Tay, Microsoft's fun millennial AI bot, into a genocidal maniac. Washington Post (англ.). 0190-8286. Архивировано 25 марта 2016. Дата обращения: 5 августа 2024.
  14. Reese, Hope. Why Microsoft's 'Tay' AI bot went wrong (амер. англ.). TechRepublic (24 марта 2016). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
  15. Vincent, James. Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day (англ.). The Verge (24 марта 2016). Дата обращения: 5 августа 2024. Архивировано 23 мая 2016 года.
  16. Lee, Peter. Learning from Tay’s introduction (амер. англ.). The Official Microsoft Blog (25 марта 2016). Дата обращения: 5 августа 2024.
  17. Staff (26 марта 2016). Microsoft 'deeply sorry' for racist and sexist tweets by AI chatbot. The Guardian (англ.). 0261-3077. Архивировано 28 января 2017. Дата обращения: 5 августа 2024.
  18. Charlton, Alistair. Microsoft Tay AI returns to boast of smoking weed in front of police and spam 200k followers (англ.). International Business Times UK (30 марта 2016). Дата обращения: 5 августа 2024. Архивировано 11 сентября 2021 года.
  19. Graham, Luke. Tay, Microsoft’s AI program, is back online (англ.). CNBC (30 марта 2016). Дата обращения: 5 августа 2024. Архивировано 20 сентября 2017 года.
  20. Clippy's Back: The Future of Microsoft Is Chatbots. Bloomberg.com (англ.). Архивировано 19 мая 2017. Дата обращения: 5 августа 2024.

Ссылки

Tay.ai (архивная версия сайта)