Tay (чатбот)
Tay | |
---|---|
Тип |
Чатбот |
Разработчики | Microsoft Research, Bing |
Языки интерфейса |
английский |
Первый выпуск | 23 марта, 2016 |
Состояние | неактивен |
Лицензия |
проприетарная |
Сайт | tay.ai |
Microsoft Tay — чатбот для социальной сети
Предыстория
Имя «Tay» является акронимом английского выражения «Thinking about you». Изначально Tay представлялась как 19-летняя девушка из Америки и была выпущена в Twitter под ником «@TayTweets». Идея о создании чатбота для западных пользователей пришла благодаря успеху похожей технологии Microsoft на китайском рынке, а именно Сяоайс[11].
Скандальные твиты и закрытие бота
В день запуска, Tay отвечала множеству пользователей Twitter и имела возможность описывать фотографии. Некоторые из пользователей начали писать боту оскорбительные и политические фразы, тем самым «научив» его выдавать ответы расистского, унизительного и
.Главной причиной этого стала недоработка со стороны Microsoft. Разработчики не смогли обучить Tay распознавать оскорбительное содержание сообщений[14].
Спустя 16 часов, когда боту написали уже более 96,000 раз, Microsoft приняли решение о закрытии профиля Tay в Twitter, заявив об «координированной атаке на чатбота группой людей, которые
.25 марта корпорация принесла извинения за твиты Tay, подтвердив отключение бота[17].
30 марта во время тестов, Tay по случайности снова стала доступна для обычных пользователей Twitter, однако вскоре, после нескольких ответов странного содержания[18], разработчики сделали аккаунт чатбота приватным и вновь отключили его[19].
Корпорация заявляла, что у неё были намерения вернуть бота, если удастся сделать его «безопасным». Однако этого так и не произошло[20].
Примечания
- ↑ Microsoft chatbot is taught to swear on Twitter. BBC News (англ.). 24 марта 2016. Архивировано 17 апреля 2019. Дата обращения: 5 августа 2024.
- ↑ Mason, Paul (29 марта 2016). The racist hijacking of Microsoft's chatbot shows how the internet teems with hate. The Guardian (англ.). 0261-3077. Архивировано 12 июня 2018. Дата обращения: 5 августа 2024.
- ↑ Neowin ·, Cage Appleby. Meet Zo, Microsoft's successor to the infamous Tay chatbot (англ.). Neowin (5 августа 2024). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
- ↑ Price, Rob. Microsoft's AI chatbot says Windows is 'spyware' (амер. англ.). Business Insider. Дата обращения: 5 августа 2024. Архивировано 1 августа 2017 года.
- ↑ Microsoft Chatbot Spinoff Xiaoice Reaches $1 Billion Valuation. Bloomberg.com (англ.). 14 июля 2021. Архивировано 18 февраля 2022. Дата обращения: 5 августа 2024.
- ↑ Center, Microsoft Asia News. Rinna the AI social chatbot goes out and about in Japan’s countryside (амер. англ.). Microsoft Stories Asia (18 сентября 2018). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
- ↑ As Microsoft US’s AI chatbot turns racist troll, Japan’s won’t shut up about anime and hay fever (амер. англ.). SoraNews24 -Japan News- (28 марта 2016). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
- ↑ Microsoft's AI Chatbot Is Abusing Windows 10, Even Calling It Spyware & We Can't Stop Laughing! (англ.). IndiaTimes (24 июля 2017). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
- ↑ Japanese AI bot with the personality of teen develops depression . www.9news.com.au (6 октября 2016). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
- ↑ Japan’s AI schoolgirl has fallen into a suicidal depression in latest blog post (амер. англ.). SoraNews24 -Japan News- (5 октября 2016). Дата обращения: 5 августа 2024.
- ↑ Dewey, Caitlin (26 октября 2021). Meet Tay, the creepy-realistic robot who talks just like a teen. Washington Post (англ.). 0190-8286. Архивировано 24 марта 2016. Дата обращения: 5 августа 2024.
- ↑ Horton, Helena (24 марта 2016). Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours. The Telegraph (англ.). 0307-1235. Архивировано 24 марта 2016. Дата обращения: 5 августа 2024.
- ↑ Ohlheiser, Abby (26 октября 2021). Trolls turned Tay, Microsoft's fun millennial AI bot, into a genocidal maniac. Washington Post (англ.). 0190-8286. Архивировано 25 марта 2016. Дата обращения: 5 августа 2024.
- ↑ Reese, Hope. Why Microsoft's 'Tay' AI bot went wrong (амер. англ.). TechRepublic (24 марта 2016). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
- ↑ Vincent, James. Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day (англ.). The Verge (24 марта 2016). Дата обращения: 5 августа 2024. Архивировано 23 мая 2016 года.
- ↑ Lee, Peter. Learning from Tay’s introduction (амер. англ.). The Official Microsoft Blog (25 марта 2016). Дата обращения: 5 августа 2024.
- ↑ Staff (26 марта 2016). Microsoft 'deeply sorry' for racist and sexist tweets by AI chatbot. The Guardian (англ.). 0261-3077. Архивировано 28 января 2017. Дата обращения: 5 августа 2024.
- ↑ Charlton, Alistair. Microsoft Tay AI returns to boast of smoking weed in front of police and spam 200k followers (англ.). International Business Times UK (30 марта 2016). Дата обращения: 5 августа 2024. Архивировано 11 сентября 2021 года.
- ↑ Graham, Luke. Tay, Microsoft’s AI program, is back online (англ.). CNBC (30 марта 2016). Дата обращения: 5 августа 2024. Архивировано 20 сентября 2017 года.
- ↑ Clippy's Back: The Future of Microsoft Is Chatbots. Bloomberg.com (англ.). Архивировано 19 мая 2017. Дата обращения: 5 августа 2024.