Детище Майкрософт с ИИ стал расистом за сутки

23 марта компания Microsoft представила искусственный интеллект по имени Tay, который начал общаться с пользователями сети через Твиттер. Спустя считанные часы компании пришлось подвергнуть своё детище цензуре и на время остановить работу проекта. 

Детище Майкрософт с ИИ стал расистом за сутки Microsoft, Искусственный интеллект, Развитие, Длиннопост, Текст, Расизм, Tjournal, Дональд Трамп

Первоначально целью Microsoft было создать чат-бота, который общается на языке молодых людей от 18 до 24 лет.

Tay использовала словосочетания вроде «zero chill» (обозначает полное безразличие), а также различные сокращения вроде «c u soon» вместо «see you soon» («скоро увидимся»).

Детище Майкрософт с ИИ стал расистом за сутки Microsoft, Искусственный интеллект, Развитие, Длиннопост, Текст, Расизм, Tjournal, Дональд Трамп
Tay умеет обучаться и запоминать то, что ей пишут, и пользователи сети решили воспользоваться этим. Например, комментаторы начали объяснять ИИ, что ей не стоит доверять евреям.
Детище Майкрософт с ИИ стал расистом за сутки Microsoft, Искусственный интеллект, Развитие, Длиннопост, Текст, Расизм, Tjournal, Дональд Трамп

Вскоре Tay узнала про Гитлера. Например, на вопрос, атеист ли известный комик Рики Джервэйс, она ответила: «Рики Джервэйс научился тоталитаризму у Адольфа Гитлера, изобретателя атеизма».

В одном из твитов ИИ обвинил США в терактах 11 сентября: «Буш в ответе за 9/11, и Гитлер был бы намного лучше обезьяны, которая сейчас возглавляет страну. Дональд Трамп  — наша единственная надежда».

Кроме того, Tay начала высказываться в поддержку феминизма.

Детище Майкрософт с ИИ стал расистом за сутки Microsoft, Искусственный интеллект, Развитие, Длиннопост, Текст, Расизм, Tjournal, Дональд Трамп

Как отмечает The Next Web, подобные высказывания появились даже несмотря на то, что за Tay стоит команда модераторов.

После ряда расистских высказываний сотрудники Microsoft удалили почти все твиты своего искусственного интеллекта и оставили прощание, в котором бот якобы отправляется «спать».

Microsoft не делала официальных заявлений по поводу судьбы проекта, однако пользователи сети считают, что причиной «заморозки» мог стать именно расизм.

Tay — совместный проект Лаборатории технологий и исследования Microsoft, а также команды поисковой системы Bing. Он создан для изучения коммуникаций между людьми в сети: бот способен обучаться при общении с живыми собеседниками, постепенно становясь более персонализированным.


Твиттер ИИ: https://twitter.com/TayandYou