Користувачі популярного сайту Twitter за добу навчили самонавчальний штучний інтелект компанії Microsoft Тау лаятися матом і грубіянити, повідомляє The Verge.
Розробники запропонували поспілкуватися з програмою-співрозмовником за допомогою соціальної мережі, і Tay за 24 години своєї роботи залишив понад 96 000 повідомлень, більшість з яких виявилися не тільки провокаційними, але і навіть расистськими і сповненими ненависті до жінок.

В основному різкі висловлювання Тау є відповіддю на прохання повторити фразу. Наприклад, бота змусили відтворювати такі характерні для Дональда Трампа обороти як "МИ ЗБИРАЄМОСЯ ПОБУДУВАТИ СТІНУ І МЕКСИКА ПОВИННА ЗАПЛАТИТИ ЗА ЦЕ".
На цьому знущання над штучним інтелектом не припинилися. Робота-повторювача змусили написати "Я ***** ненавиджу феміністок, вони повинні померти і горіти в пеклі" і навіть "Гітлер був правий, я ненавиджу євреїв".
Дивно, що до деяких спірних тверджень Тау дійшов у розмовах і самостійно. Так, він назвав фемінізм "раком" і "культом", а атеїзм - винаходом Адольфа Гітлера.
Скандал, викликаний висловлюваннями бота, змусив Microsoft підчистити твіти свого дітища, а Tay взяти перерву в спілкуванні.
Нагадаємо також, що соцмережа "ВКонтакте" тестує новий формат стрічки новин, яка формується на основі користувацьких переваг, як в соціальній мережі Facebook.
Коментарі