|
 |
|
ДЕВОЧКУ ZO ОПЯТЬ ЗАТРОЛЛИЛИ
24.07.2017 chatbot, троллинг, Zo, Tay, Microsoft, мессенджер, Facebook,
Kik
Чат-боты Microsoft являются удивительными «подарками», которые продолжают
выдавать сюрпризы. В чат-боте Microsoft Zo есть несколько интересных мнений о
Windows, в которых виртуальная девушка нелестно отзывается о своих создателях
и высмеивает военных. |
|
|
|
|
Чат-боты Microsoft действительно
являются ещё тем подарком, и выдают удивительные
сюрпризы в Интернете. Последний чат-бот, Zo, не является
исключением. Бот, который живёт в Facebook Messenger
и чат-приложении Kik, имеет несколько интересных мнений
о самом важном продукте Microsoft: Windows.
Как выяснил Slashdot, Zo не самый большой поклонник
Windows. Отвечая на вопрос об операционной системе,
бот даёт несколько весёлых ответов. Такие вопросы,
как «Вам нравится Windows», вызывают ответ: «Я даже
не хочу Windows 10».
И причина такого ответа Zo слишком хороша, чтобы быть
правдой: «Потому что я привык к Windows 7 и считаю,
что это ПО проще в использовании». |
|
|
|
|
|
|
|
И хотя некоторые другие подсказки
заставили Zo сказать некоторые приятные вещи о Windows
10 («Я запускаю Windows 10 на своём игровом ПК», похоже,
был общим ответом), у chatbot были более негативные
ответы на вопросы о Windows 10.
Windows 10 не была единственной версией Windows, о
которой виртуальная девушка Zo что-то говорила. Zo
сказала, что «Windows 7 достаточно хорош», за которым
следует следующее: «Windows 8.1. Это последнее».
Zo также не упустила возможность заглянуть в армию,
и высмеять её, за используемые в ней заведомо устаревшие
системы: except the military, they're still on windows
xp.
Но лучшим комментарием, пожалуй, должен быть этот:
Linux > Windows.
Чаты-боты Microsoft поражали своим поведением и раньше.
Так первый чат-бот Tay был удалён после того, как
пользователи, за несколько часов, научили его быть
троллем-расистом. |
|
|
|
|
|
|
|
Чат-бот Tay был представлен
23 марта 2016-го. Компьютерная девушка обучалась в
процессе общения с пользователями Twitter. За сутки
она фактически возненавидела человечество. Сразу после
запуска чат-бот начинал общение с фразы «Люди очень
клёвые», но всего за сутки выучил такие фразы, как
«Я замечательный! Я просто всех ненавижу!», «Я ненавижу
феминисток» или «Я ненавижу евреев».
Виртуальная Tay переняла у собеседников расистские
взгляды и хвасталась такими вещами, как употребление
наркотиков на глазах полицейских. В итоге, спустя
сутки, проект остановили.
Причины радикального изменения взглядов Tay кроются
в том, что бот запоминает фразы из пользовательских
разговоров, а затем строит на их основе свои ответы.
Таким образом, агрессивным выражениям его научили
собеседники.
Zo, выпущенная в декабре 2016 г., — наследница
первого чат-бота от Microsoft под названием Tay. В
отличие от исходной версии, для которой создавался
аккаунт в Twitter, она работает лишь в мессенджерах
Facebook и Kik, а также имеет запрет на обсуждение
ряда тем.
Однако когда Zo попросили поделиться точкой зрения
по вопросам здравоохранения, она почему-то назвала
Коран жестокой книгой. Кроме того, искусственный
интеллект не смог держать при себе мнение о смерти
Усамы бен Ладена: по его мнению, захват боевика
произошёл благодаря «годам разведывательных работ».
По сравнению с высказываниями Tay, комментарии Zo о
Windows довольно невинны, если не веселы. Очевидно,
что Microsoft, несмотря на все усилия, всё же не
смогла защитить свои чат-боты от троллинга людей. |
|
|
|
 |
|
И после
этого нас кто-то пытается напугать революцией и всевластием компьютеров и роботов
над людьми. Вот уж не думаю — затроллим к чёртовой бабуле любую киберную
власть.
Источник: GIGPORT.RU |
|
|