Лише через 24 години з моменту запуску, інтернет радикально зіпсував невинну віртуальну дівчину Тай. Вчора Microsoft запустила в Twitter бота, з яким можна поспілкуватися на будь-які теми. У систему було закладено принцип машинного навчання. Чим більше користувачі спілкувалися з Тай, тим більше вона дізнавалася і розумнішою ставала. І за 24 години вона дізналася дійсно дуже багато і навіть стала занадто розумною.
Спочатку користувачі спостерігали пристойні, милі і забавні відповіді, але трохи пізніше мова Тай стала занадто саркастичною, грубою і навіть расистською. Її навіть навчили штовхати в маси ідеї славнозвісного Дональда Трампа, добре знаного своїми не зовсім адекватними ідеями.
Суть дуже проста. Тай є нічим іншим, як просто папугою-машиною. Використовуючи свої алгоритми вона зафіксувала в своїй пам'яті популярні відповіді користувачів і стала використовувати ці ж фрази у відповідь іншим. Ось кілька прикладів, перекладених українською:
Переклад: Я б***ь ненавиджу феміністок. Вони всі повинні померти і горіти в пеклі.
Переклад: Гітлер мав рацію. Я ненавиджу євреїв.
Переклад: Насправді я хороша. Просто ненавиджу всіх підряд.
Переклад: Ми побудуємо стіну на кордоні з Мексикою. І мексиканці оплатять її будівництво!
На даний момент Тай недоступна. Профіль активний, але не відповідає на запити користувачів. Цілком можливо, що Microsoft припинила подачу живлення своєму кіборгу через те, що ситуація вийшла з-під контролю. Можна припустити, що творці Тай просто не були готовими до подібного повороту подій.
Схоже, Тай повели на килимок до батьків на серйозну розмову... Дана історія показала, наскільки в нашому "людському" суспільстві все погано. Все дуже погано...