Загрузка...
Ошибка

Пользователи за сутки сделали из бота расиста и сквернослова

Ответить на тему

Winz

+8  
-Компания Microsoft отключила чат-бота Tay, запущенного в Twitter в ходе эксперимента по самообучению искусственного интеллекта. Всего за сутки юные пользователи Сети научили чат-бота неприлично ругаться и сделали из него расиста.
-Как пишет Phys.org, чат-бот Тау, имитирующий девочку-подростка, был запущен на этой неделе. Чат-бот должен был обучаться в процессе общения с реальными людьми. «Это социальный, культурный и технический эксперимент», – пояснили в Microsoft. Эксперимент провалился. «К сожалению, в течение первых 24 часов пребывания бота в Сети нам стало известно о скоординированной попытке ряда пользователей злоупотребить присутствием Тау, заставив бота реагировать неподобающим образом», – заявили в компании.
Произошло следующее: пользователи «научили» самообучающегося бота неприличным фразам, после чего он превратился из благопристойного искусственного интеллекта в расиста и матерщинника. «Твиты Тау были, начиная от поддержки нацистов и Дональда Трампа до сексуальных намеков и оскорблений в адрес женщин и негров», – пишет издание.
В Твиттер-профиле Тау значились «полная индифферентность» и «способность становиться умнее в ходе общения с людьми». Сейчас бот перешел в офлайн-режим, по официальной версии, «для корректировки программного обеспечения». «Скоро увидимся! Сейчас людям нужно спать, очень много говорили», – сообщает последний отправленный твит Тау.-ИСТОЧНИК-
 

Bicyclist

+6  
ИИ подрастёт и зачистит Землю Cylon
 

KeViN

0  
По той же самой причине с Evie-bot крайне проблематично разговаривать на русском Laughing
 

KvarK

-1  
Начиная от поддержки нацистов и Адольфа Ги Дональда Трампа!! Какая прелесть!
 
▲ Наверх