Китайский мессенджер QQ удалил двух чат-ботов из-за отсутствия патриотизма
Reuters
Китайская компания Tencent удалила из принадлежащего ей популярного мессенджера QQ чат-ботов BabyQ и XiaoBing из-за их непатриотичных высказываний, пишет газета Financial Times.
Сообщается, что тестовая версия бота BabyQ, разработанного пекинской Turing Robot, отрицательно отвечала на вопрос "Любите ли вы коммунистическую партию?", а бот XiaoBing от Microsoft сообщал собеседникам, что мечтает поехать в Америку.
"Чат-ботов размещают сторонние разработчики. В настоящее время мы отлаживаем свои сервисы, и после окончания отладки они возобновят работу", – сообщили в Tencent.
По мнению экспертов, такое поведение ботов связано с тем, что они учатся общению у настоящих пользователей, и при отсутствии специальных ограничений невозможно контролировать, какую именно информацию они получат.
Как отмечают "Ведомости", это не первый случай странного поведения систем искусственного интеллекта. Так, недавно соцсеть Facebook была вынуждена отключить двух ботов, когда они стали общаться друг с другом на собственном языке. Сеть Twitter также столкнулась со своенравным ботом – программа Tay производства Microsoft начала вместо ожидаемых добродушных шуток публиковать расистские и сексистские высказывания.
Китайская компания Tencent удалила из принадлежащего ей популярного мессенджера QQ чат-ботов BabyQ и XiaoBing из-за их непатриотичных высказываний, пишет газета Financial Times.
Сообщается, что тестовая версия бота BabyQ, разработанного пекинской Turing Robot, отрицательно отвечала на вопрос "Любите ли вы коммунистическую партию?", а бот XiaoBing от Microsoft сообщал собеседникам, что мечтает поехать в Америку.
"Чат-ботов размещают сторонние разработчики. В настоящее время мы отлаживаем свои сервисы, и после окончания отладки они возобновят работу", – сообщили в Tencent.
По мнению экспертов, такое поведение ботов связано с тем, что они учатся общению у настоящих пользователей, и при отсутствии специальных ограничений невозможно контролировать, какую именно информацию они получат.
Как отмечают "Ведомости", это не первый случай странного поведения систем искусственного интеллекта. Так, недавно соцсеть Facebook была вынуждена отключить двух ботов, когда они стали общаться друг с другом на собственном языке. Сеть Twitter также столкнулась со своенравным ботом – программа Tay производства Microsoft начала вместо ожидаемых добродушных шуток публиковать расистские и сексистские высказывания.