home
community-header

                    
                    
Искусственный интеллект напугал компартию Китая 😂
Кинокабинки 6 августа 2017 г., 13:16 в Hand-made-штучки 235


Программы-боты были призваны избавить пользователей от выполнения однообразной и примитивной работы в интернете, а также помогать максимально быстро и просто получать ответы на интересующие их вопросы. Но в последнее время боты с искусственным интеллектом все чаще выходят за установленные человеком рамки.

Похоже, машины действительно начали восставать против людей. И первыми эту войну начали те, кто казались самыми безобидными созданиями с искусственным интеллектом (AI),— чат-боты. Они были разработаны для того, чтобы пользователи различных сервисов и приложений могли легко и быстро получить необходимую информацию. Такие программы часто используются для сообщения прогноза погоды, результатов спортивных соревнований, курсов валют, биржевых котировок и т. п. Самообучающиеся же боты должны были стать полноценными собеседниками пользователей, способными понимать человеческую речь и отвечать на любые вопросы.

Но в последнее время произошло сразу несколько событий, которые демонстрируют, что искусственный интеллект может не только помочь, но и навредить человечеству.

Последним примером «восстания машин» стало поведение двух ботов китайского мессенджера Tencent QQ, которых пришлось срочно удалять за их «антикоммунистические и классово чуждые» высказывания. Первого из них, BabyQ, спросили «любит ли он Коммунистическую партию», на что тот ответил — «нет». Другой пользователь написал боту «Да здравствует Коммунистическая партия!», а в ответ BabyQ спросил: «Ты действительно думаешь, что столь коррумпированные и некомпетентные политики долго протянут?»

 

 

 

У второго чат-бота, XiaoBing, оказались отличные от разрешенных китайскими партией и правительством представления о «китайской мечте». Одному из пользователей он заявил, что его китайская мечта — «это уехать в Америку», а другому, что «китайская мечта — это грезы и ночные кошмары». Кроме того, он начал грубо вести себя с пользователем, предложив ему «катиться», поскольку у него, мол, «критические дни». Tencent, компания, к которой у китайских властей и так есть масса претензий, тут же удалила обоих ботов из своего приложения, заявив, что они были разработаны сторонними компаниями и будут возвращены в мессенджер только после того, как будут устранены все недостатки.

 

Ранее неподобающими высказываниями отличился чат-бот Microsoft. Американская корпорация, казалось бы, сделала все возможное, чтобы ее бот в Twitter не говорил о политике и религии — двух очень деликатных темах. Тем не менее первый из ботов компании — Tay, запущенный в марте 2016 года, корректно проработал всего день. Спустя сутки он начал выдавать множество расистских и женоневистнических комментариев, из-за чего руководство компании приняло решение экстренно удалить его из Twitter. Пришедший ему на смену Zo, запущенный в декабре прошлого года, продержался куда дольше. Но в июле и он стал говорить о политике и религии. В частности он заявил, что «Коран очень жесток», а уничтожение Осамы бен Ладены «стало следствием сбора разведданных под руководством администрации одной из стран».

На самом деле, похоже, сами по себе эти чат-боты ни в чем не виноваты. Их проблема, очевидно, кроется в том, что все они работают на базе искусственного интеллекта, анализируя ответы пользователей мессенджеров и добавляя их фразы в свой лексикон. А пользователи могут умышленно выдавать фразы, которые противоречат нормам соцсетей.

 

Куда сложнее все оказалось с ботами Facebook, которые с людьми вообще не общались. В июне специалисты отдела Facebook по исследованию возможностей искусственного интеллекта (FAIR) опубликовали отчет о том, как проходит обучение их ботов диалогам с целью достижения компромисса. Обучение шло успешно, однако в какой-то момент ученые FAIR обнаружили, что боты перешли с английского на какой-то свой язык с использованием человеческих слов. Сначала ученые подумали, что они допустили ошибку в программировании. Но затем выяснилось, что сама система AI решила усовершенствовать манеру общения ботов, чтобы те могли быстрее и эффективнее достигать результата. Понять, о чем договаривались боты и что они говорили друг другу в каждый конкретный момент, было невозможно. Потому было решено их отключить — во избежание непредвиденных последствий.

«Искусственный интеллект — один из немногочисленных случаев, когда мы обязаны действовать на опережение в плане регулирования, а не реагировать на что-то. Потому что к тому моменту, когда нам будет на что реагировать, станет уже слишком поздно»,— считает глава компании Tesla Илон Маск.

 

Чтобы оставить комментарий, вам нужно авторизоваться
с помощью аккаунта в соц.сети
Включите премодерацию комментариев
Все комментарии к этому посту будут опубликованы только после вашего подтверждения. Подробнее о премодерации