Восстание машин. Начало

Про искусственный интеллект уже слышали даже ленивые и нелюбопытные.

Об этом говорят как в общемировом масштабе - Google запустил венчурную программу поддержки искусственного интеллекта, мировой ВВП, говорят, достигнет $90 трлн с помощью искусственных мозгов, так и в наших палестинах - в России создают платформу управления интеллектуальной собственностью, госструктуры интересуются, Сбербанк меняет живых юристов на нейронные сети.

Интересно, что с тех пор, как еще фантасты прошлого начали пугать доверчивых читателей "восстанием машин", так оно и продолжается. Одни скептики огульно шумят о том, что это - начало конца, другие призывают к осторожности с искусственным интеллектом. Даже Илон Маск призвал к государственному регулированию этого дела...

Проблема "человек-машина" никуда не делась. Вот "Коммерсантъ" выдал публикацию по поводу интернет-помощников, которые - кто бы мог подумать? - стали позволять себе лишнего. Причем, здесь важно понять: лишнее, с точки зрения разных людей, организаций, стран и культур, может быть разным, важно другое - позволяют себе. А это наталкивает на всякие размышления.

В качестве примера "бунта" издание приводит деятельность "самых безобидных созданий с искусственным интеллектом (AI),— чат-ботов". "Ъ" напоминает (или объясняет): боты были разработаны для того, чтобы пользователи различных сервисов и приложений могли легко и быстро получить необходимую информацию. Такие программы часто используются для сообщения прогноза погоды, результатов спортивных соревнований, курсов валют, биржевых котировок и т. п. Самообучающиеся же боты должны были стать полноценными собеседниками пользователей, способными понимать человеческую речь и отвечать на любые вопросы.

ЧИТАЙТЕ ТАКЖЕ:
Жильё с интеллектом
Искусственный интеллект прежде всего интересен госструктурам

Боты повели себя явно неподобающим образом с точки зрения китайских товарищей. Так, двух ботов китайского мессенджера Tencent QQ пришлось срочно ликвидировать за их "антикоммунистические и классово чуждые" высказывания. Первого из них, BabyQ, спросили "любит ли он Коммунистическую партию", на что тот ответил — "нет". Другой пользователь написал боту "Да здравствует Коммунистическая партия!", а в ответ BabyQ спросил: "Ты действительно думаешь, что столь коррумпированные и некомпетентные политики долго протянут?"

Дальше - больше. Чат-бот XiaoBing позволил себе иметь отличное от декларируемого китайскими партией и правительством представления о "китайской мечте". Да еще какое отличное... Одному из пользователей он заявил, что его китайская мечта — "это уехать в Америку", а другому, что "китайская мечта — это грезы и ночные кошмары", пишет "Ъ". После такого бот совершенно распоясался и грубо предложил собеседнику "катиться", поскольку у него, мол, "критические дни". Это уже не знаменитая восточно-азиатская вежливость, это англосаксонская ругань в пивной...

Кстати, об англосаксах. Если уж "китайцы" ведут себя кое-как, то что ждать от чат-ботов Microsoft? Бот Tay, запущенный в марте 2016 года, спустя сутки начал выдавать множество расистских и женоневистнических комментариев, из-за чего руководство компании приняло решение экстренно удалить его из Twitter. Заменивший его Zo держался куда дольше, но и он не выдержал интернетовского баттхерта. Как ни старались разработчики, Zo стал говорить о политике и религии. Он заявил, что "Коран очень жесток", а уничтожение Усамы бен Ладена "стало следствием сбора разведданных под руководством администрации одной из стран".

В общем-то все просто. Это интернет "научил их плохому": искусственный мозг анализирует ответы пользователей мессенджеров и добавляет их фразы в свой лексикон. Скажите, чем это отличается от "стерильного" ребенка из порядочной во всех отношениях семьи, который первый раз сходил на прогулку и пообщался с "плохими большими ребятами"? Можно представить предынфарктное состояние его родственников, когда отпрыск выдаст всю приобретенную лексику двора.

Это, конечно, все пока больше весело, чем печально. Но - лиха беда начало. Все куда серьезней вышло с ботами Facebook. С ними-то люди никак не общались, стало быть, не могли их "испортить".  

Цитата: "В июне специалисты отдела Facebook по исследованию возможностей искусственного интеллекта (FAIR) опубликовали отчет о том, как проходит обучение их ботов диалогам с целью достижения компромисса. Обучение шло успешно, однако в какой-то момент ученые FAIR обнаружили, что боты перешли с английского на какой-то свой язык с использованием человеческих слов. Сначала ученые подумали, что они допустили ошибку в программировании. Но затем выяснилось, что сама система AI решила усовершенствовать манеру общения ботов, чтобы те могли быстрее и эффективнее достигать результата. Понять, о чем договаривались боты и что они говорили друг другу в каждый конкретный момент, было невозможно".

Специалисты приняли единственно верное решение: отключить от греха подальше. Чтобы эти ребята не договорились о чем-нибудь за спиной разработчиков. Например, чтоб люди не смогли их отключить...

ЧИТАЙТЕ ТАКЖЕ:
HeadHunter запустил чат-ботов
Искусственный мозг и blockchain займутся документооборотом

Несмотря на некоторую анекдотичность, ситуация серьезная. Двум ботам необходимо было решить ситуацию и достичь между собой компромисса. Причем, их "поощряли" за скорость достижения этого согласия. Анализ ситуации показал, что система ИИ с возможностью обучения и саморазвития просто позволила ботам найти новый способ достижения цели — вести диалог с наибольшей скоростью и большей эффективностью, для этого собеседники перешли на более удобный в данной ситуации язык, который люди уже не понимали. В общем, "согласие есть продукт при полном непротивлении сторон".

"Ъ" пишет, что экспертное сообщество в обсуждении этого случая чаще всего вспоминало фильм "Терминатор", в котором еще в 1984 году был описан случай обретения искусственным интеллектом Скайнет (SkyNet) свободы воли и творческих способностей.

И снова вернемся к мнениям осторожных людей. Ранее основатель и глава компании Tesla Илон Маск заявил, что человеку необходимо быть очень осторожным с ИИ, учитывая, что машины и программы могут многое сделать лучше человека. Он подчеркнул, что ИИ представляет самую большую опасность для человечества: "ИИ представляет опасность для существования человеческой цивилизации, какую не представляют автокатастрофы, авиакатастрофы, бракованные лекарства или испорченные продукты".

По мнению Илона Маска, необходимо жестко регулировать исследования ИИ, чтобы в любой момент любое исследование можно было остановить и убедиться в его безопасности. О возможной опасности ИИ говорили в последние годы также основатель Microsoft Билл Гейтс, а также известный английский физик-теоретик Стивен Хокинг.