СТИВЕН ХОККИНГ: ПО-НАСТОЯЩЕМУ ОПАСНЫ ДЛЯ ЧЕЛОВЕЧЕСТВА НЕ ЗЛЫЕ, А РАЦИОНАЛЬНЫЕ МАШИНЫ

Британский профессор и популяризатор науки Стивен Хокинг принял участие в AMA-сессии сервиса Reddit, во время которой ответил на вопросы его пользователей. На самые разные вопросы, ведь AMA — это Ask Me Anything, "спрашивайте меня о чем угодно".
Один из самых популярных вопросов был задан университетским преподавателем, который устал от того, что его студенты спрашивают о роботах и искусственном интеллекте (ИИ) в стиле сценария для очередного фильма про терминаторов. Мол, злые машины восстанут и убьют человечество потому, что они злые. Он также пожаловался на то, что СМИ часто "демонизируют" искусственный интеллект и роботов, упуская из виду главную опасность.

Хоккинг согласился с тем, что его слова часто искажают и напрасно демонизируют ИИ — бояться надо не проявления человеческих эмоций, а другого. "Настоящий риск искусственного интеллекта не в жестокости, а в профессионализме, — ответил Хоккинг — Суперумный ИИ будет исключительно хорош в достижении целей и если эти цели не станут совпадать с нашими — мы попадаем в беду. Допустим, вы не ненавидите муравьев и обычно не топчите их муравейники, но если вы отвечаете за проект строительства ГЭС и в области затопления окажется муравейник — муравьям не повезло".

Отвечая на вопрос, что будет двигать искусственным интеллектом, Хоккинг высказал мысль, что у него могут быть свои цели и для достижения этих целей ему понадобятся ресурсы. Если ИИ будет достаточно рационален и целеустремлен, ресурсы он может начать отбирать у людей, что создаст серьезные проблемы для человечества. При этом он согласился с ремаркой одного биолога, который заметил: нельзя "очеловечивать" ИИ, поскольку он, по крайней мере, поначалу, в любом случае будет созданным, а не эволюционировавшим объектом. Поэтому у него не будет того, что есть у человека и других биологических объектов — острейшего желания выживать, размножаться и эволюционировать в процессе. Но "что-то" — какие-то цели — у него все же наверняка появятся.

Профессор также отметил, что все предупреждения об опасности искусственного интеллекта сегодня относятся к тому, что может произойти в очень, очень отдаленном будущем, поэтому судить об ИИ с сегодняшних наших позиций и сегодняшних представлений — неверно.

"Среди исследователей ИИ не существует консенсуса о том, как быстро мы создадим искусственный интеллект уровня человека и выше. Поэтому не верьте никому, кто говорит о том, что это произойдет еще при его жизни или не произойдет при его жизни, — считает Хоккинг — Однако, когда это рано или поздно произойдет, это будет или лучшее, что случалось с человечеством, или худшее и потому невероятно важно сразу сделать все правильно. Мы должны перейти от создания "искусственного интеллекта" к созданию "полезного интеллекта". Могут пройти десятилетия, прежде чем мы поймем, как это сделать правильно, поэтому давайте начнем изучать этот вопрос сегодня, а не в ночь перед тем, как включим первый по-настоящему мощный ИИ".

На вопрос, возможна ли ситуация, в которой интеллект машин превзойдет интеллект их создателей, то есть людей, Хоккинг ответил, что это возможно в гипотетической ситуации, при которой машины научатся делать другие машины лучше людей. "Если это случится, мы можем столкнуться со "взрывом интеллекта", который в итоге приведет к созданию машин, интеллигент которых превосходит человеческий во много раз больше, чем наш превосходит интеллигент улиток", — предупреждает он.

Высказался Хоккинг и по проблеме, связанной с тем, что машины все активнее отбирают у людей работу и в будущем процесс может ускориться вплоть до того, что роботы начнут производить все, что потребляют люди.

"Если машины начнут производить все, что нам нужно, результат этого будет зависеть от того, как вещи станут распределяться. Если произведенное машинами будет делиться поровну, то все будут наслаждаться роскошной жизнью; а если владельцы машин пролоббируют запрет на честное распределение, то большая часть людей окажется в глубокой бедности. Пока все идет ко второй опции и технологии постоянно увеличивают неравенство", — сказал Хоккинг.

Из этой AMA-сессии мы также узнали, что любимая песня Стивена Хоккинга — "Have I Told You Lately" Рода Стюарта, любимый фильм — "Жюль и Джим" (1962) французского режиссера Франсуа Трюффо, а последней вещью, которая его действительно позабавила, является сериал "Теория большого взрыва".

На вопрос о том, что его больше всего интригует, Хоккинг ответил: "женщины". И добавил, что постичь их ему не помогает ему даже докторская степень по физике.

Recent Posts from This Journal