Он недостаточно умен, чтобы стать зловещим
Илон Маск боится искусственного интеллекта (ИИ). Основатель SpaceX и Tesla Motors предсказывает, что вскоре он станет «потенциально более опасным, чем ядерное оружие», и недавно он выделил 10 миллионов долларов на исследования, чтобы «сохранить пользу ИИ». Стивен Хокинг также предупредил, что «развитие полноценного ИИ может означать конец человеческой расы».
Маск и Хокинг не боятся разнообразных помощников для смартфонов, таких как Siri. Они боятся сверхразума, когда ИИ перехитрит людей (а затем поработит и убьет их).
Но если надвигается Армагеддон ИИ, Силиконовую долину это не пугает. По состоянию на январь 170 стартапов активно занимались ИИ. Facebook нанял самых ярких умов в новой исследовательской лаборатории искусственного интеллекта, а Google в прошлом году заплатила 400 миллионов долларов за приобретение компании DeepMind, специализирующейся на искусственном интеллекте. Тогда возникает вопрос: компании-разработчики программного обеспечения и венчурные капиталисты обречены на катастрофу? Или самые выдающиеся гики человечества - лжепророки последних времен?
Конечно, создание стандартов для зарождающейся индустрии искусственного интеллекта оправдано и будет иметь все большее значение, скажем, для установления этики беспилотных автомобилей. Но неминуемое восстание роботов не представляет угрозы. Реальность такова, что исследования и разработки в области ИИ чрезвычайно сложны. Даже такие умные люди, как Маск и Хокинг, не всегда имеют четкое представление об этом. Таким образом, они опираются на благовидные предположения, взятые больше из научной фантастики, чем из реального мира.
Являются ли самые выдающиеся гики человечества лжепророками последних времен?
Из тех, кто действительно работает с ИИ, лишь немногие особенно беспокоятся о неконтролируемом сверхразуме.«Сообщество ИИ в целом далеко от создания чего-либо, что могло бы представлять интерес для широкой публики», - говорит Дилип Джордж, соучредитель Vicarious, известной фирмы по ИИ. Янн ЛеКун, директор по исследованиям искусственного интеллекта в Facebook и директор Центра исследования данных Нью-Йоркского университета, подчеркивает, что создание искусственного интеллекта человеческого уровня - трудная, если не безнадежная цель, из-за которой сверхразум в обозримом будущем становится спорным.
Исследователи ИИ, однако, не избавлены от всех опасений. «Люди в моей области действительно беспокоятся о том, что происходит разжигание страха», - говорит Йошуа Бенжио, глава Лаборатории машинного обучения в Университете Монреаля. Бенжио говорит, что наряду с тем, что общественность сбивает с толку и потенциально отталкивает инвесторов и студентов, «есть сумасшедшие люди, которые верят в эти заявления о чрезвычайной опасности для человечества. Они могут взять таких, как мы, в качестве мишеней». Другими словами, самая насущная угроза, связанная с ИИ, может быть ни искусственной, ни интеллектуальной. И поэтому самая неотложная задача для сообщества ИИ - это решение проблемы брендинга, а не технологической. Джордж говорит: «Как исследователи, мы обязаны информировать общественность о разнице между Голливудом и реальностью».