СИНГУЛЯРНОСТЬ СМЕНИТ ИЗОБИЛИЕ?
В начале книги я говорил, что хочу заглянуть за горизонт — в далекий 2041 год. Но теперь, когда книга заканчивается, давайте опять сделаем это — ведь горизонт еще отступил. Что может сменить такую невероятную эпоху, как изобилие? Некоторые футурологи предсказывают, что появится «сингулярность»[166], причем ждут ее уже к 2045 году, до которого из времени, в котором разворачиваются события нашей книги, остается совсем немного.
Согласно теории сингулярности, благодаря экспоненциальному росту вычислений саморегулирующийся ИИ претерпит преобразования и обретет сверхинтеллект раньше, чем мы можем себе представить — ведь людям трудно постичь экспоненциальные явления. Наступит момент, когда машинный интеллект превзойдет в развитии человеческий и установит контроль над нашим миром — это и будет сингулярность. Однако мнения футурологов разнятся, а из-за разброса взглядов сильно различаются и прогнозы. Многие из них, к слову, уже подхватило общество, а в технологическом сообществе вообще начался раздор.
Сторонники сингулярной утопии верят: когда искусственный интеллект существенно превзойдет человеческий, мы получим от него потрясающие механизмы борьбы со страданиями и реализации человеческого потенциала. Системы на искусственном сверхинтеллекте глубоко поймут Вселенную, превратятся во всеведущих оракулов, станут отвечать на самые мучительные вопросы и находить гениальные решения проблем. Кто-то даже полагает, что нам придется стать киборгами и объединиться со всемогущим ИИ — а иначе Homo sapiens исчезнет как биологический вид.
Но такой оптимизм разделяют не все. В лагере сторонников сингулярной антиутопии в числе прочих можно увидеть Илона Маска, который назвал искусственный сверхинтеллект «величайшим риском для нашей цивилизации», сравнив его создание с «призывом демона». Эта группа предупреждает, что когда люди создают самосовершенствующийся искусственный интеллект, рядом с которым меркнет наш собственный разум, то это изобретение захочет контролировать своего создателя или как минимум отстранить от дел.
Так куда же — к киборгам или к машинам-повелителям — свернет сингулярность к 2045 году? По моему мнению, оба варианты сомнительны. Концепция сингулярности основана на предположении, что экспоненциальный рост ИИ приведет к появлению сверхинтеллекта. Я согласен: вычислительная мощь ИИ выросла экспоненциально, и это несомненно. Но количество в нашем случает не перейдет в качество само по себе.
Для качественного скачка нам понадобятся новые научные прорывы наподобие глубокого обучения. Представим только: при сегодняшнем уровне компьютерных мощностей отсутствует глубокое обучение. Да отрасль искусственного интеллекта просто бы не зародилась!