революции объединяет то, что все они сбросили человеческое высокомерие с пьедесталов извечной уверенности о нашем центральном положении в космосе[137]».
Все модели неверны…
В статье 1976 г. британский статистик Джордж Бокс написал: «Все модели неверны, но некоторые из них все же полезны». Шутка, ставшая известной. Любое мысленное представление мира, любое внутреннее представление набора данных в виде модели обязательно будет неточным. Статистическая теория обучения демонстрирует нам пределы этой неточности в зависимости от количества обучающих примеров и сложности модели. Она подтверждает, что любая модель неточна, но все же может быть полезной.
Физикам давно известно, что классическая механика Ньютона верна только для макроскопических объектов, движущихся с относительно малой скоростью (по сравнению со скоростью света) и в слабых гравитационных полях. В случае с высокими скоростями и сильной гравитацией должна применяться общая теория относительности, а для микроскопических объектов – квантовая механика. Что касается комбинации высокой скорости (следовательно, высокой энергии), сильной гравитации и малых размеров, нам потребуется единая теория, которой еще не существует.
Однако физика – это область, в которой хорошо применяются редукционистские подходы: «красивая» теория часто сводится к нескольким формулам и небольшому количеству свободных параметров (то есть констант, которые теория не позволяет нам вычислять из других) – таких как скорость света, гравитационная постоянная, масса электрона и постоянная Планка. Но большинство сложных явлений в химии, климатологии, биологии, нейробиологии, когнитивных науках, экономике или социальных науках нельзя свести к нескольким формулам и параметрам. Эти системы приобретают новые свойства, возникающие в результате взаимодействия большого количества различных элементов.
Возможны два варианта. Когда все элементы одинаковы и детали для нас не важны, методы статистической физики и термодинамики дают нам представление о том, что происходит. Но когда элементы разные (все нейроны разные), взаимодействия сложны, а детали важны, мы вынуждены построить феноменологические модели, которые дают нам лишь абстрактное описание явления.
Таким образом, обучение животных и, в настоящее время, машин в целом ограничивается построением феноменологических моделей, основанных на статистических закономерностях. В этом весь смысл этой книги. Ребенок или собака учатся ловить мяч в полете. Они могут предсказать его траекторию: у них есть феноменологическая модель физики. Но тот же ребенок или собака не могут написать уравнения, которые регулируют траекторию мяча. В отличие от Ньютона и некоторых других специалистов в области гравитации, они не могут создать объяснительную модель.
Смогут ли однажды машины разработать объяснительные модели на основе «экспериментальных» данных, как это делают физики? Для этого системы ИИ должны будут уметь выявлять соответствующие переменные и устанавливать между ними причинно-следственные связи. В случае движущихся тел, например, такими переменными являются масса, координата, скорость и ускорение. Применение силы к массе вызывает ускорение. Речь идет о причинно-следственной связи. Обнаружение этих причинно-следственных связей между переменными является широко обсуждаемой темой в области ИИ. Наличие эффективных методов причинно-следственного вывода позволило бы добиться прогресса в биологии и медицине. Благодаря этому мы бы смогли отличить причинно-следственные связи и простые корреляции данных. Мы могли бы вывести регуляторные цепи генов исходя из данных экспрессии этих генов. Это, например, значительно упростит поиск лечения наследственных заболеваний.
Джуда Перл, профессор Калифорнийского университета в Лос-Анджелесе (и лауреат Премии Тьюринга 2011 г. за свою работу по вероятностному осмыслению), резко раскритиковал машинное обучение, обвинив его в чрезмерном пренебрежении причинным осмыслением[138]. Я с ним согласен: чтобы быть по-настоящему разумными, машинам придется изучать модели мира, способные определять причинно-следственные связи. Некоторые из моих бывших и нынешних коллег уже работают над этим вопросом: Изабель Гийон из Университета Париж-Орсе, Бернхард Шелкопф из Института Макса Планка в Тюбингене, Давид Лопес-Пас из FAIR в Париже и Леон Ботту, мой старый друг, из FAIR в Нью-Йорке.
Встревоженные голоса
Самая известная отсылка к культурным явлениям, которая многое для меня значила, когда я был подростком, и которую я уже много цитировал, – это фильм Стэнли Кубрика и одноименный роман Артура Ч. Кларка «2001: Космическая одиссея». Я несколько раз упоминал главных героев из этого фильма, но еще ни разу не объяснил суть конфликта между машиной и человеком. Компьютер HAL, управлявший космическим кораблем, запрограммирован так, чтобы не раскрывать человеческому экипажу настоящие причины и цель их миссии. Это приводит к тому, что он совершает диагностическую ошибку. Он прочитал по губам космонавтов, что они хотят отключить его. Но он по определению считает себя незаменимым для успеха миссии. Мысль об этом пробуждает в нем «гордыню». Поэтому он решает убить команду. Он отключает криокамеры, где находились в анабиозе некоторые из ученых, и убивает астронавта Фрэнка Пула во время его выхода в открытый космос. Затем он отказывается впустить на борт космического корабля Дэйва Боумена, отправившегося спасать Фрэнка.
Итак, HAL, запрограммированный на выполнение миссии любой ценой, постепенно начинает рассматривать экипаж как препятствие. Это – прекрасный пример несовпадения между целью, запрограммированной в системе, и общечеловеческими ценностями. В фильме HAL потерпел неудачу, но ему все же удалось внести свой вклад в бесчисленные фантазии по поводу подавления человечества его собственным творением. Другой пример, возможно, даже более известный, – это фильм «Терминатор», в котором система SkyNet обретает интеллект, берет под контроль оружие и пытается истребить человечество.
Но мы здесь, а не в том мире. Так чего нам бояться?
В 2014 г. Стивен Хокинг высказался на эту тему на канале BBC, предположив, что «ИИ может означать конец человечества», хотя потом изменил свое мнение. Как у всякого астрофизика, его временные рамки измерялись миллионами или миллиардами лет. Но как предсказать, где окажется человечество через 10 или 100 млн лет, если оно существует всего несколько сотен тысяч лет?
Билл Гейтс тоже выразил обеспокоенность, и тоже потом отказался от своих слов. Что касается Илона Маска, генерального директора Tesla, то он сделал вообще ошеломляющие заявления и даже попытался, хотя и без особого успеха, убедить руководящие органы начать регулировать ИИ, чтобы, по его словам, избежать сценария «Терминатора». Беседуя с ним, я подумал, что он сильно недооценивает количество времени, которое потребуется ИИ, чтобы обогнать интеллект людей. Возможно, в поисках удачных вложений он слишком много слушал основателей стартапов, которые с большим оптимизмом уверяют, будто уже вот-вот возникнет ИИ, сравнимый по уровню интеллекта с человеком.
Кроме того, Илон прочитал книгу «Суперинтеллект» Ника Бострома[139]. Это философ из Оксфорда, который описывает серию сценариев-катастроф, в которых ИИ может выйти из-под контроля своих создателей. Вот пример. Мы создаем сверхразумный компьютер, которому поручили управлять фабрикой по производству скрепок. Его единственная миссия – максимизировать производство. Компьютер, конечно же, может оптимизировать производство, поставку