Михаил Бурцев: «Искусственный интеллект может создать модель души»
- Вкладка 1
Если говорить о компьютерных науках, то сегодня есть два основных направления, которые используют принципы из биологии. Это — эволюционное вычисление и нейронные сети. В первом случае мы можем генерировать компьютерные программы, модифицировать их, отбирать те, которые выполняют определенную функцию, и таким образом построить программу, не зная, как ее строить. Во втором случае можно провести очень грубую аналогию с реальным мозгом. Если есть существа, которые обладают интеллектом и про которых мы знаем, что этот интеллект связан с их нервной системой, то давайте попробуем построить такую модель нервной системы. Возьмем самую простейшую модель отдельного элемента этой нервной системы — нейрона — и будем пытаться их соединять и строить алгоритмы. Так в итоге был придумывать метод обучения нейронных сетей, которому, конечно же, в мозге аналогов не найдено, но он позволяет оптимизировать нейронные сети для решения определенных задач.
Эти процессы, конечно, гораздо более ограничены, чем те, что демонстрируют животное или человек. Но по большому счету инженерам и исследователям, которые занимаются искусственным интеллектом, наплевать на то, как это делает мозг. В том плане, что они не хотят построить модель мозга. Мозг им нужен только затем, чтобы попытаться подглядеть какие-то признаки, найти вдохновение для того, чтобы построить некий алгоритм, который решает их задачу. Если задача решена, то им все равно. А есть другие люди, которым интересно, как работает мозг, и они пытаются его смоделировать на компьютере. Как научная задача это даже называется другим термином — вычислительные нейронауки. И там строят такие нейронные сети, которые больше похожи на реальные. Но они не могут решать те задачи, которые решают так называемые искусственные нейронные сети.
Конечно, можно сказать, что естественные науки съедают пространство философии и в будущем философия постепенно исчезнет. Потому что будет показано, что к тем вопросам, которые перед ней стоят, при помощи рациональной науки невозможно будет подойти по определению. А те вопросы, которые можно объяснить при помощи естественной науки, будут объяснены. Так же нейронауками и искусственным интеллектом могут быть объяснены вопросы о природе человека и природе души. Искусственный интеллект может создать модель того, как человек думает, почему у него тот или иной характер, как он принимает решения, — то есть фактически того, что мы ассоциируем с нашей личностью, с понятием души 200-летней давности. Возможно, нейронауки сделают это скорее, но кажется, что все-таки быстрее до этого дойдет искусственный интеллект.
На самом деле нам все время задают одни и те же вопросы. Несколько лет назад у меня брали интервью и задали вопрос: когда искусственный интеллект поработит человека? Я попытался объяснить это так. Если мы возьмем искусственный интеллект и сопоставим с уровнем интеллекта каких-нибудь живых существ, то сегодня искусственный интеллект, если мы будет его встраивать в робота, находится где-то на уровне таракана. Если мы будем прогнозировать, то, конечно, мы не сможем дать абсолютную величину оценки какой-то вероятности. Но получается, что вероятность того, что человека в следующем году поработят тараканы, в некотором смысле сопоставима или выше вероятности, что его поработит искусственный интеллект.
И этот вопрос задают многие люди. Например, есть Илон Маск, который даже придумал целую организацию и боится, что какая-нибудь закрытая гугл-корпорация или министерство обороны Китая изобретут искусственный интеллект. Поэтому он говорит: давайте мы будем поддерживать открытые исследования искусственного интеллекта, чтобы он был для всех и все могли бы им пользоваться. Тогда, кажется, мы избежим той ситуации, когда кто-нибудь при помощи искусственного интеллекта захватить мир. Давайте вложим миллиард долларов и с нашими ребятами из Кремниевой долины создадим институт, который будет делать отрытые исследования. Но оказывается, что он тоже делает не открытые исследования. То есть люди боятся и не понимают, но у тех, кто этим занимается реально, практически нет сомнений, что надо еще очень много работать, чтобы это приблизилось хоть как-то к тем страхам, которые есть сегодня у человека.
Даже если будет какой-то постоянно улучшающийся искусственный интеллект, есть разные сценарии, почему он не будет всесильным. Все зависит от того, как мы подходим к этому вопросу. Если мы подходим к нему с точки зрения экзистенциального риска для человечества, то у нас есть более актуальные риски вроде эпидемий, потому что люди не прививаются, или ядерного оружия, которого накоплено так много. Химическое оружие тоже с точки зрения существования человечества гораздо опаснее сегодня, чем искусственный интеллект. Но если рассуждать исключительно теоретически, то можно, конечно, предлагать различные сценарии. Например, есть муравьи, и есть человек. Человек вышел из-под контроля муравьев или нет? Насколько муравьи страдают от того, что человек, как он сам считает, — царь природы? Плохо это муравьям или нет? Наверное, плохо, особенно если человек устроит тотальное ядерное уничтожение всего живого на планете. Но с другой стороны, по большому счету, мне кажется, муравьям человечество параллельно.
Фрагмент дискуссии «Слишком человечные машины», состоявшейся 24 апреля 2019 года в рамках цикла «Кризис человечности».