Пенроуз Р.

"Новый ум короля. О компьютерах, мышлении и законах физики".



Пенроуз Р.  "Новый ум короля. О компьютерах, мышлении и законах физики". Эдиториал УРСС, 2003, - 384 с.

Roger Penrose. The Emperor's New Mind. Concerning Computers, Minds and The Laws of Physics. Foreword by Martin Gardner

Монография известного физика и математика Роджера Пенроуза посвящена изучению проблемы искусственного интеллекта на основе всестороннего анализа достижений современных наук. Возможно ли моделирование разума? Чтобы найти ответ на этот вопрос, Пенроуз обсуждает широчайший круг явлений: алгоритмизацию математического мышления, машины Тьюринга, теорию сложности, теорему Геделя, телепортацию материи, парадоксы квантовой физики, энтропию, рождение Вселенной, черные дыры, строение мозга и многое другое.

Книга вызовет несомненный интерес как у специалистов гуманитарных и естественно-научных дисциплин, так и у широкого круга читателей.


Оглавление

Обращение к читателю

Благодарности

Предисловие

Вступление

Пролог

Глава 1. 

Может ли компьютер обладать разумом?

 

Введение

 

Тест Тьюринга

 

Искусственный интеллект

 

Подход к понятиям "удовольствия" и "боли" с позиций ИИ

 

Сильный ИИ и китайская комната Серла

 

"Железо" и "софт"

 

Примечания

Глава 2. 

Алгоритмы и машины Тьюринга

 

Основы алгоритмов

 

Концепция Тьюринга

 

Двоичная запись цифровых данных

 

Тезис Черча--Тьюринга

 

Числа, отличные от натуральных

 

Универсальная машина Тьюринга

 

Неразрешимость проблемы Гильберта

 

Как превзойти алгоритм

 

Лямбда-исчисление Черча

 

Примечания

Глава 3. 

Математика и действительность

 

Страна Тор'Блед-Нам

 

Действительные числа

 

Сколько же всего действительных чисел?

 

"Действительность" действительных чисел

 

Комплексные числа

 

Построение множества Мандельброта

 

Платоническая реальность математических понятий?

 

Примечания

Глава 4. 

Истина, доказательство и интуиция

 

Программа Гильберта для математики

 

Формальные математические системы

 

Теорема Геделя

 

Математическая интуиция

 

Платонизм или интуиционизм?

 

Теоремы геделевского типа как следствие результатов, полученных Тьюрингом

 

Рекурсивно нумеруемые множества

 

Является ли множество Мандельброта рекурсивным?

 

Некоторые примеры нерекурсивной математики

 

Похоже ли множество Мандельброта на нерекурсивную математику?

 

Теория сложности

 

Сложность и вычислимость в физических объектах

 

Примечания

Глава 5. 

Классический мир

 

Состояние физической теории

 

Евклидова геометрия

 

Динамика Галилея и Ньютона

 

Механистический мир динамики Ньютона

 

Вычислима ли жизнь в бильярдном мире?

 

Гамильтонова механика

 

Фазовое пространство

 

Электромагнитная теория Максвелла

 

Вычислимость и волновое уравнение

 

Уравнение движения Лоренца; убегающие частицы

 

Специальная теория относительности Эйнштейна и Пуанкаре

 

Общая теория относительности Эйнштейна

 

Релятивистская причинность и детерминизм

 

Вычислимость в классической физике: где мы находимся?

 

Масса, материя и реальность

 

Примечания

Глава 6. 

Квантовая магия и квантовое таинство

 

Нужна ли философам квантовая теория?

 

Проблемы с классической теорией

 

Начало квантовой теории

 

Эксперимент с двумя щелями

 

Амплитуды вероятностей

 

Квантовое состояние частицы

 

Принцип неопределенности

 

Эволюционные процедуры U и R

 

Одна частица -- сразу в двух местах?

 

Гильбертово пространство

 

Измерения

 

Спин и сфера Римана состояний

 

Объективность и измеримость квантовых состояний

 

Копирование квантового состояния

 

Спин фотона

 

Объекты с большим спином

 

Многочастичные системы

 

"Парадокс" Эйнштейна, Подольского и Розена

 

Эксперименты с фотонами: проблема для специальной теории относительности?

 

Уравнение Шредингера; уравнение Дирака

 

Квантовая теория поля

 

Кошка Шредингера

 

Различные точки зрения на существующую квантовую теорию

 

К чему мы пришли после всего сказанного?

 

Примечания

Глава 7. 

Космология и стрела времени

 

Течение времени

 

Неумолимое возрастание энтропии

 

Что такое энтропия?

 

Второе начало в действии

 

Источник низкой энтропии во Вселенной

 

Космология и Большой взрыв

 

Горячий протошар

 

Объясняется ли второе начало Большим взрывом?

 

Черные дыры

 

Структура пространственно-временн ых сингулярностей

 

Насколько особым был Большой взрыв?

 

Примечания

Глава 8. 

В поисках квантовой теории гравитации

 

Зачем нужна квантовая теория гравитации?

 

Что скрывается за гипотезой о вейлевской кривизне?

 

Временная асимметрия в редукции вектора состояния

 

Ящик Хокинга: связь с гипотезой о вейлевской кривизне?

 

Когда происходит редукция вектора-состояния?

 

Примечания

Глава 9. 

Реальный мозг и модели мозга

 

Как же устроен мозг?

 

Где обитает сознание?

 

Эксперименты при разделенных больших полушариях мозга

 

"Зрение вслепую"

 

Обработка информации в зрительной коре

 

Как работают нервные импульсы?

 

Компьютерные модели

 

Пластичность мозга

 

Параллельные компьютеры и "единственность" сознания

 

Имеет ли квантовая механика отношение к работе мозга?

 

Квантовые компьютеры

 

За пределами квантовой теории?

 

Примечания

Глава 10. 

Где находится физика ума?

 

Для чего нужны умы?

 

Что в действительности делает сознание?

 

Естественный отбор алгоритмов?

 

Неалгоритмическая природа математической интуиции

 

Вдохновение, озарение и оригинальность

 

Невербальность мысли

 

Сознание у животных?

 

Соприкосновение с миром Платона

 

Взгляд на физическую реальность

 

Детерминизм и жесткий детерминизм

 

Антропный принцип

 

"Плиточные" структуры и квазикристаллы

 

Возможная связь с пластичностью мозга

 

Временные задержки в реакции сознания

 

Странная роль времени в сознательном восприятии

 

Заключение: точка зрения ребенка

 

Примечания

Эпилог

Литература

Иллюстративный материал, используемый в книге

Именной указатель

Предметный указатель

 


Обращение к читателю

Как читать математические формулы

В некоторых частях этой книги я решился прибегнуть к математическим формулам. Меня не устрашило известное предостережение, что каждая формула в книге сокращает вдвое круг читателей. Если вы, Читатель, испытываете ужас перед формулами (как большинство людей), то я вам могу порекомендовать способ, который и сам часто использую, когда приличия нарушаются таким грубым образом. Способ заключается, более или менее, в том, чтобы полностью проигнорировать строку с формулой, сразу переводя взгляд на следующий за ней текст! На самом деле, конечно же, не совсем так: надо одарить формулу пытливым, но не проникающим взглядом, а затем двинуться вперед. Некоторое время спустя, почувствовав б'ольшую уверенность в своих силах, можно вернуться к отвергнутой формуле и попытаться ухватить основные идеи. Текст, сопровождающий формулу, поможет вам понять, что в ней важно, а что можно спокойно проигнорировать. Если же этого все-таки не случилось, то смело оставляйте формулу и больше о ней не вспоминайте.


Предисловие

Для многих великих физиков и математиков написать книгу, понятную не только профессионалам -- дело трудное, если не сказать невозможное. И вплоть до сего времени иным могло бы показаться, что Роджер Пенроуз, один из наиболее компетентных и плодотворно работающих физиков-теоретиков во всем мире, относится как раз к такой категории ученых. Но даже для тех из нас, кто был знаком с его популяризаторскими статьями и лекциями и не разделял подобного мнения, появление превосходной книги для широкого круга читателей, ради которой он оторвал от работы часть своего времени, стала приятным сюрпризом. И я не сомневаюсь, что этой книге в будущем уготовано стать классической монографией.

Хотя в различных главах своей книги Пенроуз затрагивает и теорию относительности, и квантовую механику, и космологию -- главным объектом его рассуждений является так называемая психофическая проблема "ум--тело". Десятилетиями сторонники теории "сильного ИИ" (искусственного интеллекта) пытались убедить нас, что не пройдет и одного-двух веков (а некоторые опускали эту планку даже до пятидесяти лет!), как электронные компьютеры полностью сравняются по своим возможностям с человеческим мозгом. Находясь под впечатлением прочитанных в юности научно-фантастических книг и будучи убежденными в том, что наши мозги -- это просто "компьютеры, сделанные из мяса" (как выразился однажды Марвин Мински), они считали несомненным, что удовольствие и боль, восприятие прекрасного и чувство юмора, сознание и свобода воли -- все эти способности возникнут у электронных роботов сами собой, как только управляющие ими алгоритмы обретут достаточную степень сложности.

Но некоторые методологи науки (в особенности Джон Серл, чей мысленный эксперимент со знаменитой китайской комнатой Пенроуз очень подробно разбирает в одной из глав) с этим решительно не согласны. В их представлении компьютер по существу ничем не отличается от обычных механических калькуляторов, в которых арифметические действия выполняются посредством колесиков, рычажков или иных приспособлений, позволяющих передавать сигналы. (За основу компьютера с таким же успехом можно взять, например, маленькие перекатывающиеся шарики или текущую по системе труб воду.) Поскольку электричество движется по проводам быстрее, чем любая иная форма энергии (за исключением света), электрические устройства могут оперировать символами с большей скоростью, что позволяет им выполнять чрезвычайно громоздкие и сложные задачи. Но "осознает" ли компьютер свои действия в большей мере, чем это доступно обычным деревянным счетам? Сегодня компьютеры могут играть в шахматы на уровне гроссмейстеров. Но "понимают" ли они эту игру лучше, чем машина для "крестиков-ноликов", собранная группой компьютерных хакеров из поломанных игрушек?

Книга Пенроуза является самой мощной атакой на теорию сильного ИИ из всего написанного до сих пор. За несколько прошедших столетий было высказано немало возражений против понимания мозга как машины, управляемой общеизвестными законами физики; но доводы Пенроуза более убедительны, ибо они базируются на недоступной для его предшественников информации. Эта книга открывает нам другого Пенроуза -- не только математика и физика, но и философа высокого уровня, не отступающего перед проблемами, которые современные философы слишком легко сбрасывают со счетов как бессмысленные.

К тому же Пенроуз, вопреки все более настойчивым возражениям небольшой группы физиков, имеет смелость отстаивать позиции здорового реализма. В его представлении реальна не только вселенная, но и математическая истина, непостижимым образом ведущая свое собственное независимое и вечное существование. Подобно Ньютону и Эйнштейну, Пенроуз испытывает благоговейный трепет и чувство смирения как перед физическим миром, так и перед Платоновым царством чистой математики. Выдающийся ученый в области теории чисел Пол Эрдос любит говорить "о божественной книге", в которой записаны все лучшие доказательства. И математикам иной раз приоткрывается та или иная ее страница. Моменты прозрения, когда математик или физик внезапно вскрикивает "Ага!", по мнению Пенроуза, не могут явится "результатом сколь угодно сложных вычислений": в эти мгновения разум соприкасается с объективной истиной. Возможно ли, вопрошает Пенроуз, что мир "идей" Платона и реальный физический мир (который физики сегодня все больше "растворяют" в математике) -- на самом деле тождественны?

Большое внимание в книге Пенроуза уделяется знаменитой фрактальной структуре, называемой множеством Мандельброта в честь ее первооткрывателя Бенуа Мандельброта. Хотя в статистическом смысле такие объекты обладают свойством самоподобия, которое выявляется при увеличении отдельных частей, их бесконечно причудливые очертания постоянно меняются самым непредсказуемым образом. Пенроузу кажется непонятным, как можно сомневаться в том, что эти экзотические структуры существуют не менее "реально", чем гора Эверест, и могут быть исследованы точно так же, как исследуются джунгли.

Пенроуз принадлежит к постоянно пополняющейся группе ученых, которые считают, что Эйнштейн не был упрямым или, тем более, бестолковым, когда однажды, ссылаясь на свой "левый мизинец", он провозгласил неполноту квантовой механики. Чтобы подтвердить справедливость этого утверждения, Пенроуз увлекает читателя в головокружительное путешествие, в ходе которого мы знакомимся с комплексными числами, машинами Тьюринга, теорией сложности, поразительными парадоксами квантовой механики, формальными системами, (теоремой) неразрешимости Геделя, фазовыми и гильбертовыми пространствами, черными и белыми дырами, излучением Хокинга, энтропией, строением мозга -- имножеством других вопросов, занимающих сегодня умы ученых. "Осознают" ли кошки и собаки свое "я"? Могут ли в теории существовать передатчики материи, способные переместить человека из одного места в другое на манер астронавтов из сериала Звездный Путь? Насколько полезно нам -- с точки зрения выживания -- возникшее в ходе эволюции сознание? Существует ли структура более общая, чем квантовая механика, где бы нашлось естественное объяснение направлению времени и различиям между правым и левым? Важны ли законы квантовой механики, а может и некие более "тонкие" законы, для деятельности разума?

На два последних вопроса Пенроуз дает положительный ответ. Его знаменитая теория "твисторов" -- абстрактных геометрических объектов, действующих в многомерном комплексном пространстве, которое лежит в основе обычного пространства-времени -- носит чересчур узкоспециализированный характер, чтобы быть включенной в эту книгу. Она стала результатом его двадцатилетних усилий проникнуть в область более глубокую, чем квантовые поля и частицы. Прибегая к своей четырехступенчатой классификации теорий -- превосходных, полезных, пробных и тупиковых, -- Пенроуз скромно поместил теорию твисторов в разряд пробных, вместе с суперструнами и другими теориями великого объединения, которые сейчас вызывают острые дискуссии в научной среде.

С 1973 года Пенроуз возглавляет кафедру Рауза Болла в Оксфордском университете. Это тем более заслуженно, что В.У.Рауз Болл был не только выдающимся математиком, но еще и фокусником-любителем, настолько увлеченным занимательной математикой, что однажды он даже написал на эту тему ставшую классической книгу Математические эссе и развлечения. Пенроуз разделяет эту страсть Болла к играм. В юности он придумал "невозможный объект", состоящий из трех стержней. (Невозможный объект -- это изображение цельной фигуры, которая не может существовать из-за наличия в ней внутренне противоречивых элементов.) Вместе со своим отцом Лайонелом, генетиком по профессии, он превратил свой невозможный объект в Лестницу Пенроуза, структуру, использованную Морицем Эшером на двух известных литографиях: Идущие вверх и идущие вниз и Водопад. В один прекрасный день, когда Пенроуз лежал в кровати, с ним случился, как он сам называет это, "приступ сумасшествия", когда ему явственно представился невозможный объект в четырехмерном пространстве. Если бы существо из четырехмерного мира наткнулось на эту штуку, шутит Пенроуз, оно наверняка воскликнуло бы: "Боже мой, что это такое!?"

Работая в 1960-х годах вместе со своим другом Стивеном Хокингом над проблемами космологии, он сделал свое самое, наверное, известное открытие. Если теория относительности выполняется "до самого конца", то в каждой черной дыре должна существовать сингулярность, где законы физики теряют свою силу. Но даже это достижение отошло в последние годы на второй план, после того как Пенроуз предложил конструкцию из "плиток" двух видов, которыми можно покрыть всю плоскость подобно мозаике Эшера -- только непериодическим образом. (Об этих удивительных фигурах вы можете узнать подробнее в моей книге От мозаик Пенроуза к надежным шрифтам.) Пенроуз изобрел, или, скорее, открыл их, даже не предполагая, что когда-нибудь они могут кому-то пригодиться. К всеобщему изумлению оказалось, что трехмерные аналоги этих фигур могут служить основой для новой необычной формы материи -- "квазикристаллов". Сейчас изучение "квазикристаллов" превратилось в одну из наиболее активных областей исследований в кристаллографии. Это, безусловно, самый впечатляющий пример того, как в наши дни математические игры могут иметь совершенно неожиданные практические приложения.

Достижения Пенроуза в математике и физике -- а я упомянул только незначительную их часть -- рождаются из постоянно присутствующего в его душе ощущения тайны и красоты бытия. Мизинец "подсказывает" ему, что человеческий мозг представляет собой устройство более сложное, чем набор крошечных проводков и переключателей. Фигура Адама в прологе и эпилоге этой книги в определенном смысле служит символом зарождения разума в ходе неторопливого развития осознающей себя жизни. В нем я тоже вижу Пенроуза -- мальчика, сидящего в третьем ряду, позади признанных корифеев в области ИИ, -- который не боится высказать им вслух свое мнение, что их "короли-то голые". Юмор присущ многим высказываниям Пенроуза, но это утверждение -- отнюдь не шутка. (В оригинале название книги The Emperor's New Mind перекликается с названием известной сказки Г.-Х.Андерсена The Emperor's New Clothes -- Новый наряд короля. -- Прим. ред.)

Мартин Гарднер

 


Вступление

Посвящаю эту книгу светлой памяти моей дорогой матери, почившей прежде, чем эта книга увидела свет

Книга Новый ум короля, впервые изданная в 1989 году, стала моей первой серьезной попыткой написать научно-популярное произведение. Приступая к созданию этой книги, я, помимо всего прочего, ставил целью рассказать в максимально доступной форме о значительном прогрессе физической науки, достигнутом в познании законов окружающего нас мира. Но это не просто обзор научных достижений. Я еще и пытаюсь указать на целый ряд принципиальных трудностей, которые стоят перед наукой на ее пути к конечной цели. В частности, я утверждаю, что явление сознания не может быть описано в рамках современной физической теории.

Это явно противоречит довольно устоявшемуся пониманию сущности научного подхода, согласно которому все аспекты умственной деятельности (включая, в том числе, и сознание) -- не более, чем результат вычислений, происходящих в мозге; соответственно, электронные компьютеры должны быть потенциально способны к сознательному восприятию, которое возникло бы само собой при наличии достаточной мощности и соответствующих программ. Я постарался по возможности беспристрастно аргументировать свое несогласие с таким взглядом, указывая на то, что проявления сознательной деятельности мозга не могут быть объяснены в вычислительных терминах и -- более того -- с позиций современного научного мировоззрения в целом. Однако я ни в коем случае не утверждаю, что понимание этого феномена невозможно в рамках научного подхода -- просто современная наука еще не достигла уровня, необходимого для решения такой задачи.

Когда я писал эту книгу, мне трудно было вообразить, сколь бурной окажется реакция на изложенные в ней мысли -- причем не только из лагеря убежденных сторонников "компьютерной" модели разума, но и со стороны тех, кто считает научный метод недопустимым для изучения сознания. Я нисколько не сомневаюсь, что попытка затронуть чью-то личную философскую концепцию сознания -- как и религиозные воззрения -- может оказаться делом довольно рискованным. Но насколько щекотливой бывает подчас эта тема -- я едва ли мог представить себе в полной мере.

Мои рассуждения в том виде, в котором они представлены в книге, направлены на достижение двух целей. Первая из них -- это стремление показать, опираясь главным образом на результаты, полученные Геделем (и Тьюрингом), что математическое мышление -- а, следовательно, и умственная деятельность в целом -- не может быть полностью описано при помощи чисто "компьютерной" модели разума. Именно эта часть моих умозаключений вызывает у критиков наиболее настойчивые возражения. Вторая цель -- показать, что сегодня в физической картине мира есть существенное "белое пятно", а именно: отсутствует "мостик" между субмикроскопическим уровнем квантовой механики и макромиром классической физики. С моей точки зрения, теория, которая однажды восполнит этот пробел, должна будет в значительной степени помочь понять физические основы феномена сознания. Более того, в этой искомой области физики должно быть заложено нечто выходящее за рамки только вычислительных действий.

За десятилетие, прошедшее с момента первого издания книги, наука добилась целого ряда ошеломляющих успехов. Про некоторые из них я бы хотел вкратце рассказать здесь с тем, чтобы у читателя сложилось определенное представление о моем в\'идении современного состояния этих исследований. Сперва рассмотрим, насколько важна теорема Геделя для критики выдвинутых мной положений. Если попытаться изложить в двух словах суть этой теоремы (справедливость которой не оспаривается), то она будет выглядеть следующим образом. Пусть мы располагаем какой-нибудь вычислительной процедурой P, позволяющей нам формулировать математические утверждения (для определенности договоримся, что это будут утверждения какого-то одного вида, аналогичные, допустим, знаменитой теореме Ферма (см. с.)). Тогда, если мы готовы считать правила процедуры P надежными -- в том смысле, что мы будем полагать всякое математическое утверждение, полученное при помощи этой процедуры, неоспоримо верным, -- то равным образом мы должны принимать и неоспоримую справедливость некоторого утверждения G(P), которое лежит за пределами действия правил процедуры P (см. с.). Таким образом, как только мы научились автоматизировать некоторую часть нашего математического мышления, у нас сразу же появляется понимание, как выйти за его границы. В моем представлении это однозначно свидетельствует о том, что математическое понимание содержит определенные элементы, которые не могут быть полностью сведены к вычислительным методам. Но многие критики остались при своих убеждениях, указывая на различные возможные "тонкие места" в этих логических построениях. В моей следующей книге Тени разума я постарался ответить на все подобные возражения и привел ряд новых аргументов в пользу своей точки зрения. Тем не менее споры все еще продолжаются.

Одна из причин, мешающих людямпризнать прямое отношение, которое име-ет теорема Геделя к нашему математическому мышлению, заключается в том, что в рамках обычной ее формулировки утверждение G(P) не представляет интереса с математической точки зрения. Мало того: оно еще и чрезвычайно сложно для понимания в качестве математического выражения. Соответственно, даже математики предпочитают не "связываться" с подобными выражениями. Однако, существует ряд примеров утверждений геделевского типа, которые легко доступны пониманию даже для тех, чье знакомство с математической терминологией и системой записи ограничивается рамками обычной арифметики.

Особенно впечатляющий пример попался мне на глаза уже после того, как была опубликована эта книга (а также Тени разума). Это произошло на лекции Дэна Исааксона в 1996 году. Речь шла об известной теореме Гудстейна. Данный пример кажется мне настолько поучительным, что я хотел бы рассмотреть его здесь целиком, дабы читатель имел возможность непосредственно познакомиться с теоремами геделевского типа.

Чтобы понять суть этой теоремы, рассмотрим любое целое положительное число, скажем, 581. Для начала мы представим его в виде суммы различных степеней числа 2:

581 = 2
9+26+22+1.

(Такая процедура применяется для формирования двоичного представления числа 581, а именно, приведения его к виду 1001000101, где единицы соответствуют тем степеням двойки, которые присутствуют в таком представлении, а нули -- тем степеням, которых нет.) Далее можно заметить, что "показатели" в этом выражении -- т.е. 9, 6 и 2 -- могут быть, в свою очередь, представлены аналогичным образом (9=2
3+1, 6=22+21, 2=21); и тогда мы получим (вспоминая, что 21 = 2)

581 = 2
23+1+222+2+22+1.

Здесь все еще есть показатель больший, чем двойка -- в данном случае это "3", -- для которого тоже можно написать разложение 3 = 21 + 1, так что в конце концов мы будем иметь

581 = 2
22+1+222+2+22+1.

А теперь мы подвергнем это выражение последовательности чередующихся простых операций, которые будут

(а) увеличивать "основание" на единицу,

(б) вычитать единицу.

Под "основанием" здесь понимается просто число "2", фигурирующее в исходном выражении, но мы можем сделать то же самое и с б\'ольшими основаниями: 3,4,5,6,... . Давайте посмотрим, что произойдет при применении операции (а) к последнему разложению числа 581, в результате которой двойки становятся тройками:

3
33+1+1+333+3+33+1

(что дает -- если выписать его в обычной форме -- сороказначное число, начинающееся с 133027946...). После этого мы применяем (б) и получаем

3
33+1+1+333+3+33

(т.е. по-прежнему сорокозначное число, начинающееся с 133027946...). Далее мы выполняем (а) еще раз и получаем

4
44+1+1+444+4+44

(это уже значительно большее число, состоящее из 618 знаков, которое начинается с 12926802...). Следующая операция -- вычитание единицы -- приводит к выражению

4
44+1+1+444+4+3x43+3x42+3x4+3

(где тройки получаются по той же причине, что и девятки в обычной десятичной/ записи, когда мы получаем 9999, вычитая 1 из 10000). После чего операция (а) дает нам

5
55+1+1+555+5+3x53+3x52+3x5+3

(число, которое имеет 10923 знака и начинается с 1274...). Обратите внимание, что коэффициенты "3", которые возникают при этом, с необходимостью меньше, чем основание (в данном случае 5), и не изменяются с возрастанием последнего. Применяя (б) вновь, имеем число

5
55+1+1+555+5+3x53+3x52+3x5+2,

над которым мы опять производим последовательно действия (а), (б), (а), (б), ... и т.д., насколько возможно. Вполне естественно предположить, что этот процесс никогда не завершится, потому что каждый раз мы будем получать все б\'ольшие и б\'ольшие числа. Однако это не так: как следует из поразительной теоремы Гудстейна, независимо от величины исходного числа (581 в нашем примере), мы
в конце концов получим нуль!

Кажется невероятным, но это так. А чтобы в это поверить, я рекомендовал бы читателю самостоятельно проделать вышеописанную процедуру, для начала -- с числом "3" (где мы раскладываем тройку как 21 + 1, что дает последовательность 4, 3, 4, 2, 1, 0); а затем -- что более важно -- попробовать то же самое с "4" (при этом стартовое разложение в виде 4 = 22 приводит к вполне закономерно возрастающему ряду 4, 27, 26, 42, 41, 61, 60, 84, ..., который доходит до числа из 121210695-ти знаков, после чего уменьшается вплоть до нуля!).

Но что кажется еще более удивительным: теорема Гудстейна фактически является теоремой Геделя для той самой процедуры, которую мы изучали в школе под названием математической индукции, как было доказано в свое время Л.Кирби и Дж.Парисом. Как вы, должно быть, помните, математическая индукция позволяет установить справедливость некоторого математического утверждения S(n) для n = 1, 2, 3, 4, 5,.... Доказательство проводится в два этапа: сначала нужно проверить справедливость S(1), а затем показать, что, если верно S(n), то должно выполняться и S(n + 1). Приняв процедуру математической индукции за P, Кирби и Парис доказали, что тогда G(P) может иметь смысл теоремы Гудстейна.

Следовательно, если мы считаем процедуру математической индукции достоверной (с чем едва ли можно не согласиться), то мы должны верить и в справедливость теоремы Гудстейна -- несмотря на то, что при помощи одной лишь математической индукции доказать ее невозможно.

"Недоказуемость" теоремы Гудстейна, понимаемая в этом смысле, вряд ли может помешать нам убедиться в ее фактической справедливости. Наши интуитивные представления позволяют нам расширить действие тех ограниченных приемов "доказательства", которыми мы воспользовались ранее. В действительности сам Гудстейн доказал свою теорему, прибегнув к разновидности метода, который называется "трансфинитной индукцией". В контексте нашего изложения этот метод сводится к систематизации интуитивных ощущений, которые возникают в процессе знакомства с "причиной", по которой теорема Гудстейна и в самом деле верна. Эти ощущения могут родиться практически целиком за счет изучения некоторого числа частных случаев указанной теоремы. И тогда станет видно, как скромная незаметная операция (б) безжалостно "отщипывает" по кусочку от огромной башни "показателей" до тех пор, пока она не начинает постепенно таять и полностью исчезает, -- хотя бы на это ушло и невообразимо большое число шагов.

Все это говорит о том, что способность понимать никоим образом не может сводиться к некоторому набору правил. Более того, понимание является свойством, которое зависит от нашего сознания; и что бы не отвечало в нас за сознательное восприятие -- это должно самым непосредственным образом участвовать в процессе "понимания". Тем самым, в формировании нашего сознания с необходимостью есть элементы, которые не могут быть получены из какого бы то ни было набора вычислительных инструкций; что, естественно, дает нам веские основания считать, что сознательное восприятие -- процесс существенно "невычислимый".

Возможные "узкие места" в этом рассуждении сводятся к следующему. Наша способность (математического) познания может быть результатом вычислительной процедуры или непознаваемой из-за своей сложности; или не непознаваемой, но правильность которой, однако, не может быть установлена; или же ошибочной, хотя почти правильной. Говоря об этом, мы должны прежде всего установить, откуда могут возникать подобные вычислимые процедуры. В книге Тени разума я достаточно подробно рассмотрел все такие "узкие места", и я хотел бы порекомендовать эту книгу (равно как и статью Beyond the Doubting of a Shadow в журнале Psyche) всем читателям, кому интересно было бы ближе познакомиться с настоящим предметом.

Если мы согласимся с тем, что в нашей способности познавать -- а следовательно, и в нашей сознательной деятельности в целом -- есть нечто, выходящее за пределы чисто алгоритмических действий, то следующим шагом мы должны попытаться выяснить, в каких из наших физических действий может проявляться "существенно неалгоритмическое поведение". (При этом мы негласно предполагаем, что изучение именно "физического действия" определенного вида поможет нам разгадать тайну происхождения сознания.) Я пытаюсь доказать, что таким "неалгоритмическим действиям" нельзя найти место в рамках общепринятых сегодня физических теорий. А значит, мы должны искать соответствующее место, где в научной картине существует серьезный пробел. И я утверждаю, что это "белое пятно" лежит где-то на границе между "субмикроскопическим" миром, в котором правит квантовая механика, и непосредственно воспринимаемым нами макромиром, подчиняющимся законам классической физики.

Здесь необходимо сделать важное замечание. Термин "невычислимый" относится к некоторому классу математических действий, про которые известно -- то есть доказано математически, -- что они не поддаются вычислениям. И одна из задач данной книги заключается в том, чтобы познакомить читателя с этим вопросом. Невычислимые процессы могут быть полностью детерминистскими. Эта особенность является диаметрально противоположной по отношению к свойству полной случайности, которое характерно для современной интерпретации квантовой механики и возникает при увеличении микромасштабных квантовых эффектов до классического уровня -- R-процедуре в моей терминологии в этой книге. Я считаю, что необходима новая теория, которая позволит постичь смысл "реальности", принадлежащей сфере действия R-процедуры, которая сегодня используется в квантовой механике; и, как мне кажется, именно в этой неоткрытой пока новой теории мы найдем требуемый элемент невычислимости.

Кроме того, я смею утверждать, что эта недостающая теория является одновременно и искомым звеном между квантовой механикой и общей теорией относительности Эйнштейна. Для этой единой теории в физике применяется название "квантовая гравитация". Однако, большинство работающих в этой области ученых полагают, что объединение двух величайших теорий двадцатого века не затронет законов квантовой механики, в то время как общая теория относительности должна претерпеть изменения. Я придерживаюсь иной точки зрения, поскольку считаю, что методы квантовой теории (в частности, R-процедура) тоже должны существенно измениться. В этой книге я использовал термин "правильная квантовая теория гравитации" (или "ПКТГ"), чтобы обозначить возможный результат такого объединения -- хотя это и не будет теорией квантовой гравитации в обычном смысле (и, вероятно, "ПКТГ" тоже не очень удачный термин, который может ввести кого-то в заблуждение).

Хотя такой теории до сих пор не существует, это вряд ли может помешать нам оценить уровень, на котором она становится применимой. В книге я использовал для этих целей "одногравитонный критерий". Но несколько лет спустя я был вынужден изменить свои взгляды и, как мне кажется, найти более адекватный подход, изложенный в книге Тени разума. Этот подход близок к реальности не только "физически" (чему нашлось дополнительное подтверждение, которое я привел в одной из своих статей), но и с практической точки зрения, что подтолкнуло нас к дальнейшим теоретическим изысканиям. На самом деле, сейчас уже разработан ряд физических экспериментов, которые, надеюсь, можно будет осуществить в ближайшие несколько лет.

Но даже если все перечисленное окажется справедливым и мои умозаключения подтвердятся, это не поможет нам отыскать "местоположение сознания". Вероятно, один из недостатков этой книги заключается в том, что к моменту завершения работы над ней я так и не знал, в каком месте мозга может происходить "крупномасштабная квантовая когерентность", которая необходима для использования приведенных выше идей. С другой стороны, к достоинствам книги следует отнести то, что она вызвала живой интерес в самых широких научных кругах, представители которых могут внести ценный вклад в исследования этого вопроса. Одним из таких ученых оказался Стюарт Хамерофф, который познакомил меня с цитоскелетом клетки и входящими в него микроканальцами -- структурами, о которых я, к сожалению, не имел ни малейшего представления! Он также изложил мне свои оригинальные идеи по поводу возможной роли микроканальцев в нейронах мозга для феномена сознания -- что позволило мне предположить, что они-то и являются скорее всего тем местом, где может происходить крупномасштабная квантовая когерентность, на которую я опирался в своих рассуждениях. Конечно же, эта информация достигла меня уже слишком поздно, чтобы я мог включить ее в настоящее издание; но ее изложение можно найти в книге Тени разума и последующих статьях, написанных преимущественно в соавторстве со Стюартом Хамероффом.

Кроме последних достижений, упомянутых в этом новом вступлении, можно сказать, что все основные идеи книги Новый ум короля сохранились в том же виде, что и десять лет назад. Я надеюсь, что читатель, познакомившись с изложенными здесь мыслями, получит неподдельное удовольствие и почувствует желание самостоятельно продолжить изучение этих вопросов.

Роджер Пенроуз, сентябрь 1998

 


Глава 1

Может ли компьютер обладать разумом?

Введение

На протяжении нескольких предыду­щих десятилетий компьютерные технологии развивались семимильными шагами. Более того, нет никаких сомнений в том, что и бу­дущее сулит нам новые грандиозные успе­хи в повышении быстродействия и объема памяти, а также новые конструктивные ре­шения компьютерной логики. Сегодняшние компьютеры завтра покажутся нам таки­ми же медленными и примитивными, как механические калькуляторы прошлого. В та­ком стремительном развитии есть что-то по­чти пугающее. Уже сейчас машины способ­ны решать различные задачи, ранее являв­шиеся исключительной прерогативой чело­веческого интеллекта. И решать их со скоро­стью и точностью, во много раз превосходя­щими человеческие способности. Мы давно свыклись с существованием устройств, пре­восходящих наши физические возможности. И это не вызывает у нас внутреннего дис­комфорта. Наоборот, нам более чем ком­фортно, когда автомобиль несет нас в пять раз быстрее, чем лучший в мире бегун. Или когда с помощью таких устройств мы копа­ем ямы или сносим непригодные конструк­ции — с эффективностью, которую не разо­вьет и отряд из нескольких дюжин добрых молодцев. Еще больше нам импонируют ма­шины, с помощью которых у нас появляется возможность делать то, что нам ранее было попросту недоступно физически, например, подняться в небо и всего через несколько ча­сов приземлиться на другом берегу океана.

Эти машины не задевают нашего тщесла­вия. Но вот способность мыслить всегда бы­ла прерогативой человека. В конце концов, именно этой способности мы обязаны тому, что человеку удалось преодолеть его фи­зические ограничения и встать в развитии на ступеньку выше над другими живыми существами. А если когда-нибудь машины превзойдут нас там, где, по нашему мнению, нам нет равных — не получится ли так, что мы отдадим пальму первенства своим же собственным творениям?

Можно ли считать, что механическое устройство в принципе способно мыслить, или даже испытывать определенные чув­ства? Этот вопрос не нов, но с появлени­ем современных компьютерных технологий он приобрел новое значение. Смысл вопро­са глубоко философский. Что значит — ду­мать или чувствовать? Что есть разум? Су­ществует ли он объективно? И если да, то в какой степени он функционально зави­сим от физических структур, с которыми его ассоциируют? Может ли он существо­вать независимо от этих структур? Или он есть лишь продукт деятельности физичес­кой структуры определенного вида? В любом случае — должны ли подходящие структу­ры быть обязательно биологическими (мозг) или, возможно, этими структурами могут быть и электронные устройства? Подчиня­ется ли разум законам физики? И вообще, что такое законы физики?

Вот часть проблем, которые я попыта­юсь затронуть в этой книге. Просить дать определенный ответ на такие глобальные вопросы — это, конечно, было бы слишком. Я не способен дать такой ответ, да и никто не способен — хотя некоторые, возможно, попытались бы вас обескуражить своими до­гадками. Мои собственные догадки играют большую роль в последующем изложении, но я постараюсь очень внимательно подчер­кивать, где кончается строгий научный ана­лиз и начинаются догадки, а также то, чем мои соображения мотивированы. Я не пыта­юсь угадать правильные ответы: моя главная задача куда скромнее. Цель этой книги -поднять ряд, по-видимому, новых вопро­сов о взаимосвязи структуры физических законов, естества математики и разумного мышления, а также представить точку зре­ния, отличную от тех, которые я когда-либо встречал. Я не могу описать эту точку зре­ния в двух словах — вот одно из объясне­ний того, почему я решил написать книгу такого объема. Но если суммировать кратко (хотя краткость вполне может ввести чита­теля в заблуждение), моя позиция основана на осознании того, что именно наше недо­статочное понимание фундаментальных фи­зических законов препятствует построению концепции «разума» в физических и логиче­ских терминах. Я не утверждаю, что мы ни­когда не познаем физические законы в до­статочной для этого степени. Наоборот, одна из задач книги — попытаться дать стимул дальнейшим исследованиям в наиболее пер­спективных в данном отношении направле­ниях, и попробовать пояснить достаточно определенные (и, вероятно, свежие) сообра­жения о месте, которое могло бы занимать понятие «разума» в известной нам физичес­кой науке.

Сразу отмечу, что моя точка зрения не является общепринятой среди физиков. Поэтому маловероятно, что в настоящее время она получит признание ученых-ком­пьютерщиков или психологов. Любой фи­зик скажет вам, что фундаментальные за­коны, действующие на масштабах, харак­терных для человеческого мозга, прекрас­но известны. Хотя никто не отрицает, что в наших знаниях физики как таковой мно­гого недостает. Мы, например, не знаем ни основных законов, которые определяют значения масс субатомных частиц, ни за­конов, определяющих силу взаимодействия между этими частицами. Мы не знаем, как добиться полного согласования квантовой теории и специальной теории относительно­сти Эйнштейна — не говоря уже о том, как построить теорию квантовой гравитации, в рамках которой удалось бы согласовать квантовую теорию и общую теорию относи­тельности. Вследствие этого мы не способны понять природу пространства на чрезвычай­но малых расстояниях порядка 1/100 000 000 000 000 000 000 размеров известных фунда­ментальных частиц, хотя и считается, что на больших расстояниях наши представле­ния являются адекватными. Мы не зна­ем, является ли вселенная как единое це­лое конечной или бесконечной в простран­ственных или во временном измерениях, хо­тя подобные неопределенности, по-видимо­му, совершенно несущественны для физики важных для человека явлений. Мы не пред­ставляем себе, какие физические законы ра­ботают в сердцевине черных дыр и какие за­коны действовали в момент Большого взры­ва при рождении самой нашей вселенной. Все перечисленные проблемы, однако, ка­жутся нам невообразимо далекими от шка­лы явлений «повседневной» жизни (или чуть меньшей шкалы), от масштабов, характер­ных для жизнедеятельности человеческого мозга. И эти проблемы действительно нево­образимо далеки! Тем не менее, я утверждаю, что в нашем понимании физического мира есть брешь именно на том уровне, который может иметь непосредственное отношение к работе человеческого мозга и сознанию. Эта брешь — прямо у нас под носом (или, скорее, за ним)! Однако большинство фи­зиков даже не чувствуют ее — ниже я по­пытаюсь объяснить почему. Далее я приведу доводы в пользу того, что теории черных" дыр и Большого взрыва на самом деле име­ют определенное отношение к рассматри­ваемым вопросам!

Ниже я постараюсь убедить читателя в силе рассуждений, лежащих в основе пред­лагаемой мною точки зрения. Но чтобы понять ее, потребуется изрядно потрудить­ся. Нам понадобится совершить путеше­ствие в довольно странные области (кажу­щиеся, возможно, не имеющими отноше­ния к делу) и заглянуть во многие сфе­ры научной деятельности. Будет необходимо подробно изучить структуру, основы и парадоксы квантовой теории, основные положения специальной и общей теории относительности, теории черных дыр, Боль­шого взрыва, второго закона термодина­мики, максвелловской теории электромаг­нитных явлений, а также основы механи­ки Ньютона. При попытке понять природу и работу сознания в игру немедленно вой­дут также философия и психология. Имея перед собой компьютерные модели, мы, ко­нечно, не обойдемся и без экскурса в нейро­физиологию живого мозга. Нам понадобит­ся также некоторое представление о стату­се искусственного интеллекта. Потребуется разобраться, что такое машина Тьюринга, понять смысл вычислимости, теоремы Ге-деля и теории сложности. Кроме того, нам придется окунуться в дебри оснований ма­тематики и даже обсудить вопрос о самой природе физической реальности.

И если после всего этого читатель оста­нется скептически настроен к наиболее не­обычным из моих аргументов, то мне, по крайней мере, хочется верить, что он вы­несет нечто действительно ценное из этого изматывающего, но (я надеюсь) увлекатель­ного путешествия.

Тест Тьюринга

Представьте себе, что появилась новая модель компьютера, объем памяти и чи­сло логических ячеек которого больше, чем у человеческого мозга. Представьте далее, что такие компьютеры грамотно запрограм­мированы и в них введено огромное коли­чество необходимых данных. Производите­ли убеждают вас, что эти устройства могут на самом деле мыслить, и, возможно, утвер­ждают, что подобные компьютеры в дей­ствительности являются разумными. Или они идут еще дальше и заявляют, что эти машины могут чувствовать — чувствовать боль, радость, сострадание, гордость и т.п., и что они на самом деле понимают, что де­лают. То есть, как будто бы утверждается, что машины обладают сознанием.

Как нам понять, можно ли верить про­изводителям? Когда мы покупаем устрой­ство, мы, как правило, судим о его каче­стве лишь по полезным для нас функциям.

Если устройство работает по назначению, оно нас устраивает. Если нет — его ремон­тируют или меняют на новое. Чтобы про­верить справедливость утверждений произ­водителей о наличии человеческих качеств у данного устройства, мы должны, в соответ­ствии с указанным критерием, всего лишь потребовать от устройства поведения, повто­ряющего поведение человека в отношении данных качеств. Если устройство поведет се­бя удовлетворительно, к производителям нет претензий, и компьютер не требует возврата для ремонта или замены.

Такая схема дает существенно операционалистский подход к рассмотрению по­добных вопросов. Операционалист скажет вам, что компьютер мыслит, если компью­тер ведет себя точно так же, как и чело­век в момент раздумий. Примем, для нача­ла, эту операционалистскую точку зрения. Естественно, от компьютера здесь не требу­ется расхаживать по комнате, подобно то­му, как мог бы вести себя размышляющий о чем-то человек. Еще меньше мы озабо­чены тем, чтобы компьютер был внешне похож на человека или напоминал на ощупь человеческое тело: эти качества не имеют отношения к назначению компьютера. То, что нас действительно интересует — его спо­собность выдавать схожие с человеческими ответы на любой вопрос, какой нам забла­горассудится ему задать. И мы примем, что компьютер на самом деле думает (чувствует, понимает и т.д.), если его манера отвечать на наши вопросы будет неотличима от че­ловеческой.

Этот подход очень горячо отстаивался в знаменитой статье Алана Тьюринга [1950] Вычислительные машины и интеллект, по­явившейся в 1950 году в философском жур­нале Mind. (Фамилию Тьюринг мы еще встретим позже.) В этой статье впервые бы­ла предложена идея того, что сейчас назы­вают тестом Тьюринга. Тест предназначал­ся для ответа на вопрос о том, можно ли резонно утверждать, что машина думает. Пусть утверждается, что некоторый ком­пьютер (подобный тому, который продают производители из описания выше) в дей­ствительности думает. Для проведения теста Тьюринга компьютер вместе с человеком-добровольцем скрывают от глаз (проницательной) опрашивающей. Опрашивающая должна попытаться определить, где компью­тер, а где человек, задавая им двоим проб­ные вопросы. Вопросы, а еще важнее — ответы, которые она получает, передаются в безличной форме, например, печатаются на клавиатуре и высвечиваются на экране. Единственная информация, которой будет располагать опрашивающая — это то, что она сама сможет выяснить в процессе такого сеанса вопросов и ответов. Опрашиваемый человек честно отвечает на все вопросы, пы­таясь убедить женщину, что он и есть живое существо; компьютер, однако, запрограмми­рован таким образом, чтобы обмануть опра­шивающую и убедить ее в том, что человек на самом деле он. Если в серии подобных тестов опрашивающая окажется неспособ­ной «вычислить» компьютер никаким по­следовательным образом, то считается, что компьютер (или компьютерная программа, программист, разработчик и т. д.) прошел данный тест.

Можно возразить, что тест на самом деле не очень-то честный по отношению к компьютеру. Если бы роли человека и ма­шины поменялись, и человеку нужно бы­ло бы прикидываться компьютером, опре­делить «кто есть кто» не составило бы ника­кого труда: опрашивающей лишь стоило бы задать какой-нибудь очень сложный ариф­метический пример. Хороший компьютер тут же выдал бы правильный ответ, а человек оказался бы в замешательстве. (Здесь, одна­ко, следует проявить осторожность. Среди людей известны «вычислительные дарова­ния», способные в уме решать весьма нетри­виальные счетные задачи с безошибочной точностью и без всяких видимых усилий. Например, сын неграмотного крестьянина Иоганн Мартин Захария Дазе, живший в Германии с 1824 по 1861 год, в уме пе­ремножал любые два восьмизначных числа менее чем за минуту, а за шесть минут он перемножал два двадцатизначных числа! Та­кие способности не мудрено принять за ре­зультат работы компьютера. Более поздний пример (1950-е годы) — столь же исключи­тельные вычислительные способности Алек­сандра Айткена, профессора Эдинбургского университета. Нужно, чтобы арифметиче­ское задание опрашивающей было гораз­до сложнее — например, перемножить два тридцатизначных числа за две секунды. Хо­роший современный компьютер запросто справится с таким упражнением).

Итак, часть задачи программистов со­стояла бы в том, чтобы в некоторых ве­щах компьютер казался глупее, чем он есть на самом деле. Если опрашивающая задает сложный арифметический пример, подоб­ный приведенному выше, компьютер дол­жен притвориться, что не в силах на него ответить — иначе его немедленно изобличат! Я, правда, не думаю, что задача сделать ком­пьютер глупее в указанном смысле являет­ся серьезной проблемой для программистов компьютеров. Главная сложность — научить компьютер отвечать на простейшие вопросы на проверку «здравого смысла», с которыми у человека вообще не будет проблем!

У конкретных вопросов такого типа есть, однако, одно слабое место. Каков бы ни был вопрос, легко придумать способ за­ранее научить компьютер отвечать на данный вопрос точно так же, как на него ответил бы человек. И тем не менее, недостаток пони­мания компьютером сути весьма вероятно обозначится при продолжительном опросе, особенно если вопросы носят нестандарт­ный характер и требуют настоящего осмы­сления. Искусство опрашивающей должно включать как умение изобрести оригиналь­ные вопросы, так и умение дополнить их позже другими вопросами на понимание та­ким образом, чтобы выяснить, действитель­но ли вопросы были усвоены. Кроме того, она может периодически подбрасывать бес­смысленные вопросы (сможет ли компью­тер их распознать?), или вставлять один-другой с виду бессмысленный, но на деле все-таки имеющий смысл вопрос. Напри­мер, она может спросить: «Я слышала, что сегодня утром носорог летел вверх по Мис­сисипи на розовом воздушном шаре. Что Вы об этом думаете?» (Тут можно живо предста­вить себе, как лоб компьютера покрывается капельками холодного пота — если выбрать наименее подходящую метафору). Он может оказаться начеку и ответить: «Пожалуй, это звучит странно». Что ж, пока неплохо. Жен­щина: «Правда? Мой дядя как-то проделал это, причем туда и обратно, только на серо­ватом с полосками. Чего же тут странного?» Ясно, что без понимания компьютер скоро будет разоблачен. Отвечая на первый во­прос, он может даже ляпнуть: «Носороги не летают», — если в банках памяти удачно всплывет информация о том, что у них нет крыльев. Или ответить на второй вопрос, что носороги не бывают полосатыми. А даль­ше женщина может, например, подсунуть совершенно бессмысленный вопрос, заме­нив отдельные слова: «под Миссисипи», или «внутри розового воздушного шара» и т. п., и выяснить, хватит ли у компьютера здраво­го смысла, чтобы обнаружить существенное различие!

Оставим на время в стороне вопрос о том, возможно ли (а если да, то когда станет возможно) создание компьютера, ко­торый пройдет тест Тьюринга. Предполо­жим вместо этого — исключительно для того, чтобы обсудить проблему — что такие машины уже созданы. Возникает резонный вопрос, должен ли прошедший тест ком­пьютер непременно быть признан мыслящим, чувствующим, понимающим и т. д.? Этот во­прос мы рассмотрим очень скоро, а пока об­судим некоторые связанные с ним аспекты. Например такой: если производители чест­ны во всех своих самых смелых заявлениях и их устройство есть мыслящее, чувствую­щее, понимающее, сознательное существо, то покупка устройства возлагает на нас мо­ральную ответственность. Так непременно должно быть, если производителям можно верить. Использовать такой компьютер для наших нужд и не учитывать его пережива­ний было бы предосудительно. С мораль­ной точки зрения такое использование — это то же, что и жестокое обращение с ра­бом. Прежде всего, мы были бы должны избегать причинить компьютеру боль, ко­торую, по утверждениям производителей, он способен чувствовать. Выключение ком­пьютера, возможная его продажа после то­го, как компьютер к нам привык, были бы сопряжены для нас с моральными пробле­мами. Таких проблем возникло бы великое множество, и они были бы того же сорта, что и проблемы, которые возникают у нас в отношениях с другими людьми и живыми существами. Все это стало бы для нас во­просом первостепенной важности. И крайне важной для нас (да и для административных органов!) стала бы уверенность в том, что реклама производителей типа

Каждое мыслящее устройство прошло тщательное тестирование по Тьюрингу группой наших экспертов!

действительно является правдой.

Несмотря на очевидную абсурдность некоторых аспектов рассматриваемого во­проса (в частности, моральных), мне ка­жутся достаточно обоснованными доводы в пользу того, что успешно пройденный тест Тьюринга есть указание на присутствие мы­сли, интеллекта, понимания или сознания. В самом деле, на чем еще могут основы­ваться наши убеждения в присутствии этих качеств у других людей, кроме как на беседе с ними? Строго говоря, другие критерии то­же существуют: выражение лица человека, движения его тела и, вообще, его действия могут оказать на нас весьма сильное влия­ние. Не будет ничего сверхъестественного, если (возможно, в недалеком будущем) по­явится робот, который сможет удачно ими­тировать человеческую мимику и жесты. То­гда необходимость прятать робота и челове­ка от опрашивающей отпадет, но критерии теста, которые будут у нее в распоряжении, останутся неизменными.

Лично я готов к тому, чтобы значитель­но упростить тест Тьюринга. Мне кажет­ся, что требовать от компьютера идеального подражания человеку так, чтобы стать неот­личимым от него в каких-то существенных вопросах, это требовать от компьютера боль­ше, чем надо. Мне бы хватило, чтобы на­ша проницательная опрашивающая по отве­там на свои вопросы просто убедилась, что имеет дело с сознательным разумом, пусть даже чужеродным. Вот то, что реально не­достижимо во всех созданных на сей день компьютерных системах. Предвижу, однако, вероятность того, что после разоблачения компьютера у опрашивающей может воз­никнуть (возможно, подсознательное) не­желание приписать ему разумные качества даже тогда, когда она способна эти каче­ства различить. Или наоборот, у нее может создаться впечатление «присутствия чуже­родного разума», и она станет подыгрывать компьютеру, даже если «чужеродного разу­ма» и нет. Поэтому исходный вариант теста Тьюринга гораздо предпочтительней в силу большей объективности, и ниже я обыч­но буду придерживаться той схемы. Прису­щая ей «несправедливость» по отношению к компьютеру, о которой говорилось вы­ше (чтобы пройти тест, компьютер должен уметь все, что и человек, а человек не обязан иметь способности компьютера), не смуща­ет сторонников теста Тьюринга, считающих этот тест точным испытанием на способ­ность мыслить, чувствовать и т.д. Во всяком случае, многие из сторонников теста при­держиваются той точки зрения, что до того, как компьютер будет способен в действи­тельности пройти тест, ждать осталось не­долго — скажем, до 2010 года. (По прогно­зам самого Тьюринга, 30 %-ное успешное прохождение теста с опрашивающим «сред­них» способностей и всего с 5-минутным ограничением на продолжительность опро­са могло бы быть реализовано к 2000 году.) Они уверены, что даже такая «предубежден­ность» не способна существенно отодвинуть эту дату!

Все вышеизложенное становится важ­ным, коль скоро ставится вопрос по сути: дает ли операционалистская схема приемле­мый набор критериев, позволяющих судить о присутствии или отсутствии мыслитель­ных способностей у объекта? По мнению некоторых, — нет, не дает. Имитация, ка­кой бы искусной она ни была, не должна быть с необходимостью тем же, что и ори­гинал. Я занимаю в этом отношении скорее промежуточную позицию. Общий принцип, к которому я склоняюсь, состоит в том, что любая, даже самая искусная, имита­ция всегда должна быть обнаружима до­статочно тщательным тестированием. Хотя, конечно, это скорее вопрос веры (или на­учного оптимизма), чем доказанный факт. Таким образом, в целом я готов принять тест Тьюринга как грубо адекватный в том контексте, в котором он определяется. То есть, если компьютер действительно ока­жется способен ответить на все заданные вопросы в точности так же, как на них от­ветил бы человек, и тем самым последова­тельно и честно надуть нашу проницатель­ную опрашивающую, то в отсутствие свиде­тельств об обратном моим предположением было бы то, что компьютер действитель­но думает, чувствует и т. д. Использование мною слов «свидетельство», «действитель­но» и «предположение» подразумевает, что когда я говорю о мышлении, чувствах, пони­мании, или, в частности, сознании, я не от­ношусь к этим понятиям как к элементам общепринятой лексики, а имею в виду кон­кретные и объективные «вещи», присутствие или отсутствие которых в физических телах есть то, в чем мы хотели бы удостовериться. И это я считаю ключевым моментом. Пыта­ясь уловить присутствие данных качеств, мы делаем предположения на основании всех доступных нам свидетельств. (В принципе, точно так же действует астроном, пытаясь вычислить массу далекой звезды.)

Какие же свидетельства об обратном принимать во внимание? Наперед задан­ные правила установить сложно. Однако, я сразу подчеркну: тот факт, что компьютер может состоять из транзисторов и прово­дов, а не нейронов и кровеносных сосудов, сам по себе не является аргументом, кото­рый я рассматривал бы как свидетельство об обратном. Меня не покидает мысль, что когда-нибудь будет построена удовлетвори­тельная теория сознания - удовлетвори­тельная в смысле логической последователь­ности и физической приемлемости, чудес­ной согласованности с другим физическим знанием. Ее предсказания будут в точности соотноситься с представлениями человека об уровне и условиях существования его собственного сознания, — и такая теория может оказаться в действительности пло­дотворной в разрешении проблемы предполагаемого наличия сознания у нашего компьютера. Можно даже пофантазировать о «детекторе сознания», сконструированном по принципам такой теории — абсолютно надежном в случае человека, но дающем расходящиеся с тестом Тьюринга резуль­таты в случае компьютера. Интерпретация результатов тестов Тьюринга тогда потре­бует особой осторожности. По моему мне­нию, отношение к вопросу о пригодности теста Тьюринга отчасти зависит от предпо­ложений о том, как будет развиваться наука и техника. Ниже нам еще придется вернуть­ся к некоторым из этих рассуждений.

Искусственный интеллект

Очень большой интерес привлекают в последнее время исследования в области, называемой искусственным интеллектом, а часто — сокращенно — «ИИ». Целью этих исследований является научиться макси­мально возможно имитировать различные аспекты деятельности человеческого разума при помощи машин (как правило, элек­тронных) и, возможно, добиться развития способностей человека в этих направлени­ях. Есть, по крайней мере, четыре дисци­плины, которые проявляют интерес к до­стижениям в области ИИ. В первую очередь к ним относится робототехника — инженер­ная отрасль, которая занимается в основном индустриальными механическими устрой­ствами, способными выполнять «интеллек­туальные» операции — задачи, разнообразие и сложность которых требует вмешательства и контроля со стороны человека — при­чем выполнять их со скоростью и надеж­ностью, выходящими за рамки человечес­ких возможностей, или в неблагоприятных условиях, где жизнь человека будет подвер­жена опасности. Кроме этого, как с ком­мерческой точки зрения, так и в целом, представляет интерес развитие экспертных систем, которые позволили бы закодиро­вать самые существенные знания, относя­щиеся к определенным профессиям — ме­дицинские, юридические и т. п. — в виде пакета компьютерных программ! Возмож­но ли, чтобы опыт и экспертные оценки специалистов этих профессий были, в са­мом деле, заменены такими программами? Или единственный результат этих разрабо­ток, на который можно надеяться, — это просто длинный список фактической ин­формации с полной системой перекрест­ных ссылок? Вопрос о том, могут ли ком­пьютеры демонстрировать (или симулиро­вать) полноценную деятельность интеллек­та, имеет, несомненно, весьма значительные приложения в социальной сфере. Другой областью, к которой ИИ имеет непосред­ственное отношение, является психология. Можно надеяться, что попытка смоделиро­вать поведение человеческого мозга (равно как и мозга животного) при помощи элек­тронных устройств — или ее поражение -позволит узнать нечто важное о высшей нервной деятельности. И, наконец, среди оптимистов бытует надежда, что по схо­жим причинам ИИ мог бы пролить свет на глубокие вопросы философии, дав чело­веку возможность проникновения в смысл понятия разума.

Как далеко продвинулись исследования ИИ на сегодняшний день? Я едва ли смог бы систематизированно представить здесь все достижения в этой области. В разных угол­ках мира существует множество активно действующих групп, с работами которых я знаком очень поверхностно. Но справед­ливости ради необходимо заметить, что, хотя сделано было немало, произвести что-либо, достойное называться подлинным интеллек­том, до сих пор никому не удалось. Чтобы дать некоторое представление о предмете обсуждения, я для начала упомяну отдель­ные ранние (но даже сегодня весьма впеча­тляющие) достижения, а затем перейду к по­следним примечательным успехам в области разработки шахматных компьютеров.

Одним из первых устройств ИИ бы­ла «черепашка» Грэя В. Уолтера, созданная им в начале 1950-х годов, которая при­водилась в движение энергией внутренних батарей и бегала по полу до тех пор, пока они почти полностью не разряжались; по­сле чего она находила ближайшую розетку, подключалась к ней и заряжала их. Когда зарядка заканчивалась, она самостоятельно отсоединялась и продолжала свою прогул­ку! В дальнейшем было придумано множе­ство подобных механизмов (см., например, Валтц [1982]). Несколько отличное напра­вление развития исследований представляет компьютерная программа Терри Винограда, разработанная в 1972 году, которая могла производить осмысленные действия с на­бором блоков, разных по форме и цвету, размещая их один над другим в разных соче­таниях и в разном порядке. Поразительно, что, несмотря на эти первые достижения, создание системы контроля даже для про­стой суставчатой «роботизированной руки», которая должна была в процессе перемеще­ний избегать скопления препятствий, ока­залось весьма непростой задачей, хотя сто­роннему наблюдателю требуемые движения и представлялись совершенно «очевидны­ми». Такой же сложной оказалась и пробле­ма интерпретации зрительно воспринимае­мых сцен, которая в общем случае относится к области, где процедуры ИИ даже близко не подошли к реализации того, что мозг человека (и, конечно же, большинства дру­гих живых существ) способен делать «без всяких» видимых усилий.

Пожалуй, наиболее созвучна тесту Тью­ринга компьютерная программа, разрабо­танная К. М. Колби в середине 1960-х годов, которая имитирует психотерапевта - на­столько успешно, что некоторые пациенты обнаружили готовность отдать ей предпо­чтение перед терапевтом-человеком и рас­сказать о себе больше, чем при общении с живым врачом. В качестве примера та­кого общения между компьютерным «пси­хотерапевтом» и пациентом приведем сле­дующий отрывок из диалога (который велся посредством телетайпа):

Терапевт: Чем я могу помочь вам?

Пациент: Я не знаю...

Терапевт: Попробуйте рассказать что-нибудь об этом.

Пациент: Нет.

Терапевт: Можно узнать причину?

Пациент: Я сегодня устал и неважно себя чувствую.

Терапевт: Почему? Есть у вас на этот счет какие-нибудь предположения?

Пациент: Да... Я стар.

Терапевт: Пожалуйста, продолжайте.

Пациент: Мне кажется, что я потерял инте­рес ко всему происходящему.

Терапевт: Расскажите мне подробнее о ва­ших ощущениях.

Пациент: У меня есть кое-какие соображе­ния по этому поводу...

Терапевт: У вас есть соображения.

Пациент: Я думаю, что мне недостает семьи.

Терапевт: Что заставляет вас переживать из-за того, что вам недостает семьи?

Пациент: В этом есть какой-то вызов...

Терапевт: Почему это так важно для вас?

Хотя этот диалог может вызвать стран­ное ощущение понимания проблемы паци­ента компьютером, ничего подобного на са­мом деле нет: компьютер просто следует довольно простым механическим правилам. (Есть также и «обратная» ситуация, реализо­ванная в системе, где компьютер, имитиру­ющий страдающего шизофренией человека, дает хрестоматийные ответы и симулирует соответствующие симптомы, способные од­урачить некоторых студентов-медиков и за­ставить их поверить в то, что с ними беседует настоящий живой пациент!)

Компьютеры, играющие в шахматы, дают, наверное, наилучший пример пове­дения, воспринимаемого как «разумное». В действительности, некоторые машины до­стигли сегодня (к 1989 году) чрезвычайно высокого мастерства игры, если сравнивать с живыми шахматистами, и приближаются к уровню мастера международного класса. (Рейтинг этих машин составляет немногим менее 2300 единиц Эло, тогда как рей­тинг чемпиона мира Каспарова, для срав­нения, превышает 2700.) В частности, ком­пьютерная программа (для коммерческого микропроцессора Fidelity Excel), разработан­ная Дэном и Кейт Спраклэн, достигла по­казателя 2110 единиц Эло и была удостоена Шахматной федерацией США звания «Ма­стера». Еще больше впечатляет программа Deep Thought, написанная в основном Хсю (Hsiung Hsu) из университета Карнеги Меллон, рейтинг которой составляет 2500 еди­ниц Эло и которая недавно продемонстрировала замечательное достижение, поде­лив первое место с гроссмейстером Тони Майлсом на шахматном турнире (Лонгбич, Калифорния, ноябрь 1988 года) и обыграв Бента Ларсена, что можно рассматривать, на самом деле, как первую в истории побе­ду машины над гроссмейстером! Сегодня шахматные компьютеры преуспели и в ре­шении шахматных задач, с легкостью пре­взойдя в этом людей.

Шахматные машины опираются во мно­гом на «книжные знания», помноженные на аккуратность просчета комбинаций. Сто­ит отметить, что машина в целом «обыгры­вает» сравнимого по силе соперника в тех случаях, когда ходы необходимо делать бы­стро; и «проигрывает» живому противнику, если на каждый ход отпускается достаточ­ное количество времени. Это можно по­нять, если принять во внимание тот факт, что компьютер принимает решения, опира­ясь на точные и «быстро разветвляющиеся» вычисления; тогда как преимущество живо­го шахматиста заключается в его способно­сти производить «суждения», базирующиеся на сравнительно медленной сознательной деятельности по оценке ситуации. Эти че­ловеческие суждения сводятся к тому, что­бы «отбраковать» как можно большее число возможных серьезных вариантов ходов, ко­торые необходимо просчитывать в каждый момент; и при достаточном количестве вре­мени на обдумывание хода такие суждения позволяют производить гораздо более глу­бокий анализ, чем банальное просчитыва-ние и отбрасывание вариантов, при котором машина не использует подобные суждения. (Такая разница еще более наглядно демон­стрируется в сложной восточной игре «го», где число возможностей на каждом ходу зна­чительно больше, чем в шахматах.) Отно­шение между сознанием и формировани­ем суждений будет центральным моментом в моих дальнейших рассуждениях, особенно в главе 10.

Подход к понятиям «удовольствия» и «боли» с позиций ИИ

Согласно одному из распространенных убеждений, ИИ может указать нам путь к своего рода пониманию таких катего­рий восприятия, как счастье, боль, голод. Возьмем, к примеру, черепашку Грэя Уол­тера. Когда ее батареи садятся, ее поведе­ние изменяется и она начинает действовать так, чтобы пополнить запас своей энергии. Здесь есть явная аналогия с тем, как че­ловеческое существо — или любое другое животное — стало бы вести себя, ощутив голод. Похоже, мы не слишком сильно по­грешим против языка, если скажем, что че­репашка Грэя Уолтера была голодной, когда она действовала упомянутым образом. Не­кое устройство внутри нее, способное «ощу­щать» уровень заряда в батареях, заставляло ее переключаться в другой режим функцио­нирования, когда заряд опускался ниже не­которой отметки. Нет причин сомневаться в том, что подобный механизм включается и в голодных животных, но с единственной разницей — изменения модели поведения в этом случае более сложны и деликатны. Вместо простого переключения с одного режима на другой здесь происходит сме­на направленности действий; и эти измене­ния усиливаются (до определенной степени) по мере того, как нарастает необходимость восстановить запасы энергии.

Исходя из этого, некоторые привержен­цы ИИ утверждают, что такие понятия, как боль или счастье, могут быть смоделированы аналогичным образом. Давайте упростим за­дачу и будем рассматривать линейную шкалу «чувств», простирающуюся от крайней «бо­ли» (отметка: -100) до абсолютного «удо­вольствия» (отметка: +100). Представим да­лее, что у нас есть устройство — какая-ни­будь машина, предположительно электрон­ная, — которая располагает средствами для регистрации собственного (условного) пока­зателя «боль—удовольствие», который я бу­ду называть «бу-показатель». Устройство это должно иметь определенные модели поведе­ния и входные данные, как внутренние (типа состояния батарей), так и внешние. Идея за­ключается в том, что все действия машины должны быть подчинены критерию макси­мизации ее бу-показателя. Факторов, влия­ющих на его величину, может быть множе­ство. Мы, конечно же, можем сделать одним из них уровень заряда батарей, так, чтобы низкий уровень давал отрицательный вклад, а высокий — положительный; но могут су­ществовать и другие факторы. Возможно, наше устройство несет на себе солнечные батареи, которые дают альтернативный ис­точник энергии, при активации которого ак­кумуляторы перестают использоваться. Мы можем задать такую программу действий, при которой движение к свету будет немно­го увеличивать бу-показатель устройства -что оно и будет стремиться делать при отсут­ствии иных факторов. (Хотя, на самом деле, черепашка Грэя Уолтера, как правило, избе­гала света!) Ему потребуются какие-нибудь средства для выполнения вычислений, по­зволяющих оценивать последствия тех или иных действий в терминах величины бу-показателя. В дополнении к этому оно мо­жет уметь вводить вероятностные веса, так, чтобы в зависимости от достоверности ис­ходных данных вычисления давали больший или меньший вклад в бу-показатель.

Помимо этого нашему устройству не­обходимо будет задать еще и дополнитель­ные «цели», отличные от поддержания уров­ня его энергетических запасов, поскольку в противном случае мы не сможем отделить «боль» от «голода». Естественно, было бы слишком требовать от нашего механизма способности к размножению, поэтому да­вайте пока забудем о сексе! Но, возмож­но, мы могли бы имплантировать ему «же­лание» общения с аналогичными устрой­ствами, приписывая таким встречам поло­жительное значение бу-показателя. Или же мы можем заложить в него чистую «жа­жду знаний», когда даже простое накопле­ние фактов об окружающем мире имело бы положительный эффект на величину бу-по­казателя. (Действуя из эгоистических по­буждений, мы могли бы сделать так, что этот показатель увеличивался бы в результа­те оказания нам различных услуг — в точно­сти, как при создании робота-слуги!) Можно было бы расценивать такой подход к на­значению «целей» как искусственный, по­скольку мы руководствуемся здесь разве что своими капризам. Но, в действительности, это не слишком уж отличается от способа, которым нам как индивидуумам определя­ются «цели» в процессе естественного отбо­ра, где главенствующим фактором является необходимость распространять наши гены.

Предположим теперь, что мы благопо­лучно создали наше устройство, учтя все вышеизложенные требования. Но есть ли у нас основания утверждать, что оно будет и вправду чувствовать удовольствие при по­ложительном, а боль — при отрицательном значениях бу-показателя? С позиций ИИ (т. е. с операционалистской точки зрения), мы должны судить об этом просто по тому, как устройство себя ведет. Раз она действует с таким расчетом, чтобы увеличить свой бу-показатель настолько, насколько это воз­можно (и удерживать его на этом уровне максимально продолжительное время), и, соответственно избегать его отрицательных значений, то было бы разумным определить чувство удовольствия как степень положи­тельности бу-показателя, а чувство боли -как степень его отрицательности. «Обосно­ванность» этого метода определения выте­кает из полного сходства такого поведения с реакциями человека на удовольствие или боль. Конечно же, человеческие существа, как известно, далеко не так примитивны: иногда мы, кажется, намеренно не изба­вляемся от боли или избегаем некоторых удовольствий. Очевидно, что в наших дей­ствиях мы руководствуемся гораздо более сложными критериями (см. Деннетт [1978]). Но в качестве очень грубой аппроксимации можно считать, что все-таки в большинстве случаев мы стараемся избегать боли и по­лучать удовольствие. Для операционалиста этого было бы достаточно, чтобы оправ­дать — в таком же приближении — иден­тификацию бу-показателя нашего устрой­ства с его рейтингом по шкале «боль-удовольствие». Возможность установления подобных соответствий — одно из напра­влений теории ИИ.

Вопрос, который мы должны задать: правда ли, что наше устройство может по-настоящему чувствовать боль, если его бу-показатель отрицателен, и удовольствие в противном случае? Да и способно ли оно чувствовать хоть что-нибудь вообще? Операционалист, конечно, сказал бы «Естествен­но, да!»; либо отбросил бы этот вопрос как бессмысленный. Но мне представляется, что здесь есть серьезный и сложный вопрос, который необходимо рассмотреть. На наши действие влияет множество разнообразных факторов. Некоторые из них осознанные, как боль или удовольствие, тогда как дру­гие мы не воспринимаем сознанием. Это наглядно иллюстрируется примером челове­ка, касающегося раскаленной плиты. При­водится в действие механизм, который за­ставляет человека непроизвольно отдернуть руку еще до того, как он почувствовал боль. Вполне может оказаться, что такие спон­танные действия гораздо ближе по своей природе к реакциям нашего устройства, обу­словленным его бу-показателем, чем те, ко­торые действительно вызваны болью или удовольствием.

При описании поведения машин ча­сто — и, обычно, в шутку — используют­ся «человеческие» понятия: «Моя машина не хотела заводиться сегодня утром»; или «Мои часы до сих пор думают, что они идут по калифорнийскому времени»; или «Мой компьютер заявляет, что не понимает по­следнюю команду и не знает, что делать дальше». Конечно же, мы никоим образом не подразумеваем, что машина действитель­но может чего-либо хотеть, часы — что-то думать, а компьютер — о чем бы то ни было заявлять, а также понимать или даже знать, что он делает. Тем не менее подобные выражения могут быть поистине информативными и способствовать нашему пониманию, при условии, что мы их будем рассматривать только в том духе, в котором будем их произносить, а не в буквальном смысле слова. Я всегда занимаю в целом аналогичную позицию по отношению к раз­личным заявлениям сторонников ИИ о том, что сконструированные человеком устрой­ства могут обладать характеристиками со­знания — безотносительно от того, что под этим подразумевается! Если я согласен го­ворить, что черепашка Грэя Уолтера может быть голодной, то только лишь в полушутли­вом тоне. И если я готов использовать такие термины типа «боль» или «удовольствие», связывая их с бу-показателем некоторого устройства, как я это делал выше, то един­ственная причина этому заключается в том, что эти выражения облегчают мое понима­ние поведения устройства благодаря опре­деленным аналогиям с моим собственным поведением и состояниями сознания. При­чем здесь я ни в коем случае не подразу­меваю, что эти аналогии особенно близки, или что не существует прочих — нереги­стрируемых сознанием — явлений, которые влияют на мое поведение гораздо более схо­жим образом.

Я надеюсь, что читателю мое мнение достаточно ясно: я считаю, что проблема понимания свойств сознания гораздо более многогранна, чем можно извлечь непосред­ственно из экспериментов с ИИ. Тем не ме­нее, я уверен в необходимости признания этой области исследований и уважительного отношения к ней. При этом я не собираюсь утверждать, будто бы достижения в задаче моделирования действительного интеллекта велики (если они вообще есть). Но нужно всегда помнить о том, что сам предмет очень «молод».

Компьютеры станут быстрее, будут об­ладать высокоскоростным доступом к бо­лее вместительным устройствам хранения информации, большее количество логичес­ких элементов, и научатся выполнять боль­шой число операций параллельно. Улучшит­ся логическая структура и техника програм­мирования. Эти машины — носители фи­лософии ИИ — значительно и всесторон­не улучшат свои возможности. Более того: сама философия отнюдь не является аб­сурдной по самой своей сути. Возможно, что человеческий разум может и в самом деле быть смоделирован с очень большой степенью точности при помощи электрон­ных компьютеров — тех самых, которыми мы располагаем сегодня и принципы дей­ствия которых нам уже понятны, — но бо­лее мощных по своим характеристикам, чье появление в ближайшие годы вполне пред­сказуемо. Вероятно даже, что эти устрой­ства и вправду будут разумными; возможно, они будут думать, чувствовать и иметь соб­ственный интеллект. Или же, наоборот, они не будут разумными, и потребуются какие-то новые принципы, в которых мы сегодня остро нуждаемся. В этом-то и заключается вопрос, от которого нельзя просто отмах­нуться. Я постараюсь предоставить в ваше распоряжение факты так, как я их вижу; затем я приведу свои собственные сообра­жения на этот счет.

Сильный ИИ и китайская комната Серла

Существует точка зрения, называемая сильный ИИ, которая занимает весьма ра­дикальную позицию по этим вопросам. Согласно теории сильного ИИ, не только вышеупомянутые устройства будут разумны и наделены интеллектом — свойства разу­ма могут быть присущи логическим дей­ствиям любого вычислительного устройства, даже простейших из них, механических, од­ним из которых является, например, термо­стат. Основная идея заключается в том, что умственная деятельность - это про­сто выполнение некоторой хорошо опреде­ленной последовательности операций, ча­сто называемой алгоритмом. Далее я уточню это понятие. А пока нам будет достаточно определить алгоритм как своего рода вычи­слительную процедуру. В случае термоста­та алгоритм чрезвычайно прост: устройство фиксирует повышение или понижение тем­пературы по отношению к заданной вели­чине и размыкает или замыкает цепь, соот­ветственно. Алгоритм, соответствующий бо­лее-менее нетривиальной деятельности го­ловного мозга, должен быть гораздо более сложноструктурированным, но - согласно концепции сильного ИИ — это будет все же алгоритм. Он будет очень значительно отли­чаться от простейшего алгоритма термоста­та по степени сложности, но не обязатель­но будет иметь принципиальные отличия. Таким образом, с точки зрения сильного ИИ, существенная разница между деятель­ностью человеческого мозга (включая все проявления сознания) и работой термостата состоит единственно в этой самой услож­ненности (или, возможно, «структуре более высокого порядка», или «способности обра­щения к самому себе», или в любом другом свойстве, которое можно приписать алго­ритму), имеющей место в первом случае.

И, что более важно, все свойства ума — мышление, способность чувствовать, интел­лект, понимание, сознание — должны рас­сматриваться, согласно этому подходу, про­сто как разные аспекты сложной деятельно­сти; иными словами, они есть не более, чем свойства алгоритма, выполняемого мозгом. Достоинства любого конкретного алгорит­ма заключаются в его «технических харак­теристиках», таких как точность результа­тов, область применимости, экономичность и скорость выполнения. Алгоритм, нацелен­ный на подражание тому, что, как предпола­гается, действует в мозге человека, должен быть невообразимо сложным. Но если та­кой алгоритм для мозга существует — а это как раз то, что с уверенностью утвержда­ют поборники идеи сильного ИИ, — то он в принципе мог бы быть запущен на ком­пьютере. В сущности, он мог бы выпол­няться на любом современном компьютере общего назначения, если бы не имеющие­ся ограничения по скорости и пространству для хранения данных. (Обоснование этого замечания будет дано позднее, когда мы пе­рейдем к рассмотрению универсальной ма­шины Тьюринга.) Предполагается, что такие ограничения будут сняты с появлением в не­далеком будущем мощных быстродействую­щих машин. Тогда такой алгоритм, если он будет открыт, мог бы, вероятно, пройти тест Тьюринга. И как только он будет запущен, считают сторонники сильного ИИ, он будет сам по себе испытывать чувства, обладать сознанием, быть разумом.

Далеко не каждый согласится с тем, что разумные состояния и алгоритмы можно считать идентичными в указанном контек­сте. Наиболее остро критиковал эту точку зрения американский философ Джон Серл [1980, 1987]. Он приводил в пример ситуа­ции, когда должным образом запрограмми­рованный компьютер проходил упрощен­ную версию теста Тьюринга, и все же -он подкрепляет эти выводы очень сильны­ми аргументами — «понимание» как свой­ство интеллекта полностью отсутствовало. Один из таких примеров базируется на ком­пьютерной программе, разработанной Ро­джером Шенком (Шенк, Абельсон [1977]). Задачей программы была имитация понима­ния простых историй типа: «Мужчина вошел в ресторан и заказал гамбургер. Когда гам­бургер принесли, оказалось, что он силь­но подгорел, и рассерженный мужчина вы­скочил из ресторана, не заплатив по счету и не оставив чаевых». В качестве второ­го примера можно взять другую историю: «Мужчина вошел в ресторан и заказал гам­бургер. Когда его принесли, мужчина остал­ся им очень доволен. И, покидая ресторан, он дал официанту щедрые чаевые перед тем, как заплатить по счету». Чтобы проверить «понимание» этих историй компьютером, его «попросили» определить, съел ли муж­чина гамбургер в каждом отдельном случае (факт, который не был упомянут в тексте явным образом). На этот простой вопрос к таким простым историям компьютер мо­жет дать ответ, совершенно неотличимый оттого, что дал бы англоговорящий человек, а именно: «нет» в первом случае и «да» -во втором. Так что в этом, очень узком, смы­сле машина уже прошла тест Тьюринга!

Вопрос, к которому мы должны да­лее обратиться, будет таким: действитель­но ли подобный положительный результат указывает на истинное понимание, демон­стрируемое компьютером — или, возможно, заложенной в него программы? Как аргу­мент в пользу отрицательного ответа на этот вопрос, Серл предлагает свою концепцию «китайской комнаты». Он сразу же огова­ривает, что истории должны рассказывать­ся на китайском, а не на английском язы­ке — совершенно несущественная замена — и что все команды для компьютерного ал­горитма в этом конкретном случае должны быть представлены набором (английских) инструкций для работы со счетами, на кото­рые нанесены китайские символы. Проводя мысленный эксперимент, Серл представлял, что он сам выполняет все манипуляции вну­три запертой комнаты. Последовательность символов, описывающая истории, и вопро­сы к ним подаются в комнату через не­большие прорези. Никакой другой инфор­мации извне не допускается. В конце, ко­гда все действия выполнены, последователь­ность, содержащая ответ, выдается из той же прорези наружу. Поскольку все эти опера­ции есть не что иное, как составляющие процедуры выполнения алгоритма по про­грамме Шенка, то эта последовательность должна содержать просто китайские симво­лы, означающие «да» или «нет» и дающие корректный ответ на вопрос, который как, собственно, и сама история — был из­ложен по-китайски. При этом Серл недву­смысленно дает понять, что он не знает ни слова по-китайски, и посему не имеет ни малейшего представления о содержании рассказанных историй. Тем не менее, выпол­нив ряд действий, составляющих алгоритм Шенка (инструкции к которому были даны ему на английском языке), он справился бы с задачей не хуже китайца, способного без труда понять эти истории. Довод Серла - и весьма сильный, по моему мнению, — заключается в том, что простое выполнение подходящего алгоритма еще не говорит о по­нимании. (Воображаемый) Серл, запертый в китайской комнате, не понимает ни на йо­ту, о чем идет речь в этих историях!

Против доказательства Серла был вы­двинут ряд возражений. Я изложу здесь толь­ко те из них, которые — на мой взгляд -имеют серьезное значение. Прежде всего, фраза «не знает ни слова», если рассма­тривать ее в вышеприведенном контексте, является не вполне корректной. Понимание относится не только к отдельным словам, но и к определенным шаблонам. И при выполнении подобных алгоритмов можно в достаточной степени разобраться в струк­турах, которые составлены из символов, зна­чение каждого из которых в отдельности останется непонятным. Например, китай­ский иероглиф, соответствующий «гамбур­геру» (если он вообще существует), можно заменить на название какого-нибудь дру­гого блюда, допустим, «чоу мейн», суще­ственно не изменив при этом содержание истории. Однако, мне все-таки кажется, что настоящий смысл историй (даже если счи­тать такие подстановки незначительными) едва ли «дойдет» до того, кто будет про­сто скрупулезно выполнять шаг за шагом подобные алгоритмы.

Во-вторых, нужно всегда помнить о том, что выполнение даже сравнительно про­стой компьютерной программы оказывается в большинстве случаев длительным и труд­ным процессом, если за него берется чело­век, манипулирующий символами. (В конце концов, именно по этой причине мы дове­ряем такие действия компьютерам!) Если бы Серл в самом деле выполнял указанным вы­ше способом алгоритм Шенка, то ему для ответа на совсем простой вопрос понадо­бились бы дни, месяцы, а то и годы изну­рительно однообразной работы — не слиш­ком правдоподобное занятие для филосо­фа! Однако, это не представляется мне та­ким уж серьезным возражением, поскольку здесь мы рассматриваем вопрос в принципе и не касаемся технических деталей. Больше затруднений вызывает предположение о на­личии компьютерной программы, способ­ной сравниться с человеческим мозгом и, тем самым, безупречно пройти тест Тьюрин­га. Любая подобная программа должна быть невероятно сложной. Нетрудно вообразить, что действие такой программы, необходи­мое для нахождения ответа даже на срав­нительно простой вопрос теста Тьюринга, состояло бы из столь большого количества шагов, что ни для одного человеческого су­щества выполнение соответствующего алго­ритма за период, равный средней продолжи­тельности жизни, было бы невозможным. Так ли это на самом деле — трудно ска­зать, не имея подобной программы в своем распоряжении. Но, в любом случае, во­прос о чрезвычайной сложности (програм­мы), по-моему, игнорировать нельзя. По­нятно, что мы говорим о принципиальной стороне дела; и все же мне не кажется таким уж невероятным существование некоторой «критической» степени сложности алгорит­ма, которой необходимо достигнуть, чтобы алгоритм начал обладать качествами разума. Возможно, это критическое значение так велико, что ни один алгоритм, имеющий столь сложную структуру, не может быть выполнен вручную ни одним человеческим существом, как то предлагает Серл.

Сам Серл в качестве контраргумента к последнему возражению предлагает заме­нить фигурирующего ранее «жильца» (само­го себя) китайской комнаты — целой коман­дой не понимающих китайский язык мани­пуляторов символами. Чтобы сделать это чи­сло достаточно большим, он даже допускает возможность замены своей комнаты всей Индией, где все население (кроме понима­ющих китайский!) будет производить дей­ствия над символами. Хотя с практической точки зрения это было бы безумием, прин­ципиально это далеко не абсурдная модель, которая не вносит существенных изменений в первоначальные выводы: те, кто манипу­лирует символами, по-прежнему не пони­мают содержание историй, вопреки утвер­ждениям сторонников сильного ИИ о том, что простое выполнение подходящего ал­горитма вызвало бы возникновение при­сущего интеллекту свойства «понимания». Однако, теперь это возражение оттесняется на задний план другим, кажущимся серьез­нее: что, если эти индийцы более похожи на отдельные нейроны в человеческом моз­гу, чем на этот мозг в целом? Никто никогда не будет ожидать от нейронов, чье возбу­ждение, по-видимому, является централь­ным механизмом умственной деятельности, чтобы они сами понимали, о чем думает их «хозяин» — так почему же индийцы долж­ны понимать китайские истории? Серл па­рирует это возражение, указывая на явную абсурдность представления об Индии как реальной стране, понимающей некую исто­рию, в то время как все ее население не име­ет о ней ни малейшего понятия. Страна, го­ворит он, как и термостат или автомобиль, не «занимается» пониманием — это преро­гатива индивидуумов, проживающих на ее территории.

Этот аргумент выглядит значительно слабее предыдущего. Я думаю, что дока­зательство Серла наиболее убедительно в случае одного исполнителя алгоритма, где мы должны ограничиться алгоритмом, чья степень сложности допускает его выполне­ние за время, не превышающее нормаль­ную продолжительность человеческой жиз­ни. Я не рассматриваю этот аргумент как непреложное свидетельство того, что не су­ществует никакого бестелесного «понима­ния», ассоциируемого с процессом выпол­нения алгоритма людьми, чье присутствие никак не влияет на их собственное сознание. Однако, я бы скорее согласился с Серлем, что эта возможность представляется, мяг­ко говоря, малоправдоподобной. Мне сда­ется, что довод Серла весьма убедителен, хотя и не является решающим. Он с оче­видностью демонстрирует, что алгоритм та­кой степени сложности, которой обладает компьютерная программа Шенка, не может иметь какого бы то ни было понимания выполняемых задач; также из него предпо­ложительно следует (и не более того), что ни один алгоритм, независимо от сложно­сти его структуры, не может сам по себе воплощать настоящее понимание — вопре­ки утверждениям поборников сильного ИИ. Существуют, на мой взгляд, и иные очень серьезные проблемы, связанные с сильным ИИ. Согласно этой точке зрения, единственное, что имеет значение — это ал­горитм. И совершенно неважно, кто приво­дит его в действие: человеческий мозг, элек­тронный компьютер, целое государство ин­дийцев, механическое устройство из колеси­ков и шестеренок или система водопровод­ных труб. В рамках этой теории существен­ным для воплощения заданного «состояния разума» является сама логическая структу­ра алгоритма, а его физическая реализация никакой роли не играет. Но, как указыва­ет Серл, это может привести к определен­ной форме дуализма. Дуализм — это фи­лософское мировоззрение, апологетом ко­торого был в высшей степени влиятельный философ и математик XVII века Рене Де­карт, утверждавший, что существуют две различные субстанции: «разумная субстан­ция» и обычная материя. Влияют ли они друг на друга, и если да, то каким образом — это уже отдельный вопрос. Ключевое положе­ние этой точки зрения заключается в гипо­тезе о том, что «разумная субстанция» не мо­жет состоять из материи обычной и способ­на существовать независимо от нее. «Разум­ная субстанция» в представлениях сильного ИИ — это логическая структура алгорит­ма. Как я отмечал выше, ее физическое воплощение не имеет никакого значения. Алгоритм обладает неким бесплотным су­ществованием, никак не связанным с кон­кретной физической реализацией. Насколь­ко серьезно мы должны воспринимать такой вид существования — вопрос, к которому мне придется вернуться в следующей главе. Он представляет собой часть более глобаль­ного вопроса о платонистической реально­сти абстрактных математических объектов.

Пока же я обойду эту общую тему стороной и отмечу только, что сторонники сильного ИИ, по-видимому, принимают всерьез воз­можность подобного существования в слу­чае алгоритмов, полагая, что те являются самой «сущностью» их мыслей, чувств, по­нимания и сознательного восприятия. В свя­зи с этим Серл указал на примечательный в своей ироничности факт: теория сильно­го ИИ может привести к крайней форме дуализма — к той точке зрения, к кото­рой сторонники сильного ИИ менее всего хотели бы иметь отношение!

Эта дилемма просматривается в рас­суждениях, предложенных Дугласом Хоф-штадтером [1981] — убежденным сторонни­ком сильного ИИ — в диалоге с названи­ем Беседа с мозгом Эйнштейна. Хофштадтер выставляет на обозрение книгу, имеющую абсурдно большие размеры и содержащую, по его утверждению, полное описание мозга Альберта Эйнштейна. Идея такова: на лю­бой вопрос, который кто-либо пожелал бы задать Эйнштейну, можно получить ответ в точности такой, каким был бы ответ жи­вого Эйнштейна, если просто листать кни­гу и тщательно следовать всем приведен­ным в ней инструкциям. Конечно же, сло­во «просто» здесь совершенно неуместно, как то особо оговаривает сам Хофштадтер. Ведь смысл его утверждения иной: принци­пиально эта книга полностью эквивалентна (в операционалистском смысле теста Тью­ринга) до смешного медленной «версии» на­стоящего Эйнштейна. Тем самым, если сле­довать положениям теории сильного ИИ, эта книга должна была бы думать, чувство­вать, понимать и осознавать в точности так, как это делал бы сам Эйнштейн, только не­вероятно медленно (так что для этого «кни-го-Эйнштейна» внешний мир казался бы мелькающим перед ним с огромной скоро­стью). И естественно, что книга, предста­вляющая из себя частную реализацию ал-горитмизованной «сущности» Эйнштейна, была бы как раз-таки самим Эйнштейном.

Но тут возникает другая трудность. Книгу могут не открыть ни разу - или же, напротив, над ней будут корпеть мно­гочисленные студенты и искатели истины. Как книга «поймет» разницу между этими двумя крайностями? Возможно, книгу даже не понадобится открывать, если в ход будет пущено считывание информации при помо­щи рентгеновской томографии или какое-нибудь другое технологическое чудо-сред­ство. Осознает ли Эйнштейн, что книга изу­чается подобным образом? Будет ли он знать о двух попытках найти с его помощью от­вет на один и тот же вопрос, если он был задан дважды, разными людьми и в разное время? Или это вызовет две разделенные по времени копии одного и то же состоя­ния осознания? Возможно, акт осознавания будет иметь место только в случае изме­нений, произошедших с книгой? В конце концов, мы обычно осознаем нечто, когда получаем о нем информацию извне, кото­рая воздействует на наши воспоминания и, естественно, несколько изменяет состояние нашего ума. Если это так, то означает ли это, что именно (соответствующие) измене­ния алгоритмов (здесь я рассматриваю хра­нилище информации как часть алгоритма) должны приниматься за события, происхо­дящие в процессе умственной деятельно­сти — а не само выполнение (хотя, быть мо­жет, и оно тоже) алгоритмов? Или же «кни-го-Эйнштейн» способен полностью осозна­вать себя даже в том случае, когда его никто не будет изучать и ничто не потревожит? Хофштадтер затрагивает некоторые из этих вопросов, но на большинство из них он да­же не пытается по-настоящему ответить или хотя бы подробно разобраться с ними.

Что значит «запустить алгоритм» или «реализовать его физически»? Будет ли из­менение алгоритма как-нибудь отличаться от его замены на другой алгоритм? И как же все это, черт побери, связано с нашими чувствами и осознаванием?! Читатель (если только он не принадлежит к лагерю сто­ронников сильного ИИ) может удивиться, видя сколько времени я уделяю такой за­ведомо абсурдной идее. Но я-то, на самом деле, не считаю ее изначально абсурдной — только лишь неверной! Некоторые рассу­ждения, на которые опирается теория силь­ного ИИ, я считаю достаточно убедитель­ными и попытаюсь обосновать свое мнение ниже. В некоторых идеях — если их мо­дифицировать подходящим образом — есть, на мой взгляд, определенная привлекатель­ность, которую я также постараюсь передать.

Более того: как мне кажется, те самые контр­аргументы, которые приводит Серл, в свою очередь тоже содержат ряд серьезных голо­воломок и кажущихся нелепостей — хотя, в какой-то степени, я с ним и согласен!

Серл в ходе своих рассуждений не­явным образом признает, что сегодняш­ние электронные компьютеры, снабженные значительно увеличенными быстродействи­ем и размерами устройств хранения инфор­мации с высокой скоростью обмена данны­ми (и, возможно, параллельным выполнени­ем операций), вполне могли бы в обозримом будущем успешно пройти тест Тьюринга. Он готов признать утверждение сторонников сильного ИИ (и многих других «научных» точек зрения), что мы «просто конкретные экземпляры реализации некоторого числа компьютерных программ». Более того, он соглашается и с тем, что: «Конечно, наш мозг является цифровым компьютером. По­скольку всё есть цифровые компьютеры, то и мозг — тоже». Серл полагает, что раз­ница между действием человеческого мозга (который может иметь разум) и электрон­ным компьютером (который, как он утвер­ждает, такого свойства не имеет), когда они выполняют один и тот же алгоритм, состоит исключительно в материальной конструк­ции того и другого. Он заявляет — правда, не давая этому никакого обоснования — что биологические объекты (мозг) могут обла­дать «ментальностью» и «семантикой», кото­рые он считает основополагающими для ум­ственной деятельности, тогда как компью­теры — нет. Само по себе, как мне кажется, это не может указать направление развития некой полезной научной теории интеллекта. Что уж такого особенного есть в биологичес­ких системах — если не принимать в расчет их «исторический» путь развития (и того, что мы оказались как раз такими система­ми), — что могло бы выделить их в ка­честве объектов, которым позволено «дора­сти» до ментальности или семантики? Это заявление подозрительно напоминает мне догматическое утверждение, причем не ме­нее догматического свойства, чем утвержде­ния сторонников сильного ИИ о том, что, просто выполняя алгоритм, можно вызвать состояние осознанного восприятия!

По-моему, Серл, как и многие другие, были введены в заблуждение компьютерщи­ками. А тех, в свою очередь, сбили с толку физики. (Но это не вина физиков. Даже они не в состоянии знать все обо всем!) Вера в то, что «все на свете является цифровыми компьютерами», кажется общераспростра­ненной. И я намерен показать в этой книге, что это совсем не обязательно так.

«Железо» и «софт»

На компьютерном жаргоне слово «же­лезо» используется для обозначения всех устройств и элементов, из которых состоит компьютер (печатные платы, транзисторы, провода, накопители на магнитных дисках, и т. п.), включая также полное руководство по сборке. Аналогичным образом термин «софт» относится к различным программам, которые могут выполняться на компьютере. Одним из замечательных открытий Тьюрин­га было то, что, по существу, любая машина с начинкой из «железа», характеризуемого определенной степенью сложности и гиб­кости, эквивалентна любой другой маши­не с такими параметрами. Эквивалентность двух машин (скажем, А и В) здесь долж­на пониматься в смысле точного соответ­ствия действий А — при соответствующем заложенном в нее программном обеспече­нии — действиям В, и наоборот. Я упо­требляю здесь слово «точный» по отноше­нию к конечным результатам, получающим­ся при введении в машины произвольных начальных данных (после того, как уже было введено преобразующее программное обес­печение), а не в смысле равенства времени, затраченного каждой машиной на получе­ние ответа. Кроме этого, я допускаю для обеих машин возможность получения до­ступа к дополнительным (и, в принципе, неограниченным) внешним запасам чистых «черновиков» — магнитным пленкам, дис­кам, барабанам или иным носителям ин­формации, — если какая-либо из них на­чинает испытывать нехватку в простран­стве для хранения промежуточных резуль­татов вычислений. Вообще говоря, разница между машинами А и В в затрачиваемом на выполнение некоторого задания времени может оказаться весьма серьезной. Вполне возможно, например, что машина А будет выполнять определенную задачу в тысячу раз быстрее, чем В. Равным образом может статься, что для другого задания время его выполнения машиной В окажется в тысячу раз меньше, чем машиной А. Более того, эти конкретные показатели могут в значитель­ной степени зависеть от выбора используе­мых для конвертации программ. Но в рам­ках этой дискуссии нет нужды рассматри­вать такие практические аспекты, как спо­собность выполнять вычисления за опреде­ленное время, поскольку наши рассуждения носят по большей части «принципиальный» характер. В следующем разделе я конкрети­зирую содержание тех концепций, которые затрагиваются здесь: машины А и В являют собой примеры того, что называют универ­сальными машинами Тьюринга.

В сущности, все современные общеупо­требительные компьютеры — это универ­сальные машины Тьюринга. Тем самым все такие компьютеры будут эквивалентны друг другу в вышеупомянутом смысле: различия между ними будут заключаться единственно в программном обеспечении, при условии, что нас не волнует разница в скорости вы­полнения операции и возможные ограни­чения пространства для хранения данных. Но современные технологии сделали ком­пьютеры способными работать так быстро и с такими огромными объемами памяти, что для большей части «повседневных» за­дач ни один из этих практических аспек­тов не накладывает серьезных ограничений на спектр решаемых такими компьютера­ми задач — так что эта эффективная эквивалентность, введенная на теоретиче­ском уровне, просматривается и на прак­тике. Кажется, что технология превратила совершенно абстрактные когда-то академи­ческие дискуссии об идеальных вычисли­тельных устройствах — в устройства реаль­ные, и непосредственно влияющие на нашу жизнь!

Насколько я могу понять, одним из наи­более важных положений, на которых ба­зируется философия сильного ИИ, являет­ся именно эта эквивалентность между раз­личными физическими вычислительными устройствами. «Железо» расценивается как сравнительно (или вообще) несуществен­ный фактор, в то время как «софт», т. е. программа или алгоритм, считается един­ственным жизненно важным компонентом. Однако, мне кажется, что существуют и дру­гие, не менее важные «краеугольные кам­ни здания сильного ИИ», которые следуют из физики. Сейчас я попытаюсь дать неко­торое представление об их природе.

Что позволяет нам идентифицировать себя как личность? Может быть, в какой-то степени — сами атомы наших тел? Особое сочетания электронов, протонов и других частиц, из которых состоят эти атомы? Есть, по крайней мере, два возражения против этого предположения. Во-первых, вещество тела любого живого существа претерпевает постоянные изменения и обновления. Это справедливо, в частности, для клеток го­ловного мозга, несмотря на то, что после рождения новые клетки уже не образуются. Абсолютное большинство атомов в каждой живой клетке (включая все клетки мозга) — и, конечно же, практически все ткани на­шего тела — замещаются новыми по много раз с момента рождения.

Второе возражение приходит из кван­товой физики — и, по странной иронии, находится, строго говоря, в прямом про­тиворечии с первым! Согласно квантовой механике (и мы узнаем об этом больше в главе 6) любые два электрона долж­ны быть с необходимостью одинаковыми; и то же самое справедливо в отношении двух произвольно взятых протонов или пары лю­бых других частиц, относящихся к одному типу. То, что подразумевается под этим, от­нюдь не ограничивается утверждением об их неразличимости — оно значительно силь­нее. Если пришлось бы поменять между со­бой электрон в человеческом мозге и элек­трон в кирпиче, то состояние системы оста­лось бы в точности тем же самым, что и до этого — тем же самым, а не просто неотличимым! Аналогичное правило спра­ведливо и для протонов, и для других разно­видностей частиц, а также для целых атомов, молекул и т. п. Если весь материал человече­ского тела заместить соответствующими ча­стицами кирпичей из его дома, то, в букваль­ном смысле, вообще ничего не изменится.

То, что отличает человека от своего дома — это то, в какую структуру организованы со­ставляющие его тела, а не индивидуальные свойства этих составляющих.

Можно привести аналогию из повсе­дневной жизни, не имеющую отношения к квантовой механике, которая бросилась мне в глаза, пока я набирал эти строки, имея в своем распоряжении один из плодов информационной технологии — текстовый редактор. Если я хочу изменить слово, ска­жем, «болт» на «борт», то могу сделать это просто заменив букву «л» буквой «р»; или же я могу вместо этого напечатать все слово за­ново. Выбрав последний вариант, я встану перед вопросом: а та ли это теперь буква «б», что была ранее, или я заменил ее иден­тичной? А как насчет «т»? Даже если я решу просто поменять букву «л» на «р», а не пе­ребивать все слово заново — будет момент, как раз между удалением «л» и появлени­ем «р», когда пустое место «схлопывается» и по всему тексту сверху вниз пройдет волна перестановок, при которых пересчитывает­ся расположение всех букв, включая «т» -а затем пере-пересчитывается еще раз при вставке на то же место «р». (Ох уж эта деше­визна бездумных вычислений в наши дни!) В любом случае, все буквы, которые я вижу на экране, есть не более чем разрывы на пу­ти следования электронного луча в процессе сканирования всего экрана, происходящего шестьдесят раз в секунду. Если я возьму произвольную букву и заменю ее на та­кую же — сохранится ли при этом исходное состояние точно таким же или оно будет только лишь неотличимо? Попытка прове­сти смысловое разделение между двумя эти­ми определениями нового состояния (т. е. между «только лишь неотличимое» и «точно такое же») кажется несерьезной. По крайней мере, коль скоро замещающая буква являет­ся идентичной, возникает желание назвать это состояние таким же. И то же самое вер­но и для квантовой механики одинаковых частиц. Поменять одну из частиц на другую, эквивалентную — все равно, что не поме­нять ничего. Состояние при этом должно считаться тем же самым, что и в начале. (Однако, как станет ясно в главе 6, подобное различие не так уж тривиально в контексте квантовой механики.)

Рассуждения, сделанные выше по по­воду непрерывного обновления атомов че­ловеческого тела, надо рассматривать ско­рее в рамках классической физики, нежели квантовой. В этих рассуждениях использу­ется терминология, которая неявно подра­зумевает возможность индивидуального су­ществования каждого атома. На этом уровне описания классическая физика вполне аде­кватна и мы не слишком погрешим против истины, если будем рассматривать атомы в качестве отдельных объектов. При усло­вии, что атомы достаточно хорошо отде­лены друг от друга в процессе движения, можно было бы говорить об их индивиду­альном существовании, поскольку каждый атом допускает в этом случае непрерывное наблюдение за собой. С точки зрения кван­товой механики говорить об индивидуаль­ности атомов можно только ради удобства описания, однако на рассматриваемом уров­не это вполне допустимо.

Давайте примем, что индивидуальность человека никак не связана с индивидуально­стью, которую можно было бы постараться приписать его материальной основе. Вме­сто этого она должна определяться своего рода конфигурацией составляющих элемен­тов этой основы - их пространственной или, допустим, пространственно-временной структурой. (Подробно об этом — далее.) Но сторонники сильного ИИ идут еще даль­ше. Если информационное содержание та­кой конфигурации перевести в другую фор­му, из которой затем можно было бы пол­ностью восстановить оригинал, то, соглас­но их утверждению, индивидуальность че­ловека осталась бы неизменной. Это похоже на ситуацию с последовательностью букв, которую я только что напечатал и теперь ви­жу на дисплее моего текстового редактора. Если я уберу их с экрана, то они, тем не ме­нее, сохранятся записанными в виде опреде­ленных крошечных изменений электричес­кого заряда, в конфигурации, геометрически никак не соотносящейся с буквами, которые я минуту назад напечатал. И все же в лю­бой момент я могу вернуть их на экран — и вот они, пожалуйста, точь-в-точь такие же, словно и не было никаких преобра­зований. Если я захочу сохранить напи­санное, то я могу перевести информацию о последовательности букв в некоторую кон­фигурацию намагниченных доменов на дис­ке, который я затем выну и выключу маши­ну, аннулируя тем самым все (соответствую­щие) крошечные изменения заряда в ячей­ках ее памяти. Тогда завтра я смогу сно­ва вставить диск, восстановить эти смеще­ния и отобразить последовательность букв на экране так, как будто ничего и не случи­лось. Приверженцам теории сильного ИИ «ясно», что аналогичным образом можно обращаться и с личностью человека. Как и в случае с буквами у меня на экране, скажут они, человеческая индивидуальность ничего не потеряла бы — собственно, с ней вообще ничего бы не произошло, — если ее физическую форму перевести во что-нибудь совершенно иное, скажем, в поля намагни­ченности железного бруска. Они, кажется, даже готовы поспорить, что сознательное восприятие человека сохранилось бы и в то время, пока «информация» о нем пребы­вает в другой форме. При таком подходе «человеческое сознание» должно рассматри­ваться, по сути, как набор программ -«софта», — а его конкретное воплощение в виде материального человеческого суще­ства — как действия этих программ, осу­ществляемые «железной начинкой» его тела и мозга.

Основанием для подобных заявлений служит, вероятно, убежденность в том, что какую бы материальную форму не прини­мало «железо» — пусть это будет, например, какое-нибудь электронное устройство, -ему можно будет всегда «задать» вопрос-программу (в духе теста Тьюринга), и от­вет на него, в предположении о способно­сти «железа» адекватно вычислять ответы на эти вопросы, будет неотличим от от­вета человека, данного им в нормальном психическом состоянии. («Как вы чувству­ете себя сегодня утром?» - - «О, вполне сносно, хотя мне немного докучает легкая головная боль». — «Значит, вы не чувствуе­те... э-э... ну, чего-нибудь необычного, свя­занного с вашей личностью... ничего та­кого?» — «Нет. А почему вы спрашиваете об этом? Довольно странный, знаете ли, вопрос...» — «То есть вы чувствуете себя тем же самым человеком, что и вчера?» -«Ну конечно!»)

Идея, которую часто обсуждают в свя­зи с этим, носит в фантастической лите­ратуре название телепортационной маши­ны). Предполагается использовать ее для транспортировки, допустим, с одной пла­неты на другую; но будет ли она рабо­тать именно таким образом — это как раз и является предметом обсуждения. Вместо того, чтобы перемещаться «обычным» пу­тем — на космическом корабле, — гипоте­тический путешественник подвергается ска­нированию с макушки до пят, при котором со всей возможной аккуратностью фиксиру­ется положение и характеристики каждого атома в его теле. Затем вся эта информация передается со скоростью света при помо­щи любого подходящего электромагнитного сигнала на ту планету, где он хотел бы ока­заться. Там эта информация собирается во­едино и используется в качестве инструкций для создания точной копии путешественни­ка, со всеми его воспоминаниями, устрем­лениями, надеждами и самыми глубокими чувствами. По крайней мере, так это должно выглядеть на практике: все детали состояния мозга подробно записываются, затем пере­даются, и по этим данным происходит ре­конструирование. Если предположить, что все произошло так, как надо, то оригинал можно «безболезненно» уничтожить. В та­ком случае возникает вопрос: является ли такой механизм настоящим путешествием с одного места на другое — или же это про­сто создание дубликата, сопровождающееся убийством оригинала? Будете ли вы готовы воспользоваться таким способом «путеше­ствия» при условии, что он подтвердит свою стопроцентную надежность? Если телепор-тация не является путешествием, то в чем же заключается принципиальная разница между ней и простым переходом из одной комна­ты в другую? А в последнем случае — разве не определяют атомы в один момент време­ни информацию об их положении в последу­ющие моменты? В конце концов, мы виде­ли, что сохранять «индивидуальность» како­го бы то ни было атома — нецелесообразно. Вопрос об индивидуальных характеристиках атома вообще не имеет смысла. Разве про­извольная движущаяся структура из атомов не представляет собой своего рода волну информации, распространяющуюся между точками пространства? Тогда есть ли суще­ственная разница между распространением волн, несущих информацию о переходящем из комнаты в комнату человеке, — и тех, что посылаются устройством телепортации?

Допустим, что телепортация действи­тельно «работает» в том смысле, что «со­знание» путешественника на самом деле просыпается в его двойнике, находящем­ся на далекой планете. Что тогда произой­дет в том случае, если мы, в нарушение правил игры, не уничтожим оригинал путе­шественника? Будет ли его «сознание» од­новременно в двух разных местах? (Попы­тайтесь представить свою реакцию на сле­дующее заявление: «Ах, дорогой, похоже, суспензия, которую мы дали тебе перед по­садкой в Телепортатор, испортилась раньше срока? Да, вышло не очень удачно, хотя это не так страшно. В любом случае, те­бе, наверное, будет приятно услышать, что другой ты - ну-у, то есть, конечно, на­стоящий ты — прибыл на Венеру в цело­сти и сохранности, поэтому мы можем... э-э... избавиться от тебя здесь — нет, я имею виду... ну, от ненужной больше копии. Ра­зумеется, это пройдет совершенно безболез­ненно».) Возникает парадоксальная ситуа­ция. Существуют ли в физике законы, де­лающие телепортацию принципиально невоз­можной? С другой стороны, возможно, там нет никаких абсолютных запретов на такую «передачу» человека и его сознания, но сам принцип «копирования» предполагает не­избежное уничтожение оригинала? Может быть, сохранение двух дееспособных копий запрещено в принципе? Хотя эти рассужде­ния носят отстраненный характер, я все же верю, что из них можно извлечь кое-какие полезные сведения о физической природе сознания и индивидуальности. Я вижу в них явное указание на ту существенную роль, которую играет квантовая механика в пони­мании явлений умственной деятельности. Но я слишком забегаю вперед. К этой те­ме необходимо будет вернуться после того, как мы изучим структуру квантовой теории в главе 6.

Давайте посмотрим, какое отношение имеет теория сильного ИИ к вопросу о те­лепортации. Мы предположим, что где-то между двумя планетами располагается ретрансляционная станция, на которой полу­ченная информация некоторое время хра­нится перед тем, как быть отправленной к месту своего назначения. Для удобства эта информация записывается не в человечес­кой форме, а в каком-нибудь электронном или магнитном устройстве. Будет ли чело­веческое «сознание» присутствовать в этом устройстве? Приверженцы сильного ИИ по­старались бы убедить вас в том, что это будет именно так. Ведь в конечном счете, сказа­ли бы они вам, на любой вопрос, который мы решили бы задать путешественнику, мог­ло бы, в принципе, ответить и это устрой­ство — если «просто» сымитировать соответ­ствующую функцию его мозга. Устройство располагало бы всей необходимой инфор­мацией, и дело стало бы только за вычисле­ниями. А если устройство отвечает на во­просы в точности также, как если бы это был путешественник, то (с точки зрения теста Тьюринга!) оно им и является. В каче­стве основы для такого вывода здесь опять выступает известное утверждение сторон­ников сильного ИИ: для явлений, связан­ных с умственной деятельностью, «железо» не имеет никакого значения. Это утвер­ждение кажется мне неправомочным. Оно, в свою очередь, основывается на представле­нии о мозге (или разуме) как о цифровом компьютере. И подразумевает, что нет ка­ких-то особых физических процессов, при­водящихся в действие, когда человек думает, которые могли бы требовать для своей реа­лизации ту конкретную физическую (биоло­гическую, химическую) структуру, которой обладает мозг.

Естественно, проповедники сильного ИИ будет настаивать на том, что единствен­ное предположение, которое при этом вво­дится, касается универсальной возможности численного моделирования любого физиче­ского процесса. Я более чем уверен, что подавляющее большинство физиков, опира­ясь на современное состояние физической науки, сочло бы такое предположение со­вершенно оправданным. В следующих гла­вах я представлю свои собственные дово­ды в пользу противоположной точки зрения (а также подготовлю почву, чтобы объяс­нить, почему я думаю, что делается некое предположение). Но давайте на мгновение примем (широко распространенную) точку зрения, согласно которой все относящиеся к предмету дискуссии физические процессы допускают численное моделирование. Тогда единственным (если не принимать во вни­мание вопросы о времени и ресурсах, за­траченных на вычисления) реальным пред­положением будет следующее «операциона-листское» предположение: если нечто дей­ствует в точности, как существо, обладаю­щее осознанным восприятием, то мы долж­ны считать, что оно себя этим существом и «чувствует».

Точка зрения теории сильного ИИ со­стоит в том, что, рассматривая «только» во­прос, относящийся к «железу», любые физи­ческие процессы, имеющие отношение к ра­боте мозга, в обязательном порядке могут быть промоделированы с помощью соответ­ствующего преобразующего «софта». Если мы принимаем операционалистскую точку зрения, то тогда этот вопрос будет состо­ять в эквивалентности универсальных ма­шин Тьюринга, в том, что такие машины способны выполнять любой алгоритм, -а также в справедливости предположения об алгоритмической природе деятельности мозга. И теперь самое время коснуться этих интригующих и важных понятий более по­дробно.

Примечания

1.  См., например, работы Гарднера [1958], Грэгори [1981] и содержащиеся там ссылки.

2. См., например, работу Резникова и Уэллса [1984]. Ознакомиться с классическими обзорными работами по «чудесам» вычислений можно у Рауза Болла [1982] и Смита [1983].

3.  См. работы Грэгори [1981] и Уолтера [1953].

4.  Этот пример взят из Дельбрюка [1986].

5. Смотри статьи О'Коннелла [1988] и Кина [1988]. За дальнейшей информацией по компьютерным шахматам я отсылаю читателя кЛеви [1984].

6.   Конечно же, сложность большинства шахматных задач рассчитывалась на людей. Возможно, было бы не так уж трудно при­думать шахматную задачу, не очень сложную для человеческого существа, но такую, что современные шахматные компьютеры не смогли бы решить и за тысячу лет. (Прин­цип подобной задачи достаточно очевиден: она должна состоять из очень большого чи­сла ходов. Известны задачи, требующие для решения порядка 200 ходов — более чем достаточно!)

7.  Везде в этой книге я использую термин Серла «сильный  ИИ» для обозначения  этой радикальной  точки  зрения  просто  чтобы быть точным. Слово «функционализм» ча­сто применяется по отношению к такому же по сути воззрению, но, наверное, не всегда корректно. Этой точки зрения придержи­ваются Мински [1968], Фодор [1983], Хоф-штадтер [1979], Моравец [1989].

8.  См. работу Серла [1987] в качестве примера такого утверждения.

9.  Дуглас Хофштадтер в своей критике ори­гинальной работы Серла (так, как она перепечатана в The Mind's I) возражает, что ни одно человеческое существо не в состоя­нии «разобраться» в полном описании разу­ма другого человека из-за большой сложно­сти. И это действительно так! Но мне кажет­ся, что идея не в этом. Ведь выполнить нуж­но будет только ту часть алгоритма, которая должна отвечать какому-то одному мысли­тельному процессу. Таким могло бы ока­заться некое мгновенное «осознание» при ответе на вопрос теста Тьюринга, или даже что-нибудь еще более простое. А кто сказал, что подобное действие с необходимостью потребовало бы выполнения алгоритма не­вообразимой сложности?

10.  См. статью Серла [1980], которая была опубликована в книге Хофштадтера и Деннетта [1981].

11.  Некоторые читатели, сведущие в этом вопросе, могли бы возмутиться из-за некоторой разницы в знаках. Но даже это (спорное) различие пропадет, если мы при замене повернем один из электронов на 360 градусов!

12.    См. вступление к книге Хофштадтера и Деннетта [1981].


 

Хостинг от uCoz