Джордж Ф. Люгер

Искусственный интеллект как эмпирическая проблема

(Источник: Люгер, Джордж, Ф. Искусственный интеллект: стратегии и методы решения сложных проблем, 4-е издание. : Пер. с англ. - М.: Издательский дом "Вильямс", 2003. с.777-807)

Часть VII

Эпилог

Потенциал компьютерных наук (при его полном изучении и реализации) поставит нас на более высокую ступень знания о мире. Компьютерные науки помогут нам достичь более глубокого понимания интеллектуальных процессов. Они углубят наши знания о процессах обучения, мышления и анализа. Мы сможем построить модели и концептуальные средства для развития науки о познании. Подобно доминирующей роли физики в нашем веке при изучении природы материи и начала вселенной, сегодня на первый план выступает изучение интеллектуальной вселенной идей, структур знаний и языка. По моему мнению, это приведет к существенным улучшениям, которые в корне изменят нашу жизнь... Мне кажется, недалек тот час, когда мы поймем принципы организации знаний и управления ими...

- Дж. Хопкрофт (J. Hopcroft), лекция по случаю вручения премии Тьюринга, 1987

Что такое мышление? Нематериальная субстанция. Что такое материя? Этого никогда не осмыслить...

- Гомер Симпсон (Homer Simpson)

Мы научимся, когда поймем, что это важно. - Эрл Уивер (Weaver)

Рассуждения о природе интеллекта

Хотя в этой книге затрагивается множество философских аспектов искусственного интеллекта, основное внимание сосредоточено на инженерных технологиях, используемых для построения интеллектуальных артефактов на основе компьютера. В заключение книги мы вернемся к более сложным вопросам философских основ искусственного интеллекта, постараемся еще раз переосмыслить возможности науки о познании на основе методологии ИИ, а также обсудить будущие направления развития этой дисциплины.

Как неоднократно отмечалось ранее, исследования человеческого познания и способов решения задач человеком внесли существенный вклад в теорию искусственного интеллекта и разработку его программного обеспечения. В свою очередь, работы в области ИИ обеспечили возможность построения моделей и экспериментальную проверку научныхрезультатов во многих дисциплинах, в том числе биологии, лингвистике и психологии познания. В заключение мы обсудим такие темы, как ограниченность представлений, важность физического овеществления процессов мышления и роль культуры в накоплении и интерпретации знаний. Эти вопросы приводят к таким новым научным и философским проблемам, как опровержимость моделей или природа и возможности самого научного метода. Опыт автора привел его к междисциплинарному подходу, объединяющему работы в области ИИ с исследованиями психологов, лингвистов, биологов, антропологов, эпистемологов и специалистов в других областях, изучающих весь спектр проблем человеческого мышления.

Традиционно работы в области искусственного интеллекта основывались на гипотезе о физической символьной системе [Newell и Simon, 1976]. В рамках этого подхода были разработаны сложные структуры данных и стратегии поиска, которые, в свою очередь, привели к получению множества важных результатов. Были созданы системы, обладающие элементами интеллектуального поведения, и выявлены многие компоненты, составляющие интеллект человека. Важно отметить, что большинство результатов, основанных на этих ранних подходах, были ограничены предположениями, вытекающими из философии рационализма. Согласно рационалистской традиции сам интеллект рассматривается как процесс логических рассуждений и решения научных задач, основанный на прямом, эмпирическом подходе к пониманию вселенной. Этот философский рационализм слишком ограничивает развитие искусственного интеллекта на современном этапе.

В книге представлено множество более современных разработок, в том числе альтернативные модели обучения, агентно-ориентированные и распределенные системы решения задач, подходы, связанные с овеществлением интеллекта, а также исследования по реализации эволюционных вычислений и искусственной жизни. Эти подходы к пониманию интеллекта обеспечивают необходимые альтернативы идеям рационалистского редукционизма. Биологические и социальные модели интеллекта показали, что человеческий разум во многом является продуктом нашего тела и ощущений. Он связан с культурными и социальными традициями, навеян произведениями искусства, нашим опытом и опытом окружающих людей. Создавая методы и компьютерные модели таких сложных процессов, как эволюция или адаптация нейросетевых структур человеческого мозга, исследователи в области ИИ получили множество новых мощных результатов, дополняющих более традиционные методологии.

Искусственный интеллект, подобно самим компьютерным наукам, - довольно новая область. Если процесс развития физики или биологии измеряется столетиями, то возраст современных компьютерных наук исчисляется десятками лет. В главе 16 мы постараемся интегрировать различные подходы к ИИ в единую науку создания интеллектуальных систем. Автор считает, что эта наука, технология, философия и жизненное кредо приведут к возможности создания новых артефактов и экспериментов, которые при корректном использовании позволят глубже понять общие принципы построения интеллектуальных систем. В этой главе рассматриваются предложенные в главе 1 традиции изучения эпистемологических основ ИИ. Это делается не для того, чтобы дать достойный ответ критикам (хотя многие из их нападок все еще требуют ответа), а с позитивной целью - исследовать и осветить пути развития этой науки.

Искусственный интеллект как эмпирическая проблема

Теория вычислительных систем - дисциплина эмпирическая. Можно было бы назвать ее экспериментальной наукой, но, подобно астрономии, экономике и геологии, некоторые из ее оригинальных форм испытаний и наблюдений невозможно втиснуть в узкий стереотип экспериментального метода. Тем не менее это эксперименты. Конструирование каждого нового компьютера - это эксперимент. Сам факт создания машины ставит вопрос перед природой; и мы получаем ответ на него, наблюдая за машиной в действии, анализируя ее всеми доступными способами. Каждая новая программа - это эксперимент. Она ставит вопрос природе, и ее поведение дает нам ключи к разгадке. Ни машины, ни программы не являются "черными ящиками", это творения наших рук, спроектированные как аппаратно, так и программно; мы можем снять крышку и заглянуть внутрь. Мы можем соотнести их структуру с поведением и извлечь множество уроков из одного- единственного эксперимента.

- Ньюэлл (A. Newell) и Саймон (Н.А. Simon), лекция по случаю вручения премии Тьюринга, 1976

Изучение мыслящих машин дает нам больше знаний о мозге, чем самоанализ. Западный человек воплощает себя в устройствах.

- Уильям С. Берроуз (William Burroughs), Завтрак нагишом

Где то знание, что утеряно в информации? - Т. С. Элиот (T.S. Eliot), хоры из поэмы "Скала"

16.0. Введение

Для многих людей наиболее удивительным аспектом работы в сфере искусственного интеллекта является степень, в которой ИИ, да и большая часть теории вычислительных систем, оказывается эмпирической дисциплиной. Этот аспект удивителен, поскольку большинство рассматривает эти области в терминах своего математического или инженерного образования. Пунктуальным математикам свойственно желание применить к конструированию интеллектуальных устройств привычные им логические рассуждения и анализ. С точки зрения "неряшливых" инженеров, задача часто состоит лишь в создании систем, которые общество назвало бы "разумными". К несчастью, а может, и наоборот (в зависимости от точки зрения), сложность интеллектуальных программ и неопределенность, присущая их взаимодействию с миром природы и человеческой деятельности, делают невозможным анализ с чисто математической или чисто инженерной точек зрения.

Более того, если мы пытаемся довести исследования искусственного интеллекта до уровня науки и сделать их неотъемлемой частью теории интеллектуальных систем (science of intelligent systems), то в процессе конструирования, использования и анализа артефактов должны применять смесь из аналитических и эмпирических методов. С этой точки зрения каждая программа ИИ должна рассматриваться как эксперимент: он ставит вопрос перед природой, и ответ на него - это результат выполнения программы. Отклик природы на заложенные конструкторские и программные принципы формирует наше понимание формализма, закономерностей и самой сути мышления.

В отличие от многих традиционных наук, изучающих человеческое познание, разработчики разумных компьютерных систем могут исследовать внутренние механизмы своих "подопытных". Они могут останавливать выполнение программы, изучать ее внутреннее состояние и как угодно модифицировать ее структуру. Как отметили Ньюэлл и Саймон, устройство компьютеров и компьютерных программ предопределяет их потенциальное поведение, возможность всестороннего исследования, и доступность для понимания. Сила компьютеров как инструментов для изучения интеллекта проистекает из этой двойственности. Соответствующим образом запрограммированные компьютеры способны достигнуть высокой степени сложности как в семантике, так и в поведении. Такие системы естественно охарактеризовать в терминах физиологии. Кроме того, можно исследовать их внутренние состояния, что в большинстве случаев не могут осуществить ученые, занимающиеся разумными формами жизни.

К счастью для работ в сфере ИИ, равно как и для становления теории интеллектуальных систем, современные физиологические методы, в особенности относящиеся к нейрофизиологии, пролили свет на многие аспекты человеческого мышления. Например, сегодня мы знаем, что функция человеческого интеллекта не цельна и однородна. Она, скорее, является модульной и распределенной. Достоинства этого подхода проявляются в работе органов чувств, например, сетчатки глаза, которая умеет фильтровать и предварительно обрабатывать визуальную информацию. Точно так же обучение нельзя назвать однородной, гомогенной способностью. Скорее, оно является функцией множества различных систем, каждая из которых адаптирована для специфических целей. Магнитно-резонансное сканирование, позитронная эмиссионная томография и другие методы получения изображений нервной системы дают яркую и точную картину внутреннего устройства естественных интеллектуальных систем.

Приближая ИИ к масштабам науки, необходимо решать важные философские проблемы, особенно относящиеся к эпистемологии, или вопрос о том, как интеллектуальная система "познает" свой мир. Эти проблемы варьируются от вопроса о том, что есть предметом изучения искусственного интеллекта, до более глубоких, таких как обоснованность и применимость гипотезы о физической символьной системе. Далее следуют вопросы о том, что такое "символ" в символьной системе, и как символы могут соотноситься с узлами коннекционистской модели. Рассматривается вопрос о роли рационализма, выраженного в форме индуктивного порога и представленного в большинстве обучающихся программ. Возникает вопрос, как соотнести это с недостаточной структурированностью, присущей обучению без учителя, обучению с подкреплением и эволюционным подходам. И, наконец, необходимо рассмотреть роль конструктивного исполнения, внедрения агентов и социологических предпосылок решения задач. В заключение дискуссии о философских вопросах будет предложена эпистемология в духе конструктивизма, которая естественным образом согласуется с предложенным подходом к рассмотрению ИИ как науки, так и эмпирической проблемы.

Итак, в этой заключительной главе мы вновь возвращаемся к вопросу, поставленному в главе 1: что такое интеллект? Поддается ли он формализации? Как построить системы, проявляющие это свойство? Каким образом искусственный и человеческий интеллект вписываются в более широкий контекст теории интеллектуальных систем? В разделе 16.1 рассматривается пересмотренное определение искусственного интеллекта. Оно свидетельствует о следующем. Хотя работа в области ИИ и основана на гипотезе о физической символьной системе Ньюэлла и Саймона, сегодня набор ее средств и методов значительно расширился. Эта область покрывает гораздо более широкий круг вопросов. Анализируются альтернативные подходы к вопросу об интеллекте. Они рассматриваются и как средства проектирования интеллектуальных устройств, и как составные части теории интеллектуальных систем. В разделе 16.2 основное внимание читателя будет сконцентрировано на использовании методов современной когнитивной психологии, нейросетевых вычислений и эпистемологии для лучшего понимания области искусственного интеллекта.

Наконец, в разделе 16.3 обсуждаются задачи, стоящие сегодня как перед практиками ИИ, так и перед специалистами по формированию понятий. Хотя традиционные подходы к ИИ зачастую обвиняют в рационалистском редукционизме, новые междисциплинарные методы тоже нередко страдают подобными недостатками. Например, разработчики генетических алгоритмов и исследователи искусственной жизни определяют интеллект с точки зрения дарвинизма: "Разумно то, что выживает". Знание в сложном мире внедренных агентов часто сводится к формуле "знаю, как сделать", а не к "знаю, что делаю". Но для ученых ответы требуют пояснений, их не устраивает одна лишь "успешность" или "выживаемость" моделей. В этой заключительной главе мы обсудим будущее ИИ, сформулировав насущные для создания вычислительной теории интеллекта вопросы, и придем к выводу, что эмпирическая методология является важным, если не наилучшим орудием для исследования природы интеллекта.

16.1. Искусственный интеллект: пересмотренное определение

16.1.1. Интеллект и гипотеза о физической символьной системе

Основываясь на материале предыдущих 15 глав, можно сформулировать пересмотренное определение искусственного интеллекта.

ИИ- это дисциплина, исследующая закономерности, лежащие в основе разумного поведения, путем построения и изучения артефактов, предопределяющих эти закономерности.

Согласно этому определению искусственный интеллект в меньшей степени представляет собой теорию закономерностей, лежащих в основе интеллекта, и в большей - эмпирическую методологию создания и исследования всевозможных моделей, на которые эта теория опирается. Этот вывод проистекает из научного метода проектирования и проведения экспериментов с целью усовершенствования текущей модели и постановки дальнейших экспериментов. Однако это определение, как и сама область ИИ, бросает вызов многовековому философскому мракобесию в вопросе природы разума. Оно дает людям, которые жаждут понимания (что, возможно, является главной характеристикой человека), альтернативу религии, суевериям, картезианскому дуализму, пустым теориям нового времени или поискам разума в каких-то не открытых еще закоулках квантовой механики [Penrose, 1989]. Если наука, исследующая искусственный интеллект, и внесла какой-то вклад в человеческие знания, то он подтверждает следующее. Разум - это не мистический эфир, пронизывающий людей и ангелов, а, скорее, проявление принципов и законов, которые можно постичь и применить в конструировании интеллектуальных машин. Необходимо отметить, что наше пересмотренное определение не касается интеллекта, оно определяет роль искусственного интеллекта в изучении природы и феномена разумности.

Исторически главенствующий подход к искусственному интеллекту включал построение формальных моделей и соответствующих им механизмов рассуждений, основанных на переборе. Ведущим принципом ранней методологии искусственного интеллекта являлась гипотеза о физической символьной системе (physical symbol system), впервые сформулированная Ньюэллом и Саймоном [Newell и Simon, 1976]. Эта гипотеза гласит следующее.

Физическая система проявляет разумное в широком смысле поведение тогда и только тогда, когда она является физической символьной системой.

Достаточность означает, что разумность может быть достигнута каждой правильно организованной физической символьной системой.

Необходимость означает, что каждый агент, проявляющий разумность в общепринятом смысле, должен являться физической символьной системой. Необходимое условие этой гипотезы требует, чтобы любой разумный агент, будь-то человек, инопланетянин или компьютер, достигал разумного поведения путем физической реализации операций над символьными структурами.

Разумное в широком смысле поведение (general intelligent action) означает действия, характерные для поведения человека. Физически ограниченная система ведет себя соответственно своим целям, приспосабливаясь к требованиям окружающей среды.

Ньюэлл и Саймон собрали аргументы в пользу необходимого и достаточного условий [Newell и Simon, 1976]; [Newell, 1981]; [Simon, 1981]. В последующие годы специалисты в области ИИ и когнитологии исследовали территорию, очерченную этой гипотезой.

Гипотеза о физической символьной системе привела к трем важнейшим принципам методологии: использованию символов и символьных систем в качестве средства для описания мира; разработке механизмов перебора, в особенности эвристического, для исследования границ потенциальных умозаключений таких систем; отвлеченности когнитивной архитектуры. Имеется в виду предположение о том, что правильно построенная символьная система может проявлять интеллект в широком смысле независимо от средств реализации. Наконец, с этой точки зрения ИИ становится эмпирической и конструктивной дисциплиной, которая изучает интеллект, строя его действующие модели.

Языковые знаки, называемые символами, используются для обозначений или ссылок на различные сторонние объекты. Как вербальные знаки в естественном языке, символы заменяют или ссылаются на конкретные вещи в мире разумного агента. Например, для этих объектно-ссылочных связей можно предложить некоторый вариант семантики (см. раздел 2.3).

С точки зрения символьных систем использование символов в ИИ уходит далеко за пределы такой семантики. Символами здесь представляются все формы знаний, опыта, понятий и причинности. Все подобные конструктивные работы опираются на тот факт, что символы вместе со своей семантикой могут использоваться для построения формальных систем. Они определяют язык представления (representation language). Эта возможность формализовать символьные модели принципиальна для моделирования интеллекта как выполняемой компьютерной программы. В этой книге было детально изучено несколько представлений, в том числе предикатное исчисление, семантические сети, сценарии, концептуальные графы, фреймы и объекты.

Математика формальных систем позволяет говорить о таких вещах, как непротиворечивость, полнота и сложность, а также обсуждать организацию знаний.

Эволюция формализмов представления позволяет установить более сложные (широкие) семантические отношения. Например, системы наследования формируют семантическую теорию таксономического знания и его роли в интеллекте. Формально определяя наследование классов, такие языки облегчают построение интеллектуальных программ и предоставляют удобно тестируемые модели организации возможных категорий интеллекта.

Схемы представления и их использование в формальных рассуждениях тесно связаны с понятием поиска. Поиск - это поочередная проверка узлов в априори семантически описанной сети представления на предмет нахождения решения задачи или подзадач, выявления симметрии задачи и тому подобного (в зависимости от рассматриваемого аспекта).

Представление и поиск связаны, поскольку соотнесение задачи с конкретным представлением определяет априорное пространство поиска. Действительно решение многих задач можно значительно усложнить, а то и вовсе сделать невозможным, неудачно выбрав язык представления. Последующее обсуждение индуктивного порога в этой главе проиллюстрирует эту точку зрения.

Выразительным и часто цитируемым примером связи между поиском и представлением, а также трудности выбора удобного представления является задача размещения костей домино на усеченной шахматной доске. Допустим, имеется шахматная доска и набор костей домино, причем каждая закрывает ровно две клетки на доске. Положим также, что у доски не хватает нескольких клеток - на рис. 16.1 отсутствуют верхний левый и нижний правый уголки.

Рис. 16.1. Усеченная шахматная доска с двумя клетками, закрытыми костью домино

Задача состоит в том, чтобы установить, можно ли разместить кости домино на доске так, чтобы все поля были закрыты, и при этом каждая кость покрывала две и только две клетки. Можно попытаться решить проблему, перебрав все варианты расположения костей. Это типичный пример решения на основе поиска, который является естественным следствием представления доски в виде простой матрицы, игнорирующим такие, казалось бы, незначительные особенности, как цвет поля. Сложность подобного поиска просто невероятна. Для эффективного решения необходимо применение эвристических методов. Например, можно отсечь частные решения, которые оставляют изолированными отдельные клетки. Можно также начать с решения задачи для досок меньшего размера, таких как 2x2, 3x3, и постараться расширить решение до ситуации 8x8.

Опираясь на более сложное представление, можно получить изящное решение. Для этого нужно учесть тот факт, что каждая кость должна одновременно покрывать белую и черную клетки. На усеченной доске 32 черные клетки, но лишь 30 белых, следовательно, требуемое размещение невозможно. Таким образом, в системах, основанных на символьных рассуждениях, возникает серьезный вопрос: существуют ли представления, позволяющие оперировать знаниями с такой степенью гибкости и творческого подхода? Как может конкретное представление изменять свою структуру по мере появления новых сведений о предметной области?

Эвристика - это третий важный компонент символьного ИИ после представления и поиска. Эвристика - это механизм организации поиска среди альтернатив, предлагаемых конкретным представлением. Эвристики разрабатываются для преодоления сложности полного перебора, являющейся непреодолимым барьером на пути получения полезных решений многих классов интересных задач. В компьютерной среде, как и в человеческом обществе, интеллект нуждается в обоснованном решении "что делать дальше". На протяжении истории развития ИИ эвристики принимали множество форм.

Такие ранние методы решения задач, как метод поиска экстремума (hill climbing) в шашечной программе (см. главу 4) или анализ целей и средств (means-ends analysis) в обобщенной системе решения задач General Problem Solver (см. главу 12), пришли в ИИ из других дисциплин, таких как исследование операций (operations research), и постепенно выросли до общеприменимых методов решения задач ИИ. Характеристики поиска, включая допустимость (admissibility), монотонность (monotonicity) и осведомленность (informedness), являются важными результатами этих ранних работ. Подобные методы часто называют слабыми (weak methods). Слабые методы были разработаны как универсальные стратегии поиска, рассчитанные на применение в целых классах предметных областей [Newell and Simon, 1972], [Ernst и Newell, 1969]. Эти методы и их характеристики рассмотрены в главах 3, 4, 5 и 12.

В главах 6, 7 и 8 представлены сильные методы (strong methods) для решения задач ИИ с использованием экспертных систем на основе продукционных правил, рассуждений с использованием моделей (model-based reasoning) и примеров (case-based reasoning), а также символьного обучения (symbol-based learning). В отличие от слабых, сильные методы фокусируют внимание на информации, специфичной для каждой предметной области, будь то медицина внутренних органов или интегральное исчисление. Сильные методы лежат в основе экспертных систем и других подходов к решению задач с активным усвоением знаний. В сильных методах особое значение придается количеству данных, необходимых для решения задачи, обучению и пополнению знаний, их синтаксическому представлению, управлению неопределенностью, а также вопросам о качестве знаний.

Почему до сих пор не существует действительно интеллектуальных символьных систем

Характеристика интеллекта как физической символьной системы вызывает немало нареканий. Большую их часть легко отвергнуть, рассмотрев вопросы семантического значения и обоснования (grounding) концепции символов и символьных систем. Вопрос "смысла", конечно, тоже бьет по идее интеллекта как поиска в предварительно интерпретированных символьных структурах. Понятие смысла в традиционном ИИ развито весьма слабо. Тем не менее искушение сдвинуться в сторону более "математизированной" семантики, например, теории возможных миров (possible worlds), представляется ошибочным. Такой метод уходит корнями к рационалистской идее подмены гибкого эволюционирующего интеллекта материализованного агента миром ясных, четко определенных идей.

Обоснование смысла - это проблема, которая всегда путала планы как приверженцев, так и критиков искусственного интеллекта, а также когнитологов. Проблема обоснования сводится к следующему: как символы могут иметь смысл? В работе [Searle, 1980] она рассматривается на примере так называемой "китайской комнаты". Автор помещает себя в комнату, предназначенную для перевода китайских предложений на английский. Ему передают набор китайских иероглифов, а он отыскивает значение иероглифов в большом каталоге и передает на выход соответствующий набор английских символов. Автор заявляет, что даже без знания китайского языка его "систему" можно рассматривать как машину - переводчик с китайского на английский.

Но здесь возникает одна проблема. Любой специалист, работающий в области машинного перевода или понимания естественных языков (см. главу 13), может возразить, что "переводчик", слепо сопоставляющий один набор символов с другим, выдает результат очень низкого качества. Более того, возможности текущего поколения интеллектуальных систем по "осмысленной" интерпретации набора символов весьма ограничены. Проблема слишком бедной опорной семантики распространяется и на вычислительно реализованные сенсорные модальности, будь то визуальные, кинестетические или вербальные.

Что касается понимания естественного языка, Лакофф и Джонсон [Lakoff и Johnson, 1999] возражают, что способность создавать, использовать, обменивать и интерпретировать осмысленные символы является следствием интеграции человека в изменяющуюся социальную среду. Благодаря ей возникли человеческие способности выживания, эволюционирования и продолжения рода. Она сделала возможными рассуждения по аналогии, юмор, музыку и искусство. Современные средства и методы искусственного интеллекта и впрямь весьма далеки от способности кодировать и использовать эквивалентные по "смыслу" системы.

Прямым следствием бедной семантики является то, что методология поиска в традиционном ИИ рассматривает лишь предварительно интерпретированные состояния и их контексты. Это означает, что создатель программы ИИ связывает с используемыми символами семантический смысл. Поэтому интеллектуальные системы, включая системы обучения и понимания естественного языка, могут строить лишь некую вычисляемую функцию в этой интерпретации. Таким образом, большая часть систем ИИ очень ограничена в возможности построения новых смысловых ассоциаций по мере изучения окружающего мира [Lewis и Luger, 2000].

Вследствие стесненных возможностей семантического моделирования наиболее значительные успехи связаны с разработкой приложений, в которых можно абстрагироваться от чересчур широкого контекста и в то же время описать основные компоненты решения задачи с помощью заранее интерпретируемых символьных систем. Большая их часть упоминалась в этой книге. Но и такие системы не поддерживают множественных интерпретаций и ограничены в способности восстанавливать работоспособность после сбоя.

На протяжении всей недолгой истории искусственного интеллекта изучались различные варианты гипотезы о физической символьной системе. Были разработаны альтернативы этому подходу. Как показано в последних главах этой книги, символьная система и поиск- не единственно возможные средства реализации интеллектуальной системы. Вычислительные модели, основанные на работе органического мозга, а также на процессах биологической эволюции, предоставляют альтернативную базу для понимания интеллекта в терминах научно познаваемых и эмпирически воспроизводимых процессов. Оставшаяся часть этого раздела посвящена обсуждению этих подходов.

16.1.2. Коннекционистские, или нейросетевые, вычислительные системы

Существенной альтернативой гипотезе о физической символьной системе являются исследования в области нейронных сетей и других, заимствованных из биологии, вычислительных моделей. Нейронные сети, например, являются физически реализуемыми вычислительными моделями познания, не основанными на предварительно интерпретированных символах, которыми точно описывается предметная область. Поскольку знания в нейронной сети распределены по всей ее структуре, зачастую сложно (а то и невозможно) соотнести конкретные понятия с отдельными узлами или весовыми коэффициентами. Фактически любая часть сети может служить для представления разных понятий. Следовательно, нейронные сети являются хорошим контрпримером, по крайней мере, условию гипотезы о физических символьных системах.

Нейронные сети и генетические алгоритмы сместили акцент исследований ИИ с проблем символьного представления и стратегий формальных рассуждений на проблемы обучения и адаптации. Нейронные сети, подобно человеческим существам и животным, умеют адаптироваться к миру. Структура нейронной сети формируется не только при ее разработке, но и при обучении. Интеллект, основанный на нейронной сети, не требует переведения мира на язык символьной модели. Скорее, сеть формируется при взаимодействии с миром, который отражается в неявной форме опыта. Этот подход внес значительный вклад в наше понимание интеллекта. Он дал правдоподобное описание механизмов, лежащих в основе физической реализации процессов мышления; более жизнеспособную модель обучения и развития; демонстрацию возможности путем простой локальной адаптации сформировать сложную систему, реагирующую на реальные явления; а также мощное орудие для когнитивной теории нейронных систем (neuroscience).

Именно благодаря своей многогранности нейронные сети помогают ответить на множество вопросов, лежащих за пределами впечатляющих возможностей символьного ИИ. Важный класс таких вопросов касается проблемы перцепции. Природа не столь щедра, чтобы представить работу нашего восприятия в виде набора точных формул предикатного исчисления. Нейронные сети обеспечивают модель выделения "осмысленных" образов из хаоса сенсорных стимулов.

Из-за своего распределенного представления нейронные сети часто более устойчивы, нежели аналогичные символьные системы. Соответствующим образом обученная нейронная сеть может эффективно классифицировать новые входные данные, проявляя подобное человеческому восприятие, основанное не на строгой логике, а на "схожести". Аналогично потеря нескольких нейронов серьезно не повлияет на производительность большой нейронной сети. Это является следствием избыточности, часто присущей сетевым моделям.

Наверное, самым притягательным аспектом коннекционистских сетей является их способность обучаться. Вместо построения подробной символьной модели мира нейронные сети благодаря гибкости своей структуры могут адаптироваться на основе опыта. Они не столько строят модель, сколько сами формируются под влиянием мира. Обучение является одним из главных аспектов интеллекта. И именно из проблемы обучения вырастают наиболее сложные вопросы, связанные с нейросетевыми вычислительными системами.

Почему мы до сих пор не создали мозг

Недавние исследования в когнитивной теории нейронных систем [Squire и Kosslyn, 1998], [Gazzaniga, 2000] представляют новый аспект в понимании когнитивной архитектуры человеческого мозга. В этом разделе мы кратко ознакомимся с некоторыми открытиями в этой области, проведя параллель между ними и искусственным интеллектом. Эти вопросы будут рассмотрены с трех позиций: на уровне, во-первых, нейрона, во-вторых, нейронной архитектуры и, в-третьих, когнитивного представления проблемы кодирования (encoding).

На уровне отдельного нейрона Шепард [Shephard, 1998] и Карлсон [Carlson, 1994] определяют множество различных типов нейронной архитектуры, построенной из клеток, каждая из которых выполняет специализированную функцию и играет свою роль в большей системе. Они выделяют клетки рецепторов наподобие клеток кожи, которые передают входную информацию другим скоплениям клеток, внутренним нейронам, основная задача которых сводится к передаче информации внутри скоплений клеток, и моторным нейронам, формирующим выход системы.

Нейронная активность имеет электрическую природу. Состояние возбуждения или покоя определяется характером ионных потоков в нейрон и из него. У типичного нейрона потенциал покоя составляет приблизительно -70 мВ. Когда клетка активна, окончание аксона выделяет определенные вещества. Эти химические вещества, называемые медиаторами (neurotransmitters), взаимодействуют с постсинаптической мембраной, обычно вливаясь в нужные рецепторы и возбуждая тем самым дальнейшие ионные токи. Потоки ионов, достигая критического уровня, около -50 мВ, формируют потенциал возбуждения (action potential) - триггерный механизм, однозначно определяющий степень возбуждения клетки. Таким образом, нейроны сообщаются, обмениваясь последовательностями двоичных кодов.

Существует два вида постсинаптических изменений, вызванных достижением потенциала возбуждения: тормозящие (inhibitory), наблюдаемые в основном в межнейронных структурах клеток, и возбуждающие (excitatory). Такие положительные и отрицательные потенциалы постоянно генерируются в синапсах дендритной системы. Когда результирующее влияние всех этих событий изменяет потенциалы мембран соответствующих нейронов от -70 мВ до примерно -50 мВ, пороговое значение превышается, и вновь инициируются ионные токи в аксонах этих клеток.

На уровне нейронной архитектуры в коре головного мозга (тонком слое, покрывающем полушария мозга) содержится приблизительно 1010 нейронов. Большая часть коры имеет складчатую форму, что увеличивает ее площадь поверхности. С точки зрения вычислительной системы необходимо учитывать не только количество синапсов, но и нагрузочные способности по входу и выходу. Шепард [Shephard, 1998] примерно оценивает оба этих параметра числом 105.

Кроме различий в клетках и архитектурах нейронных и компьютерных систем, существует более глубокая проблема когнитивного представления. Мы, к примеру, совершенно ничего не знаем о том, как в коре кодируются даже простейшие воспоминания. Или как человек узнает лица, и каким образом распознавание лица может соотноситься агентом с чувствами радости или печали. Мы очень много знаем о физико-химических аспектах устройства мозга, но относительно мало о том, как нервная система кодирует сведения и использует эти образы в нужном контексте.

Один из наиболее сложных вопросов, с которым сталкиваются исследователи и неврального, и вычислительного толка, касается роли врожденного знания в обучении. Можно ли провести эффективное обучение "с нуля", без начального знания, основываясь исключительно на опыте; или же должен присутствовать некий индуктивный порог? Опыт разработки обучающихся программ предполагает необходимость какого-либо начального знания, обычно выражающегося в форме индуктивного порога. Оказалось, что способность нейронных сетей строить осмысленное обобщение на основе обучающего множества зависит от числа нейронов, топологии сети и специфики алгоритмов обучения. Совокупность этих факторов составляет индуктивный порог, играющий не менее важную роль, чем в любом символьном представлении. Например, находится все больше подтверждений тому, что дети наследуют совокупность "аппаратно прошитых" когнитивных предпосылок (порогов), благодаря которым возможно обучение в таких областях, как язык и интуитивное понимание законов природы. Представление врожденных порогов в нейронных сетях сегодня является областью активных исследований [Elman и др., 1996].

Вопрос о врожденных порогах отходит на второй план, если обратить внимание на более сложные проблемы обучения. Предположим, нужно разработать вычислительную модель научного открытия и смоделировать переход Коперника от геоцентрического к гелиоцентрическому взгляду на устройство вселенной. Для этого требуется представить в компьютерной программе теории Коперника и Птолемея. Хотя эти взгляды можно представить в качестве активационных схем нейронной сети, такие сети ничего не скажут о них, как о теориях. Человек предпочитает получать объяснения вроде: "Коперник был озадачен сложностью системы Птолемея и предпочел более простую модель, в которой планеты вращаются вокруг Солнца". Подобные объяснения требуют символьного выражения. Очевидно, нейронные сети должны обеспечивать символьное обоснование. В конце концов, человеческий мозг - это нейронная сеть, но она неплохо умеет обращаться с символами. И тем не менее символьное обоснование в нейронных сетях - важная, но все еще открытая проблема.

Еще одной проблемой является роль развития в обучении. Дети не могут просто учиться на доступных данных. Их способность к обучению в конкретных областях проявляется на четко определенных стадиях развития [Karmiloff-Smith, 1992]. Возникает любопытный вопрос: является ли этот факт всецело следствием человеческой биологии, или же он отражает некие принципиально необходимые ограничения на способность интеллекта познавать закономерности окружающего мира? Могут ли подобные стадии развития служить механизмом для разбиения задачи обучения на более простые подзадачи? Возможно ли, что система искусственно налагаемых ограничений на развитие искусственной сети является необходимой основой для обучения в сложном мире?

Применение нейронных сетей для решения практических задач ставит дополнительные проблемы перед исследователями. Те самые свойства нейронных сетей, которые делают их такими привлекательными (способность адаптироваться, устойчивость к недостаточности или неоднозначности данных), одновременно создают препятствия для их практического применения. Поскольку нейронные сети обучаются, а не программируются, их поведение сложнее предсказать. Существует несколько общих принципов проектирования сетей, которые вели бы себя нужным образом в заданной предметной области. Однако сложно объяснить, почему нейронная сеть пришла к определенному выводу. Обычно такие объяснения принимают вид каких-то статистических соображений. Все вышеперечисленные проблемы являются предметом текущих исследований.

Возникает вопрос, так ли уж различаются в качестве моделей интеллекта коннекцио-нистские сети и символьные системы ИИ? В них достаточно много общего. В обоих подходах процесс "мышления" сводится к вычислительным операциям, имеющим фундаментальные и формальные ограничения, такие как описанная в главе 2 гипотеза Черча-Тьюринга (Church-Turing) [Luger, 1994]. Оба подхода предлагают модель разума, применимую в практических задачах. Более того, оба подхода отвергают философию дуализма и помещают истоки разума в структуру и функцию физических устройств.

Мы верим, что согласование этих двух очень разных подходов неизбежно. Исключительным вкладом в науку стало бы построение теории преобразования символьного представления в конфигурацию сети, и, в свою очередь, влияния на ее дальнейшую адаптацию. Такая теория помогла бы во многих исследованиях, например, интеграции в единую интеллектуальную систему нейросетевого восприятия и систем рассуждения на основе знаний. Тем не менее в ближайшее время у приверженцев обоих взглядов будет достаточно работы, и мы не видим никаких причин, мешающих им сосуществовать. Для тех же, кого смущает подобная противоречивость двух моделей интеллекта, приведем пример из физики, в которой свет иногда удобнее рассматривать как волну, а иногда - как поток частиц.

16.1.3. Агенты, интеллект и эволюция

Агентные вычисления и модульные теории познания ставят перед исследователями систем ИИ интересные вопросы. Одна из известных школ когнитологии полагает, что разум формируется из наборов специализированных функциональных элементов [Minsky, 1995], [Fodor, 1983]. Все модули имеют четкую специализацию и используют широкий диапазон врожденных структур и функций, от "аппаратно прошитого" решения задач до индуктивного порога. Это связано с разнообразием проблем, которыми они как практические агенты должны заниматься. В этом есть смысл: как можно обучить нейронную сеть заниматься и перцепцией, и двигательными функциями, и запоминанием, и логическими рассуждениями? Модульные теории интеллекта предоставляют базу для поиска ответа на этот вопрос, а также направление дальнейшего исследования таких вопросов, как природа индуктивного порога в отдельных модулях или механизмы модульного взаимодействия.

Генетические и эволюционные вычислительные модели обеспечивают новые захватывающие подходы к пониманию как человеческого, так и искусственного разума. Демонстрируя возможность рассмотрения разумного поведения как совокупности работы большого числа ограниченных независимых агентов, теория генетических и эволюционных вычислений решает проблему представления сложного разума в виде результата взаимодействия относительно простых структур.

В работе [Holland, 1995] приведен пример, в котором механизмы обеспечения хлебом большого города (например Нью-Йорка) демонстрируют процесс возникновения интеллекта в агентской системе. Вряд ли можно написать централизованный планировщик, который обеспечивал бы жителей Нью-Йорка привычным им разнообразием сортов хлеба. Да и неудачный эксперимент коммунистического мира по внедрению централизованного управления явно показал ограниченность такого подхода. Даже несмотря на практические сложности написания алгоритма такого централизованного планирования, слабо скоординированные в действиях городские пекари, торговцы и поставщики сырья и так неплохо справляются с решением проблемы. Эволюционные агентские системы не имеют центрального плана. Любой булочник владеет весьма ограниченными сведениями о потребностях города в хлебе. Он всего лишь старается оптимизировать возможности своего бизнеса. Решение глобальной проблемы складывается из коллективной деятельности таких независимых локальных агентов.

Демонстрируя, как целенаправленное, устойчивое к флуктуациям и почти оптимальное поведение может складываться из взаимодействия отдельных локальных агентов, эти модели дают еще один ответ на старый философский вопрос о происхождении разума. Главный урок эволюционных подходов к интеллекту состоит в том, что цельный интеллект может возникнуть и возникает из взаимодействия множества простых, отдельных, локальных, овеществленных агентских интеллектов.

Вторая главная особенность эволюционных моделей заключается в том, что они опираются на дарвиновский принцип естественного отбора как на основной механизм, формирующий поведение отдельных агентов. Возвращаясь к примеру с булочниками, трудно утверждать, что каждый отдельный пекарь ведет себя "глобально оптимальным" образом. Источник такой оптимальности- не централизованный проект, а простой факт. Булочники, которые плохо удовлетворяют нужды своих покупателей, разоряются. Путем неустанных, многократных селективных воздействий отдельные булочники приходят к модели поведения, которая обеспечивает как их собственное выживание, так и общественную полезность.

Комбинация распределенной, агентской архитектуры и адаптивных воздействий естественного отбора - мощная модель эволюции и работы разума. Эволюционные психологи [Cosmides и Tooby, 1992, 1994], [Вагкошидр., 1992] разработали модель формирования врожденной структуры и индуктивного порога человеческого мозга в процессе естественного отбора. Основа эволюционной психологии - это рассмотрение разума как модульной системы взаимодействующих специализированных агентов. В эволюционной психологии ум часто сравнивают со швейцарским ножом - набором специализированных инструментов, предназначенных для решения различных задач. Появляется все больше свидетельств тому, что человеческий интеллект действительно в высокой степени является модульной системой. В [Fodor, 1983] приводятся философские доводы в пользу модульной структуры интеллекта. Минский [Minsky, 1985] исследовал различные применения теорий модульности в сфере искусственного интеллекта. Такая архитектура имеет важное значение для теорий эволюции интеллекта. Сложно представить себе, как эволюция могла сформировать цельную систему такой сложности, как человеческий мозг. С другой стороны, правдоподобным выглядит тот факт, что эволюция в течение миллионов лет могла бы успешно сформировать отдельные, специализированные познавательные навыки. Затем она бы могла работать над комбинациями модулей, формируя механизмы их взаимодействия, обмена информацией и сотрудничества, позволяющие в результате решать все более сложные задачи познания [Mithen, 1996].

Теории нейронной селекции [Edelman, 1992] показывают, как эти же процессы могут отвечать за адаптацию отдельной нервной системы. Модели нейронного дарвинизма описывают адаптацию нейронных систем в терминах Дарвина: в процессе селекции в ответ на воздействия внешней среды происходит усиление одних цепочек в мозге и ослабление других. В отличие от символьных методов обучения, которые пытаются выделить информацию из обучающих данных и использовать ее для построения модели мира, теории нейронной селекции рассматривают влияние селективных воздействий на популяции нейронов и их взаимодействие. Эдельман [Edelman, 1992, С. 81] утверждает:

Рассматривая изучение мозга как науку о познании, я подразумеваю, что познание не является инструктивным процессом. Здесь не происходит непосредственной пересылки информации, как ее нет в эволюционных или иммунных процессах. Напротив, познание селективно.

Агентные технологии предоставляют также модели социального взаимодействия. Используя агентные подходы, экономисты построили информативные (если не полностью прогнозирующие) модели экономических рынков. Агентные технологии оказывают всевозрастающее влияние на построение распределенных компьютерных систем, разработку средств поиска в Internet и проектирование сред совместной разработки.

Наконец, агентные модели оказали немалое влияние на теорию сознания. Например, Даниэль Дэннетт [Dennett, 1991] рассматривает функцию и структуру сознания, отталкиваясь от агентной архитектуры интеллекта. Он начинает с замечания, что вопрос о местоположении сознания в мозге или разуме некорректен. Напротив, его множественная теория сознания (multiple draft theory of consciousness) основана на рассмотрении сознания во взаимодействии агентов в распределенной архитектуре интеллекта. Во время перцепции, управления двигательными функциями, решения задач, обучения и другой психической активности формируются объединения взаимодействующих агентов. Эти сочетания очень динамичны и изменяются в зависимости от потребностей в различных ситуациях. Сознание, по Дэннету, служит связующим механизмом этих объединений агентов, оно поддерживает взаимодействие агентов. Совокупность агентов становится основой когнитивной обработки данных.

Ограничения агентного представления интеллекта

Развитие эволюционного подхода привело к возникновению новых вопросов. Например, еще предстоит понять весь путь эволюции высокоуровневых познавательных способностей языка. Подобно попыткам палеонтологов реконструировать эволюцию видов, отслеживание развития этих высокоуровневых проблем связано с большим объемом кропотливой роботы. Необходимо перечислить все агенты, лежащие в основе архитектуры разума, и отследить их эволюцию во времени.

Важная проблема для агентских теорий - объяснение взаимодействий между модулями. Хотя модель ума как "швейцарского ножа" полезна для интуитивного понимания, модули, из которых состоит интеллект, не так независимы, как лезвия перочинного ножика. Разум демонстрирует широкие, весьма изменчивые взаимодействия между когнитивными областями: мы можем говорить о вещах, которые видим, что выявляет взаимодействие между визуальным и лингвистическим модулями. Мы можем сооружать здания, служащие специфичным социальным целям, что свидетельствует о взаимодействии между технической и социальной сторонами интеллекта. Поэты могут строить метафоры для описания зрительных сцен, демонстрирующие гибкое взаимодействие между визуальным и тактильным модулями. Исследование представлений и процессов, делающих возможными эти межмодульные взаимодействия, является областью текущих исследований [Karmiloff-Smith, 1992], [Mithen, 1996], [Lakoff и Johnson, 2000].

Все важнее становятся практические применения агентных технологий. Используя компьютерное моделирование на основе агентов, можно создать сложные системы, для которых не существует аналитического описания, и которые из-за этого ранее были недоступны для изучения. Методы моделирования применяются для описания широкого спектра явлений, например, адаптации человеческой иммунной системы, управления сложными процессами, включая ускорение частиц, поведения мировых рынков валют, метеорологии. Вопросы представления и вычислительной реализации, которые предстоит решить для создания таких моделей, определяют направление исследований в построении представлений знаний, алгоритмов и даже разработки компьютерной аппаратуры.

Другие практические вопросы, с которыми предстоит иметь дело агентным архитектурам, включают протоколы межагентного взаимодействия, особенно в случаях, когда локальные агенты имеют ограниченные знания о проблеме в целом или о том, какими знаниями уже могут обладать другие агенты. Более того, существует несколько алгоритмов для разбиения больших задач на агентно-ориентированные подзадачи и распределения ограниченных ресурсов между агентами. Эти и другие вопросы агентного представления были рассмотрены в подразделе 6.4.2.

Пожалуй, наиболее увлекательный аспект эволюционной теории интеллекта- это возможность описать различные виды психической деятельности единой моделью возникновения порядка из хаоса. Краткий обзор, проведенный в этом разделе, позволяет выделить работы, использующие эволюционную теорию для моделирования ряда процессов: от эволюции интеллекта до конструирования экономических и социальных моделей поведения. Есть нечто чрезвычайно привлекательное в той идее, что эволюционные процессы, описываемые теорией Дарвина, могут объяснить разумное поведение во многих масштабах: от взаимодействия индивидуальных нейронов до формирования молекулярной структуры мозга или функционирования экономических рынков и социальных систем. Оказывается, интеллект подобен фрактальной структуре, где одни и те же процессы действуют в любых масштабах и во всей системе в целом.

Далее будут рассмотрены психологические и философские аспекты человеческого мышления, которые повлияли на создание, разработку и применение теории искусственного интеллекта.

16.2. Теория интеллектуальных систем

Основная группа исследователей искусственного интеллекта сосредоточила свою деятельность на понимании человеческого разума совсем не случайно. Люди обеспечивают прототипы и примеры интеллектуальных действий. Поэтому разработчики искусственного интеллекта редко игнорируют "человеческий" подход, хотя обычно и не ставят перед собой цели заставить программы действовать по примеру людей. Так, в приложениях компьютерной диагностики программы зачастую моделируют рассуждения людей-экспертов, работающих в соответствующей области. А главное, понимание человеческого интеллекта - захватывающая и все еще открытая научная проблема.

Современная когнитология (cognitive science), или теория интеллектуальных систем (science of intelligent systems) [Luger, 1994], возникла с изобретением цифрового компьютера. Однако в главе 1 упоминалось, что у этой дисциплины были свои предшественники. Их список начинается с Аристотеля, Декарта и Буля и включает многих современных теоретиков, таких как Тьюринг, Мак-Каллок и Питтс, основоположники нейросетевых моделей, а также Джон фон Нейман - один из первых защитников концепции искусственной жизни. Эти исследования стали наукой лишь тогда, когда возникла возможность ставить эксперименты, основанные на теоретических соображениях, а точнее, с появлением компьютеров. Наконец-то можно задать вопрос: "Существует ли всеобъемлющая теория интеллекта?". Можно также спросить: "Может ли теория интеллектуальных систем помочь в создании искусственного разума?".

В нижеследующих разделах вкратце будет рассказано о том, как психология, эпистемология и социология повлияли на исследования в сфере ИИ.

16.2.1. Ограничения психологии

Ранние когнитологические исследования касались решения логических задач человеком. Такие системы учились играть в простые игры, планировать и осуществлять изучение понятий [Feigenbaum и Feldman, 1963], [Newell и Simon, 1972], [Simon, 1981]. В процессе работы над системой Logic Theorist (см. раздел 12.1) Ньюэлл и Саймон начали сравнивать свои вычислительные подходы со стратегиями поиска, применяемыми человеком. Исходными данными для них служили протоколы "мыслей вслух" (think-aloud protocols) - описания людьми своих мыслей в процессе обдумывания решения задачи, например, доказательства какой-нибудь теоремы. Ньюэлл и Саймон сравнили эти протоколы с поведениец компьютерной программы, работающей над той же задачей. Исследователи обнаружили поразительную схожесть и интересные отличия, как в задачах, так и в субъектах исследования.

Эти ранние проекты позволили создать методологию, применяемую в когнитологии в последующие десятилетия.

На основе данных, полученных от людей, решающих определенный класс проблем, строится схема представления и соответствующая стратегия поиска для решения задачи.

Отслеживается поведение компьютерной модели, решающей такую проблему.

Ведется наблюдение за людьми, работающими над решением задач, и отслеживаются измеряемые параметры их процесса решения, а именно: протоколы "мыслей вслух", движения глаз, записи промежуточных результатов.

Решения человека и компьютера сравниваются и анализируются.

Компьютерная модель пересматривается для следующего цикла экспериментов.

Эта эмпирическая методика описана в лекции Ньюэлла и Саймона, прочитанной по случаю вручения премии Тьюринга. Ее фрагмент был выбран в качестве эпиграфа к этой главе. Важным аспектом когнитологии является использование экспериментов для подтверждения работоспособности архитектуры решателя, будь то продукционная система, сеть связей или архитектура, основанная на взаимодействии распределенных агентов.

В последние годы к этим понятиям добавилось принципиально новое измерение. Теперь в процессе решения задач можно "разбирать" и изучать не только программы, но и людей, и другие формы жизни. Множество новых технологий получения изображений пополнили набор средств, применяемых для изучения активности коры мозга. К этим технологиям относится магнитная энцефалография (magnetoencephalography - MEG), которая регистрирует магнитные поля, создаваемые группами нейронов. В отличие от электрического магнитное поле не искажается костями и кожей черепа, следовательно, можно получить более четкое его изображение.

Другая технология - позитронная эмиссионная томография (positron emission tomography - PET). В кровеносный сосуд впрыскивается радиоактивное вещество, обычно О15. Когда определенная область мозга возбуждена, чувствительными детекторами регистрируется большее количество радиоактивного агента, чем в состоянии покоя этой области мозга. Сравнение изображений возбужденных и находящихся в покое областей помогает обнаруживать функциональную локализацию с разрешением примерно 1 см [Stytz и Frieder, 1990].

Еще один метод анализа нервной системы - функциональное магнитно-резонансное сканирование (functional magnetic resonance imaging - F-MRI). Этот подход происходит от более стандартного метода, основанного на ядерном магнитном резонансе (nuclear magnetic resonance - NMR). Подобно методу PET, в этом подходе для выявления функциональной локализации используется сравнение изображений возбужденных и находящихся в покое областей мозга.

Дальнейший вклад в локализацию функций мозга сделали программные алгоритмы, разработанные Бараком Перлмуттером и его коллегами [Pearlmutter и Рагга, 1997], [Tang и др., 1999, 2000а, 20006]. Они тесно связаны с перечисленными выше методами. Благодаря этим исследованиям появилась возможность получить сложные образцы шума, часто возникающего на выходе устройств для получения изображений нервной системы. Это важный шаг в исследованиях, поскольку такие показатели, как движения глаз, дыхание и сердцебиение, связаны с исследуемыми схемами возбуждения нейронов.

Результаты недавних исследований в когнитивной теории нейронных систем [Squire и Kosslyn, 1998], [Shephard, 1998], [Gazzaniga, 2000] значительно улучшили понимание роли нейронной составляющей в интеллектуальной деятельности. Хотя анализ и критика таких результатов выходит за пределы рассмотрения данной книги, коснемся нескольких важных вопросов.

В области восприятия и внимания существует проблема связывания (binding problem). Такие исследователи, как Энн Трисмэн [Triesman, 1993, 1998], отмечают, что представление восприятия зависит от распределенных нейронных кодов, отвечающих за сопоставление частей и качеств объектов, и ставят вопрос о том, какие механизмы "связывают" информацию, относящуюся к конкретному объекту, и позволяют отличать этот объект от других.

В области визуального поиска рассматривается вопрос о том, какие нейронные механизмы обеспечивают восприятие объектов, входящих в большие, сложные сцены. Некоторые эксперименты показывают, что фильтрация информации о незначительных объектах играет важную роль в определении целей поиска [Luck, 1998]. Вопрос о том, как мы "учимся" видеть, исследуется в работе [Sagi и Таппе, 1998].

Работы [Gilbert, 1992, 1998] посвящены гибкости восприятия. Из них следует, что видимая человеком картина не отражает точные физические характеристики сцены. Она значительно зависит от процессов, с помощью которых мозг пытается интерпретировать эту картину.

В [Ivry, 1998] рассматривается вопрос о том, каким образом кора мозга кодирует и индексирует соотносящуюся во времени информацию, включая интерпретацию ощущений и двигательную активность.

Стрессовые гормоны, вырабатываемые в состояниях эмоционального возбуждения, влияют на процессы памяти [Cahill и McGaugh, 1998]. Это соотносится с проблемой обоснования (grounding): почему мысли, слова, ощущения имеют осмысленное значение для агента? В каком смысле возможна "грусть в вещах", вергилиевская lacremae reruml

Акустико-фонетические аспекты речи основаны на важных организационных принципах, связывающих исследования в области нейронных систем с когнитивными и лингвистическими теориями [Miller и др., 1998]. В [Gazzaniga, 2000] рассматривается вопрос о том, как синтаксические и семантические составляющие сочетаются в коре мозга.

Как индивидуум учится определенному языку, и какие нейрофизиологические стадии соответствуют этому процессу? Этой проблеме посвящены работы [Kuhl, 1993, 1998].

В [O'Leary и др., 1999] затрагиваются следующие вопросы. Как понимать развитие, чем определяется пластичность критических периодов и реорганизации в процессе взросления, наблюдаемых в соматосенсорных системах млекопитающих? Критичны ли фазы развития для формирования интеллекта? Эти же вопросы рассматриваются в [Karmiloff-Smith, 1992], [Gazzaniga, 2000] и подразделе 16.1.2.

Практическая работа в сфере искусственного интеллекта не требует обширных познаний в вышеперечисленных и смежных нейронных и психологических областях. Но такие знания могут помочь в разработке интеллектуальных устройств, а также в определении места исследований ИИ в контексте общей теории интеллектуальных систем. Наконец, синтез психологии, нейрофизиологии и компьютерных наук- по-настоящему увлекательная задача. Но она требует детальной проработки эпистемологами, что будет нашей следующей темой для обсуждения.

16.2.2. Вопросы эпистемологии

Если не знаешь, куда идешь, придешь не туда, куда хочешь... - приписывается Йоги Берра (Yogi Berra)

Развитие искусственного интеллекта происходило в процессе решения множества важных задач и вопросов. Понимание естественных языков, планирование, рассуждения в условиях неопределенности и машинное обучение - все это типичные проблемы, которые отражают важные аспекты разумного поведения. Интеллектуальные системы, работающие в этих предметных областях, требуют знания целей и опыта в контексте конкретной социальной ситуации. Для этого в программе, которую человек пытается наделить "разумом", необходимо обеспечить возможность формирования понятий.

Процесс формирования понятий отражает как семантику, поддерживающую использование символов, так и структуру применяемых символов. Задача состоит в том, чтобы найти и использовать инвариантности, присущие данной предметной области. Термин "инвариант" используется для описания регулярностей или значимых, пригодных для использования, аспектов сложных рабочих сред. В данном рассмотрении термины символы и символьные системы используются в широком смысле. Они включают широкий спектр понятий: от четко определенных символов Ньюэла и Саймона [Newell и Simon, 1976] до узлов и сетевой архитектуры систем связей, а также эволюционирующих структур генетики и искусственной жизни.

Хотя рассматриваемые ниже вопросы характерны для большей части работ в сфере ИИ, остановимся на проблемах машинного обучения. Это обусловлено тремя причинами.

Во-первых, довольно глубокое изучение хотя бы одной ключевой предметной области искусственного интеллекта даст читателю более полное и точное представление о последних достижениях ИИ. Во-вторых, успехи в машинном обучении, а особенно в нейронных сетях, генетических алгоритмах и других эволюционных подходах, потенциально способны совершить революцию в сфере ИИ. Наконец, обучение- это одна из наиболее увлекательных областей исследований в искусственном интеллекте.

Несмотря на прогресс, обучение остается одной из наиболее трудных проблем, встающих перед исследователями ИИ. Далее мы обсудим три вопроса, сдерживающих сегодня продвижение в этой сфере: во-первых, обобщение и переобучение (generalization and overlearning), во-вторых, роль индуктивного порога (inductive bias) в обучении, в-третьих, дилемму эмпирика (empiricist's dilemma), или понимание эволюции без ограничений. Последние две проблемы взаимосвязаны. Присущий многим алгоритмам индуктивный порог является выражением рационалистической проблемы. Порог определяется ожиданиями, т.е. то, чему мы обучаемся, зачастую зависит от того, чему хочется научиться. Есть и другая проблема. Иногда мы не располагаем априорными догадками о результате. Это, например, можно наблюдать в исследованиях, посвященных искусственной жизни. Можно ли утверждать: "Построй это, и оно будет работать, как нужно"? Если верить Йоги Берра (см. эпиграф к разделу), то, скорее всего, нет! Эти темы будут затронуты в следующем разделе.

Проблема обобщения

Примеры, использованные для представления разнообразных моделей обучения (символьных, коннекционистских и эволюционных), зачастую были слишком неестественны. Например, архитектуры связей часто содержали всего несколько узлов или один скрытый слой. Такие примеры уместны, поскольку основные законы обучения можно адекватно объяснить в контексте нескольких нейронов или слоев. Но стоит помнить, что в реальных задачах нейронные сети обычно значительно больше, и проблема масштаба здесь имеет значение. Например, для обучения с обратным распространением ошибки требуется большое количество обучающих примеров, а для решения сколько-нибудь практически интересных задач нужны большие сети. Многие исследователи ([Necht-Nielsen, 1990]; [Zurada, 1992], [Freeman и Scapura, 1991]) работали над проблемой выбора оптимального числа входных данных, соотношения между числом входных параметров и узлов в скрытом слое, определением количества проходов процесса обучения, достаточного для обеспечения сходимости. Здесь мы только констатировали, что эти проблемы сложные, важные и в большинстве случаев открытые.

Количество и качество обучающих данных важны для любого обучающего алгоритма. Без обширных исходных знаний о предметной области алгоритм обучения может не справиться с выделением образов при получении зашумленных, недостаточных или даже испорченных данных.

Смежная проблема - вопрос "достаточности" в обучении. В каких случаях алгоритмы можно назвать достаточно пригодными для выделения важных границ или инвариантов предметной области задачи? Приберечь ли запас входных данных для тестирования алгоритма? Отвечает ли количество имеющихся данных требуемому качеству обучения? Должно быть, суждение о "достаточности" является в большей степени эвристическим или даже эстетическим: мы, люди, часто рассматриваем алгоритмы как "достаточно хорошие".

Проиллюстрируем проблему обобщения на примере, используя метод обратного распространения ошибки для нахождения функции по набору заданных точек (рис. 16.2).

Линии вокруг этого набора представляют функции, найденные алгоритмом обучения. Напомним, что по завершении обучения алгоритму необходимо предоставлять новые входные данные, чтобы проверить качество обучения.

Рис. 16.2. Набор точек данных и три аппроксимирующие функции

Функция f1 представляет довольно точную аппроксимацию методом наименьших квадратов. Дальнейшее обучение системы может дать функцию f2, которая выглядит как достаточно "хорошая" аппроксимация набора данных. Но все же f2 не точно соответствует заданным точкам. Дальнейшее обучение может привести к функциям, которые точно аппроксимируют данные, но дают ужасные обобщения для новых входных данных. Это явление называют переобучением (overtraining) сети. Одной из сильных сторон обучения с обратным распространением ошибки является то, что в предметных областях многих приложений оно дает эффективные обобщения, т.е. аппроксимации функций, которые приближают обучающие данные и корректно обрабатывают новые. Тем не менее обнаружить точку, в которой сеть переходит из "недообученного" в переобученное состояние, - задача нетривиальная. Наивно думать, что можно построить сеть, или вообще какой-либо обучающий инструмент, снабдить его "сырыми" данными, а затем отойти в сторону и наблюдать за тем, как он вырабатывает самые эффективные и полезные обобщения, применимые к новым подобным проблемам.

Подведем итог, возвращая вопрос обобщения в контекст его эпистемологии. Когда решатель задач формирует и применяет обобщения в процессе решения, он создает инварианты или даже системы инвариантов в области задача-решение. Таким образом, качество и четкость таких обобщений могут быть необходимой основой для успешного осуществления проекта. Исследования в области обобщения задачи и процесса ее решения продолжаются.

Индуктивный порог: рационалистское априори

Методы автоматического обучения, рассмотренные в главах 9-11, и, следовательно, большая часть методов ИИ отражают индуктивные пороги, присущие их создателям. Проблема индуктивных порогов в том, что получаемые в результате представления и стратегии поиска дают средство кодирования в уже интерпретированном мире. Они редко могут предоставить механизмы для исследования наших интерпретаций, рождения новых взглядов или отслеживания и изменения неэффективных перспектив. Такие неявные предпосылки приводят к ловушке рационалистской эпистемологии, когда исследуемую среду можно увидеть лишь так, как мы ожидаем или научены ее видеть.

Роль индуктивного порога должна быть явной в каждом обучающем алгоритме. (Альтернативное утверждение гласит, что незнание индуктивного порога вовсе не означает того, что он не существует и не влияет критически на параметры обучения.) В символьном обучении индуктивные пороги обычно очевидны, например, использование семантической сети для концептуального обучения. В обучающем алгоритме Уинстона [Winston, 1975a] пороги включают представление в виде конъюнктивных связей и использование "попаданий близ цели" для коррекции наложенных на систему ограничений. Подобные пороги используются при реализации поиска в пространстве версий (раздел 9.1), построении деревьев решений в алгоритме ID3 (раздел 9.3) или даже правилах Meta-DENDRAL (раздел 9.5).

Как упоминалось в главах 10 и 11, многие аспекты стратегий коннекционистского и генетического обучения также предполагают наличие индуктивных порогов. Например, ограничения персептронных сетей привели к появлению скрытых слоев. Уместен вопрос о том, какой вклад вносят скрытые узлы в получение решения. Одна из функций скрытых узлов состоит в том, что они добавляют новые измерения в пространство представлений. На простом примере из подраздела 10.3.3 было видно, что данные в задаче "исключающего ИЛИ" не были линейно разделимы в двухмерном пространстве. Однако получаемые в процессе обучения весовые коэффициенты добавляют к представлению еще одно измерение. В трехмерном пространстве точки можно разделить двухмерной плоскостью. Выходной слой этой сети можно рассматривать как персептрон, находящий плоскость в трехмерном пространстве.

Стоит отметить, что многие из "различных" парадигм обучения используют (иногда неявно) общие индуктивные пороги. Примером подобной ситуации является взаимосвязь между кластеризацией в системе CLUSTER/2 (раздел 9.5), персептроном (раздел 10.2) и сетями прототипов (раздел 10.3). Было отмечено, что встречное распространение информации в дуальной сети, использующей обучение без учителя с коррекцией весов по выходу в слое Кохонена наряду с обучением с учителем в слое Гроссберга, во многом подобно обучению с обратным распространением ошибки.

Рассмотренные средства схожи во многих важных аспектах. Фактически даже задача кластеризации данных является дополнением к методу аппроксимации функций. В первом случае мы пытаемся классифицировать наборы данных; во втором строим функции, которые однозначно отделяют кластеры данных друг от друга. Это можно наблюдать, когда используемый персептроном алгоритм классификации на основе минимального расстояния находит также параметры, задающие линейное разделение.

Даже задачи обобщения или построения функций можно рассматривать с различных позиций. Например, статистические методы используются для обнаружения корреляции данных. Итеративный вариант рядов Тейлора позволяет аппроксимировать большинство функций. Алгоритмы полиномиальной аппроксимации на протяжении более столетия используются для аппроксимации функций по заданным точкам.

Итак, результат обучения (символьного, коннекционистского или эволюционного) во многом определяется принятыми предположениями о характере решения. Принимая в расчет этот синергетический эффект в процессе разработки вычислительных решателей задач, зачастую можно улучшить шансы на успех и более осмысленно интерпретировать результаты.

Дилемма эмпирика

Если в сегодняшних подходах к машинному обучению, особенно обучению с учителем, главную роль играет индуктивный порог, то обучение без учителя, которое используется во многих генетических и эволюционных подходах, сталкивается с противоположной проблемой, которую иногда называют дилеммой эмпирика. В таких подходах считается, что решения сложатся сами на основе эволюционирующих альтернатив, в процессе "выживания" наиболее подходящих особей популяции. Это мощный метод, особенно в контексте параллельных и распределенных средств поиска. Но возникает вопрос: откуда можно узнать, что система пришла к правильному решению, если мы не знали, куда идем?

Давным-давно Платон сформулировал эту проблему словами Менона из знаменитого диалога:

"Но каким же образом, Сократ, ты будешь искать вещь, не зная даже, что она такое? Какую из неизвестных тебе вещей изберешь ты предметом исследования? Или, если в лучшем случае ты даже натолкнешься на нее, откуда ты узнаешь, что она именно то, чего ты не знал?"

Несколько исследователей подтверждают слова Менона [Mitchell, 1997] и теорему "о бесплатном сыре" Вольперта и Макреди [Wolpert, Macready, 1995]. Эмпирик фактически нуждается в какой-то доле рационалистского априорного знания для придания научности своим рассуждениям.

Тем не менее продолжается множество увлекательных разработок в обучении без учителя и эволюционном обучении. Примером служит создание сетей, основанных на моделях или минимизации энергии, которые можно рассматривать в качестве аттракторов для сложных инвариантностей. Наблюдая, как данные "выстраиваются" к точкам притяжения, исследователь начинает рассматривать эти архитектуры как средства моделирования динамических явлений. Возникает вопрос: каковы ограничения этих методов?

Фактически исследователи показали [Siegelman и Sontag, 1991], что рекуррентные сети полны в смысле вычислений, т.е. эквивалентны классу машин Тьюринга. Эта эквивалентность обобщает более ранние результаты. Колмогоров [Kolmogorov, 1957] показал, что для каждой непрерывной функции существует нейронная сеть, реализующая ее вычисление. Также было показано, что сеть обратного распространения ошибки с одним скрытым слоем может аппроксимировать любую непрерывную на компакте функцию [Necht-Nielsen, 1989]. В разделе 11.3 было указано, что фон Нейман построил полные, по Тьюрингу, конечные автоматы. Таким образом, сети связей и конечные автоматы оказались еще двумя классами алгоритмов, способных аппроксимировать практически любую функцию. Кроме того, индуктивные пороги применимы к обучению без учителя, а также к эволюционным моделям; пороги представлений применимы к построению узлов, сетей и геномов, а алгоритмические пороги - к механизмам поиска, подкрепления и селекции.

Что в таком случае могут нам предложить коннекционистские, генетические или эволюционные конечные автоматы в их разнообразных формах?

Одна из наиболее привлекательных черт нейросетевого обучения - это возможность адаптации на основе входных данных или примеров. Таким образом, хотя их архитектуры точно проектируются, они обучаются на примерах, обобщая данные в конкретной предметной области. Но возникает вопрос о том, хватает ли данных и достаточно они ли "чисты", чтобы не исказить результат решения. И может ли это знать конструктор?

Генетические алгоритмы также обеспечивают мощный и гибкий механизм поиска в пространстве параметров задачи. Генетический поиск управляется как мутациями, так и специальными операторами (например, скрещивания или инверсии), которые сохраняют важные аспекты родительской информации для последующих поколений. Каким образом проектировщик программы может найти и сохранить в нужной мере компромисс между разнообразием и постоянством?

Генетические алгоритмы и коннекционистские архитектуры можно рассматривать как примеры параллельной и асинхронной обработки. Но действительно ли они обеспечивают результаты, недостижимые в последовательном программировании?

Хотя нейросетевые и социологические корни не имеют принципиального значения для многих современных практиков коннекционистского и генетического обучения, эти методы отражают многие важные стороны естественного отбора и эволюции. В главе 10 были рассмотрены модели обучения с уменьшением ошибки- персептронные сети, сети с обратным распространением ошибки и модели Хебба. В подразделе 10.3.4 описаны сети Хопфилда, предназначенные для решения задач ассоциативной памяти. Разнообразные эволюционные модели рассматривались в главе 11.

И, наконец, все методики обучения являются эмпирическими средствами. Достаточно ли мощны и выразительны эти средства, чтобы по мере выявления инвариантностей нашего мира ставить дальнейшие вопросы о природе восприятия, обучения и понимания?

В следующем разделе будет обоснован вывод о том, что конструктивистская эпистемология, объединенная с экспериментальными методами современного искусственного интеллекта, предлагает средства и технологии для дальнейшего построения и исследования теории интеллектуальных систем.

Примирение с конструктивистами

Теории, как сети: кто их закидывает, у того и улов... - Л. Виттгенштейн (L. Wittgenstein)

Конструктивисты выдвигают гипотезу о том, что всякое понимание является результатом взаимодействия между энергетическими образами мира и ментальными категориями, наложенными на мир разумным агентом [Piaget, 1954, 1970], [von Glasesfeld, 1978]. В терминах Пиаже (Piaget), мы ассимилируем (assimilate) явления внешней среды в соответствии с нашим текущим пониманием и приспосабливаем (accommodate) наше понимание к "требованиям" явления.

Конструктивисты часто используют термин схемы (schemata) для обозначения априорных структур, используемых в организации опытного знания о внешнем мире. Этот термин заимствован у британского психолога Бартлетта [Bartlett, 1932] и корнями уходит в философию Канта. С этой точки зрения наблюдение не пассивно и нейтрально, а является активным и интерпретирующим.

Воспринятая информация (кантовское апостериорное знание) никогда не вписывается точно в заранее составленные схемы. Поэтому пороги, основанные на схемах и используемые субъектом для организации опытных знаний, должны быть модифицированы, расширены или же заменены. Необходимость приспособления, вызванная неудачными взаимодействиями с окружающей средой, служит двигателем процесса когнитивного уравновешивания. Таким образом, конструктивистская эпистемология является основой когнитивной эволюции и уточнения. Важным следствием теории конструктивизма является то, что интерпретация любой ситуации подразумевает применение понятий и категорий наблюдателя.

Когда Пиаже [Piaget, 1954, 1970] предложил конструктивистский подход к пониманию, он назвал его генетической эпистемологией (genetic epistemology). Несоответствие между схемой и реальным миром создает когнитивное противоречие, которое вынуждает пересматривать схему. Исправление схемы, приспособление приводит к непрерывному развитию понимания в сторону равновесия (equilibration).

Пересмотр схемы и движение к равновесию - это врожденная предрасположенность, а также средство приспособления к устройству общества и окружающего мира. В пересмотре схем объединяются обе эти силы, отражающие присущую нам склонность к выживанию. Модификация схем априори запрограммирована нашей генетикой и в то же время является апостериорной функцией общества и мира. Это результат нашего воплощения в пространстве и времени.

Здесь наблюдается слияние эмпирической и рационалистической традиций. Как материализованный объект человек может воспринимать не больше, чем воспринимают его органы чувств. Благодаря приспособлению он выживает, изучая общие принципы внешнего мира. Восприятие определяется нашими ожиданиями, которые, в свою очередь, формируются восприятием. Следовательно, эти функции могут быть поняты лишь в терминах друг друга.

Наконец, человек редко осознает схемы, обеспечивающие его взаимодействие с миром. Он является источником предвзятости и предубеждений в науке и в обществе. Но чаще всего человек не знает их смысла. Они формируются за счет достижения когнитивного равновесия с миром, а не в процессе сознательного мышления.

Почему конструктивистская эпистемология особенно полезна при изучении проблем искусственного интеллекта? Автор считает, что конструктивизм помогает в рассмотрении проблемы эпистемологического доступа (epistemological access). Более столетия в психологии идет борьба между двумя направлениями: позитивистами, которые предлагают исследовать феномен разума, отталкиваясь от обозримого физического поведения, и сторонниками более феноменологического подхода, который позволяет использовать описания от первых лиц. Это разногласие существует, поскольку оба подхода требуют некоторых предположений или толкований. По сравнению с физическими объектами, которые считаются непосредственно наблюдаемыми, умственные состояния и поведение субъекта четко охарактеризовать крайне сложно. Автор полагает, что противоречие между прямым подходом к физическим явлениям и непрямым к ментальным является иллюзорным. Конструктивистский анализ показывает, что никакое опытное знание о предмете не возможно без применения некоторых схем для организации этого опыта. В научных исследованиях это подразумевает, что всякий доступ к явлениям мира происходит посредством построения моделей, приближений и уточнений.

16.2.3. Внедренный исполнитель и экзистенциальный разум

Символьные рассуждения, нейросетевые вычисления и разнообразные формы эволюционных стратегий являются главенствующими подходами в современном изучении ИИ. Тем не менее, как было отмечено в предыдущем разделе, для обеспечения более высокой эффективности эти подходы должны принимать в расчет ограничения мира, согласно которым весь "интеллект" является овеществленным.

Теории внедренного и овеществленного действия утверждают, что интеллект не является результатом управления моделями, построенными разумом. Его лучше всего рассматривать в терминах действий, предпринимаемых помещенным в мир агентом. В качестве метафоры для лучшего понимания разницы между двумя подходами в работе [Suchman, 1987] предлагается сравнение между европейскими методами навигации и менее формальными методами, практикуемыми полинезийскими островитянами. Европейские навигационные методы требуют постоянного отслеживания местонахождения корабля в каждый момент путешествия. Для этого штурманы полагаются на обширные, детальные географические модели. Полинезийские навигаторы, напротив, не пользуются картами и другими средствами определения своего местонахождения. Они используют звезды, ветры и течения, чтобы продолжать движение к своей цели, импровизируя маршрут, который непосредственно зависит от обстоятельств их путешествия. Не полагаясь на модели мира, островитяне рассчитывают на свое взаимодействие с ним и достигают своей цели с помощью надежного и гибкого метода.

Теории внедренного действия утверждают, что интеллект не нужно рассматривать как процесс построения и использования моделей мира. Это, скорее, менее структурированный процесс выполнения действий в этом мире и реагирования на результат. Этот подход акцентирует внимание на способности чувственного восприятия окружающего мира, целенаправленных действиях, а также непрерывной и быстрой реакции на изменения, происходящие в нем. В этом подходе чувства, посредством которых человек внедряется в этот мир, имеют большее значение, нежели процессы рассуждения о них. Важнее способность действовать, а не способность объяснять эти действия.

Влияние такой точки зрения на сети связей и агентские подходы очевидно. Оно состоит в отказе от общих символьных методов в пользу процессов адаптации и обучения.

Работы в области искусственной жизни [Langton, 1995], должно быть, самый яркий пример исследований, выполненных под влиянием теорий внедренного действия. Эти модели разума повлияли на подход к робототехнике Родни Брукса [Brooks, 1989], Брендана Мак-Гонигла [McGonigle, 1998], Льюиса и Люгера [Lewis и Luger, 2000]. Эти исследователи утверждают, что было ошибкой начинать работы в сфере ИИ с реализации высокоуровневых процессов рассуждений в моделируемом разуме. Этот акцент на логических рассуждениях повел человечество неверной дорогой, отвлек внимание от фундаментальных процессов, которые позволяют агенту внедряться в мир и действовать в нем продуктивным образом. По мнению Брукса, нужно начинать с проектирования и исследования небольших простых роботов, созданий, действующих на уровне насекомых. Они позволят изучить процессы, лежащие в основе поведения как простых, так и сложных существ. Построив множество таких простых роботов, Брукс и его коллеги пытаются применить приобретенный опыт в конструировании более сложного робота COG, который, как надеются разработчики, достигнет способностей человека.

Несмотря на это, теория внедренного действия также повлияла на символьные подходы к ИИ. Например, работы в области реактивного планирования [Benson, 1995], [Benson и Nilsson, 1995], [Klein и др., 2000] отвергают традиционные методы планирования, предполагающие разработку полного и определенного плана, который проведет агента по всему пути, от стартовой точки и до желаемой цели. Такие планы редко срабатывают нужным образом, потому что на пути может возникнуть слишком много ошибок и непредвиденных проблем. Напротив, системы реактивного планирования работают циклами. За построением частичного плана следует его выполнение, а затем ситуации переоценивается для построения нового плана.

Конструктивистские теории и теории внедренного действия подтверждают многие идеи философии экзистенциализма. Экзистенциалисты считают, что человек проявляет себя посредством своих действий в окружающем мире. То, во что люди верят (или утверждают, что верят), куда менее важно, чем то, что они совершают в критических ситуациях. Этот акцент весьма важен в ИИ. Исследователи постепенно поняли, что интеллектуальные программы необходимо помещать прямо в предметную область, а не лелеять в лаборатории. В этом причина роста интереса к робототехнике и проблеме восприятия, а также к сети Internet. В последнее время ведутся активные работы по созданию Web-агентов, или "софтботов", - программ, которые выходят в сеть и совершают полезные интеллектуальные действия. Сеть привлекательна для разработчиков ИИ прежде всего тем, что она может предложить интеллектуальным программам мир, куда более сложный, чем построенный в лаборатории. Этот мир, сравнимый по сложности с природой и обществом, могут населять интеллектуальные агенты, не имеющие тел, но способные чувствовать и действовать, как в физическом мире.

По мнению автора, теории внедренного действия будут оказывать все возрастающее влияние на искусственный интеллект, заставляя исследователей уделять больше внимания таким вопросам, как важность овеществления и обоснования для интеллектуального агента. Важно также учитывать влияние социального, культурного и экономического факторов на обучение и на способ влияния мира на рост и эволюцию внедренного агента. [Clark, 1997], [Lakoff и Johnson, 1999].

В заключение сформулируем основные вопросы, которые как способствуют, так и препятствуют сегодняшним усилиям специалистов в построении теории интеллектуальных систем.

16.3. Искусственный интеллект: текущие задачи и будущие направления

Как геометр, напрягший все старанья,
Чтобы измерить круг, схватить умом
Искомого не может основанья,
Таков был я при новом диве том...

- Данте (Dante), Рай

Хотя использование методик ИИ для решения практических задач продемонстрировало его полезность, проблема их применения для построения полной теории интеллекта сложна, и работа над ней продолжается. В этом заключительном разделе мы вернемся к вопросам, которые привели автора к изучению проблем искусственного интеллекта и написанию этой книги: возможно ли дать формальное математическое описание процессов, формирующих интеллект?

Вычислительное описание интеллекта возникло с появлением абстрактных определений вычислительных устройств. В 1930-1950-х гг. эту проблему начали исследовать Тьюринг, Пост, Марков и Черч - все они работали над формальными системами для описания вычислений. Целью этого исследования было не просто определить, что подразумевать под вычислениями, но и установить рамки их применимости. Наиболее изученным формальным описанием является универсальная машина Тьюринга [Turing, 1950], хотя правила вывода Поста, лежащие в основе продукционных систем, тоже вносят важный вклад в развитие этой области знаний. Модель Черча [Church, 1941], основанная на частично рекурсивных функциях, привела к созданию современных высокоуровневых функциональных языков, таких как Scheme и Standard ML.

Теоретики доказали, что все эти формализмы эквивалентны по своей мощности: любая функция, вычисляемая при одном подходе, вычисляется и при остальных. На самом деле можно показать, что универсальная машина Тьюринга эквивалента любому современному вычислительному устройству. Исходя из этих фактов, был выдвинут тезис Черча-Тьюринга о том, что невозможно создать модель вычислительного устройства, более мощного, чем уже известные модели. Установив эквивалентность вычислительных моделей, мы обретаем свободу в выборе средств их технической реализации: можно строить машины на основе электронных ламп, кремния, протоплазмы или консервных банок. Автоматизированное проектирование в одной реализации можно рассматривать как эквивалент других механизмов. Это делает еще более важным эмпирический метод, поскольку исследователь может экспериментировать над системой, реализованной одними средствами, чтобы понять систему, реализованную иными.

Хотя, возможно, универсальная машина Тьюринга и Поста чересчур универсальна. Парадокс состоит в том, что для реализации интеллекта может потребоваться менее мощный вычислительный механизм с большим упором на управление. В работе [Levesque и Brachman, 1985] высказано предположение, что для реализации человеческого интеллекта могут потребоваться вычислительно более эффективные (хотя и менее впечатляющие) представления, в том числе основанные на использовании хорновских дизъюнктов для представления рассуждений и сужении фактического знания до основных литералов. Агентские и эволюционные модели интеллекта также разделяют подобную идеологию.

Еще один аспект, связанный с формальной эквивалентностью вычислительных моделей, - это вопрос дуализма, или проблема взаимоотношения мозга и тела. По крайней мере со времен Декарта (см. раздел 1.1) философы задавались вопросом взаимодействия и интеграции мозга, сознания и физического тела. Философы предлагали всевозможные объяснения, от полного материализма до отрицания материального существования, вплоть до вмешательства бога. ИИ и когнитологические исследования отвергают картезианский дуализм в пользу материальной модели разума, основанной на физической реализации, или конкретизации символов, формальном описании вычислительных операций над этими символами, эквивалентности представлений и "реализации" знаний и опыта в овеществленных моделях. Успех таких исследований свидетельствует о справедливости выбранной модели [Johnson-Laird, 1998], [Dennett, 1987], [Luger, 1994].

Тем не менее возникает множество вопросов, связанных с эпистемологическими принципами организации интеллекта как физической системы. Отметим некоторые важные проблемы.

1. Проблема представления. Ньюэлл и Саймон выдвинули гипотезу о том, что физическая символьная система и поиск являются необходимой и достаточной характеристикой интеллекта (см. раздел 16.1). Опровергают ли успехи нейронных сетей, генетических и эволюционных подходов к интеллекту гипотезу о физической символьной системе, или же они сами являются символьными системами?

Вывод о том, что физическая символьная система представляет собой достаточную модель интеллекта, привел ко многим впечатляющим и полезным результатам в современной науке о мышлении. Исследования показали, что можно реализовать физическую символьную систему, которая будет проявлять разумное поведение. Достаточность гипотезы позволяет строить и тестировать символьные модели многих аспектов поведения человека ([Pylyshyn, 1984], [Posner, 1989]). Но теория о том, что физическая символьная система и поиск необходимы для разумного поведения, остается под вопросом [Searle, 1980], [Weizenbaum, 1976], [Winograd и Flores, 1986], [Dreyfus и Dreyfus, 1985], [Penrose, 1989].

2. Роль овеществления в познании. Одним из главных предположений гипотезы о физической символьной системе является то, что физическая реализация символьной системы не влияет на ее функционирование. Значение имеет лишь формальная структура. Это ставится под сомнение многими исследователями [Searle, 1980], [Johnson, 1987], [Agre и Chapman, 1987], [Brooks, 1989], [Varela и др., 1993], которые утверждают, что разумные действия в мире требуют физического воплощения, которое позволяет агенту объединяться с миром. Архитектура сегодняшних компьютеров не допускает такой степени внедрения, ограничивая взаимодействие искусственного интеллекта с миром современными устройствами ввода-вывода. Если эти сомнения верны, то реализация машинного разума требует интерфейса, весьма отличного от предлагаемого современными компьютерами.

3. Культура и интеллект. Традиционно упор в ИИ делался на разум отдельного индивида как источник интеллекта. Предполагается, что изучение принципов работы мозга (способов кодирования и манипулирования знаниями) обеспечит полное понимание истоков интеллекта. Но можно утверждать, что знание лучше рассматривать в контексте общества, чем как отдельную структуру.

В теории интеллекта, описанной в [Edelman, 1992], общество само является носителем важных составляющих интеллекта. Возможно, понимание социального контекста знания и человеческого поведения не менее важно для теории интеллекта, чем понимание процессов отдельного разума (мозга).

4. Природа интерпретации. Большинство вычислительных моделей работают с заранее интерпретированной предметной областью, т.е. существует неявная априорная привязка разработчиков к контексту интерпретации. Из-за этой привязки система ограничена в изменении целей, контекстов, представлений по мере решения задачи. Кроме того, сегодня делается слишком мало попыток осветить процесс построения интерпретации человеком.

Позиция Тарскиана (Tarskian), который рассматривает семантическое приспособление как отображение множества символов на множество объектов, безусловно, слишком слаба и не объясняет, например, тот факт, что одна предметная область может иметь разные интерпретации в свете различных практических целей. Лингвисты пытаются устранить ограничения такой семантики, добавляя к ней теорию прагматики [Austin, 1962] (раздел 13.1). К этим вопросам в последнее время часто обращаются исследователи в области анализа связной речи, поскольку здесь важную роль играет применение символов в контексте. Однако проблема гораздо шире - она сводится к изучению преимуществ и недостатков ссылочных средств в целом [Lave, 1988], [Grosz и Sidner, 1990].

В традиции семиотики, основанной Пирсом [Peirse, 1958] и продолженной в работах [Есо, 1976], [Grice, 1975], [Seboek, 1985], принимается более радикальный подход к языку. Здесь символьные выражения рассматриваются в более широком контексте знаков и знаковых интерпретаций. Это предполагает, что значение символа может быть понято лишь в контексте его интерпретации и взаимодействия с окружающей средой.

5. Неопределенность представлений. Гипотеза Андерсона о неопределенности представлений [Anderson, 1978] гласит: принципиально невозможно определить, какая схема представления наилучшим образом аппроксимирует решение задачи человеком в контексте его опыта и навыков. Эта гипотеза основывается на том факте, что всякая схема представления неразрывно связана с большей вычислительной архитектурой и со стратегиями поиска. Детальный анализ человеческого опыта показывает, что иногда невозможно управлять процессом решения в степени, достаточной для определения представления, или же установить представление, которое бы однозначно определяло процесс. Как и принцип неопределенности в физике, где процесс измерения влияет на исследуемое явление, это соображение важно при проектировании моделей интеллекта, но оно, как будет показано ниже, не ограничивает их применимости.

Такие же замечания могут быть адресованы к самой вычислительной модели, где индуктивные пороги символов и поиска в контексте гипотезы Черча-Тьюринга все же накладывают ограничения на систему. Мысль о необходимости построения некой оптимальной схемы представления вполне может оказаться осколком мечты рационалиста, в то время как ученому нужна лишь модель, достаточно качественная для рассмотрения эмпирических вопросов. Доказательством качества модели является ее способность интерпретировать, предсказывать и адаптироваться.

6. Необходимость построения ошибочных вычислительных моделей. Поппер [Popper, 1959] и другие утверждают, что научные теории должны ошибаться. Следовательно, должны существовать обстоятельства, при которых модель не может успешно аппроксимировать явление. Это связано с тем, что для подтверждения правильности модели не достаточно никакого конечного числа подтверждающих экспериментов. Ошибки в существующих теориях стимулируют дальнейшие исследования.

Крайняя общность гипотезы о физической символьной системе, а также агентских и эволюционных моделей интеллекта может привести к тому, что их будет невозможно заставить ошибаться. Следовательно, их применимость в качестве моделей будет ограниченной. Те же замечания можно сделать по поводу предположений феноменологической традиции (п. 7). Некоторые структуры данных ИИ, такие как семантические сети, тоже настолько общи, что ими можно смоделировать практически все, что поддается описанию, или, как в универсальной машине Тьюринга, любую вычислимую функцию. Таким образом, если исследователю ИИ или когнитологу задать вопрос о том, при каких условиях его модель интеллекта не будет работать, он затруднится ответить.

7. Ограничения научного метода. Некоторые исследователи [Winograd и Flores, 1986], [Weizenbaum, 1976] утверждают, что наиболее важные аспекты интеллекта в принципе невозможно смоделировать, а в особенности с помощью символьного представления. Эти аспекты включают обучение, понимание естественного языка и речь. Эти вопросы корнями уходят глубоко в феноменологическую традицию. Например, замечания Винограда (Winograd) и Флореза (Flores) основываются на проблемах, поднятых в феноменологии [Husserl, 1970], [Heidegger, 1962].

Многие положения современной теории ИИ берут начало в работах Карнапа (Carnap), Фреге (Frege), Лейбница (Leibniz), а также Гоббса (Hobbes), Локка (Locke), Юма (Hume) и Аристотеля. В этой традиции утверждается, что интеллектуальные процессы отвечают законам природы и в принципе постижимы.

Хайдеггер (Heidegger) и его последователи представили альтернативный подход к пониманию интеллекта. Для Хайдеггера рефлексивная осведомленность свойственна миру овеществленного опыта. Приверженцы этой точки зрения, включая Винограда, Флореса и Дрейфуса (Dreyfus), говорят, что понимание личностью каких-либо аспектов основывается на их практическом "использовании" в повседневной жизни. По существу, мир представляет собой контекст социально организованных ролей и целей. Эта среда и функционирование человека в ней не объясняются соотношениями и теоремами. Это поток, который сам себя формирует и непрерывно модифицирует. В фундаментальном смысле в мире эволюционирующих норм и неявных целей человеческий опыт - это знание не объекта, а, скорее, способа действия. Человек по своей сути не способен выразить большую часть своего знания и разумного поведения в форме языка, будь то формального или естественного.

Рассмотрим эту точку зрения. Во-первых, как критика чисто рационалистской традиции, она верна. Рационализм отстаивает позицию, что всякая человеческая деятельность, интеллект и ответственность в принципе могут быть представлены, формализованы и поняты. Большинство вдумчивых людей ставят это под сомнение, отводя важную роль эмоциям, самоутверждению и обязательствам долга (наконец-то!). Сам Аристотель говорил: "Почему я не чувствую побуждения делать то, что требует ответственность?". Существует множество разновидностей человеческой деятельности, выходящих за пределы досягаемости научного метода, которые играют важную роль в сознательном взаимодействии людей. Их невозможно воспроизвести в машинах.

И все же научная традиция, состоящая в изучении данных, построении моделей, постановке экспериментов и проверке результатов с уточнением модели дальнейших экспериментов, дала человечеству высокий уровень понимания, объяснения и способности предсказывать. Научный метод - мощный инструмент для улучшения понимания человека. Тем не менее в этом подходе остается множество подводных камней.

Во-первых, ученые не должны путать модель с моделируемым явлением. Модель позволяет постепенно аппроксимировать феномен, но всегда имеется "остаток", который нельзя объяснить эмпирически. В этом смысле неоднозначность представления не является проблемой. Модель используется для исследования, объяснения и предсказания, и если она выполняет эти функции, то это - удачная модель [Kuhn, 1962]. В самом деле разные модели могут успешно пояснять разные аспекты одного явления, например, волновая и корпускулярная теории света.

Более того, когда исследователи утверждают, что некоторые аспекты интеллекта находятся за рамками методов научной традиции, само это утверждение можно проверить лишь с помощью этой традиции. Научный метод - единственный инструмент, с помощью которого можно объяснить, в каком смысле вопросы могут быть за пределами текущего понимания человека. Всякая логически последовательная точка зрения, даже точка зрения феноменологической традиции, должна соотноситься с текущими представлениями об объяснении, даже если она всего лишь устанавливает границы, в которых феномен может быть объяснен.

Эти вопросы необходимо рассматривать для сохранения логической связности и развития ИИ. Для того чтобы понять процесс решения задач, обучение и язык, необходимо осмыслить представления и знания на уровне философии. Исследователям предстоит решать аристотелевское противоречие между теорией и практикой, жить между наукой и искусством.

Ученые создают инструменты. Все наши представления, алгоритмы и языки - это инструменты для проектирования и построения механизмов, проявляющих разумное поведение. Посредством эксперимента можно исследовать как их вычислительную адекватность для решения задач, так и наше собственное понимание явления интеллекта.

Мы наследники традиции Гоббса, Лейбница, Декарта, Бэббиджа, Тьюринга и других, о чьем вкладе в науку было рассказано в главе 1. Инженерия, наука и философия; природа идей, знаний и опыта; могущество и пределы формализма и механизма - это ограничения, с которыми необходимо считаться и с учетом которых нужно продолжать исследования.

16.4. Резюме и дополнительная литература

Для получения дополнительной информации читатель может воспользоваться ссылками, приведенными в конце главы 1. К ним стоит добавить работы [Pylyshyn, 1984] и [Winograd и Flores, 1986]. Вопросы когнитологии рассматриваются в [Norman, 1983], [Newell и Simon, 1972], [Posner, 1989], [Luger, 1994], [Ballard, 1997], [Franklin, 1995], [Jeannerod, 1997], [Elman и др., 1996].

В работах [Haugeland, 1981, 1997], [Dennett, 1978], [Smith, 1996] описаны философские корни теории интеллектуальных систем. Книга [Anderson, 1990] по когнитивной психологии дает ценные примеры моделей обработки информации. В работах [Pylyshin, 1984], [Anderson, 1978] приводится детальное описание многих принципиальных вопросов когнитологии, включая рассмотрение неопределенности представлений. В [Dennett, 1991] методы когнитологии применяются для исследовании структуры сознания. Также можно порекомендовать книги по научному методу: [Popper, 1959], [Kuhn, 1962], [Bechtel, 1988], [Hempel, 1965], [Lakatos, 1976], [Quine, 1963].

Наконец, в [Lakoff и Johnson, 1999] предложены возможные ответы на вопрос обоснования. В книге [Clark, 1997] описаны важные аспекты овеществленности интеллекта. Описание модели Брукса [Brooks, 1991a] для решения задачи внедренного робота можно найти в работах [McGonigle, 1990, 1998] и [Lewis и Luger, 2000].

The latest information about Max Polyakov read here
Хостинг от uCoz