Но против «аргумента Гёделя» имеется очень сильные контраргументы.
Приведем два из них, которые с разных точек зрения опровергают этот «аргумент». Во-первых, в той же теореме Гёделя указывается, что для устранения указанного затруднения достаточно лишь расширить систему аксиом, включив в нее в качестве добавочной аксиомы конфликтное выражение. Правда, в этой расширенной системе впоследствии тоже может встретиться другое недоказуемое выражение, и его также надо будет включать в систему. Но для процесса познания это вполне приемлемая и привычная ситуация: результативная и адекватная интеллектуальная деятельность возможна лишь при условии учета опыта предыдущей деятельности и включения этого опыта в базу знаний интеллекта. Первоначальный аксиоматический фундамент наших знаний постоянно расширяется за счет добавления в него аксиом — законов природы, включающих в нашу «базу знаний» вновь добытые экспериментальные факты, не описываемые в прежней системе аксиом. Это рассуждение дает пример хотя и убедительного, но интуитивного возражения. Другое, весьма сильное и тонкое возражение формального характера заключается в следующем [13].
Как отмечалось выше, мозг — это устройство с конечным числом «входов» и «выходов». На «входы» поступает информация о внешнем мире и внутреннем состоянии человека. Сигналы на «выходах» определяют мышечную реакцию человека. Каждому конкретному набору «входных» сигналов соответствует (с учетом предыстории этого набора сигналов) набор «выходных» сигналов. Отдельный человек живет конечное время, поэтому и число возможных вариантов сигналов на «входах», хотя и астрономически велико, но тоже конечно. Также конечно количество возможных сигналов на выходе и, стало быть, количество сочетаний сигналов «вход» — «выход».
Раз количество этих сочетаний конечно, можно составить таблицу сочетаний конечной длины, в которой будут перечислены все их возможные варианты. Из таблицы всех возможных сочетаний в принципе можно отобрать и собрать в таблицу такие сочетания сигналов «вход» — «выход», которые характеризуют человеческие реакции. Возможно, что таких таблиц «человеческих реакций» будет несколько, т. к. у разных людей возможны разные реакции на один и тот же набор входящих сигналов. Безусловно, составление таких «таблиц» физически невыполнимо хотя бы из-за невообразимо большого объема работы для составления таблицы возможных сочетаний и для отбора из них сочетаний, характерных для поведения человека. Однако принципиальная возможность выполнения такой работы имеет доказательную силу, т. к. в теории говорится только о принципиальной выполнимости операций без учета возможности их физической реализации.
Таблицы же, состоящие из «человеческих реакций», т. е. таких сочетаний «вход» — «выход», которые определяют человеческую деятельность, и будут программами для «мыслящей машины».
Действительно, при всех возможных вариантах человеческого восприятия, т. е. для любого возможного набора сигналов на «входах» такая «мыслящая машина» будет выдавать адекватные наборы сигналов на «выходах», которые находятся в этих таблицах. Таким образом, реакции этой машины будут вполне соответствовать человеческому поведению, закодированному в таблицах. И вполне по-человечески будет выглядеть то, что при одинаковых внешних условиях (т. е. при одинаковых наборах сигналов на входе в мозг) разные таблицы-программы могут заставлять разные «мыслящие машины» вести себя по-разному.
С точки зрения теории алгоритмов принципиальным является то, что алгоритмически невычислимыми могут быть лишь такие функции, область определения которых (т. е., грубо говоря, область действия) — бесконечное множество. Любая функция, область определения которой конечна, алгоритмически вычислима.
Поэтому в принципе «аргумент Гёделя» формально не применим к системам, существующим конечное время. А человек со своим аппаратом мышления — мозгом — является именно такой системой. Причем то же самое можно сказать не только об отдельном человеке, а о человечестве и, стало быть, о процессе мышления человечества в целом.
Так как теорема «о неполноте» является практически единственным теоретическим аргументом против возможности построения «искусственного интеллекта», то можно считать, что результаты теории алгоритмов и математической логики не только не вводят запрет на моделирования разума, но прямо указывают на возможность построения «мыслящих устройств».
Однако в проблеме искусственного интеллекта есть одна принципиальная трудность. Обычно бывает интуитивно ясно, что является разумной деятельностью, и в каких случаях можно говорить о результативной творческой работе интеллекта, но до настоящего времени нет и, может быть, никогда не будет формального определения разума, разумной деятельности или творческой работы интеллекта. Здесь подразумевается, что это должно быть такое определение, в которое в какой-либо форме включен перечень некоторых свойств или признаков разума. Такое определение необходимо для того, чтобы можно было надежно определить, разумно ли поведение некоторого исследуемого объекта (или субъекта) путем сравнения с требованиями определения разума. Схожую ситуацию очень хорошо описал Блаженный Августин, говоря о понятии времени: «…Что же такое время?
Если никто меня об этом не спрашивает, я знаю, что такое время; если бы я захотел объяснить спрашивающему — нет, не знаю». [14].
В качестве выхода в тех случаях, когда надо оценивать сложное многофакторное явление, для которого нет определения указанного выше вида, обычно используются так называемые «экспертные оценки», т. е. оценки специалиста (или специалистов), хорошо знающих рассматриваемую проблему. Этот метод на первый взгляд может представляться не очень надежным, а результаты его казаться не вполне объективными, однако это не так. По сути дела, почти все сложные оценки базируются на мнениях специалистов. В некоторых случаях (но совсем не во всех и не всегда!) после длительного использования таких оценок их удается адекватно формализовать, т. е. представить в виде списка признаков и правил их проверки.
А. Тьюринг предложил тест, использование которого решает вопрос о том, можно ли считать, что данная машина или устройство мыслит. Тест А. Тьюринга также является тестом на основе «экспертной оценки» и, в соответствии с ним считается, «что машина выдержала этот тест на присутствие сознательного разума, если ее ответы на вопросы собеседника невозможно отличить от ответов, которые дал бы реальный, разумный человек» [15].
В неявном виде в тесте предполагается длительное общение эксперта с объектом, так как при кратковременном общении и при обсуждении узкого круга проблем можно имитировать «разумный диалог» достаточно малым набором «квазиразумных» ответов, выдаваемых по несложным правилам.
Таким образом, можно считать, что построение «искусственного интеллекта» возможно и возможна проверка результатов этого построения. Теперь перейдем к тому, что дала разработка шахматных программ, чтобы в дальнейшем использовать некоторые результаты этой разработки в обосновании гипотезы о путях возникновения интеллекта.
Что показала разработка шахматных программ.
Во второй половине ХХ века в масштабном эксперименте с созданием шахматных программ было показано, что работа вычислительных систем и человеческого мозга дает сходные результаты. Спортивный ажиотаж, к сожалению, не дал научной общественности рассмотреть в нём научный результат потрясающей важности — в нем впервые была доказана возможность моделирования работы мозга при принятии сложных поведенческих решений. Клод Шеннон, один из отцов кибернетики, писал полвека назад: «Построение шахматной машины является идеальным началом (в исследованиях по искусственному интеллекту. В. Л. ) по нескольким причинам. Задача строго определена как в смысле дозволенных операций (шахматные ходы), так и в смысле конечной цели (поставить «мат» королю). Она не настолько проста, чтобы быть тривиальной, но и не настолько трудна, чтобы не поддавалась решению. Кроме того, такая машина могла бы соревноваться с человеком, что позволило бы однозначно судить о способности машины к логическим рассуждениям подобного типа».