Изменить стиль страницы

Если конкретнее, то на основании предшествующих рассуждений мы склонны заключить, что не существует такого постижимого роботом и не содержащего подлинно случайных компонентов набора вычислительных механизмов, какой робот мог бы принять (даже в качестве возможности) как основу своей системы математических убеждений, — при условии, что робот готов согласиться с тем, что специфическая процедура, предложенная мною для построения формальной системы Q( M) на основе механизмов M, и в самом делеохватывает всю совокупность Π 1-высказываний, в истинность которых он неопровержимо верит, а также, соответственно, с тем, что формальная система Q M ( M) охватывает всю совокупность Π 1-высказываний, которые, как он неопровержимо верит, следуют из гипотезы M. Кроме того, если мы хотим, чтобы робот смог построить собственную потенциально непротиворечивую систему математических убеждений, следует ввести в набор механизмов  Mкакие-либо подлинно случайные составляющие.

Эти последние оговорки мы рассмотрим в последующих разделах ( §§3.17-3.22). Вопрос о введении в набор механизмов  Mвозможных случайных элементов (вариант (c)) представляется удобным обсудить в рамках общего рассмотрения варианта (b). А для того чтобы рассмотреть вариант (b) с должной тщательностью, нам следует прежде в полной мере прояснить для себя вопрос об «убежденности» робота, который мы уже мимоходом затрагивали в конце §3.12.

3.17. Робот ошибается и робот «имеет в виду»?

Важнейший вопрос из тех, с какими нам предстоит разобраться на данном этапе, звучит так: готов ли робот безоговорочно согласиться с тем, что — при условии его построения в соответствии с некоторым набором механизмов  M— формальная система Q( M) корректным образом включает в себя всю систему его математических убеждений в отношении Π 1-высказываний (равно как и с соответствующим предположением для системы Q M ( M))? Такое согласие подразумевает, прежде всего, что робот верит в обоснованностьсистемы Q( M), — т.е. в то, что все Π 1-высказывания, являющиеся ☆-утверждениями, действительно истинны. Наши рассуждения требуют также, чтобы всякоеΠ 1-высказывание, в истинность которого робот в состоянии безоговорочно поверить, являлось непременно теоремой системы Q( M) (т.е. чтобы в рамках системы Q( M) робот мог бы определить «машину для доказательства теорем», аналогичную той, возможность создания которой в случае математиков-людей допускал Гёдель, см. §§3.1, 3.3). Вообще говоря, существенно нето, чтобы система Q( M) действительно играла такую универсальную роль в отношении потенциальных способностей робота, связанных с Π 1-высказываниями, а лишь то, чтобы она была достаточно обширна для того, чтобы допускать применение гёделевского доказательства к самой себе (и, соответственно, к системе Q M ( M)). Позднее мы увидим, что необходимость в таком применении возникает лишь в случае некоторых конечных систем Π 1-высказываний.

Таким образом, мы — как, собственно, и робот — должны учитывать возможность того, что некоторые из ☆-утверждений робота окажутся в действительности ошибочными, и то, что робот может самостоятельно обнаружить и исправить эти ошибки согласно собственным внутренним критериям, сути дела не меняет. А суть дела заключается в том, что поведение робота в этом случае становится как нельзя более похоже на поведение математика-человека. Человеку ничего не стоит оказаться в ситуации, когда он (или она) полагает, что истинность (или ложность) того или иного Π 1-высказывания неопровержимо установлена, в то время как в его рассуждениях имеется ошибка, которую он обнаружит лишь значительно позднее. Когда ошибка наконец обнаруживается, математик ясно видит, что его ранние рассуждения неверны, причем в соответствии с теми же самыми критериями, какими он руководствовался и ранее; разница лишь в том, что ранее ошибка замечена не была, — и вот Π 1-высказывание, полагаемое неопровержимо истинным тогда, воспринимается сейчас как абсолютно ложное (и наоборот).

Мы вполне можем ожидать подобного поведения и от робота, т.е. на его ☆-утверждения, вообще говоря, полагаться нельзя, пусть даже он и удостоил их самолично статуса ☆. Впоследствии робот может исправить свою ошибку, однако ошибка-то уже сделана. Каким образом это обстоятельство отразится на нашем выводе относительно обоснованности формальной системы Q( M)? Очевидно, что система Q( M) не являетсяцеликом и полностью обоснованной, не «воспринимает» ее как таковую и робот, так что его гёделевскому предположению G( Q( M)) доверять нельзя. К этому, в сущности, и сводится суть оговорки (b).

Попробуем выяснить, может ли наш робот, приходя к тому или иному «неопровержимому» заключению, что-либо иметь в виду, и если да, то что именно. Уместно сопоставить эту ситуацию с той, что мы рассматривали в случае математика-человека. Тогда нас не занимало, что конкретно случилось обнаружить какому-либо реальномуматематику, нас занимало лишь то, что может быть принято за неопровержимую истину в принципе. Вспомним также знаменитую фразу Фейнмана: «Не слушайте, что я говорю; слушайте, что я имею в виду!». Похоже, нам нет необходимости исследовать то, что робот говорит, исследовать нужно то, что он имеет в виду. Не совсем, впрочем, ясно (особенно если исследователь имеет несчастье являться приверженцем скорее точки зрения B, нежели A), как следует интерпретировать саму идею того, что робот способен что бы то ни было иметь в виду. Если бы было возможно опираться не на то, что робот ☆-утверждает, а на то, что он в действительности «имеет в виду», либо на то, что он в принципе «должен иметь в виду», то тогда проблему возможной неточности его ☆-утверждений можно было бы обойти. Беда, однако, в том, что в нашем распоряжении, по всей видимости, нет никаких средств, позволяющих снаружи получить доступ к информации о том, что робот «имеет в виду» или о том, что, «как ему кажется, он имеет в виду». До тех пор, пока речь идет о формальной системе Q( M), нам, судя по всему, придется полагаться лишь на доступные ☆-утверждения, в достоверности которых мы не можем быть полностью уверены.

Не здесь ли проходит возможная операционная граница между точками зрения  Aи B? Не исключено, что так оно и есть; хотя позиции  Aи  Bэквивалентны в отношении принципиальной возможности внешних проявлений сознательной деятельности в поведении физической системы, люди, этих позиций придерживающиеся, могут разойтись в своих ожиданияхкак раз в вопросе о том, какую именно вычислительную систему можно рассматривать как способную осуществить эффективное моделирование мозговой активности человека, находящегося в процессе осознания справедливости того или иного математического положения (см. конец §3.12). Как бы то ни было, возможные расхождения в такого рода ожиданиях не имеют к нашему исследованию сколько-нибудь существенного отношения.

3.18. Введение случайности: ансамбли всех возможных роботов

В отсутствие прямого операционного метода разрешения этих семантических проблем нам придется полагаться на конкретные ☆-утверждения, которые наш робот будет делать, побуждаемый механизмами, управляющими его поведением. Нам придется смириться с тем, что некоторые из этих утверждений могут оказаться ошибочными, однако такие ошибки исправимы и, в общем случае, чрезвычайно редки. Разумно будет предположить, что всякий раз, когда робот допускает ошибку в одном из своих ☆-утверждений, ошибку эту можно приписать (по меньшей мере частично) каким-то случайным факторам, присутствующим в окружении или во внутренних процедурах робота. Если вообразить себе второго робота, функционирующего в соответствии с механизмами того же типа, что управляют поведением первого робота, однако при участии иных случайных факторов, то этот второй робот вряд ли совершит те же ошибки, что и первый, — но вполне может совершить другие. Упомянутые факторы могут привноситься теми самыми подлинно случайными элементами, которые определяются либо как часть информации, поступающей на вход робота из внешнего окружения, либо как компоненты внутренних процедур робота. Как вариант, они могут представлять собой псевдослучайные результаты неких детерминистских, но хаотических вычислений, как внешних, так и внутренних.