Доброволец между тем был уже у стола. Коджима призвал к тишине.

   - Начнем, - сказал он, повернулся к геймеру-добровольцу и показал на непонятного назначения черные бруски. - Выбирайте один из них.

   Геймер послушно сдвинул из один из брусков. Коджима и поднял его, посмотрел с нижней стороны, удовлетворительно кивнул и казал ее присутствующим. На нижней стороне бруска оказался дисплей. На дисплее синими буквами светилась надпись: "human". Затем вернул на место.

   - Теперь Вы, уважаемая Глория, - сказал Коджима, обращаясь к буфетчице. - Выберите один из брусков.

   Глория поколебавшись секунду: выбрала так же.

   Со стороны казалось что она колеблется перед выбором, но те кто уже догадались что перед ним андроид а не человек. Уже понимали, что это имитация. Нарочная имитация человеческого выбора. Сам комп за ничтожные доли секунду в соответствии со своей программой совершить выбор из совершенно одинаковых предметов.

   Коджима показал аудитории предмет выбранный андроидом.

   Голубые светодиоды ярко высветили: "computer".

   Зал ахнул.

   - Она что? Андроид?

   - Вот это номер?

   - А как он не тот брусок выбрала?

   Коджима снова призвал к тишине, отправил геймера на место. А также отослал Глорию.

   - Идите на ваше рабочее место, Глория. Спасибо что помогли.

   Глория кивнула и попрощавшись двинулась к двери. Хохмачи не упустили конечно ее без сопровождения:

   - Я к тебе сегодня вечером зайду, - сказал шутник.

   Глория открыла дверь и показала ему язык, перед тем как выйти.

   Зал засмеялся. А Коджима сопроводил ее странным взглядом и комментарием-вопросом к самому себе:

   - Весьма и весьма продвинутые алгоритмы. Что же будет через пятьдесят лет?

   Я примерно знал что будет. Если вся эта история с разумной игрой. Большой бада-бум, как в одном старом фильме говорили.

   - Фокус с брусками объясните? - спросил один из игроков.

   Коджимы вышел из минутной задумчивости.

   - Конечно. Весь смысл этой небольшой лекции заключается в ней. Вы слышали когда-нибудь о "буридановом осле"?

   Зал ответил молчанием, ожидая продолжения. Коджима не заставил себя ждать:

   - Asinus Buridani inter duo prata, буриданов осел между двух лужаек. В четырнадцатом веке, уважаемые игроки, один из французских философов-схоластического толка Жан Буридан сформулировал интересную задачу. Что будет, если у выбора "между и между" не будет критериев? Допустим перед ослом положат две абсолютно одинаковые копны сена. На одинаковом расстоянии, абсолютно идентичные: в размере, в цвете, в запахе... Во всем. Как осел сделает выбор с какой копны начать?

   Геймеры продолжали хранить молчание и Коджима ответил на вопрос сам:

   - Ничего не будет. Осел выберет одну из куч. Быстро, без колебаний. Несмотря на то, что сам философ утверждал, что осел не способный сделать выбор просто умрет от голода. В этом предположении есть сильная логика. Но в реальности оно неверно. Возможно сам господин Буридан никогда не проверял на опыте свое утверждение. Или может быть он просто не мог поставить осла в абсолютно одинаковые условия. Всегда одна из куч сена будет: либо чуть больше, либо чуть зеленее или даже чуть лучше пахнуть на вкус осла. Идеального в мире ничего нет. Поди разберись. Отсюда мы приходим к ключевому выбору. Если дать машине абсолютно одинаковые предметы, какой она выберет?

   - Никакой. Для машины нужна программа для выбора. Генератор случайности выбора.

   - Вот именно, Андреа-сан! Жан Буридан сам того не зная описывал действия компьютера в такой ситуации, а не высших млекопитающих. Компьютеру в такой ситуации нужна программа. Генератор случайности, который будет запрограммирован программистами. И несмотря ни на что, это не настоящая случайность. А только его имитация. Компьютер умножает, делит, суммирует вероятности. Может даже использовать внешние сигналы - температуру на улице, чтобы выдать ее за задуманное им случайное число. И даже совершить над ним математические операции вплоть до возведения в куб, чтобы вы не заподозрили, что это число не случайное. Но все равно - это всего лишь программная случайность. Псевдослучайность. И разработчики всегда знают о ней. И мало того могут предсказать ее. Поэтому с помощью программистов разрабатывавших ПО для Глории, я знал что она выберет. Потому что узнал как она делает выбор между одинаковым объектами. Причем предсказывать ее поведение в этом случае можно до бесконечности. Она будет выбирать другой брусок, но всегда тот на котором остановилось вычисление предыдущего блока - будет началом отсчета. Глория использует считалку из десяти слов. И с каждым предложением такого выбора, она начинает сначала прибавляя единицу к предыдущему блоку. Потом двойку, тройку и так до десяти. Поскольку других критериев нет - бруски одинаковы, она всегда пользуется этим простым алгоритмом случайности, который не зная его, трудно вычислить. Тем более, если вы будете ее слишком доставать, компьютерный мозг может отказаться вообще играть в вашу игру, поскольку реальной персоне такое тоже быстро надоело бы. И это учитывается системой.

   Геймеры зашумели, как только Коджима замолчал. Все казалось было ясно как божий день на этот раз. Алгоритмы случайности выбора занесены разработчиками игры и если их знать, то можно вопросом выбора отличить действующего по программе эН-Пи-Си от реально самостоятельного сбрендившего бота. Только ведь есть одно но.

   - А почему такой сошедший с ума комп должен игнорировать свой генератор случайностей? - спросил я, сквозь шум и галдеж.

   - А почему он не должен? - ответил вопросом на вопрос Коджима. - Подумайте сами, уважаемый игроки. Есть только два варианта: либо компьютер следует программе, либо не следует ей. Если машина ломает программу, то зачем она будет ей частично следовать в чем-то? И несколько неправильно называть его сумашедшим компом. Это не сумашедшая программа, а существо обладающей самым важным свойством разума...

   Коджима сделал эффектную паузу и когда аудиотирия снова затихла, торжественно закончил:

   - Свободой воли.

   Его торжественный тон, несколько смазал вопрос из первого ряда:

   - А разве осел обладает свободой воли?

   Сидящая рядом Лора прыснула в кулак. Как и некоторые игроки.

   Коджима несколько снизил градус в своем тоне и ответил:

   - Осел, конечно не во всем свободен в своих решениях. Его жизнью управляет большей частью инстинкты - невероятно сложные биологические программы, но когда дело дойдет до охапок сена у него будет больше свободы воли, чем у всех суперкомпьютеров на Земле, вместе взятых. Это мы называем Истинным Искусственным Интеллектом...

.