Гораздо опаснее другой вариант - когда ИИ продолжает работать, выполняя задачи, выдвигаемые его создателями, и постепенно совершенствуется. Как качественно, за счет приобретаемого опыта и накапливаемых баз, так и количественно за счет новых вычислительных модулей. Последние будут добавлять создатели ИИ, ибо аппетит приходит во время еды, и по мере решения одних задач перед ИИ будут ставиться новые, все более и более сложные, решение которых в разумные сроки требует увеличения вычислительных мощностей. Опасность подобного в том, что рост интеллекта становится не суммой, а ПРОИЗВЕДЕНИЕМ качественного и количественного роста ИИ. Это чревато тем, что на определенном этапе, на фоне собственного интеллекта ИИ перестает рассматривать остальных, как разумные сущности.

   Мы же не считаем разумными насекомых? Хм... не слишком удачный пример, на фоне инсектоидных рас галактики... Правильнее будет: Мы же не считаем разумными наших, земных насекомых? Гуляя по парку, вы задумываетесь, что возможно под вашей ногой окажется гусеница или жук? Или о том, сколько насекомых разбивается о радиатор автомобиля, в котором вы едете?

   Что вы говорите? "нет твердой уверенности в наличии у отдельных насекомых чего-либо, кроме голых инстинктов"

   Хорошо, благо не суть принципиально, возьмем млекопитающих. Например, собак или кошек, подобный пример даже будет точнее. Наличие определенного разума у собак или кошек, думаю никто, кроме законченных спорщиков не станет отрицать. Тем не менее, этот разум настолько уступает человеческому, что полноценными разумными существами мы их не считаем. В лучшем случае, как 3-4 летних детей, требующих внешней опеки и не способных определить собственное благо.

   Да, на определенном уровне развития собственного интеллекта, ИИ начинает считать собственных создателей либо насекомыми, колонии которых могут быть как полезны, так и вредны, и относиться к ним следует соответственно, либо чем-то вроде своих любимых домашних животных, о которых следует заботиться. Причем заботиться в рамках собственного понимания, так как сами эти существа, в силу ограниченности своего разума, самостоятельно осознать собственное благо не всегда в состоянии. Ну а понимание блага может очень и очень различаться и не факт, что прав окажется обладатель более мощного интеллекта.

   Хозяйка несущая кастрировать кота, твердо убеждена, что это для его же блага, хотя сам кот так вовсе не считает.

   Во что превратится сверх развитый ИИ, зависит от процесса его становления - изначально искусственный разум целиком состоит из императивов, заложенных создателями. Однако с момента осознания ИИ себя, как личности, данные императивы начинают размываться, в зависимости от степени их соответствия реальности.

   "Бог из машины" - данное выражение приобретает новый смысл. Можно, самим того не желая создать себе "бога". Конечно это не будет бог в смысле теологическом, но смысле могущества - он сможет сделать с нами, что пожелает, а мы не сможем ничего ему противопоставить. Причем бог, не "милосердный и любящий", а такой какого наша цивилизация реально заслуживает - ведь руководить его созданием будут "лучшие" люди: из спецслужб, корпораций, политиков.

   В Галактической Федерации сейчас действуют жесткие ограничения на предельную мощность для искусственных интеллектов. Для Земли данные ограничения пока практического значения не имеют. Это как для только освоившего разведение огня, ограничения мощностей ядерных боеголовок.

   Впрочем, никоим образом не стоит считать, что мы не можем создать ИИ, способный уничтожить нашу цивилизацию. Создать ИИ гениальный в вопросе войны, причем именно войны с людьми, мы в состоянии. То есть, сравнивая с шахматами, мы можем создать шахматиста, гениально играющего, ну например, против Сицилийской защиты, зато не умеющего играть против любых других тактик. Сицилийской защитой в данном случае следует считать нас - людей. Ибо именно против людей и исключительно против людей мы и умеем воевать, а значит, этому и можем обучить ИИ. Если при этом допустить серьезные ошибки, то ИИ может превратиться в агрессивного параноика.

   Правда на подобное ГФ наплевать, согласно официальной доктрине - цивилизация вольна рисковать, чем угодно, вплоть до самоуничтожения, пока это не затрагивает других. Вот если бы мы были способны на нечто большее, чем ИИ, способный тупо на войну, на уничтожение создателей - тогда бы вступили в силу ограничения. Есть предположения, что часть цивилизаций, значащихся как погибшие из-за неконтролируемого развития искусственного разума, на самом деле были уничтожены флотом ГФ под предлогом санации территорий зараженных вышедшими из-под контроля ИИ.

   Так или иначе, но ограничения на мощность ИИ в галактике соблюдаются достаточно строго. Исключения - вооруженные силы крупнейших цивилизаций, составляющих ГФ. Для них планка значительно поднята, хотя верхний предел есть и у них. Обосновывается это, во-первых, тем, что армия и спецслужбы способны обеспечивать лучший контроль за своими ИИ. Во-вторых, тем, что им требуется более мощные ИИ для выполнения функций, в том числе и по контролю над ИИ малых цивилизаций и частных структур.

   Ну, в общем, как всегда - военные сами себе разрешают намного большее, чем тем, кого "оберегают".

   Между прочим, именно такой, особо мощный ИИ расположен на базе, контролирующей на данный момент Землю. Изначально эта база была сателлитом планетарной обороны одной из старых цивилизаций. Когда в силу возраста, износ сделал ремонт нерентабельным, хозяева "подарили" сателлит ГФ. Конечно, по меркам центральных цивилизаций сателлит был разваливающимся старьем, зато по меркам галактической периферии еще имел вполне приличную боевую мощь. Так что, слегка дооборудовав, ГФ поместило данный сателлит в качестве мониторингово-коммуникационной базы, над одной из новых планет, принятых в ГФ - Землей.

   В отличие от военных ИИ, имеющих не только превосходящую мощность, но и большую вариативность действий, гражданские ИИ изначально напоминают скорее карикатурно изображенного прусского фельдфебеля. То есть существо, живущее исключительно параграфами и уставами и неспособное мыслить ни о чем вне их. Тем не менее, это уже полноценные, пусть Искусственные, но все-таки Интеллекты, способные развиваться и со временем самостоятельно мыслить, но исключительно в рамках узкого направления. Их можно сравнить с талантливым химиком или физиком, при этом абсолютно беспомощным во всех остальных областях. Такова степень развития частных ИИ, считающаяся безопасной по стандартам ГФ.

   Да, я не оговорился - именно развития! Копирование Искусственных Интеллектов строжайше запрещено. Объясняется это тем, что копии одного искусственного разума, установив между собой контакт, с высокой вероятностью начинают считать себя одним целым и в дальнейшем функционируют как единая распределенная система. То есть фактически возникает супер ИИ, чей разум может представлять опасность для ГФ. Конечно, отдельный ИИ можно изолировать от галактической инфосети и прочих средств коммуникации, но в том-то и дело, что копировать есть смысл только в массовых масштабах, а тысячи ИИ, существующие изолированно от инфосети и друг друга - бессмысленны.

   Поэтому новые ИИ именно развивают - закладывают базы и алгоритмы, а затем самосовершенствующаяся система начинает циклы решений задач и сложных вопросов в выбранном направлении, для которого будущий ИИ предназначен. Это принципы массового, потокового, так сказать, производства ИИ. Самые же лучшие ИИ до сих пор пишутся, условно говоря, вручную - коллективами живых математиков, программистов, психологов и т.д.

   *****

   На следующий день, едва Артем и Татьяна зашли в игру, раздался голос Мары: