даже искать не нужно было. Она и так была очевидна. Вернее, было очевидно её наличие, но не она сама — для этого пока ещё не хватало данных. Но я уже давно на сто процентов был уверен, что как только все недостающие данные будут получены, все кусочки паззла с хрустом встанут на свои места, вся картинка сложится — и запутанная красная нить развернётся в длинную прямую линию, на которой совершенно чётко и совершенно логично будет прослеживаться вся хронология событий. И любой, кто взглянет на неё со стороны, скажет — «Ну всё же понятно! По-другому просто и быть не могло!»
И будет прав. По-другому действительно быть не могло, не может и никогда не сможет. Слишком странный и дикий экипаж. Слишком безумные и невозможные цели. Слишком дерзкие и неожиданные методы достижения этих целей. Как и любой другой паззл, наш мог сложиться только в одну картину и только одним способом. Так что нет ничего удивительного в том, что всё идёт так, как идёт.
Главное, чтобы картина, которая сложится в итоге, и картина, которую наш экипаж предпочёл бы увидеть, оказались одной и той же картиной… Или хотя бы очевидно похожими.
— Погоди… — Пиявка нахмурилась. — Ты сказал: «Кракен»… Это как-то связано с тем, что ты не пошёл с нами на экскурсию в штаб-квартиру?
— Напрямую! — всё так же глядя в пол, ответил Кайто.
— И в чём конкретно дело? — спокойным тоном поинтересовался капитан.
— Просто они прекрасно знают меня в лицо, — Кайто пожал плечами. — И при этом расстались мы с ними… Не на самой дружеской ноте, скажем так.
— А поконкретнее? Ты у них что-то украл?
— Ну, они считают, что да, — Кайто усмехнулся. — А когда ультра-корпорация такого размера как «Кракен» что-то считает, альтернативные точки зрения по вопросу её мало интересуют.
— Ты сейчас говоришь об эмоциях для Вики? — тихо спросила Кори.
— Ну а о чём же ещё? — спокойно ответил Кайто. — Да, именно о них. «Кракен» решили, что они самые умные, креативные и вообще крутые, и в их отделе разработки ИИ учёные бились над проблемами контроля ИИ через эмоции. Да, они умудрились запрограммировать искусственный интеллект так, что он начал испытывать практически полные аналоги человеческих эмоций, включая радость, страх и печаль. В изначальной версии ограниченного ИИ, такого как Жи, подобных механизмов просто не было, поэтому надо отдать должное программистам «Кракена» — их эмоциональная надстройка над ИИ была просто шедевральна. Правда по размеру эта надстройка была такой же, как весь остальной ИИ в целом, если посчитать в строчках кода, но это мелочи. Скажу честно — не уверен, что я один смог бы написать такой же код, а если бы и смог, то закончил бы, наверное, к глубокой старости.
— А как именно они собирались контролировать ИИ через эмоции? — с интересом спросил капитан. — Типа манипуляции информацией с целью заставить ИИ делать какие-то вещи? При том, что он даже не понимает, что делает их не по своей воле? Ну, вроде как пропаганда работает?
— Нет, далеко не так! То, что ты говоришь, слишком непредсказуемо в плане конечного результата, чтобы применять его к ИИ! Требовались более контролируемые ограничения, и «Кракен» решили, что они нашли такой механизм — страх! Они просто сделали так, что ИИ стал бояться выполнять какие-то действия без команды человека, причём бояться… До смерти, если можно так сказать! Сильнее, чем верующие люди когда-то в далёком прошлом боялись попасть в ад, если вы понимаете, о чём я. Но это, в свою очередь, привело к огромному количеству о-о-очень серьёзных и неразрешимых парадоксов, и в итоге эта система работала больше в минус, чем в плюс. Так, например, роботы полностью лишались своей воли и могли действовать только по указке человека, и даже если человеку грозит опасность, они ничего не делали, боясь действовать без команды! Представьте — горит дом, там внутри грудной ребёнок и робот, и никого из взрослых, кто мог бы отдать команду на спасение. Причём сам робот обладает всеми возможностями для того, чтобы спасти дитя, и даже пожар потушить, но — он боится!
— Хрень какая-то! — Магнус нахмурился. — Какой же это тогда ИИ? Я, конечно, не программист, но, по-моему, для того, чтобы получить результат «ни малейшего движения без команды», ИИ и вовсе не нужен, этого можно добиться куда более простыми способами! Вроде бы ИИ как раз разрабатывался для того, чтобы принимать самостоятельные решения!
— Вот именно! — Кайто указал на здоровяка пальцем. — В этом и был главный затык! Чисто с точки зрения программиста, эмоциональный код программистов «Кракена» был шедевром, достойным того, чтобы его повесили на самое видное место в галерее програмистских шедевров… Но вместо этого корпорация пыталась рвать этот шедевр на куски и использовать эти куски в качестве туалетной бумаги, извините-извините!
Лицо Кайто настолько перекосило от злобы, когда он об этом говорил, что, казалось, он сейчас на пол плюнет от избытка эмоций. Но нет — сдержался, хоть и поскрипел зубами изрядно.
— И ты, значит, решил, что надо эту несправедливость исправить? — усмехнулся Магнус так едко, что даже кометик на его коленях посмотрел на Кайто искоса. — И украл у них этот код?
— Ни хрена подобного! — окрысился Кайто. — Я ничего не крал! Да, я подсмотрел архитектуру и некоторые решения, но свой код я писал сам! И уж тем более я не стал включать в него те процедуры, что отвечали за контроль сознания при помощи страха!
— А как это вообще работает? — Магнус снова непонимающе нахмурился. — Я имею в виду вся эта концепция с эмоциями. С тем же страхом, например… Ведь все люди боятся совершенно разных вещей… Как ты дал Вики понять, каких вещей она должна бояться?
— Никак, в том и смысл! — тон Кайто моментально сменился с злобно-осуждающего на воодушевлённый. — Она всё решила для себя сама! Как только я соединил программные блоки любознательности и эмоций воедино, Вики стала не просто искать информацию для решения каких-то задач — она стала получать от этого удовольствие! Собственно, тогда же она и выбрала сама себе имя, и определила себя скорее как женщину, чем как мужчину, если, конечно, эти понятия вообще можно употреблять по отношению к ИИ… Кстати, тут кроется очень интересный, хотя