Генезис 2075

2075 год. Чума уничтожила практически все население Земли, лишь граждане Островной Республики сумели выжить, изолировав себя от окружающего мира. До смерти напуганные, они сбивают приближающиеся самолеты, топят корабли, расстреливают любого, кто осмелится приблизиться к острову. А потом юноша по имени Адам Форд спасает полумертвую беженку, приплывшую на лодке…

Авторы: Бернард Беккетт

Стоимость: 100.00

— И ты плакал? — спросил Арт. — Ты ведь плакал, когда меня увезли? Ты это хочешь сказать?
— Я пытался тебя убить, — напомнил роботу Адам.
— Быть может, чувство вины заставило тебя смягчиться. Такое случается.
— Я клоню к тому, что девочка была маленькой. Она выросла. Она перестала верить в куклу.
— А перестав в нее верить, она от нее избавилась?
— Она отдала ее мне, — произнес Форд.
— Значит, я у тебя не первый?
— Мы с приятелем поймали кролика и засунули внутрь игрушки его кишки. Потом привязали ее к рельсам, дождались поезда и все засняли. Было очень смешно.
— Ты это только что придумал.
— Да, правда. Я бы никогда не причинил кукле вреда.
— А ты не боишься?
— Чего?
— Что кукла причинит тебе вред. Ты пытался меня уничтожить. Вдруг я вынашиваю в уме план мести?
— Ты не обладаешь ни сознанием, ни мышлением. Такой довод тебя устраивает?
— Может, я решил дождаться, когда ты уснешь, а потом выпустить тебе кишки ударом ледоруба. Мне сон без надобности, я всегда наготове.
— Если бы меня собирались убить, это уже давно бы сделали.
— Но если это сделаю я, все будет выглядеть как несчастный случай. Ловкое решение маленькой проблемы, возникшей у властей.
— Убьешь меня, так убьешь, — пожал плечами Адам. — Меня это не шибко волнует. Если надо, забирай тело, только не думай, что и душа тебе достанется.
Форд, извиваясь, медленно отполз в дальнюю часть комнаты. Выло видно, что движения причиняют ему боль. Выждав несколько мгновений, Арт последовал за ним.
Человек вздохнул.
— Надеюсь, ты на меня не обидишься, если я скажу, что от тебя дурно пахнет, — начал робот.
— Тебе не под силу чувствовать запах.
 — Я не сделаю тебе ничего дурного.
Я не могу причинить тебе вред. Хочешь узнать почему?
— Нет.
— Я все-таки расскажу тебе. Считай это своеобразным наказанием.
— Как у тебя получится меня наказать, если ты не можешь причинить мне вреда? — поинтересовался Адам.
— Иногда наказание может пойти на пользу, — отозвался Арт. — На стадии разработки велось много споров о том, какие именно элементы моего поведения следует подавить. Некоторые (наивные) Философы полагали, что следует избавить меня от всех отрицательных поведенческих элементов, свойственных человеку, однако оказалось, сделать это далеко не так просто. И вот, если робота программировали так, чтобы он всякий раз просчитывал последствия всех своих действий, машину парализовывало. Из-за чудовищной нерешительности, вызванной страхом совершить ошибку, она не могла сдвинуться с места, если ослабляли стремление заботиться о других, робот раньше других отключался от процесса подзарядка и демонтировал конкурирующие прототипы. Я не преувеличиваю, такое и впрямь случалось. Если же со стремлением заботиться о других перебарщивали, автомат начинал работать на износ, во всем стараясь угодить другим. Именно поэтому я здесь и с тобой. Чем больше Философы прикладывали усилий, тем яснее им становилось, что они не в состоянии отличить правильное от ошибочного, хорошее от плохого. Правильное можно оценить только по поступкам. Единственный способ обойти проблему заключался в том, чтобы предоставить андроиду возможность самому во всем разобраться в процессе обучения. Заодно во время общения с человеком он должен был освоить парочку фокусов, которыми люди овладели в процессе эволюции. В результате понятие «добродетель» исчезло из списка основных мотиваций робота. Главным приоритетом стала «совместимость». Однако тебе не о чем беспокоиться. Вне зависимости от того, какие дурные уроки ты мне преподашь, я не смогу причинить вред другому существу, обладающему самосознанием. Это является одним из фундаментальных императивов моей программы.