Содержание

Он спрашивал робота о самочувствии? Это так… по-человечески.

— Тебе приказали починить робота? — наконец спросил я.

— Нет. — Тогда почему ты просто не уничтожил его, как тебе было приказано?

— Ты бы уничтожил Кэти, если бы она могла общаться с тобой?

— Конечно, нет, — ответил я. — Но уничтожение робота очень сильно отличается от убийства человека. Это же просто машина. — Вдруг я почувствовал себя виноватым, говоря такие вещи другой машине. — А этот робот сказал тебе, что он не хочет быть уничтоженным?

— Нет, Гэри. На самом деле он сказал, что больше не исполняет никаких функций, следовательно, его существование не имеет логической цели.

— Ну тогда нет проблем, — легко вздохнул я. — Даже робот согласен, что должен быть уничтожен.

— Да, — согласился Моуз, — но только потому, что ему приказали подчиняться, Гэри.

— Нет, — сказал я. — Это потому, что этот робот не имеет чувства самосохранения. Иначе он наплевал бы на приказы и стал протестовать.

Перед тем как ответить, он целую минуту молча смотрел на меня:

— Итак, ты говоришь мне, что из-за того, что у роботов нет чувства самосохранения, приемлемо уничтожать их без причины или обоснования. — Это было сказано как утверждение, но ощущалось как вопрос. — Ты вчера говорил, что у Кэти тоже не осталось чувства самосохранения.

Наблюдение Моуза оказалось для меня ударом по больному. Я тяжело плюхнулся за стол, а мой потрясенный разум вернулся в тот роковой день шесть месяцев назад, когда врачи высказали почти твердую уверенность, что Кэти не сумеет выкарабкаться. Поскольку я знал, что ее мозг мертв и она не может сама решать свою судьбу, было ли мне, не сказать приемлемо, но проще решиться на отключение ее системы жизнеобеспечения? Неужели осознание, что она больше не сможет бороться за свою жизнь, оправдывает убийство?

Я некоторое время страдал и метался в этих мрачных мыслях, пока не решил, что позволил отключить аппарат вовсе не поэтому. А потому что жестоко поддерживать механическое существование организма, когда все, что делало се Кэти, ушло навсегда. Этот вывод вел к другому неудобному и беспокойному вопросу: жестоко по отношению к ней или ко мне?

Должно быть, я высказал свои мысли вслух, потому что Моуз снова заговорил:

— Ты принял верное решение? — спросил он.

— Да, — твердо ответил я и беззвучно добавил: «В конце концов, я на это надеюсь». — Но человеку всегда кажется неправильным забирать жизнь того, кто тебе дорог, независимо от любых оправданий.

Моуз принялся шагать по комнате туда-сюда. Он нервничал? Я всегда гакделаю, когда расстроен. Должно быть, это. еще одна деталь, которую он у меня перенял.

Вдруг он остановился и повернулся ко мне:

— Я не способен любить, но я верю, что прерывать существование этого робота — неправильно.

— Почему? — спросил я.

— Его можно починить.

Я удивленно уставился на него. Чего я не спросил, хотя должен был, это почему Моуз чувствовал себя обязанным починить робота. Вместо этого я сказал:

— Ты понимаешь, что можешь быть деактивирован, если откажешься слушаться начальство?

— Да, — просто ответил он.

— И это тебя не беспокоит? — Это чертовски беспокоило меня.

— У меня тоже нет чувства самосохранения, Гэри.

Я понял, что проклятый робот бросает мне в лицо мои же собственные рассуждения.

— Какой же смысл для тебя чинить робота, который уже не способен выполнять нужные компании функции, если возможным результатом будет уничтожение отлично работающего робота — тебя?

— Будь я поврежден, ты бы уничтожил меня, если бы знал, что меня можно починить? — спокойно спросил он.

«Нет, я бы не сделал этого, Моуз», — так я подумал, но вслух не сказал, потому что это лишь подтвердит его аргументы, и я потеряю машинку, ставшую моим единственным другом.

— Черт возьми, где ты подцепил эту дурацкую привычку отвечать вопросом на вопрос? — спросил я вместо этого. Потом понял, что сделал то же самое и рассмеялся: — Да не бери в голову!

Воцарилась неловкая тишина — по крайней мере, для меня она была тяжкой, — пока я обдумывал все сказанное, пытаясь найти лучшее разрешение его дилеммы. Самая логичная мысль: зачем вообще уничтожать сломанного робота, если его можно починить, дать новые задачи и поставить на другой участок или продать куда-нибудь еще? Роботы — штучки недешевые.

— Ты сказал, что можешь починить этого робота, — сказал я больше утвердительно, чем вопросительно.

— Да.

— Объясни-ка мне, что с ним не так?

— Ему требуется поставить новые детали: верхние конечности и почти всё туловище. Однако в моей мастерской нет в наличии требуемых частей, так как эта модель больше не выпускается.

Теперь я начал понимать:

— Значит, ты как устранитель неполадок связался с главным компьютером, увидел, что где-то еще имеются нужные детали, и заказал их, но заказ отменили?

— Верно. Мне ответили, что подобный ремонт робота для компании невозможен.

— Ладно, я всё понял. — И я действительно мог убедить его при помощи логики, что починка этого робота не стоила окончания су-шествования Моуза. — Знаю, почему тебе не разрешили чинить его. Создать робота очень сложно и дорого, поэтому каждый робот, купленный компанией, обычно является долговременной инвестицией. Но поскольку выпуск этой модели прекращен, то запасные части для него больше не производятся, а потому слишком дорого покупать имеющиеся в ограниченном количестве детали на замену. Выгоднее купить совершенно новый, усовершенствованный механизм прямо с линии сборки. Ты следишь за мыслью, Моуз?

— Да, Гэри, — откликнулся он. — Решение отвечает экономическим интересам компании.

— Точно, — кивнул я, довольный тем, что он так быстро уловил суть. — Значит, этот робот будет заменен на более полезную для компании модель, и тебе не надо тратить время на его ремонт.

— Если бы Кэти можно было починить, — вдруг спросил он, — смог бы ты, вместо того чтобы тратить время и силы на ее ремонт, из соображений экономии выбрать себе новую родственную душу?

Я разочарованно вздохнул: дело оказывалось сложнее, чем я думал.

— Нет, не смог бы, Моуз. Но нельзя сравнивать ценность Кэти и стоимость робота. Она была единственной в своем роде. А этот сломанный робот всего лишь механизм, один из многих вышедших из сборочного цеха!

— Это робот модели Ди-Эй-Эн-564, Гэри. По всему миру их было выпущено всего восемьсот штук. Кэти была женщиной, а их в мире пять миллиардов. Не мог бы ты мне объяснить, что делает ее существование более ценным, чем функционирование робота?

Я скривился. И как это у Моуза всегда находятся такие логичные опровержения на все мои ответы и в то же время такие неправильные?

— Как я тебе уже толковал, Кэти была моей родственной душой. И среди пяти миллиардов женщин другой такой нет. — Я помолчал, пытаясь подобрать слова, которые помогут мне заставить его понять: — Помнишь, я говорил тебе, что люди не рождаются полностью запрограммированными, как роботы, и наши эмоции могут выдавать различную реакцию на одинаковый набор данных? Так вот, процесс нашего обучения и развития — то есть нашего программирования — делает каждого из нас отличным от других. Потому человеческая жизнь более ценна, нежели жизнь робота. Когда один из нас умирает, его нельзя заменить.

Мне показалось, что на этот раз Моуз не мог подобрать нужных слов. На ответ ему понадобилось некоторое время.

— Значит, Кэти была уникальной для тебя, потому что она была тебе родственной душой, — наконец констатировал он.

Я кивнул в знак согласия: любопытно, к чему это приведет.

— Хорошо, я везучий сукинсын, потому что я единственный робот, у которого есть друг. — Он многозначительно помолчал. — Делает ли это меня уникальным среди всех других роботов моего модельного ряда?

— Определенно, Моуз, так оно и есть! — ответил я — Я внимательно посмотрел на него и понял: в его компании мне не только приятно, но уже как-то привычно. — И тебе не следует чинить другого робота, если ценой этому будет твое уничтожение. Где еще я найду такого друга, как ты?

Он снова немного помолчал и наконец заключил:

— Я не буду его чинить.

Это стало началом новой фазы наших отношений, конечно, если человеку можно вступить в отношения с механизмом. Каждый вечер он ждал меня, и каждую ночь, исключая время, когда Моузу требовалось срочно отремонтировать какие-нибудь схемы, он шагал во время обходов рядом со мной, и мы разговаривали. Мы говорили обо всем, что приходило мне в голову. Я даже прочитал ему лекцию о бейсболе. Да еще по случаю принес ему новостной диск почитать, и через несколько секунд уже отвечал на бесконечные вопросы о том, какой он, тот мир за пределами завода.

И каждую ночь снова и снова он спрашивал меня о моральном аспекте своего поведения, когда имел возможность починить робота, но не сделал этого.

— Мне по-прежнему это кажется неверным, Гэри, — сказал он однажды вечером, когда мы снова коснулись вечной темы. — Я понимаю часто возникающую материальную неэффективность ремонта, но мне кажется несправедливым, что тот робот был уничтожен по экономическим соображениям.

— Несправедливым по отношению к кому? — спросил я. Он уставился на меня.

— К роботу.

— Но у робота нет чувства самосохранения. Ему все равно. — Уста вился я на него в ответ. — Почему ты не приводишь реальные аргументы?

Он обдумывал вопрос в течение минуты, прежде чем ответить.

— Мне не все равно, — наконец заключил Моуз.

— Ты же знаешь, что это не твоя забота, — сказал я.

— Беседы с тобой расширили мое понимание мира и углубили восприятие, — объяснил он. — Не механическое восприятие, оно предварительно запрограммировано. Но ощущения моральные.

— Разве могут у робота быть моральные ощущения? — спросил я.

— До встречи с тобой я бы ответил отрицательно, Гэри, — сказал Моуз. — И я думаю, у большинства роботов их нет. Но как устранитель неполадок я обладаю программированием, способным к обучению и развитию, потому что должен приспосабливаться к любой потенциально вероятной ситуации. Это означает, что у меня есть способность сообразно обстоятельствам принимать решения, которые никогда прежде не применялись в отношении проблем, которые никогда прежде не возникали.

arrow_back_ios