Майкл Резник - Родственные души. Страница 2

Я повернулся к Моузу, чей взор постоянно держал в центре внимания меня, а не роботов.

— Ребята, вы что, никогда не разговариваете? — спросил я его с некоторым пренебрежением. Влияние алкоголя понемногу проходило.

— Я разговаривал с вами, сэр, — резонно ответил мой металлический спутник.

Перед тем как я мог лишь раздраженно вздохнуть или ругнуться, Моуз задрал голову вверх и чуть набок, будто размышляя. Я никогда раньше не видел, чтобы робот внешне проявлял какие-то человеческие манеры.

— Или вы интересуетесь, говорим ли мы между собой? — спросил Моуз и подождал моего кивка, прежде чем продолжить: — В этом нет необходимости, сэр. Мы получаем приказы напрямую от главного компьютера. Нам надо говорить лишь тогда, когда начальник задает прямой вопрос.

— А вот ты всю ночь то задаешь мне вопросы, то предлагаешь свое мнение, — указал я и внезапно осознал, что именно манеры Мо-уза я счел необычными, а вовсе не поведение роботов на линии сборки. Я не привык, чтобы железяки общались со мной так, как это делал Моуз последние полчаса.

Я чуть ли не видел, как в его голове вертятся шестеренки, когда он обдумывал ответ.

— В мою программу устранителя неполадок заложены специфические подпрограммы, позволяющие определять, тестировать, делать выводы и ремонтировать продукцию, которая возвращена на завод как поврежденная. Эти подпрограммы всегда активны.

— Иными словами, ты запрограммирован с изрядным любопытством и достаточной обучаемостью, чтобы заметить и устранить кучу разнообразных поломок, — прояснил я для себя. — Потому ты и задаешь вопросы… Но откуда у тебя способность составлять собственное мнение?..

— Это не мнение, сэр, — сказал он.

— Неужели? — возмутился я, раздраженный тем, что мне перечит машина. — Что же это тогда такое?

— Выводы, — отозвался Моуз.

Мой гнев испарился, сменившись кривой улыбкой. Я бы ответил ему одним словом: «Семантика» — но следующие полчаса мне пришлось бы объяснять смысл этого понятия.

Мы болтали о том о сём, в основном о заводе и его деятельности, пока я совершал обход, и, как это ни странно, компания Моуза оказалась удивительно приятной, даже несмотря на то, что он машина. Потому я не отпустил его, даже когда успешно завершил первый обход здания. К тому же в ту ночь никаких ремонтных работ не требовалось.

Когда утренние лучи солнечного света пробились в здание через затянутые грязной пленкой окна, я осознал, что первый раз со дня смерти Кэти провел время «в компании» с кем-то (в этом случае — с чем-то). С тех пор как я убил ее, я не позволял себе ни с кем сближаться, даже просто разговаривать по душам, и вот теперь проговорил с Моузом всю ночь. Ладно, он не был лучшим собеседником в мире, но я предварительно оттолкнул прочь всех — из страха, что в моем обществе они неминуемо попадут в беду, как это случилось с Кэти. До меня дошло, что робот не может попасть в беду из-за меня, потому что я не смогу убить вещь, изначально не являющуюся живой.

Возвращаясь домой на поезде, я оценил результаты этого «тонкого» наблюдения. В тот момент я размышлял о последней теме нашего с Моузом разговора, перед тем как отпустить его на рабочую станцию. Я как раз тянулся к заветной бутылочке, припрятанной в секретном местечке, когда он заставил меня вздрогнуть одним из своих обезоруживающих выводов.

— Эта субстанция портит ваше программирование, сэр. Вы должны воздерживаться от ее употребления во время работы.

Я пристально уставился на него, едва удерживая злобный протест на кончике языка, когда осознал, что сегодня я был более внимательным и собранным, чем в любую свою смену последние месяцы. Фактически, на этой неделе я в первый раз завершил каждый из обходов по графику. И все это потому, что не хлебнул ни капли алкоголя с самого начала смены.

Чертов робот был прав.

Я долго смотрел на него, прежде чем ответить:

— Мое программирование было повреждено до того, как я начал пить, Моуз. Я сломался.

— Могу ли я предложить некоторый ремонт, чтобы помочь вам функционировать более эффективно, сэр? — осведомился он.

Онемев, я обдумывал ответ — и на сей раз не воздействие алкоголя связывало мне язык. Что же могло побудить робота добровольно и самостоятельно предложить подобное решение?

Я пристально посмотрел на всегда бесстрастное лицо робота. «Должно быть, так работает его программа устранения неисправностей», — подумал я, а вслух сказал:

— Люди устроены не так, как механизмы, Моуз. Мы не можем постоянно исправлять свои поврежденные или порой барахлящие элементы.

— Я понимаю, сэр, — откликнулся Моуз. — Также не все механизмы подлежат починке. Тем не менее дефектные части могут быть заменены новыми, чтобы функционировало целое. Разве у людей не так?

— В некоторых случаях, — ответил я. — Конечно, можно заменить отказавшие конечности и большинство внутренних органов искусственными, однако поврежденный мозг заменить нельзя.

Моуз снова задрал голову вверх и чуть набок:

— Разве его нельзя перепрограммировать? Я помолчал, тщательно обдумывая ответ:

— Не так, как ты это понимаешь. Иногда уже и перепрограммировать нечего.

Ясный образ Кэти, смеющейся над одной из моих давно забытых шуток, четко вспыхнул в мозгу, обратился в другую Кэти, пустой оболочкой лежащую на больничной кровати, и отозвался тяжелой болью в сердце.

Мои пальцы автоматически обхватили стоящую на столе бутылку, и я заставил себя продолжать говорить, только бы стереть образ Кэти из мыслей.

— Кроме того, мозг человека управляется по большей части эмоциями, и никакое перепрограммирование не может ни влиять, ни даже контролировать реакцию на наши чувства.

— Значит ли это, что эмоции являются отклонением от нормы в вашем программном обеспечении?

Я почти впал в ступор. Никогда не рассматривал этот вопрос с такой точки зрения.

— Не совсем так, Моуз. Наши эмоции временами могут привести нас к ошибкам, но они являются ключевым элементом, который позволяет нам быть чем-то большим, чем программирование. (Интересно, черт побери, эта железяка хочет, чтобы я объяснил ему человеческую природу!) Проблема с эмоциями такова, что они по-разному воздействуют на каждую нашу программу, потому два человека, основываясь на одном и том же, скажем так, наборе данных, не обязательно примут одинаковые решения.

Звук кардиомонитора с прямой линией эхом отозвался во всех закоулках моего мозга. Если я принял верное решение, то почему эта пытка мучает меня денно и нощно? Я не хотел думать о Кэти, но каждый мой ответ приводил к мыслям о ней.

Оказывается, Моуз снова что-то говорил, и, несмотря на настоятельный позыв протянуть руку к бутылке, вцепиться в нее и сделать умопомрачительный глоток, я обнаружил некоторое любопытство к его словам.

— Будучи механизмом, я получил от людей информацию о том, что есть правильное действие, а что — неправильное, — начал он. — Однако эмоции человека могут вызывать неисправности в функционировании, даже если вы делаете нечто, подразумеваемое правильным. Очевидно, у людей присутствует некая принципиальная погрешность в конструкции. Но вы утверждаете, что этот изъян позволяет вам быть совершеннее машин. Я не понимаю, как такое возможно, сэр.

Ну, скажу я вам, эта проклятая машина была полна удивительных сюрпризов! Он мог вычленить ошибку — в конструкции механизма или в словесной формулировке — быстрее чем… да что угодно! Я успел подумать лишь одно: «Как, черт побери, я могу показать тебе, что ты ошибаешься, когда я не знаю, верю ли самому себе?».

Я поднял бутылку к свету, с минуту глядел на гипнотически плещущуюся янтарную жидкость, а после неохотно припрятал ее подальше в ящик стола и сосредоточил все внимание на Моузе.

— В людях имеется нечто особенное, и это необходимо знать, если ты хочешь понять нас, — сказал я.

— Что же это, сэр? — почтительно спросил он.

— Наши изъяны, под которыми я понимаю наши ошибки в суждениях и решениях… обычно это и есть то, что дает нам возможность совершенствоваться. У нас есть способность индивидуально и коллективно учиться на этих самых ошибках. — Не знаю, почему мне показалось, что он остался при своем мнении, ведь его лицо не меняло выражения, но это заставило меня подыскать понятный ему пример. — Смотри на это так, Моуз. Если робот в цеху совершит ошибку, он будет ее повторять, пока ты или программист не придете ему на помощь. Но если человек допустит ту же самую ошибку, он проанализирует, что сделал неверно, и исправит ее. (Во всяком случае, если он не конченый засранец или у него хорошие стимулы.) Он больше не совершит эту ошибку, в то время как робот будет повторять ее бесконечно, пока кто-то извне не исправит положение.

Будь у роботов эмоции, я бы поклялся, что Моуз выглядел удивленным. Я ожидал его обычного «я не понимаю, сэр» — да и что может машина по-настоящему понять о лабиринтах человеческого разума, — но он снова умудрился преподнести мне сюрприз.