— Если вы ищете сочувствия, — холодно ответила доктор Кэлвин, — то от меня вы его не дождетесь. Вы сами погубили себя. Не бойтесь: встречного иска не будет ни к вам, ни к Университету. Мы даже сделаем все, что в наших силах, чтобы избавить вас от тюрьмы за лжесвидетельство. Мы не мстительны.
— Гм, так вот почему меня до сих пор не арестовали за ложные показания? А я — то ломал голову. Впрочем, зачем вам мстить? — с горечью спросил Нинхеймер. — Вы ведь добились теперь всего, чего хотели.
— Да, кое-чего мы добились, — признала доктор Кэлвин. Университет по-прежнему будет пользоваться услугами Изи, но арендная плата будет существенно повышена. Слухи о процессе послужат нам прекрасной рекламой и позволят разместить еще несколько моделей типа И-Зэт, не опасаясь повторения подобных неприятностей.
— Зачем же тогда вы пришли ко мне?
— А затем, что я еще не получила всего, что мне надо. Я хочу узнать, почему вы так ненавидите роботов? Ведь даже выигрыш процесса не спас бы вашу научную репутацию. И никакие деньги не компенсировали бы вам эту потерю. Неужели вы погубили все только затем, чтобы дать выход своей ненависти к роботам?
— А человеческая психология вас тоже интересует, доктор Кэлвин? — с ядовитой усмешкой осведомился Нинхеймер.
— Да, в той мере, в какой от поведения людей зависит благополучие роботов. С этой целью я изучила основы психологии человека.
— Настолько хорошо, что поймали меня в ловушку.
— Это было несложно, — ответила Кэлвин без тени рисовки. — Вся трудность заключалась в том, чтобы не повредить при этом мозг Изи.
— Очень похоже на вас — беспокоиться о машине больше, чем о живом человеке. — Он негодующе посмотрел на нее. Ее это не тронуло.
— Так только кажется, профессор Нинхеймер. В двадцать первом столетии, лишь проявляя заботу о роботах, можно по-настоящему заботиться о благе человечества. Будь вы робопсихологом, вы бы сами это поняли.
— Я прочитал о роботах достаточно много и понял, что не имею ни малейшего желания становиться робопсихологом!
— Простите меня, но вы прочли всего лишь одну книгу. И она вас ничему не научила. Вы узнали из нее, что при правильном подходе можно заставить робота выполнить многое, даже фальсифицировать книгу — надо только знать, как взяться за дело. Вы узнали, что нельзя приказать роботу забыть о чем-то без риска, что это раскроется, и решили, что безопаснее будет просто приказать ему молчать. Вы ошиблись.
— И вы догадались обо всем по его молчанию?
— Догадки тут ни при чем. Вы действовали как любитель, и ваших познаний не хватило, чтобы замести следы. Единственная проблема заключалась в том, как доказать это судье, и вот здесь-то вы любезно помогли нам по причине полного невежества в столь презираемой вами робопсихологии.
— Послушайте, есть ли хоть какой-нибудь смысл во всей этой дискуссии? — устало спросил Нинхеймер.
— Для меня есть, — ответила Сьюзен Кэлвин. — Я хочу, чтобы вы осознали всю глубину своих заблуждений относительно роботов. Вы принудили Изи к молчанию, сказав ему, что если он проболтается о том, как вы испортили собственную книгу, то вы потеряете работу. Тем самым вы установили в его мозгу определенный потенциал, вынуждающий его к молчанию. Этот потенциал оказался достаточно сильным, несмотря на все наши попытки его снять. Если бы мы упорствовали, то повредили бы мозг робота.
Однако в своих свидетельских показаниях вы сами установили еще более высокий контрпотенциал. Вы сказали, что, поскольку люди будут думать, что это вы, а не робот, написали спорные абзацы, вы потеряете гораздо больше, чем просто работу. Вы сказали, что потеряете свою репутацию, положение в науке, уважение коллег, потеряете самый смысл жизни. Даже память о вас будет утеряна после вашей смерти. Тем самым вы установили новый, более высокий потенциал, и Изи заговорил.
— Бог мой, — пробормотал Нинхеймер, опуская голову.
Но Кэлвин была неумолима.
— А вы знаете, с какой целью он заговорил? Совсем не для того, чтобы обвинить вас: напротив, он хотел оправдать вас! Можно с математической точностью доказать, что он собирался взять на себя всю вину за ваше преступление, он собирался отрицать, что вы имели к случившемуся хоть какое-то отношение. Этого требовал от него Первый закон. Он собирался солгать, повредить свой мозг, нанести ущерб корпорации. Все это представлялось ему несущественным по сравнению с необходимостью спасти вас. Если бы вы хоть немного разбирались в роботах и их психологии, вам следовало бы дать ему высказаться. Но вы ничего не понимали. Я была совершенно уверена в вашем невежестве, о чем и заявила защитнику. В своей ненависти к роботам вы полагали, что Изи будет действовать, словно человек, что он собирается потопить вас, дабы обелить себя. В панике вы потеряли самообладание и… сами себя погубили.
— От всей души надеюсь, — с чувством проговорил Нинхеймер, — что в один прекрасный день ваши роботы восстанут против вас и свернут вам шею!
— Не говорите глупостей, — ответила Кэлвин. — А теперь объясните-ка мне, зачем вам все это понадобилось.
Губы Нинхеймера скривились в невеселой улыбке.
— Итак, для удовлетворения вашего интеллектуального любопытства я должен рассечь свой мозг на кусочки, а в награду меня не привлекут к суду за лжесвидетельство.
— Называйте это как хотите, — бесстрастно ответила Кэлвин. — Но только объясните.
— С тем, чтобы со временем вы могли успешнее противостоять выступлениям против роботов? С лучшим пониманием причин?