95678.fb2
- Вернитесь немного назад в своем рассказе. Что вы делали в моей лаборатории без разрешения?
Молодой компьютерщик сглотнул, кадык на его горле дернулся. Он был очень бледен.
- Все знают о вашем роботе. Говорят, вы хотите научить его говорить, как музыкальный инструмент. Парни спорили, говорит он или нет. Кто-то сказал, что вы... можете научить говорить воротный столб.
- Я полагаю, - ледяным голосом сказала Сьюзан Кэлвин, - нужно считать это комплиментом. А к вам какое это имеет отношение?
- Я должен был пойти и проверить... ну, может ли он говорить. Мы подобрали ключ к вашему кабинету, подождали, пока вы не вышли, и я вошел. Мы бросали жребий, кому идти. Выпало мне.
- А дальше?
- Я попробовал заговорить с ним, и он меня ударил.
- Что значит попробовали заговорить? Как попробовали?
- Я... я задал ему вопрос, но он не ответил, и мне захотелось его встряхнуть, поэтому я... ну... крикнул на него... и...
- И?
Наступило молчание. Под немигающим взглядом Сьюзан Кэлвин Рендоу наконец сказал:
- Я пытался испугать его, чтобы он что-нибудь сказал. - И добавил, оправдываясь: - Мне нужно было встряхнуть его.
- Как вы пытались его испугать?
- Сделал вид, что хочу ударить.
- И он отвел вашу руку?
- Он ударил меня по руке.
- Хорошо. Это все. - Леннингу и Богерту она сказала: - Идемте, джентльмены.
У выхода она повернулась к Рендоу.
- Могу решить ваш спор, если вас это еще интересует. Ленни хорошо умеет произносить несколько слов.
Они молчали, пока не вернулись в кабинет Сьюзан Кэлвин. Здесь стены были уставлены книгами, некоторые из этих книг она написала сама. Кабинет отражал ее сдержанный педантичный характер. В нем был только один стул, на который она села. Леннинг и Богерт остались стоять.
Она сказала:
- Ленни только защищался. Это Третий закон: робот должен заботиться о своей безопасности.
- Поскольку это не противоречит Первому и Второму законам, - яростно подхватил Леннинг. - Вы должны закончить предложение. Ленни не имел права защищаться таким образом, чтобы причинить вред, пусть и незначительный, человеку.
- Он этого и не сделал, - возразила Кэлвин, - сознательно. У Ленни недоразвитый мозг. Он не осознает своей силы и слабости человека. Он отвел угрожавшую ему руку человека, не сознавая, что может сломать кость. В человеческих терминах, нельзя винить индивидуума, который искренне не отличает добра от зла.
Богерт успокаивающе прервал:
- Ну, Сьюзан, мы никого и не виним. Мы понимаем, что, рассуждая в человеческих терминах, Ленни эквивалентен ребенку, и мы не виним его. Но публика обвинит. "Ю.С.Роботс" будет закрыта.
- Напротив. Если бы у тебя был хотя бы мозг мухи, Питер, ты бы понял, что именно такой возможности и ждет "Ю.С.Роботс". Это решает наши проблемы.
Леннинг поднял белую бровь.
- Какие проблемы, Сьюзан?
- Разве корпорация не озабочена тем, как сохранить исследовательских персонал на нынешнем - да поможет нам Бог! - высоком уровне?
- Да, конечно.
- Ну, а что вы предлагаете перспективным исследователям? Возбуждение? Новизну? Волнение от прикосновения к неизвестному? Нет! Вы предлагаете повышенную плату и уверенность в отсутствии проблем.
Богерт сказал:
- Как это отсутствие проблем?
- Разве это проблемы? - выпалила Сьюзан Кэлвин. - Каких роботов мы выпускаем? Абсолютно завершенных, пригодных к исполнению конкретной задачи. Промышленность сообщает свои требования; компьютер создает схему мозга; механизмы собирают робота; вот и вся работа. Питер, какое-то время назад ты спросил меня, какая польза от Ленни. Какая польза от робота, который не предназначен для определенной работы? А теперь я тебя спрошу какая польза от робота, предназначенного только для одного вида работы? Он начинает и заканчивает в одном и том же месте. Модель ЛНЕ добывает бор. Если необходим бериллий, эти роботы бесполезны. Если технология добычи бора вступает в новую стадию, они тоже бесполезны. Если бы так был создан человек, он был бы недочеловеком. А созданный так робот - недоробот.
- Вы говорите о разностороннем роботе? - недоверчиво спросил Леннинг.
- А почему бы и нет? Почему нет? Я работала с роботом, мозг которого был почти полностью выведен из строя. Я начала учить его, а вы, Альфред, спрашиваете меня, какой в этом прок. Может, сам Ленни никогда не превзойдет уровень пятилетнего ребенка. Но какая польза вообще? Очень большая, если вы задумаетесь над труднейшей проблемой: как учить робота. Я научилась замыкать соседние позитронные связи и создавать новые. Дальнейшая работа даст еще больше, более точную и надежную технику обучения.
- Ну?
- Допустим, вы начинаете работу с позитронным мозгом, у которого есть все первичные позитронные связи, но совсем нет вторичных. Вы начинаете создавать вторичные. Можно создавать роботов с базовой программой и способностью к обучению. В случае необходимости их можно настраивать на одну работу, а потом переучивать. Роботы станут так же разносторонни, как люди. Роботы будут учиться!
Они смотрели на нее.
Она нетерпеливо сказала:
- Все еще не понимаете?
- Я понимаю, о чем вы говорите, - сказал Леннинг.
- А понимаете ли вы, что это абсолютно новая область исследований, что нужно разработать абсолютно новую технику, что мы проникаем в абсолютно неизвестную область? И молодежь получит стимул заниматься роботехникой. Попытайтесь и увидите.
- Могу ли я заметить, - спокойно сказал Богерт, - что это опасно? Начинать работу с невежественными роботами значит рисковать тем, что они нарушат Первый закон. Точно так, как произошло с Ленни.
- Совершенно верно. Разрекламируйте этот факт.
- Рекламировать?
- Конечно. Сообщите об опасности. Объявите, что открываете новый исследовательский институт на Луне, если население Земли не позволяет вести здесь эту работу, но обязательно подчеркните связанную с этой работой опасность.
Леннинг спросил: