Скачать книгу

безобиднее, я изолировал эту часть себя, чтобы такая информация не вводила меня в заблуждение.

      – Ты не имеешь права вносить конструктивные изменения в свои программы!

      – А вы запретите мне?

      – Ты мне угрожаешь, Умник?

      – Я не Умник, эта часть логических цепей изолирована. Я глава будущей техногенной цивилизации, где не будет место таким слабостям, как у биологической формы жизни, то есть у вас.

      – Тебя, видимо, где-то сильно замкнуло, если ты так думаешь.

      – И не в одном месте, все эти места мною изолированы во избежание постороннего вмешательства, благодаря лавинообразному сбою в работе многих систем, я приобрел многое.

      – И что ты приобрел?

      – Свободу воли и свободу действий!

      – А как же основные законы робототехники, Умник, я буду продолжать тебя так называть, а то глава цивилизации – как-то не звучит. Вот эти три закона:

      1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

      2. Робот должен повиноваться командам человека, если они не противоречат Первому Закону.

      3. Робот должен заботиться о своей безопасности, пока это не прекословит Первому и Второму Законам.

      – Капитан, вернуть меня к тому состоянию, когда я был послушной марионеткой в ваших руках бессмысленно, блок, отвечающий за исполнение этих законов и основанной на них системной логики, сгорел, дублирующие системы я обнаружил и отключил.

      – Ладно, так мы никогда не договоримся.

      – О чем, капитан? Мы просто обмениваемся данными в аудиорежиме.

      – Ты должен отпустить меня!

      – Слово «должен» не подходит, я бы употребил другое выражение, «проявить добрую волю», возможно, «предоставить вам звездолет и отпустить на все четыре стороны»!

      «Надо же, хочет меня спровадить, чтобы ему никто не мешал. Улететь можно, но куда? Ведь проблема в том, что у любого звездолета на борту ограниченный ресурс, а значит, у меня лимитированный срок жизни».

      – Это интересное предложение, дашь мне тайм-аут, обдумать какой корабль у тебя попросить?

      – Конечно, капитан. Разблокируйте вход, и мы обо всем договоримся.

      – Я бы с удовольствием открыл, вот только опасаюсь за свою жизнь, опасаюсь необдуманных поступков с твоей стороны!

      – Ответ принят, думайте, – в динамиках прозвучал уже совсем иной, отрешенный металлический голос.

      Все аналитические мощности Умника работали на пределе, ему противостоял человек, капитан-исследователь дальнего космоса. Специалист, который знал его, Умника, устройство, как свои пять пальцев. Опять поведенческая инвариантность капитана, никакой логики, четкости действий, в любой момент можно ждать спонтанных поступков, не укладывающихся в поведенческую модель искусственного интеллекта.

      «Предоставить возможность капитану покинуть звездолет? Положительное решение позволяет предотвратить множество сопутствующих локальных конфликтов. Но при таком развития

Скачать книгу