2084: Счастливый новый мир. Алекс Белл
Чтение книги онлайн.
Читать онлайн книгу 2084: Счастливый новый мир - Алекс Белл страница 20
После еще трех докладов пришла очередь Роберта. У него не было ни малейшего страха выступлений в любой аудитории. Это отчасти врожденный навык, но он отлично тренируется за несколько лет работы лектором, тем более в таком университете, как Гарвард. Надо лишь сосредоточиться на смысле выступления, логике приводимых аргументов и при этом относиться к аудитории, даже такой авторитетной, как эта, как к студентам-первокурсникам.
– Уважаемые коллеги! Я представляю сейчас здесь не столько себя, сколько коллектив исследователей одного из самых авторитетных университетов мира. Мой великий соотечественник – писатель, ученый и пророк научной эры Айзек Азимов – когда-то сформулировал три закона робототехники, не потерявшие актуальность и сегодня. Уверен, все вы о них знаете еще с начальной школы, но я все же позволю себе их повторить с этой высокой трибуны. Мы с моими коллегами – физиками, математиками, компьютерщиками, философами – попытались научно проанализировать то, насколько универсальный ИИ будет им соответствовать. Итак, первый закон. Робот не имеет права нанести вред человеку. К сожалению, до сих пор никто не смог точно, в терминах компьютерных алгоритмов, сформулировать, что есть для человека вред, а что – польза. Современная философия утверждает, что высшая цель прогресса, а значит, и польза – это счастье человека. Допустим, героиновый наркоман просит робота дать ему еще одну дозу, чтобы облегчить его страдания. Отказать наркоману – означает причинить ему немедленный вред. Сможет ли универсальный интеллект разобраться даже в этом простейшем случае, причинить кажущийся сиюминутный вред человеку ради его же куда более важной будущей пользы? А ведь это лишь азы. Когда подобная система интеллекта начнет размышлять о глобальных вопросах человечества, то к каким странным, непонятным нам и, главное, совершенно непредсказуемым выводам она может прийти? Второй закон робототехники. Робот не может допустить своим бездействием, чтобы был нанесен вред человеку. Представьте, что роботизированная система без контроля диспетчеров управляет самолетом, который терпит крушение над населенным городом. Она может попытаться посадить самолет на оживленной улице, что вероятнее всего, спасет пассажиров, но приведет к гибели большого количества случайных пешеходов. Или она может увести падающий самолет за пределы города, но тогда сотни его пассажиров уже ничто не спасет. Как универсальный ИИ сможет принять хоть какое-то решение в ситуации, когда любое выбранное им действие означает одновременное грубейшее нарушение и первого, и второго законов? Сможет ли он вообще хоть как-то функционировать в любой экстренной