Искусственный интеллект – надежды и опасения. Сборник
Чтение книги онлайн.
Читать онлайн книгу Искусственный интеллект – надежды и опасения - Сборник страница 10
Легко забыть, насколько страшным местом был мир эпохи Винера. Соединенные Штаты Америки и Советский Союз вели полномасштабную гонку вооружений, создавая водородные бомбы и ядерные боеголовки для межконтинентальных баллистических ракет, управляемых навигационными системами, которые отчасти разрабатывал сам Винер (чего он стыдился). Мне было четыре года, когда Винер умер. В 1964 году в начальной школе мы учились нырять под парты на случай ядерной атаки. Учитывая человеческое применение человеческих существ в ту эпоху, Винер, приведись ему увидеть нашу нынешнюю жизнь, в первую очередь порадовался бы тому, что мы до сих пор живы.
Глава 2
Ограничения «непрозрачных» обучаемых машин
Джуда Перл
профессор компьютерных наук и директор Лаборатории когнитивных систем в Калифорнийском университете (Лос-Анджелес). Последняя из опубликованных им книг, в соавторстве с Даной Маккензи, называется «Книга почему: новая наука причин и следствий».
В 1980-е годы Джуда Перл предложил новый подход к разработке искусственного интеллекта – на основании байесовских сетей. Эта вероятностная модель машинного мышления позволяла машинам функционировать – в сложном и неопределенном мире – в качестве «локомотивов доказательств», постоянно пересматривая свои убеждения в свете новых свидетельств.
Всего через несколько лет байесовские сети Перла целиком вытеснили предыдущие подходы к искусственному интеллекту, основанные на правилах. Появление методики глубинного обучения – когда компьютеры фактически самообучаются и становятся умнее, обрабатывая мириады данных, – поставило Джуду перед новым вызовом, ведь эта методика лишена прозрачности.
Признавая несомненные заслуги в области глубинного обучения таких коллег, как Майкл И. Джордан и Джеффри Хинтон[26], Перл не готов мириться с указанной непрозрачностью. Он намеревается изучить теоретические ограничения систем глубинного обучения и утверждает, что существуют базовые препятствия, которые не позволят этим системам уподобиться человеческому интеллекту,
26
М. Джордан – статистик и специалист по машинному обучению, профессор Калифорнийского университета в Беркли; Дж. Хинтон – британо-канадский когнитивист, ведущий научный сотрудник проекта Google Brain, где ведутся исследования ИИ на основе методов глубинного обучения.