Темная сторона искусственного интеллекта. Станислав Петровский

Чтение книги онлайн.

Читать онлайн книгу Темная сторона искусственного интеллекта - Станислав Петровский страница 1

Темная сторона искусственного интеллекта - Станислав Петровский

Скачать книгу

долларов, теперь помещаются в кармане и стоят около тысячи долларов США. Скорость передачи данных выросла в тысячи раз. Современный уровень скорости вычислений и передачи данных позволяет широко применять новый вид компьютерных программ и устройств на базе технологий искусственного интеллекта (ИИ).

      Сочетание гениальных человеческих умов и ИИ может дать фантастические возможности – лечение ранее неизлечимых болезней, продление жизни, значительное снижение количества аварий на транспорте и производствах, больший комфорт, экологичность и общественную безопасность.

      Однако, как у любой технологии, есть и обратная, темная сторона огромной силы ИИ. Современная реальность все больше похожа на сюжеты Стивена Кинга. Некоторые обыденные вещи кажутся безобидными на первый взгляд, но таят в себе смертельную опасность. Это абсолютно новый вызов, не похожий на чуму или атомную бомбу. Интуиция и разум, сформировавшиеся за миллионы лет для выживания человека в природе, теперь подводят нас. Когда речь идет о компьютере – с виду безобидной коробке с разноцветными лампочками, трудно осознать скрытые в ней угрозы. У машины нет собственных эмоций, эволюционной истории с реакцией типа «бей или беги». Зачем ей завоевывать мир или причинять вред человеку?

      Тем не менее ИИ может принести масштабный ущерб – массовую безработицу, усиление разрыва между бедными и богатыми, диктатуру полицейского государства, манипуляции общественным мнением в социальных сетях, гонку вооружений и войны.

      В 2017 году на конференции в США были приняты Азиломарские принципы ИИ.1 Данные принципы отражают общие подходы к созданию и использованию систем ИИ. Ведущие мировые разработчики и эксперты по ИИ, включая Илона Маска, Стивена Хокинга и Рэя Курцвейла, а также представители Google, Apple, Facebook, IBM, Microsoft и другие согласились с тем, что инвестиции в ИИ должны сопровождаться исследованиями, позволяющими развивать правовые системы с учетом рисков, связанных с ИИ.

      В соответствии с Азиломарскими принципами, в частности:

      – системы ИИ должны быть совместимы с идеалами человеческого достоинства, его прав и свобод, многообразия культур;

      – экономическое процветание, достигнутое благодаря ИИ, должно широко использоваться в интересах всего человечества;

      – следует избегать гонки вооружений в разработке смертельного автономного оружия2 и так далее.

      В 2020 году официальные лица Ватикана совместно с компаниями Микрософт и IBM утвердили этические принципы, по которым ИИ должен действовать прозрачно, работать надежно и беспристрастно, учитывать права человека, включая право на неприкосновенность частной жизни.

      Папа Римский Франциск призвал молиться, чтобы достижения в области ИИ и робототехники служили на благо человечества и не привели «к новой форме варварства, где общее благо сброшено верховенством слова сильнейшего».3

      К сожалению, следует констатировать: вопреки предостережениям, многие угрозы ИИ стали реальностью.

      Стартовала гонка автономных вооружений. Невиданное ранее совершенство технологий подделки голоса, видео и фотографий используется для того, чтобы опорочить или шантажировать не только политиков или звезд, но и обычных людей, включая детей. В крупных городах каждый находится под полицейским надзором камер, подключенных к системе распознавания лиц. Растут технические возможности преступников для мошенничества, краж, шантажа, угроз, а также похищения людей.

      Данные факты показывают необходимость совершенствования регулирования применения новых технологий.

      По словам Эльвиры Талапиной, главного научного сотрудника Института государства и права Российской академии наук, доктора юридических наук, доктора права (Франция):

      «Амбициозные планы человечества по использованию цифровых технологий во всех сферах жизнедеятельности впечатляют масштабами и футуристическими зарисовками, но не стоит забывать, что все это будет происходить непосредственно в нашем обществе. В обществе со сложившейся правовой культурой, традициями и ожиданиями. Было бы несомненной ошибкой концентрироваться лишь на радужных перспективах, игнорируя риски, которые таят цифровые технологии. Перед публичным правом стоит задача осмысления технологического обновления, с тем чтобы уберечь при этом устоявшиеся правовые ценности, одну из которых представляют собой фундаментальные права человека».4

      Согласно Резолюции Европейского парламента: «Человечеству еще только предстоит осознать сущность искусственного интеллекта и создать непротиворечивое нормативное регулирование в области применения систем робототехники с учетом соблюдения фундаментальных прав личности, защиты информации, принципов пропорциональности, необходимости и ответственности».

Скачать книгу


<p>1</p>

Asilomar AI Principles. URL: https://futureoflife.org/ai-principles/

<p>2</p>

Автономное оружие – это система, которая сама находит и поражает цель. Например, в Израиле применяется беспилотный летательный аппарат, запрограммированный атаковать радиолокационные системы противника. В ходе применения таких систем остро встает вопрос отличия автономным оружием военных от гражданских лиц и распознавания своих и чужих войск, полицейских и охранных подразделений.

<p>3</p>

https://www.youtube.com/watch?v=cpc_fK_ZcCg&feature=emb_title

<p>4</p>

Талапина Э. Алгоритмы и искусственный интеллект сквозь призму прав человека // Журнал российского права. 2020. №10.