Как сманить кота со шкафа. Когнитивная психология о мышлении. В. Ф. Спиридонов

Чтение книги онлайн.

Читать онлайн книгу Как сманить кота со шкафа. Когнитивная психология о мышлении - В. Ф. Спиридонов страница 6

Как сманить кота со шкафа. Когнитивная психология о мышлении - В. Ф. Спиридонов Высший курс

Скачать книгу

не случайным.

      Тьюрингу принадлежит и прекрасная идея о том, как проверить, мыслит ли машина, не вступая в очень сложный разговор о том, что значит мыслить. Группе наблюдателей предлагается отличить ответы компьютера на вопросы, заданные в письменной форме на естественном языке – русском, английском, китайском и т. д., – от ответов живого человека. Понятно, что мы маскируем передачу вопросов и получение ответов: для принятия решения наблюдатели могут ориентироваться только на тексты – их форму и содержание. Подобная процедура получила название «тест Тьюринга». И если наблюдатели не смогут отличить ответы компьютера от ответов человека или сомневаются в своем выборе, то считается, что компьютер (специальная программа) прошел этот тест. Значит, машина может мыслить.

      К настоящему моменту известно по крайней мере одно успешное прохождение теста Тьюринга. В 2014 году быстродействующий компьютер по имени Eugene смог настолько хорошо притвориться человеком, что убедил треть группы экспертов в ходе специальных тестов. Это ровно столько, сколько нужно. Занятно, что авторы программного обеспечения (программисты Владимир Веселов, Евгений Демченко и Сергей Уласеня) воспользовались целым набором психологических приемов, чтобы добиться правдоподобия. Их система изображала тринадцатилетнего подростка, который «претендует на то, что знает всё на свете, но в силу своего возраста не знает ничего», обладает специфическими чертами характера и неважно владеет английским языком.

      Нужно добавить, что с развитием больших лингвистических моделей прохождение теста Тьюринга можно считать технической задачей. Такие проекты, как ChatGPT, показали, что при очень большом количестве данных искусственные нейронные сети могут не только сымитировать связную речь, но и создать впечатление мыслительного процесса. При этом мало кто среди ученых и среди программистов (за небольшим исключением[9]) считает, что ChatGPT обладает сознанием и реальным мышлением.

      Принципиальное значение для будущей когнитивной психологии имели работы по теории информации американского инженера и математика Клода Шеннона. Ему принадлежит несколько основополагающих идей в интересующей нас области.

      Еще студентом Шеннон обнаружил, что два состояния электрического реле – включено и выключено, – как и других аналогичных устройств, можно описать с помощью взаимоисключающих логических значений истины и лжи. Затем он выдвинул и обосновал предположение о том, что с помощью электрических схем (цепей) можно моделировать основные операции мышления и на этой основе совершать любые (логические) вычисления. Собственно, этим шагом была доказана возможность создания и заложены теоретические основы любых ЭВМ. Шеннон приложил массу усилий для обоснования тезиса о том, что информацию можно и должно рассматривать в отрыве от любого конкретного предмета или носителя – как выбор между двумя равновероятными альтернативами.

Скачать книгу


<p>9</p>

Известны случаи (например, заявление сотрудника компании Google Блейка Лемойна летом 2022 года), когда разработчики чат-ботов, основанных на глубоких нейросетях, начинали верить, что их создания обладают сознанием и личностью. Для Лемойна это закончилось увольнением.