PANN: Новая Технология Искусственного Интеллекта. Учебное пособие. Борис Злотин

Чтение книги онлайн.

Читать онлайн книгу PANN: Новая Технология Искусственного Интеллекта. Учебное пособие - Борис Злотин страница 2

PANN: Новая Технология Искусственного Интеллекта. Учебное пособие - Борис Злотин

Скачать книгу

это число получалось обычно в районе от 6 до 10.

      • Число входов – это число членов рассматриваемой цифровой последовательности. Для имиджей в растровой графике это – число пикселей, которое должно быть одинаковым для всех рассматриваемых имиджей. Например, при разрешении 16 × 16 число входов I = 256, при разрешении 32 × 32 число входов I = 1024. При работе с картинками можно использовать любые соотношения сторон прямоугольных картинок. Следует отметить, что, аналогично, для эффективного распознавания разных типов имиджей существуют свои оптимальные разрешения, которые несложно определить простым тестированием. При этом проявляется неожиданное свойство PANN – оптимальное для распознавания число пикселей обычно невелико, например для распознавания разного рода портретов часто наилучшим оказывается разрешение всего 32 × 32.

      Рис. 2. Однонейронная двухуровневая сеть PANN

      Рис. 3. Однонейронная многоуровневая сеть PANN

      2.2. ОБУЧЕНИЕ НЕЙРОНА PROGRESS

      Обучение сети PANN существенно проще, чем обучение любых классических сетей.

      Трудности обучения классических нейронных сетей связаны с тем, что при обучении нескольким разным имиджам одни из них влияют на синаптические веса других и вносят искажения в обучение друг в друга. Поэтому приходится подбирать веса так, чтобы их набор соответствовал всем имиджам одновременно. Для этого используют метод градиентного спуска, требующий огромного количества итерационных вычислений.

      Для обучения сети PANN был разработан принципиально иной подход: «Один нейрон – один имидж», при котором каждый нейрон обучается своему имиджу. При этом не возникает взаимных влияний разных нейронов, обучение становится быстрым и точным.

      Обучение нейрона Progress некоторому образу сводится к тому, что дистрибьютор определяет уровень сигнала (в простейшем случае его амплитуду или величину по шкале RGB) и замыкает выключатель, соответствующий интервалу весов, в который попадает данная величина.

      Рис. 4. Обученная однонейронная многоуровневая сеть PANN

      Приведенная схема обучения нейрона Progress порождает ряд замечательных свойств сети PANN:

      1. Обучение не требует вычислительных операций и поэтому происходит очень быстро.

      2. Набор синаптических весов одного нейрона никак не зависит от других нейронов, и поэтому нейроны сети можно обучать как по отдельности, так и группами, а потом обученные нейроны или их группы объединять в сеть.

      3. Сеть может доучиваться, то есть можно изменять, добавлять и убирать нужные нейроны в любое время, не влияя при этом на незатронутые данными изменениями нейроны.

      4. Обученный нейрон-имидж может быть легко визуализирован с использованием простейших цветовых кодов, связывающих уровни включенных весов с яркостью или цветом пикселей.

      2.3. ЗАБАВНЫЙ ПАРАДОКС PANN

Скачать книгу