Нейронные сети глубокого доверия в сравнение с многослойным персептроном


Цитировать

Полный текст

Аннотация

В статье рассматривается результат обучения нейронных сетей глубоко доверия и обучения многослойного персептрона. В качестве обучающей и тестовой выборки используется база данных MNIST.

Полный текст

Введение

В настоящее время нейронные сети глубокого доверия входят в список 10 наиболее перспективных высоких технологий, которые в ближайшее время изменят человеческую жизнь. Большинство современных систем интеллектуальной обработки данных, разрабатываемых такими компаниями как Google, Microsoft, используют нейронные сети глубокого доверия, что подтверждает их высокий потенциал развития [1].

В России данная технология малоизвестна, поэтому в статье будет показаны значительные преимущества нейронных сетей глубокого доверия по сравнению с классическим подходом [2].

Постановка задачи

Обучить многослойный персептрон и нейронную сеть глубокого доверия. После обучений сетей, проверит качество работы на тестовой выборке.

Обучения нейронных сетей

В качестве обучающей и тестовой выборки выступает база изображений рукописных цифр MNIST [3]. Размер обучающей выборки – 60000 изображений, а тестовой – 10000 изображений. Данные изображения представляют собой картинку размером 28 на 28 пикселей, сам образ (цифра) на картинке не превышает размеров 20 на 20 пикселей. После отбора изображений, где образ соответствует размеру 20 на 20 пикселей, размер обучающей выборки составит 9700 изображений, а тестовой 1500 изображений.

Для обучений многослойного персептрона выберем архитектуру сети, представленную на рисунке 1.

 

Рисунок 1 – Архитектура многослойного персептрона

 

Входной слой представленного на рисунке 1 многослойного персептрона имеет 400 нейронов, то есть каждый нейрон отвечает за каждый пиксель изображения. Обрабатывающий слой содержит 1000 нейронов, это значение получено при использовании алгоритма описанного в [4]. Выходной слой содержит 10 нейронов, которые соответствуют цифрам от нуля до девяти. При обучении весовых коэффициентов будет использоваться модифицированный алгоритм обратного распространения ошибки, описанный в [5].

График ошибки обучения многослойного персептрона представлен на рисунке 2.

 

Рисунок 2 – Ошибка обучения персептрона

 

Используя архитектуру нейронной сети, соответствующей минимальной ошибке, определим количество верно идентифицированных образов: для обучающей выборки это 92 %, для тестовой 82 %. Эти результаты являются хорошими, если учитывать, что идентифицируются рукописные цифры, которые даже человеку затруднительно распознать. Пример таких цифр приведён на рисунке 3, которые взяты из тестовой выборки.

 

Рисунок 3 – Рукописные цифры

 

Для обучения нейронных сетей глубокого доверия с архитектурой 400-300-200-10, используется алгоритм, описанный в [1]:

  1. Предобучаем нейронные сети методом послойного обучения, используя автоэкодерный подход: обучаем каждый нейронный слой как авто ассоциативную нейронную сеть с целью минимизации суммарной ошибки реконструкции информации. Для обучения используется алгоритм обратного распространения ошибки.
  2. Осуществляется точная настройка с использованием алгоритма обратного распространения ошибки:
  • Конструируется авто ассоциативная сеть с входным слоем X, скрытым слоем Y и выходным слоем X.
  1. Обучается автоассоциативная сеть, например, при помощи алгоритма обратного распространения ошибки (как правило не более 100 эпох) и фиксируются синаптические связи первого слоя W
  2. Берется следующий слой и формируется автоассоциативная сеть аналогичным образом.
  3. Используя настроенные синаптические связи предыдущего слоя W1, подаем входные данные на вторую автоассоциативную сеть и обучаем ее аналогичным образом. В результате получаются весовые коэффициенты второго слоя W
  4. Процесс продолжается до последнего слоя нейронной сети.
  5. Берется последний слой нейронной сети и обучается с учителем.
  6. Обучается вся сеть для точной настройки параметров при помощи алгоритма обратного распространения ошибки.

Обрабатывающие слои нейронной сети глубокого доверия выбраны случайным образом. После обучения нейронная сеть глубокого доверия верно идентифицировала 99 % обучающей выборки и 90 % тестовой выборки.

Заключение

Как показал численный эксперимент, нейронная сеть глубокого доверия способна запоминать почти всю обучающую выборку, при этом сохраняя обобщающие свойства, которые позволили верно идентифицировать 90 % неизвестных изображений. В то же время у многослойного персептрона результаты ниже, в среднем на 10 %. В связи с этим, подтверждается преимущество нейронных сетей глубокого доверия в сравнении с многослойным персептроном.

×

Об авторах

Виталий Михайлович Татьянкин

Югорский государственный университет

Автор, ответственный за переписку.
Email: bambar@bk.ru

Старший преподаватель кафедры автоматизированных систем обработки информации и управления Института систем управления и информационных технологий Югорского государственного университета

Россия, 628012, г. Ханты-Мансийск, ул. Чехова, 16

Ирина Сергеевна Дюбко

Югорский государственный университет

Email: irishka_dyubko@mail.ru

Магистрант кафедры теории и методики физического воспитания Гуманитарного института Югорского государственного университета

Россия, 628012, г. Ханты-Мансийск, ул. Чехова, 16

Список литературы

  1. Головко, В. А. Применение нейронных сетей глубокого доверия для выделения семантически значимых признаков [Электронный ресурс] / В. А. Головко. – Режим доступа : http://libeldoc.bsuir.by/bitstream/123456789/4138/1/Применение%20нейронных%20сетей.PDF (дата обращения: 13.01.2015).
  2. Головко, В. А. Нейронные сети: обучение, организация и применение : учеб. пособие для вузов [Текст] / В. А. Головко ; под общ. ред. А. И. Галушкина. – Кн. 10. – М. : ИПРЖР, 2000.
  3. База изображений рукописных цифр MNIST [Электронный ресурс]. – Режим доступа : http://yann.lecun.com/exdb/mnist/ (дата обращения: 13.01.2015).
  4. Татьянкин, В. М. Алгоритм формирования оптимальной архитектуры многослойной нейронной сети [Текст] / В. М. Татьянкин // Новое слово в науке: перспективы развития : материалы II междунар. науч.-практ. конф.– 2014. – С. 187–188.
  5. Татьянкин, В. М. Модифицированный алгоритм обратного распространения ошибки [Текст] / В. М. Татьянкин // Приоритетные направления развития науки и образования : материалы III междунар. науч.-практ. конф. (Чебоксары, 04 декабря 2014 г.). – Чебоксары : ЦНС «Интерактив плюс», 2014 ; [Электронный ресурс]. – Режим доступа : http://interactive-plus.ru/e-articles/collection-20141204/collection-20141204-5263.pdf (дата обращения: 01.06.2015).

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML
2. Рисунок 1 – Архитектура многослойного персептрона

Скачать (50KB)
3. Рисунок 2 – Ошибка обучения персептрона

Скачать (31KB)
4. Рисунок 3 – Рукописные цифры


© Татьянкин В.М., Дюбко И.С., 2015

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-ShareAlike 4.0 International License.

Данный сайт использует cookie-файлы

Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.

О куки-файлах