Рефетека.ру / Математика

Статья: Оптимизация размера нейросети обратного распространения

Ларько А.А., инженер, ЗАО “Инфоцентр”

Рассматривается новая “кривая обобщения” - график зависимости критерия (условно названным волновым), основанного на теореме Байеса, от размера (структуры) нейросети. Вычислительные эксперименты показывают, что локальные минимумы данного критерия хорошо соответствуют свойству традиционной зависимости - ошибки обобщения от размера нейросети. Критерий может быть использован для определения оптимального размера нейросети при отсутствии тестовой выборки.

1. Задача определения оптимального размера нейросети

При создании нейросетей важной задачей является нахождение оптимального размера сети – такого числа скрытых слоёв и нейронов в слоях, которые дадут минимум ошибки обобщения, особенно в случае отсутствия независимой тестовой выборки или сложностью разделить выборку данных на обучающую и тестовую часть.

Поэтому широко используется парадигма “кривых обучения” - зависимостей ошибок обучения и обобщения от размеров нейросети [1,2]. Оптимуму соответствуют локальные минимумы или моменты выхода графиков на асимптоты.

Другим классом кривых обучения являются зависимости внутренних свойств нейросети от её размера, сопоставляемые затем с ошибкой обобщения. Например – анализ [1] внутреннего представления задачи, связь ошибки обучения и максимума суммы модулей весов синапсов, приходящихся на нейрон сети, NIC – критерий, сопоставление вектора средних значений модулей весов синапсов [3] и ошибки обобщения. Такие критерии позволяют обходиться без тестовой выборки.

В работе предлагается новый вариант кривой обобщения – зависимость волнового критерия, от размера (структуры) нейросети. В формализованном виде задача состоит в выборе наилучшей модели (гипотезы, объясняющей наблюдаемые данные) из некоторого доступного множества. Для решения этой задачи надо оценить степень достоверности той или иной гипотезы. Обозначим весь набор имеющихся данных Оптимизация размера нейросети обратного распространения, а гипотезы, объясняющие эти данные (в нашем случае - нейросети), как Оптимизация размера нейросети обратного распространения. Предполагается, что каждая такая гипотеза объясняет данные с большей или меньшей степенью вероятности Оптимизация размера нейросети обратного распространения. Теорема Байеса дает решение обратной задачи - определить степень достоверности гипотезОптимизация размера нейросети обратного распространения, исходя из их успехов в объяснении данных. Согласно этой теореме, достоверность гипотезы пропорциональна её успеху, а также её априорной вероятности Оптимизация размера нейросети обратного распространения, известной из других соображений, не относящихся к данной серии наблюдений:

Оптимизация размера нейросети обратного распространения(1)

Наилучшая модель определяется максимизацией Оптимизация размера нейросети обратного распространения.

Условием максимума вероятности Оптимизация размера нейросети обратного распространенияявляется минимум ошибки данных на обучающем наборе данных. Наиболее широко используемым методом минимизацией ошибки данных, является метод наименьших квадратов (МНК). В предлагаемом критерии используется модифицированная оценка ошибки по МНК , имеющая вид:

Оптимизация размера нейросети обратного распространения

и (2)

Оптимизация размера нейросети обратного распространения

где Оптимизация размера нейросети обратного распространения- среднеквадратичная ошибка, N – количество примеров в наборе данных используемых для обучения,Оптимизация размера нейросети обратного распространения - допуск на точность отклика нейросети (выраженный в процентах), Np – количество правильных ответов нейросети на обучающем наборе данных, Kd – значение оценки ошибки данных.

Для максимизации вероятности Оптимизация размера нейросети обратного распространения, в предлагаемом критерии используется известный факт из теории автоматического регулирования - чем меньше колебательность переходного процесса, тем больше устойчивость регулятора. Как показано в работе [4], устойчивость модели напрямую связана с обобщающей способностью модели (нейросети). Оценка колебательности функции ошибки нейросети имеет вид:

Оптимизация размера нейросети обратного распространения(3)

где N – количество примеров в наборе данных используемых для обучения, Оптимизация размера нейросети обратного распространения- допуск на точность отклика нейросети выраженный в процентах, F - количество колебаний функции ошибки данных (численно равное количеству раз смены знака ошибки, на обучающем наборе данных), f – неравномерность колебаний функции ошибки данных, K – значение оценки колебательности функции ошибки нейросети.

Так как в выражении (1), значение знаменателя, для всех нейросетей обученных на конкретном наборе данных одинаково, условно будем считать его равным единице, тогда максимум Оптимизация размера нейросети обратного распространения, будет соответствовать минимуму волнового критерия W равного:

Оптимизация размера нейросети обратного распространения(4)

где K – значение оценки колебательности, Kd – значение оценки ошибки данных.

2. Данные для экспериментальной проверки и результаты

Были взяты 4 базы данных fmtrain, mat1, mat2, mat3, имеющие независимые тестовые наборы, доступные на страничке http://www-ee.uta.edu/eeweb/IP/training_data_files.htm , все задачи представляют задачи регрессии с учителем. Использовались нейросети с одним скрытым слоем и сигмоидной функцией активации, при обучении использовались разные методы оптимизации (градиентный спуск, сопряжённых градиентов, BFGS, модифицированный ParTan) и разные целевые функции (минимум суммы модулей ошибки, минимум среднеквадратичной ошибки, минимум модуля максимальной ошибки). Использовались программные средства NeuroPro 0.25, Deductor Studio. Всего было проанализировано около 1000 нейросетей.

На рисунке представлены графики, для базы данных fmtrain: среднего значения ошибки обобщения (выраженные в процентах доли неправильно решённых примеров в тестовом наборе данных), среднего значения волнового критерия (приведённого к общему масштабу). Вдоль оси ординат отложено число нейронов в скрытом слое нейросети.

Для определения коэффициента корреляции между ошибкой обобщения полученной экспериментальным путём и оценкой ошибки обобщения вычисленной по волновому критерию, было сделано следующее: каждой нейросети (модели) поставлена в соответствие ошибка обобщения, выраженная числом правильно решённых примеров, проведено ранжирование нейросетей по убыванию числа решённых примеров и по возрастанию оценки ошибки обобщения, вычисленной по волновому критерию.

В результате эксперимента определены значения: K - коэффициента корреляции между множествами ранжированных нейросетей, E - ошибки обобщения лучшей нейросети найденной опытным путём, W - ошибки обобщения лучшей нейросети найденной с помощью волнового критерия.

Результаты эксперимента приведены в таблице.

Нейросети (модели) К Е,% W,%
Нейросети базы данных fmtrain 0,96863 14 14
Нейросети базы данных mat1 0,99666 14 14
Нейросети базы данных mat2 0,99993 14,7 14,7
Нейросети базы данных mat3 0,99794 13,7 14,7

Коллектив нейросетй вида Оптимизация размера нейросети обратного распространениябазы данных fmtrain

0,92953 4,59 4,59
Множество моделей, состоящее из нейросетей и моделей полученных методами параметрической статистики, база данных - отрезок функции y = sin(x) 0,97912 0 0

Оптимизация размера нейросети обратного распространения

Рис. Зависимость ошибки обобщения (процент неправильно решённых примеров тестового набора данных) от числа нейронов в скрытом слое нейросети (сплошной линией показан результат эксперимента, штриховой линией значения волнового критерия).

Как видно из экспериментальных данных предложенный волновой критерий хорошо соответствует кривой обобщения, предоставляя возможность исключить проверку на тестовом наборе данных и обучать нейросеть на всём доступном наборе данных, не разделяя его на обучающий и тестовый фрагменты.

3. Заключение

Предложен новый вариант кривой обучения – зависимость значения волнового критерия от обобщающих способностей нейросети (в частности от размера нейросети). Экспериментально показано, что с его помощью возможно достаточно надёжное определение оптимального размера нейросети, обеспечивающего минимум ошибки обобщения.

Также данный критерий может быть применён и для выбора лучшей модели из множества моделей полученных разными методами математической статистики.

Возможность использования данного критерия в качестве целевой функции не исследовалась, но формальных препятствий в этом направлении нет.

Список литературы

Watanabe E., Shimizu H. Relationships between internal representation and generalization ability in multi layered neural network for binary pattern classification problem /Proc. IJCNN 1993, Nagoya, Japan, 1993. Vol.2.-pp.1736-1739.

Cortes C., Jackel L., D., Solla S. A., Vapnik V., Denker J. S.. Learning curves: asymptotic values and rate of convergence / Advances in Neural Information Processing Systems 7 (1994). MIT Press, 1995. – pp. 327-334.

Царегородцев В.Г. Определение оптимального размера нейросети обратного распространения через сопоставление средних значений модулей весов синапсов. /Материалы 14 международной конференции по нейрокибернетике, Ростов-на-Дону, 2005. Т.2. – С.60-64.

Секерин А.Б. Метод оценки устойчивости нейронно-сетевых моделей. / 2005.http://zhurnal.ape.relarn.ru/articles/2005/031.pdf

Список литературы

Для подготовки данной работы были использованы материалы с сайта http://www.sciteclibrary.ru


Похожие работы:

  1. • Использование нейросетей для построения системы ...
  2. • Общие принципы, характерные для нейросетей
  3. • Обзор и анализ нейросетей
  4. • Разделение хромотографических пиков нейросетями
  5. • Реализация искусственной нейронной сети
  6. • Кластеризация с помощью нейронных сетей
  7. • Классификация сейсмических сигналов на основе нейросетевых ...
  8. • Технология извлечения знаний из нейронных сетей ...
  9. • Постреляционные технологии Cache в системе управления ...
  10. • Психологическая интуиция искусственных нейронных ...
  11. • Нейронные сети
  12. • Автоматизация процесса прокалки кокса
  13. • Методы формирования нейросетей. Сущность электронного ...
  14. • Нейронные сети
  15. • Нейронные сети с радиальными базисными функциями
  16. • Возможен ли искусственный интеллект
  17. • Информатика
  18. • Алгоритмы нейрокибернетики
  19. • Возможен ли искусственный интеллект
Рефетека ру refoteka@gmail.com