ОБУЧЕНИЕ ВЕРОЯТНОСТНЫХ НЕЙРОННЫХ СЕТЕЙ НА ПОКЛАССОВОЙ ЭТАЛОННОЙ МАТРИЦЕ И НА КОНКАТЕНАЦИИ ЭТАЛОННЫХ МАТРИЦ

V V Romanuke, G A Yegoshyna, S M Voronoy

Аннотация


Изучается возможность оптимизации вероятностной нейронной сети на основе эффективного обучающего множества. Обычно обучающее множество данных для вероятностной нейронной сети представляет собой матрицу, чьи столбцы соответствуют классам. Если каждый класс имеет лишь один столбец, эта матрица называется поклассовой эталонной матрицей. Однако простая архитектура вероятностной нейронной сети не означает, что каждый класс должен быть представлен одним эталоном. Во-первых, диапазон значений признака класса может быть слишком широким. Тогда желательно разбить его на поддиапазоны, каждый из которых даст своё среднее, и таким образом будет сформировано несколько эталонов для данного класса. Во-вторых, признак класса может иметь конечное количество значений, где каждое значение имеет одинаковую значимость. Тогда было бы некорректно вычислять среднее и использовать его в соответствующем поклассовом эталоне. Поэтому изучается, целесообразной ли будет конкатенация эталонных матриц в длинную эталонную матрицу. Фактически цель исследования состоит в установлении того, является ли эффективным построение вероятностных нейронных сетей на длинных эталонных матрицах. Критерием эффективности является производительность вероятностной нейронной сети, т. е. её точность или процент ошибок. Для достижения этой цели производительность вероятностной нейронной сети оценивается на случае, когда класс описывается несколькими эталонами. Дальше вероятностные нейронные сети тестируются для двух подслучаев: когда объекты, которые подаются на вход, генерируются при разных классовых эталонах, и когда объекты генерируются при обобщённом поклассовом эталоне. В конце концов, устанавливается, что обучение вероятностных нейронных сетей на поклассовой эталонной матрице (полученной или на основе усреднения по имеющимся эталонным матрицам или просто при использовании одного эталона для каждого класса) является более эффективным, когда объекты для классификации не наследуют никаких числовых свойств классовых эталонов. И наоборот, когда объекты для классификации могут обладать некоторыми выразительными числовыми свойствами нескольких классовых эталонов, тогда обучение вероятностных нейронный сетей на длинных эталонных матрицах является более эффективным, обеспечивая значительно высшую точность. Метод гладкого обучения для улучшения производительности оказывается неэффективным.

Полный текст:

PDF (English)


DOI: http://dx.doi.org/10.33243/2518-7139-2019-1-2-86-97

Ссылки

  • На текущий момент ссылки отсутствуют.