Перевести страницу на:  
Please select your language to translate the article


You can just close the window to don't translate
Библиотека
ваш профиль

Вернуться к содержанию

Программные системы и вычислительные методы
Правильная ссылка на статью:

Поиск логических закономерностей в данных с использованием сигма-пи нейронных сетей

Лютикова Лариса Адольфовна

кандидат физико-математических наук

заведующий отделом, ИПМА КБНЦ РАН

360000, Россия, Республика Кабардино-Балкария, г. Нальчик, ул. Шортанова, 89а

Lyutikova Larisa Adol'fovna

PhD in Physics and Mathematics

Head of department, Institute of Applied Mathematics and Automation

360000, Russia, respublika Kabardino-Balkariya, g. Nal'chik, ul. Shortanova, 89a

lylarisa@yandex.ru
Другие публикации этого автора
 

 
Шматова Елена Витальевна

младший научный сотрудник, ИПМА КБНЦ РАН

360000, Россия, Республика Кабардино-Балкария, г. Нальчик, ул. Шортанова, 89а

Shmatova Elena Vital'evna

graduate student, Department of Intellectualization of Information and Control Systems, Institute of Applied Mathematics and Automation

360000, Russia, Kabardino-Balkariya, g. Nal'chik, ul. Shortanova, 89a

lenavsh@yandex.ru
Другие публикации этого автора
 

 

DOI:

10.7256/2454-0714.2017.3.24050

Дата направления статьи в редакцию:

30-08-2017


Дата публикации:

06-10-2017


Аннотация: В статье предлагается метод построения логических операций для анализа и коррекции результатов работы сигма-пи нейронных сетей, предназначенных для решения задач распознавания. Целью работы является выявление логической структуры неявных закономерностей, сформированных в результате обучения нейронной сети. Предлагаемый авторами метод восстанавливает обучающую выборку, опираясь на значения весовых коэффициентов сигма-пи нейрона, проводит анализ связей этой структуры и позволяет обнаружить неявные закономерности, что способствует повышению адаптивных свойств сигма-пи нейрона. Для решения поставленной задачи проводиться логико-алгебраический анализ предметной области в рамках которой происходит обучение сига-пи нейрона, строиться логическая решающая функция, исследуются ее свойства и применимость к коррекции работы нейрона. Широко известно, что комбинированный подход к организации работы алгоритмов распознания повышает их эффективность. Авторы утверждают, что комбинация нейросетевого подхода и применение логических корректоров позволяет в случаи возникновения некорректного ответа указать наиболее близкий по запрашиваемым признакам объект из выборки по которой обучался сигма-пи нейрон. Это существенно повышается качество автоматизированного решения интеллектуальных задач, т.е. обеспечение точности достижения верного решения за счет использования наиболее эффективных систем анализа исходных данных и разработки более точных методов их обработки.


Ключевые слова:

нейрон, нейронные сети, логические функции, предикат, алгоритм, операции над алгоритмами, решающая функция, корректирующая операция, логико-алгебраический подход, классификатор

Abstract: In this article the authors offer a method for constructing logical operations to analyze and correct the results of the operation of sigma-pi neural networks designed to solve recognition problems. The aim of the research is to reveal the logical structure of implicit regularities formed as a result of training the neural network. The method proposed by the authors restores the training sample based on the values of the sigma-pi weighting coefficients of the neuron, analyzes the relationships of this structure and allows to detect implicit regularities, which contributes to the increase of the adaptive properties of the sigma-pi neuron. To solve this problem, the authors perform a logical-algebraic analysis of the subject area within the framework of which the cigma-pi of a neuron is trained, a logical decision function is constructed, its properties and applicability to the correction of the work of a neuron are investigated. It is widely known that the combined approach to the organization of the recognition algorithms increases their effectiveness. The authors argue that the combination of the neural network approach and the use of logical correctors allows, in cases of an incorrect response, to indicate the object closest to the requested attributes from the sample on which the sigma-pi neuron was trained. This significantly improves the quality of the automated solution of intellectual problems, i.e. ensuring the accuracy of achieving the right solution by using the most effective systems for analyzing the original data and developing more accurate methods for their processing.


Keywords:

neuron, neural networks, logical function, predicate, algorithm, operations on algorithms, decision function, corrective operation, logical-algebraic approach, Classifier

Введение

Задачи, связанные с классификацией и идентификацией предметов, явлений и сигналов, характеризующихся конечным набором некоторых свойств и признаков, возникают в таких отраслях как робототехника, информационный поиск, мониторинг и анализ визуальных данных, исследования искусственного интеллекта. Существует ряд методов для решения данных задач, каждый из которых обладает как своими преимуществами, так и своими недостатками [1].

Комбинированный подход применяется, когда требуется скорректировать работу нескольких различных алгоритмов, каждый из которых безошибочно классифицирует лишь часть обучающих объектов. Цель коррекции — сделать так, чтобы ошибки одних алгоритмов были скомпенсированы другими и качество результирующего алгоритма оказалось лучше, чем каждого из базовых алгоритмов в отдельности [2-4]. На практике существуют различные подходы к построению комбинированных корректирующих алгоритмов, сочетание которых дает практически значимые результаты[4-9].

В данной работе рассматривается подход, основанный на логическом анализе данных, используемый для коррекции работы SP-нейронной сети.

Можно предположить, что сигма-пи нейронная сеть содержит определенные логические правила в весовых коэффициентах, однако эти правила не являются явными. Для осуществления контрольных и корректирующих функций работы сигма-пи нейрона предлагается использование метода, позволяющего по весам восстановить обучающую выборку, провести ее логический анализ, построить базу знаний минимизировать ее, и в случаи ошибочной работы сигма-пи нейрона скорректировать ответ относительно построенных правил. В статье рассматривается метод обнаружения в структуре сигма-пи нейрона ранее не известных, практически полезных, доступных интерпретации знаний, необходимых для принятия решений.

Постановка задачи

Описание, заданного объекта представляет собой -мерный вектор, где - число признаков, используемых для характеристики объекта, причем -я координата этого вектора равна значению -го признака, . В описании объекта допустимо отсутствие информации о значении того или иного признака.

Формальная постановка задачи.

Пусть , где –множество признаков. – множество объектов, каждый объект характеризуется соответствующим набором признаков . Или , где , – обрабатываемые входные данные – выходные данные:

Вид функции не задан.

Пусть SP-нейрон представленный следующей структурой

,

где -множество весов данного -нейрона, распознающего элементов заданной предметной областисформированной соответствующим набором признаков . И пусть существует набор признаковтакой что ответSP-нейрона на данном наборе некорректен.

Будем говорить, что работа сигма-пи нейрона некорректна, если

1) он не опознал соответствующий запросу элемент,т.е.

;

2) он опознал объект, не принадлежащий данной предметной области, т.е.

3) при запросе найден элемент, принадлежащий предметной области,но в обучающей выборке существует элемент с большим количеством совпадающих признаков, т.е. и существует с соответствующем вектором признаков такое, что

,

где - вектор признаков , - количество несовпадающих признаков.

Необходимо построить функцию, которая сможет подобратьпри ошибке работы сигма-пи нейрона, наиболее близкий элемент или класс элементов из обучающей выборке по заданным признакам:

Процедура обучения сигма пи нейрона.

Простой алгоритм обучения, позволяющий обучить сигма пи нейрон за один проход,был первоначально предложен Тимофеевым А.В. [13].

1) ,

2) На -ом шаге , где Весвычисляется по формуле:

где - произвольное значение, такое что .Например, если - пороговая функция, то можно положить или.

После шагов искомый логико-арифметический-нейрон будет построен.

ПРИМЕР. Пусть задана следующая предметная область:

0

0

1

2

0

1

0

4

0

1

1

8

1

1

1

128

Очевидно, что в результате обучения по данным таблицы SP-нейрон будет иметь вид:

Введем запрос ,. Действительно объект под номером «4» совпадает с запросом в двух точках, но в двух точках с запросом совпадает и объект под номером 128, причем этот объект выделяется во всей выборки значением переменной . Корректировку подобных результатов работы -нейрона можно провести при помощи логического анализа данных.

Логические методы исследования данных

В данном разделе рассматривается логические методы решения задачи распознавания. Предлагается метод построения логического классификатора, рассматриваются его свойства[14,15].

Данные, с которыми приходится иметь дела при решении задач распознавания, как известно, являются неполными, неточными, неоднозначными. Однако получаемые решения должны соответствовать закономерностям явно и неявно присутствующим в рассматриваемой предметной области. Логические методы могут достаточно хорошо проанализировать данные, выделить существенные и несущественные признаки, выявить минимальный набор правил необходимый для того, чтобы полностью восстановить исходные закономерности.

Определение. Будем говорить, что построенная система решающих правил является полной, если она обеспечивает вывод всех возможных решений в рассматриваемой области.

Определение. Система правил, в которойна наборе признаков, где – пространство признаков, невозможно получить выводы: и называется непротиворечивой.

Определение. Классом будем называть группу объектов, выделенных по определенному признаку (группе признаков). Каждый объект может быть представителем одного или нескольких классов, каждый класс определятся набором однотипных признаков.

Правило продукции позволяет выразительно представить зависимости между объектом и его признаками.

где предикат принимает значение истина, т.е. в случае если и, если . Или в виде:

Решающей функций назовем конъюнкцией всех решающих правил:

или (1)

Функцию (1) можно проинтерпретировать следующим образом:

Если обучающую выборку, состоящуюиз элементов описать булевой функцией , где

,

то данная функция принимает значения «0» на наборах и«1» на всех остальных на наборах, т.е. она допускает любые отношения между признаками и объектами, кроме отрицания объекта на множестве характеризующих этот объект признаках в обучающей выборке.

Функция (1) выражает зависимость между характеристиками объекта и самим объектом, находит все возможные классы в заданной области, вплоть до классов объектов объединенных по единственному признаку, допускает включение новых правил продукции(модифицируема), при вводе значение любого объекта, из исследуемой области определяет этот объект. Если вводимые данные точно не определены в области, по которой была построена функция, то функция определяет наиболее подходящий объект или классы объектов, идентифицируемые по части входных данных.

Все свойства функции (1) подробно рассмотрены в работах [16].

Поскольку функция - это дизъюнкция конъюнкций разной длины переменныхона может быть подвергнута сокращению.

Выделение правил по весам сигма пи нейрона.

В данной работе рассматривается -нейронная сеть, результатом обучения которой будет являться полином вида

где - множество весов данного -нейрона.

Обучающая выборка по которой проводилась настройка весов вообще говоря может быть неизвестна. Требуется восстановить обучающую выборку, обнаружить логические закономерности и использовать их для корректировки результата работы исходного -нейрона.

Восстановление обучающей выборки по полиному- по сути процедура обратная обучению.

На нижним уровне находятся переменные, . Все коэффициенты полинома (веса -нейрона) разбиваются на уровни в зависимости от количества переменных входящих вместе с ним в слагаемое. Т. е первый слой веса с наименьшее числом переменных, на втором соответственной на одну больше и т.д. в верхнем слое находится все коэффициенты с наибольшим числом переменных. Элемент каждого верхнего уровня связан с соответствующими элементами нижнего слоя по общим переменным.

Веса первого слоя соответственно и есть объекты на каждом следующем слое , где индексы соответствующих объектов переменные которых входят в качестве сомножителей в элемент на .

ПРИМЕР

Пусть обученный -нейрон имеет следующий вид

Восстановим объекты обучающей выборки и найдем обобщающие логические правила (см.рис.1).

Рис. 1.

Построение неявных правил:

Для построения по дереву неявных правил рассмотрим путь из каждой вершины к каждой переменной . Если такой путь существует, то множество вершин принадлежащих соответствующему пути, т.е. множество объектов определяемых переменной образуют класс по этой переменной .Такой путь можно представить в виде логической формулы при помощи операции конъюнкции. Т.е.

Если пути от заданной вершины к вершине не существует, то данный путь (класс объектов) определятся отрицанием соответствующей переменной. Совокупность всевозможных путей как существующих, так и несуществующих представима в виде дизъюнкции. Таким образом, можно полностью восстановить объектную часть логической функции (1).

На примере это выглядит как на рис. 2.

Рис. 2.

Штрих пунктирной линией обозначены связи с отрицанием переменной.

что полностью совпадает с объектной частью функции (1).

ТЕОРЕМА. Пусть ,, где – множество признаков. – множество объектов, каждый объект характеризуется соответствующим набором признаков пусть , тогда по соответствующей структуре можно получить все возможные решения на заданном пространстве данных.

Доказательство: Как было показано выше по структуре нейрона можно восстановить обучающую выборку. Для которой возможно построить логическую решающую функцию (1), которая строит полную систему правил для заданной предметной области.

Предложенная процедура построения неявных правил упрощает задачу.

Поскольку при помощи логической функции (1) можно провести полный анализ обучающей выборки, найти все возможные связи, то объектная часть логической функции может выступить в качестве корректора для сигма-пи нейрона, которую в соответствии с предложенным выше алгоритмом можно построить, опираясь на структуру самого сигма-пи нейрона, даже не имея обучающей выборки.

В окончательном виде модель SP-нейрона вместе с его корректором может иметь имеет следующий вид:

где является корректором работы нейрона, т.е. окончательное решение это или правильный ответ нейрона, или наиболее подходящий ответ для данного запроса выбранный ). Если ответ нейрона был правильным и объект, ранее не принадлежал обучающей выборки, то в силу простой модифицируемости функции [16], новое правило будет принято корректором и расширит свою базу знаний.

Заключение

В работе рассмотрены вопросы поиска логических закономерностей по структуре обученногоSP-нейрона. Предложено совместное использование нейросетевых технологий и методов логического вывода, как средства выявления логических закономерностей и представления более точного результата в задачах распознавания. Так же рассмотрены преимущества логического анализа данных и построена логическая функция для выявления всех закономерностей исследуемой предметной области. Предложена процедура построения деревьев решений на основе обученного сигма-пи нейрона, которая не предъявляет никаких требований к архитектуре, алгоритму обучения, входным и выходным значениям и другим параметрам сети. Построение дерева осуществляется по структуре нейрона, результат выявляет ряд скрытых логических закономерностей данных, строит логическую функцию, которая корректирует работу нейрона в случае неточных зашумленных данных, позволяя указать наиболее правдоподобные (близкие к эталонным) ответы в рамках сделанного запроса, а также легко модифицироваться в случае правильного ответа нейрона непредусмотренного обучающей выборкой.В результате существенно повышается качество автоматизированного решения интеллектуальных задач, надежность их функционирования, обеспечение точности достижения верного решения за счет использования наиболее эффективных систем анализа исходных данных и разработки более точных методов их обработки.

Библиография
1. Флах П. Машинное обучение. Наука и исскуство построения алгоритмов, которые извлекают знания из данных. М.: МДК Пресс, 2015. 400 с.
2. Журавлёв Ю. И. Об алгебраическом подходе к решению задач распознавания или классификации // Проблемы кибернетики. 1978. Т. 33. С. 5–68.
3. Воронцов К. В. Оптимизационные методы линейной и монотонной коррекции в алгебраическом подходе к проблеме распознавания // Журнал вычислительной математики и математической физики. 2000. Т. 40, № 1. С. 166–176.
4. Абламейко С.В., Бирюков А.С., Докукин А.А., Дьяконов А.Г., Журавлев Ю.И., Краснопрошин В.В., Образцов В.А., Романов М.Ю., Рязанов В.В. Практические алгоритмы алгебраической и логической коррекции в задачах распознавания по прецедентам // Журнал вычислительной математики и математической физики. 2014. Т. 54. № 12. С. 1979.
5. Тимофеев А.В., Косовская Т.М. Нейросетевые методы логического описания и распознавания сложных образов // Труды СПИИРАН, 27 (2013). С. 144–155.
6. Дюкова Е.В., Журавлев Ю.И., Прокофьев П.А. Методы повышения эффективности логических корректоров // Машинное обучение и анализ данных. 2015. Т. 1. № 11. С. 1555-1583.
7. Гридин В.Н., Солодовников В.И., Евдокимов И.А., Филипков С.В. Построение деревьев решений и извлечение правил из обученных нейронных сетей // Искусственный интеллект и принятие решений. 2013. №4. С. 26-33.
8. Zhiting Hu, Xuezhe Ma, Zhengzhong Liu, Eduard Hovy, Eric Xing Harnessing Deep Neural Networks with Logic Rules // Computer Science. Learning 2016 .arXiv:1603.06318
9. Alex Graves, Greg Wayne, Malcolm Reynolds, Tim Harley, Ivo Danihelka, Agnieszka GrabskaBarwinska, Sergio Gómez Colmenarejo, Edward Grefenstette, Tiago Ramalho, John Agapiou, et al. Hybrid computing using a neural network with dynamic external memory. Nature, 538:(7626):471–476, 2016.
10. Шибзухов З.М. О поточечно корректных операциях над алгоритмами распознавания и прогнозирования //Доклады РАН. 2013, Т.450, №1. С.24-27.
11. Shibzukhov Z.M. Correct Aggregation Operations with Algorithms // Pattern Recognition and Image Analysis. 2014, Vol. 24, No. 3, pp. 377–382.
12. Шибзухов З.М. О некоторых конструктивных и корректных классах алгебраических сигма-пи алгоритмов // Доклады РАН, 2010. Т. 432, №4. С. 465-468.
13. Тимофеев А.В., Пшибихов В.Х. Алгоритмы обучения и минимизации сложности полиномиальных распознающих систем // Известия АН СССР. Техническая кибернетика. 1974. № 7. С. 214-217.
14. Тимофеев А.В., Лютикова Л.А. Развитие и применение многозначных логик и сетевых потоков в интеллектуальных системах // Труды СПИИ РАН. Вып. 2, 2005. С. 114-126.
15. Лютикова Л. А., Шматова Е. В. Анализ и синтез алгоритмов распознавания образов с использованием переменно-значной логики // "Информационные технологии". Том 22. №4. 2016. С. 292—297.
16. Лютикова Л.А. Использование математической логики с переменной значность при моделировании систем знаний // Вестник Самарского государственного университета. Естественнонаучная серия. №6(65). 2008. С. 20-27.
References
1. Flakh P. Mashinnoe obuchenie. Nauka i isskustvo postroeniya algoritmov, kotorye izvlekayut znaniya iz dannykh. M.: MDK Press, 2015. 400 s.
2. Zhuravlev Yu. I. Ob algebraicheskom podkhode k resheniyu zadach raspoznavaniya ili klassifikatsii // Problemy kibernetiki. 1978. T. 33. S. 5–68.
3. Vorontsov K. V. Optimizatsionnye metody lineinoi i monotonnoi korrektsii v algebraicheskom podkhode k probleme raspoznavaniya // Zhurnal vychislitel'noi matematiki i matematicheskoi fiziki. 2000. T. 40, № 1. S. 166–176.
4. Ablameiko S.V., Biryukov A.S., Dokukin A.A., D'yakonov A.G., Zhuravlev Yu.I., Krasnoproshin V.V., Obraztsov V.A., Romanov M.Yu., Ryazanov V.V. Prakticheskie algoritmy algebraicheskoi i logicheskoi korrektsii v zadachakh raspoznavaniya po pretsedentam // Zhurnal vychislitel'noi matematiki i matematicheskoi fiziki. 2014. T. 54. № 12. S. 1979.
5. Timofeev A.V., Kosovskaya T.M. Neirosetevye metody logicheskogo opisaniya i raspoznavaniya slozhnykh obrazov // Trudy SPIIRAN, 27 (2013). S. 144–155.
6. Dyukova E.V., Zhuravlev Yu.I., Prokof'ev P.A. Metody povysheniya effektivnosti logicheskikh korrektorov // Mashinnoe obuchenie i analiz dannykh. 2015. T. 1. № 11. S. 1555-1583.
7. Gridin V.N., Solodovnikov V.I., Evdokimov I.A., Filipkov S.V. Postroenie derev'ev reshenii i izvlechenie pravil iz obuchennykh neironnykh setei // Iskusstvennyi intellekt i prinyatie reshenii. 2013. №4. S. 26-33.
8. Zhiting Hu, Xuezhe Ma, Zhengzhong Liu, Eduard Hovy, Eric Xing Harnessing Deep Neural Networks with Logic Rules // Computer Science. Learning 2016 .arXiv:1603.06318
9. Alex Graves, Greg Wayne, Malcolm Reynolds, Tim Harley, Ivo Danihelka, Agnieszka GrabskaBarwinska, Sergio Gómez Colmenarejo, Edward Grefenstette, Tiago Ramalho, John Agapiou, et al. Hybrid computing using a neural network with dynamic external memory. Nature, 538:(7626):471–476, 2016.
10. Shibzukhov Z.M. O potochechno korrektnykh operatsiyakh nad algoritmami raspoznavaniya i prognozirovaniya //Doklady RAN. 2013, T.450, №1. S.24-27.
11. Shibzukhov Z.M. Correct Aggregation Operations with Algorithms // Pattern Recognition and Image Analysis. 2014, Vol. 24, No. 3, pp. 377–382.
12. Shibzukhov Z.M. O nekotorykh konstruktivnykh i korrektnykh klassakh algebraicheskikh sigma-pi algoritmov // Doklady RAN, 2010. T. 432, №4. S. 465-468.
13. Timofeev A.V., Pshibikhov V.Kh. Algoritmy obucheniya i minimizatsii slozhnosti polinomial'nykh raspoznayushchikh sistem // Izvestiya AN SSSR. Tekhnicheskaya kibernetika. 1974. № 7. S. 214-217.
14. Timofeev A.V., Lyutikova L.A. Razvitie i primenenie mnogoznachnykh logik i setevykh potokov v intellektual'nykh sistemakh // Trudy SPII RAN. Vyp. 2, 2005. S. 114-126.
15. Lyutikova L. A., Shmatova E. V. Analiz i sintez algoritmov raspoznavaniya obrazov s ispol'zovaniem peremenno-znachnoi logiki // "Informatsionnye tekhnologii". Tom 22. №4. 2016. S. 292—297.
16. Lyutikova L.A. Ispol'zovanie matematicheskoi logiki s peremennoi znachnost' pri modelirovanii sistem znanii // Vestnik Samarskogo gosudarstvennogo universiteta. Estestvennonauchnaya seriya. №6(65). 2008. S. 20-27.