Исследование результатов работы программы-эмулятора ИНС

Автор: Пользователь скрыл имя, 17 Апреля 2013 в 18:30, курсовая работа

Описание работы

Искусственные нейронные сети (НС) – набор математических и алгоритмических методов для решения широкого круга задач. Они превосходят последовательные машины в решении тех же задач, в которых машину превосходит человек. К задачам, успешно решаемым НС на данном этапе их развития, относятся [1]:
Распознавание зрительных и слуховых образов: от распознавания текста до систем голосового управления.
Ассоциативный поиск информации и создание ассоциативных моделей: синтез речи, формирование естественного языка.
Формирование моделей различных нелинейных и трудно описываемых математически систем, а также прогнозирование развития этих систем во времени: прогнозирование развития различных природных процессов, изменений курсов валют, курсов акций и других финансовых показателей.

Содержание

Введение 7
Постановка задачи 9
1. Системный анализ методов распознавания образов и построения генераторов псевдослучайных величин. 10
1.1. Анализ методов распознавания графических образов 10
1.1.1 Статистические методы распознавания 10
1.1.2 Структурные (лингвистические) методы распознавания 12
1.1.3 Нейросетевые методы распознавания 15
1.1.4 Вывод по результатам анализа рассмотренных методов 18
1.2. Процедура искажения изображений 20
1.3.1 Преобразование Бокса – Мюллера. 20
1.3. Выводы 22
2. Реализация эмулятора нейронной сети Хемминга, решающей задачи распознавания зашумлённых образов. 23
2.1. Выбор структуры ИНС 25
2.2. Программная реализация ИНС 27
2.2.1. Интерфейс пользователя программы-эмулятора ИНС 31
2.3. Выводы 33
3. Исследование результатов работы программы-эмулятора ИНС 34
3.1 Выводы 36
Заключение 37
Библиографический список 38

Работа содержит 1 файл

нейросети.docx

— 397.07 Кб (Скачать)

В случае бинарных отношений между примитивами  структурное описание сущности можно  представить в виде графа.

Однако отношение  между двумя примитивами само может рассматриваться как элементарный признак, входить в вектор признаков и учитываться в процедуре статистического принятия решения. Один из простейших подобных способов состоит в том, что для данного образа можно подсчитать количество заданных отношений между двумя признаками разных типов (например, заливка внизу горизонтального штриха). Затем целочисленное значение счетчика используется в качестве признака для распознавания образа.

Структурные методы полезны для распознавания  сложных образов, состоящих из многих образов более низкого уровня. Они также имеют преимущества при наличии нескольких объектов.

1)Деревья решений

В сложных  задачах распознавания образов, в которых требуется учитывать большое количество различных возможных признаков, полное сравнение неизвестного вектора признаков со многими векторами признаков эталонных образцов может занимать слишком много времени. Иногда это недопустимо, например, в случае медицинской диагностики, когда измерение признаков часто требует дорогих и, возможно, болезненных лабораторных анализов. Использование дерева решений позволяет чередовать этапы выделения признаков и классификации. Дерево решений — это компактная структура, использующая один признак (или несколько) в каждый момент времени для разбиения пространства поиска всех возможных образов. Простая процедура принятия решения представляет собой поток управления для реализации дерева решения согласно рисунку 2. Узлы этого дерева представляют различные составляющие вектора признаков. Каждый узел с ветвями имеет по одному дочернему узлу на каждое возможное значение своего признака. Процедура принятия решения предполагает выбор дочернего узла на основе значения заданного признака в неизвестном векторе признаков. Дочерний узел может указывать на проверку другого признака или может оказаться листовым узлом, содержащим результат классификации, соответствующий пройденному пути на дереве решений.

Рисунок 2. Дерево решений.

 

Бинарное  дерево решений — это структура  данных в виде бинарного дерева, с каждым узлом которого связана  функция выбора решения. Функция  выбора решения применяется к  неизвестному вектору признаков  и определяет, какой дочерний узел текущего узла следует обрабатывать далее — левый или правый.

В простейшем случае, когда значения признаков  являются числами, функция выбора решения в узле просто сравнивает значение конкретного признака неизвестного вектора признаков с порогом и выбирает левый дочерний узел, если это значение признака меньше порога, или правый дочерний узел в противном случае. При этом в каждом ветвящемся узле дерева надо хранить только тип учитываемого признака и пороговое значение. В каждом листовом узле хранится метка класса образов. Если процедура обхода дерева решения достигает листового узла, то неизвестный вектор признаков классифицируется как элемент соответствующего класса образов.

Для любого данного множества эталонных  образцов может существовать более одного классифицирующего дерева решений. Поэтому важно выбрать признаки, которые дают наилучшее, согласно некоторому критерию, дерево решений. Обычно предпочтительнее дерево, которое является наиболее простым или с наименьшим количеством уровней, т. е. с меньшим количеством выполняемых проверок[3].

1.1.2.2 Байесовский подход к принятию решений

 

Байесовский классификатор на основе наблюдаемых признаков относит объект к классу, к которому этот объект принадлежит с наибольшей вероятностью.

Для вычисления вероятностей по данному измеренному  значению х необходимо знать следующие распределения.

Распределение условной вероятности р(х|wi) для каждого класса wi.  

Априорная вероятность Р(wi) для каждого класса wi .           

Распределение безусловной вероятности р(х). 

Если все  классы wi характеризуются собственными несовместными вероятностями, охватывающими все возможные случаи, то можно применить правило Байеса для вычисления апостериорных вероятностей каждого класса по априорным вероятностям этих классов и распределениям условной вероятности для х.

 

Для проектирования байесовского классификатора необходимы сведения об априорной вероятности  каждого класса Р(wi) и распределение условной вероятности класса р(х|wi). Знание этих характеристик позволяет принимать решения в процессе распознавания. Часто бывает трудно оценить эти априорные вероятности[3].

 

1.1.3 Нейросетевые методы распознавания

 

 

Нейроны живых  организмов благодаря своей способности  к обучению исследовались применительно к задачам машинного обучения. Введено множество моделей, различающихся вычислительной сложностью и сходством с реальным нейроном. Одна из важнейших — формальный нейрон, представленный на рисунке 3[5].

Искусственные нейронные сети – математические модели, построенные по принципу организации и функционирования биологических нейронных сетей – сетей нервных клеток живого организма [5]. Это понятие возникло при изучении процессов, протекающих в мозге, и при попытке смоделировать эти процессы. Модели искусственных НС могут быть программного и аппаратного исполнения. В дальнейшем речь пойдет о первом типе.

Каждый искусственный нейрон (см. рисунок 3) характеризуется своим текущим состоянием по аналогии с нервными клетками головного мозга, которые могут быть возбуждены или заторможены. Нейрон состоит из группы синапсов – однонаправленных входных связей, соединяющих входы нейрона с ядром, ядра нейрона, которое осуществляет обработку входных сигналов и аксона – выходной связи данного нейрона, с которой сигнал поступает на синапсы следующих нейронов. На вход нейрона поступает некоторое множество сигналов, обозначенных x1, x2,…, xn, каждый из которых является выходом другого нейрона. Каждый сигнал умножается на соответствующий вес w1, w2,…, wn,, аналогичный синаптической силе, и поступает на суммирующий блок, обозначенный S. Суммирующий блок, соответствующий телу биологического элемента, складывает взвешенные входы алгебраически, определяя уровень активации нейрона [5]. Хотя нейросетевые модели весьма разнообразны, в основе почти всех их лежит эта конфигурация.

Рисунок 3. Искусственный нейрон

 

Выход нейрона  является функцией его состояния, т.е. Y = F(S). Функция F(S) называется активационной, сжимающей функцией или функцией возбуждения нейрона. Активационная функция F(S) определяет зависимость сигнала на выходе нейрона от взвешенной суммы сигналов на его входах и ограничивает амплитуду выходного сигнала нейрона.

Хотя формальный нейрон является лишь приближением к  биологической модели, он приобрел большую важность в качестве модели для вычислений. Сети из подобных формальных нейронов, называемые искусственными нейронными сетями, были успешно применены во многих задачах распознавания образов, особенно благодаря своей способности к обучению. Нейронные сети допускают реализацию в форме параллельных алгоритмов.

Нейронные сети являются перспективной альтернативой  традиционным методам решения задач  распознавания образов.

Выбор структуры  НС осуществляется в соответствии с  особенностями и сложностью задачи. Для решения отдельных типов  задач уже существуют конфигурации, описанные в [6]. Если же задача не может быть сведена ни к одному из известных типов, приходится решать  проблему синтеза новой конфигурации. Рекомендовано в задачах распознавания использовать такие типы ИНС, как многослойные персептроны. Рекомендации по структуре НС  общеизвестны [5].

Различные алгоритмы  обучения НС подробно описаны в литературе [1,2,5,6].

 

 

 

 

 

1.1.3.1 Преимущества нейронных сетей

 

1)Решение задач при неизвестных закономерностях

Используя способность обучения на множестве  примеров, нейронная сеть способна решать задачи, в которых неизвестны закономерности развития ситуации и зависимости между входными и выходными данными. Традиционные математические методы и экспертные системы в таких случаях неприменимы.

2)Устойчивость к шумам во входных данных

Возможность работы при наличии большого числа  неинформативных, шумовых входных  сигналов. Нет необходимости делать их предварительный отсев, нейронная  сеть сама определит их малопригодность для решения задачи и отбросит их.

3)Адаптация к изменениям окружающей среды

Нейронные сети обладают способностью адаптироваться к изменениям окружающей среды. В  частности, нейронные сети, обученные  действовать в определенной среде, могут быть легко переучены для  работы в условиях незначительных колебаний  параметров среды. Более того, для  работы в нестационарной среде (где  статистика изменяется с течением времени) могут быть созданы нейронные  сети, переучивающиеся в реальном времени. Чем выше адаптивные способности  системы, тем более устойчивой будет  ее работа в нестационарной среде. При  этом следует заметить, что адаптивность не всегда ведет к устойчивости; иногда она приводит к совершенно противоположному результату. Например, адаптивная система с параметрами, быстро изменяющимися во времени, может  также быстро реагировать и на посторонние возбуждения, что вызовет  потерю производительности. Для того чтобы использовать все достоинства  адаптивности, основные параметры системы  должны быть достаточно стабильными, чтобы  можно было не учитывать внешние  помехи, и достаточно гибкими, чтобы  обеспечить реакцию на существенные изменения среды.

4)Потенциальное сверхвысокое быстродействие

Нейронные сети обладают потенциальным сверхвысоким быстродействием за счет использования  массового параллелизма обработки  информации;

5) Отказоустойчивость при аппаратной реализации нейронной сети

Нейронные сети потенциально отказоустойчивы. Это  значит, что при неблагоприятных  условиях их производительность падает незначительно. Например, если поврежден  какой-то нейрон или его связи, извлечение запомненной информации затрудняется. Однако, принимая в расчет распределенный характер хранения информации в нейронной  сети, можно утверждать, что только серьезные повреждения структуры  нейронной сети существенно повлияют на ее работоспособность. Поэтому снижение качества работы нейронной сети происходит медленно.

1.1.4 Вывод по результатам анализа рассмотренных методов

 

Использование статистических методов классификации в распознавании образов возможно, когда для распознавания данных достаточно простых численных и символических признаков для описания объекта, таких как  площадь символа, высота и ширина описывающего прямоугольника, чтобы установить меры сходства образов.

Критерий  разбиения на классы объекты может  либо воспроизводить некоторые эвристические соображения, либо основываться на минимизации (или максимизации) заданного показателя качества.

При эвристическом  подходе решающую роль играют интуиция и опыт. Он предусматривает задание набора правил, которые обеспечивают использование выбранной меры сходства для отнесения образов к одному из классов. Евклидово расстояние хорошо приспособлено для подобного подхода, что связано с естественностью его интерпретации как меры близости.

Методы структурного анализы применимы в тех задачах, в которых важна информация, описывающая структуру каждого объекта, а от процедуры распознавания требуется, чтобы она давала возможность не только отнести объект к определенному классу (классифицировать его), но и описать те стороны объекта, которые исключают его отнесение к другому классу. Типичным примером таких задач служит распознавание изображений. В случае, когда объекты сложны и число требуемых признаков часто велико, описание сложного объекта в виде иерархической  структуры  более простых подобразов становится обоснованным.

Одно из преимуществ  ИНС это то, что все элементы могут функционировать параллельно, тем самым существенно повышая  эффективность решения задачи, особенно в обработке изображений. ИНС  предоставляют мощные гибкие и универсальные  механизмы обучения, что является их главным преимуществом перед  другими методами, указанными выше. Обучение избавляет от необходимости  выбирать ключевые признаки, их значимость и отношения между признаками. Но, тем не менее, выбор исходного  представления входных данных существенно влияет на качество решения. НС обладают хорошей обобщающей способностью, то есть могут успешно распространять опыт, полученный на конечном обучающем наборе, на множество образов.

Нейронные сети могут быть обучены сложной структуре  образов с меньшими затратами  памяти, чем требуется для классификации структурными методами. Обучение избавляет от необходимости выбирать ключевые признаки и отношения между признаками. Параллельность работы нейронов обеспечивает быстрое и качественное распознавание образов.

Благодаря хорошей  обобщающей способности ИНС могут  успешно распознавать образы, не предъявляемые  в обучении, а также быть устойчивыми  к шуму во входных данных.

Анализ методов  распознавания и указанные в  литературе многочисленные случаи успешного  использования ИНС, а также перспективность  их развития привели к выбору нейросетевого метода распознавания ошибок.

Исходя из полученных выводов, в данной работе была использована нейронная сеть для  распознавания графических образов.

 

 

    1. Процедура искажения изображений

 

 

Искажение изображений  осуществляется с использованием двух из трех разработанных генераторов  ПСВ по выбору пользователя. Причем один из генераторов формирует степень  искажения изображения, а второй – координаты искажаемых пикселей изображения.

Всего возможны 2 выбора генераторов:

  1. Для равномерного распределения. Для каждого пикселя генерируется число k, причём . Если k<a, где – это число отражает насколько будет зашумлён образ.
  2. Для остальных способов генерации. Происходит последовательная случайная генерация номеров пикселей от 0 до 9999. Номер столбца в которой находится искажаемый пиксель определяется двумя старшими разрядами числа, а номер строки, младшими разрядами.

 Например:

Если сгенерировано число  4237, то номер пикселя будет (42,37).

Если сгенерировано  число  5789, то номер пикселя будет (57,89).

В памяти эмулятора  хранятся номера всех искажённых разрядов, если новый номер совпадает с  номером уже искажённого пикселя, то происходит повторная генерация  числа на текущем шаге.  

Генерация случайной  величины с нормальным законом распределения  происходит при помощи преобразования Бокса-Мюллера.

 

 

1.3.1 Преобразование Бокса – Мюллера.

 

Нормальное распределение, также  называемое гауссовым распределением или распределением Гаусса — распределение  вероятностей, которое задается функцией плотности распределения:

 

где  μ — среднее значение (математическое ожидание) случайной величины;

Информация о работе Исследование результатов работы программы-эмулятора ИНС