Автор: Пользователь скрыл имя, 10 Марта 2012 в 14:00, курсовая работа
Эта курсовая работа посвящена важному классу нейронных сетей — многослойным сетям прямого распространения. Обычно сеть состоит из множества сенсорных элементов (входных узлов или узлов источника), которые образуют входной слой; одного или нескольких скрытых слоев(hiddenlayer) вычислительных нейронов и одного выходного слоя(outputlayer) нейронов
Введение………………………………………………………………….…..3
Глава 1. Класс нейронных сетей многослойный персептрон……………....5
1.1.Многослойный персептрон…………………………………...5
1.2. Обучение многослойного персептрона …..6
Глава 2.Алгоритмы обучения………………..12
2.1. Улучшение работы алгоритма обратного распространения……12
2.2.Особенности архитектуры многослойный персептрон....................20
Заключение...........................................................................................................23
Особенности архитектуры многослойного персептрона зависят от области его применения. Однако хотелось бы подчеркнуть две особенности.
… При распознавании образов, содержащих нелинейные объекты, все нейроны сети являются нелинейными. Эта нелинейность достигается за счет использования сигмоидальных функций, двумя самыми распространенными формами которых являются несимметричная логистическая функция и антисимметричная функция гиперболического тангенса. Каждый из нейронов отвечает за создание гиперплоскости в пространстве решений. В процессе обучения с учителем комбинация гиперплоскостей, сформированных всеми нейронами сети, итеративно трансформируется для разделения примеров, преднамеренно взятых из разных классов, а также ранее не встречавшихся, с наименьшей средней ошибкой классификации. В задачах распознавания образов при обучении наиболее широко используется алгоритм обратного распространения, особенно если размерность таких задач велика (например, при оптическом распознавании символов — OCR).
В задачах нелинейной регрессии диапазон выходных значений (outputrange) многослойного персептрона должен быть большим, чтобы вместить все данные процесса.
Если эта информация недоступна, использование в выходном слое линейных нейронов будет самым правильным решением. Относительно алгоритмов обучения можно предложить следующие наблюдения.
• Последовательный (стохастический) режим обучения на основе обратного распространения является более медленным, чем пакетный.
• Пакетный режим обучения методом обратного распространения является более медленным, чем метод сопряженных градиентов. При этом следует заметить, что последний метод используется только в пакетном режиме.
Завершим обсуждение несколькими замечаниями относительно меры эффективности (performancemeasure). Модификации алгоритма обратного распространения, представленные в настоящей главе, основаны на минимизации функции стоимости , определенной как сумма квадратов ошибок, усредненная по всему множеств)'примеров обучения. Важной чертой этого критерия является его общность и математическая трактовка. Однако во многих ситуациях, которые встречаются на практике,
минимизация функции стоимости соответствует оптимизации некоторой средней величины, которая не обязательно присутствует в системе и, таким образом, может достичь только своего субоптимального значения. Например, в финансово-торговых системах единственной целью инвестора (равно как и маклера) является максимизация ожидаемой прибыли (expectedreturn) при минимальном риске. Для этих задач в качестве меры производительности интуитивно больше подойдет отношение прибыли к изменчивости, чем среднеквадратическая ошибка .
Заключение
Многослойные персептроны, как тип нейронных сетей, таит большой потенциал, о чем свидетельствует не только все возрастающее из года в год число публикаций по их применению для решения разнообразных задач, но и возникающие архитектуры нейронный сетей( такие как ассоциативные нейронные сети), включающие многослойные персептроны в качестве составных элементов.
Одна из причин популярности многослойных персептронов кроется в их универсальности. Хотя персептроны, в рамках проекта создания искусственного интеллекта, первоначально предназначались для моделирования человеческого зрения, они оказались очень хорошо приспособлены и для проведения исследований соотношение «структура-свойство» для органических соединений. В зависимости от типа свойства они могут решать задачи как классификации (при дискретном наборе значений моделируемого свойства), так и регрессии(при непрерывных значениях моделируемого свойства).
Другая причина популярности персептронов в прикладных исследованиях заключаются в их наглядности и отсутствия необходимости в глубоком знании математической статистики для их эффективного использования.
Списокиспользованнойлитературы
1. Батыршин, И. З. Основные операции многослойный персептрона и их обобщения [Текст] / И. З. Батыршин. – Казань: Отечество, 2001. – 100 с.
2. Заенцев, И. В. Нейронные сети: основные модели [Текст] / И. В. Заенцев. – Воронеж: ВГУ, 2003. – 76 с.
3. Кофман, А. Введение в теорию нейронных сетей [Текст] / А. Кофман / пер. с франц. – М.: Радио и связь, 2000. – 432 с.
4. Медведев, В. С. Нейронные сети. MATLAB 6 [Текст] / В. С. Медведев, В. Г. Потемкин. - М: ДИАЛОГ - МИФИ, 2002. - 496 с.
5. Рутковская, Д. Нейронные сети [Текст] / Д. Рутковская / пер. с польск. И. Д. Рудинского. – М.: Горячая линия – Телеком, 2006. – 452 с.
6. Хайкин, С. Нейронные сети [Текст] / С. Хайкин / пер. с англ. – М.: Издательский дом «Вильямс», 2006. – 1104 с.
7. Ярушкина, Н. Г. Основы теории многослойного персептрона [Текст] / Н. Г. Ярушкина. – М.: Финансы и статистика, 2004. – 320 с.
8. Яхъяева, Г. Э. Многослойный персептрон и нейронные сети [Текст] / Г. Э. Яхъяева. – М.: Интернет – Университет Информационных Технологий: БИНОМ, 2006. – 316 с.