Нечеткие нейронные сети

Автор: Пользователь скрыл имя, 26 Февраля 2012 в 17:49, реферат

Описание работы

Сети данного типа получили свое название в силу того, что для аппроксимации зависимости выходного сигнала от входного вектора X=[x1, x2, ..., xN, ]T в них используются выражения, заимствованные из нечетких систем (в частности, из систем Мамдани-Заде и Такаги-Сугено-Канга).

Содержание

Введение.
1.Сеть Такаги-Сугено-Канга.
2.Сеть Ванга-Менделя.
3.Гибридный алгоритм обучения.
4.Нечеткие сети с самоорганизацией.
5.Алгоритм нечеткой самоорганизации C-means.
6.Алгоритм пикового группирования.
7.Алгоритм разностного группирования.
8.Заключение.
Список литературы.

Работа содержит 1 файл

Нечеткие нейронные сети.docx

— 67.05 Кб (Скачать)

mnew(Vl)=m(Vl)-m(C1)*exp(-(|Vl-C1|2*b/(2*s2))),

где m(C1) - значение пиковой функции в центре C1.

Процесс последовательного  отыскания центров C1, C2, C3, ... завершается после обнаружения центра CM.

Основной недостаток алгоритма  пикового группирования - экспоненциальный рост сложности с увеличением  размерности векторов входных данных Xk. Следовательно, он применим лишь при при небольшом количестве входных сигналов N. Представленный далее алгоритм также имеет экспоненциальный рост сложности, но это рост в зависимости от количества обучающих выборокp.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

7.Алгоритм разностного группирования

В этом алгоритме в качестве потенциальных центров рассматриваются  обучающие векторы Xk, k=1, 2, ..., p. Пиковая функция m(Xi) определяется в следующем виде

m(Xi)=sum[k=1:p](exp(-(|Xk-Xi|2*b/(r1/2)2))),

где значение коэффициента rопределяет размер сферы соседства. При большой плотности входных векторов вокруг Xзначение функции велико, и, напротив, малое значение m(Xi)свидетельствует о незначительном количестве соседей.

После расчета значений m(Xi) для всех входных векторов в качестве первого центра Cпринимается Xс наибольшим значением пиковой функции.

Для отыскания второго  центра используется модифицированная пиковая функция в виде

mnew(Xi)=m(Xi)-m(C1)*exp(-(|Xi-C1|22*b/(r2/2)2)),

где rзадает новый размер сферы соседства, обычно r2>=r1.

Пиковая функция mnew(Xi) принимает нулевое значение для Xi=C1.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

8.Заключение. 

Основным достоинством применения нейронных сетей является возможность  решать различные неформализованные  задачи. При этом можно очень просто моделировать различные ситуации, подавая  на вход сети различные данные и  оценивая выдаваемый сетью результат.

В ходе применения нейронных сетей  отмечен существенный недостаток: сложность  понимания процесса получения сетью  результата. Первым шагом к устранению данной проблемы является разработка новой технологии, которая позволяет  генерировать описание процесса решения  задачи нейронной сетью. Используя  таблицу экспериментальных данных, описывающих предметную область, можно  будет получить явный алгоритм решения  поставленной задачи.

Список литературы

  1. Андрейчиков А.В., Андрейчикова О.Н. Интеллектуальные информационные системы. - М: Финансы и статистика, 2004.
  2. Рутковская Д., Рутковский Л. Нейронные сети, генетические алгоритмы и нечеткие системы: Пер. с. польск. И. Д. Рудинского. – М.: Горячая линия – Телеком, 2004.- 452 с.
  3. Круглов В.В., Дли М.И., Голунов Р.Ю. Нечеткая логика и искусственные нейронные сети. 1999.

 


Информация о работе Нечеткие нейронные сети