Математические методы в принятии решений

Автор: Пользователь скрыл имя, 20 Марта 2012 в 11:41, контрольная работа

Описание работы

Но натурный эксперимент в экономике осуществить очень трудно, ведь любая экономическая деятельность связана с людьми, а пробовать на людях разные варианты управления, проверять их последствия опасно. Вдобавок люди ведут себя в условиях эксперимента не так, как в реальной действительности. К тому же экономические эксперименты в натуре весьма дорогостоящи и продолжительны, в большинстве случаев субъект управления не имеет возможности затягивать принятие решений, ожидая пока они будут опробованы посредством эксперимента.

Содержание

РОЛЬ ЭКОНОМИКО-МАТЕМАТИЧЕСКИХ МЕТОДОВ И МОДЕЛЕЙ В УПРАВЛЕНИИ ЭКОНОМИЧЕСКИМИ ОБЪЕКТАМИ И ПРОЦЕССАМИ 3
1.ВВЕДЕНИЕ В ТЕОРИЮ ПРИНЯТИЯ РЕШЕНИЙ 3
1.1 Краткая историческая справка 3
1.2 Этапы принятия решений 5
1.3 Общие подходы и рациональные процедуры принятия решений 6
1.4 Математическая постановка задачи принятия решения 8
2. КЛАССИЧЕСКИЕ МЕТОДЫ РЕШЕНИЯ ЭКСТРЕМАЛЬНЫХ ЗАДАЧ ПРИНЯТИЯ РЕШЕНИЙ 10
2.1 Экстремум функции одной переменной 10
2.2 Метод неопределенных множителей Лагранжа 12
2.3 Особенности реальных задач 14
3.НЕЛИНЕЙНОЕ ПРОГРАММИРОВАНИЕ 15
3.1 Области применения нелинейного программирования 15
3.2 Общая характеристика методов решения задач нелинейного программирования 16
3.3 Методы одномерной оптимизации 19
3.4 Методы многомерной оптимизации 23
4.ЛИНЕЙНОЕ ПРОГРАММИРОВАНИЕ 27
4.1 Краткий исторический очерк 28
4.2 Типичные задачи линейного программирования 28
4.3Постановка задачи линейного программирования 30
5.ДИНАМИЧЕСКОЕ ПРОГРАММИРОВАНИЕ 32
5.1 Основные понятия 32
5.2 Математическое описание. Функциональное уравнение Беллмана. 33
5.3 Общая процедура решения задач методом динамического программирования 35
5.4 Задачи, решаемые методом динамического программирования 40
6. ИГРОВЫЕ МЕТОДЫ В ТЕОРИИ ПРИНЯТИЯ РЕШЕНИЙ 43
6.1 Постановка задачи 44
6.2 Классификация игровых задач 47
7.ЭКОНОМИКО-МАТЕМАТИЧЕСКОЕ МОДЕЛИРОВАНИЕ 47
7.1 О некоторых особенностях применения экономико-математических моделей и компьютеров в управлении 50
7.1 Основные виды экономико-математических моделей, применяемые в управлении 56
СОВРЕМЕННЫЙ ЭТАП РАЗВИТИЯ ТЕОРИИ ПРИНЯТИЯ РЕШЕНИЙ 63
Литература 66

Работа содержит 1 файл

ТЕОРИЯ ПРИНЯТИЯ РЕШЕНИЙ.docx

— 1.03 Мб (Скачать)

Задачи нелинейного программирования часто возникают и в других отраслях науки. Так, например, в физике целевой функцией может быть потенциальная  энергия, а ограничениями – различные  уравнения движения. В общественных науках и психологии возникает задача минимизации социальной напряженности, когда поведение людей ограничено определенными законами.

Преобразование реальной задачи в задачу нелинейного программирования является в значительной степени  искусством, но это искусство направляется теорией.

3.2 Общая характеристика  методов решения задач нелинейного  программирования

 

Нередко методы нелинейного  программирования могут быть охарактеризованы как многошаговые методы или методы улучшения исходного решения. Разнообразие методов решения задач нелинейного  программирования объясняется стремлением  найти оптимальное решение за наименьшее число шагов, чтобы избежать необходимости многократного вычисления значений целевой функции.

В большинстве методов  нелинейного программирования используется идея движения в n-мерном пространстве в направлении оптимума. При этом из некоторого исходного или промежуточного состояния ui осуществляется переход в следующее состояние ui+1 изменением вектора ui на величину Δ ui , называемую шагом.

ui+1 = ui + Δui.     (3.1)

При поиске минимума целевой  функции Q (u) для удачно выбранного шага должно выполняться условие Q (ui+1) < Q (ui), в противном случае переход в состояние ui+1 нецелесообразен.

В значительной части методов  шаг определяется как некоторая  функция состояния ui: Δui = Δui(ui), и, следовательно, новое состояние можно рассматривать как функцию исходного состояния ui+1 = ui + Δui (ui).

В этом смысле шаговые методы поиска оптимума называются итеративными.

Методы нелинейного программирования в зависимости от способа задания  шага Δuι подразделяются на три основных класса: 1) градиентные методы; 2) безградиентные методы; 3) методы случайного поиска. Некоторые методы организуются как комбинированные алгоритмы, использующие достоинства методов различных классов. Кроме того различают методы одномерной оптимизации (u-скаляр) и многомерной оптимизации (u-вектор).

Задача нелинейного программирования в общем случае рассматривается  в n-мерном пространстве, где наглядное графическое изображение отсутствует, в связи с этим используется следующий прием графического представления.

Если целевая функция Q (u) непрерывна в области U, то вокруг точки uопт всегда можно провести в данной плоскости замкнутую линию, вдоль которой значение Q (u) постоянно (рис. 3.1, а). Эти замкнутые линии называются линиями равного уровня функции Q (u) и отвечают различным значениям Q (u) = qι . Вокруг точки uопт можно провести сколько угодно линий уровня, причем каждая из них будет целиком охватывает любую линию, для которой значение целевой функции Q (u) меньше (или больше).

При наличии связи ϕ (u) = 0, что в n-мерном пространстве определяет (n – 1)-мерную поверхность, пересечение которой с рассматриваемой поверхностью определяет область (рис. 3.1, б), в которой и ищется оптимальное решение.

Ограничения типа неравенств независимо от их числа наглядно представлены на рис. 3.1, в. Здесь заходить в заштрихованную область нельзя.

Особенностями целевой функции  являются седловые точки, так называемые "овраги" и многоэкстремность. В седловых точках функция Q (u) по одному или нескольким направлениям имеет минимум, в то время как по остальным – максимум. При наличии оврагов вдоль определенных направлений величина функции Q (u) изменяется очень слабо. Целевая функция может иметь не один, а несколько оптимумов. Оптимум называется глобальным, если для него справедливо условие Q (uопт) ≤ Q (u), u ∈ U, которое выполняется для любых допустимых значений u. Если существуют другие оптимумы, то они называются локальными, и соотношения типа Q(uопт ) ≤Q(u) выполняется только в окрестностях точек uопт. Для отыскания глобального оптимума необходимо найти и проверить, вообще говоря, все без исключения локальные оптимумы, имеющейся целевой функции.

Среди методов, применяемых  для решения задач нелинейного  программирования значительное место  занимают методы поиска решения, основанные на анализе производных оптимизируемой функции.

Эта функция должна быть непрерывно дифференцируемой. Для этого  вводится понятие производной по направлению l

где u, u* – точки, расположенные на прямой l. Эта производная (3.2) характеризует скорость изменения функции Q (u) в точке и в направлении l, она может быть выражена через производные по координатам, число которых конечно и равно размерности n. Согласно правилу дифференцирования сложных функций, можно записать

Рассмотрим расчет ∂uι / ∂l в пространстве двух переменных (рис. 3.2).

Из прямоугольного треугольника АВС можно записать Таким образом, величины ∂uι / dl есть не что иное, как направляющие косинусы выбранного направления l по отношению к осям координат. Следовательно, (3.3) можно переписать следующим образом

Если теперь рассмотреть  поверхность равного уровня, которая  имеет (n – 1) независимых переменных, то в каждой точке этой поверхности, называемой гиперповерхностью, можно провести (n – 1) взаимно перпендикулярных касательных в соответствии с числом измерений этой поверхности. Кроме того, в этой же точке можно провести ось, перпендикулярную всем касательным и, следовательно, направленную по нормали к поверхности. Подобное построение для случая (n = 3) изображено на рис. 3.3.

Рис. 3.3 Система  координат, связанная с произвольной точкой поверхности постоянного  уровня

Касательные и нормаль  могут рассматриваться как система  координат с началом в выбранной  точке поверхности. Данная система  координат обладает тем важным свойством, что частные производные от функции Q (u) по направлениям осей равны нулю, так как вдоль этих направлений функция Q (u) сохраняет постоянное значение. В соответствии со сказанным производная по произвольному направлению l запишется как

что следует из (3.4), где  производные по всем осям, за исключением  нормали, оказываются равными нулю.

Максимальное значение cos α по абсолютной величине не превышает  единицы, аргумент при этом равен  нулю, следовательно, направление, по которому производная ∂Q / ∂l имеет максимальное значение, совпадает с направлением нормали к поверхности постоянного уровня функции Q (u). Если теперь по направлению нормали отложить вектор длиной равной |δQ/δu|,  то полученный вектор называется градиентом скалярной функции Q (u) в точке u и обозначается ∇Q (u) (читается "набла ку") или ( gradQ(u) ).

Формулу (3.5) можно записать как 

где ∇l Q (u) – проекция градиента функции Q (u) по направлению l. Отсюда следует, что проекции вектора градиента на оси координат равны производным функции Q (u) по соответствующим переменным, т.е.

Основным свойствам градиента  целевой функции является то, что  вектор градиента по направлению  совпадает с направлением наискорейшего  возрастания этой функции. Именно это  свойство обусловило применение градиентных  методов при решении задач  нелинейного программирования.

3.3 Методы одномерной оптимизации

 

Задача поиска экстремума функции одной переменной возникает  при оптимизации целевой функции, зависящей от одной скалярной  переменной. Такие задачи входят составной  частью во многие итерационные методы решения задач многомерной оптимизации.

Например, численные методы поиска экстремума имеют особенность  в том, что их применение не позволяет  определить точное значение координат, при котором достигается экстремум функции. В этом случае определяют интервал неопределенности, в котором локализуется экстремум функции.

Величина этого интервала  – Δ, определяется исходя из требований точности результата решения при  постановке задачи (быстродействие, точность и пр.). Таким образом, численное  решение задачи поиска экстремума функции  сводится к уменьшению интервала  неопределенности от исходного до Δ.

 

      1. Метод прямого сканирования

 

Задача заключается в  локализации экстремума функции  одной переменной, заданной на интервале [a, b] с точностью до Δ. При решении этой задачи весь интервал разбивается на участки величиной Δ. В узлах разбиения вычисляются значения функции Q и из них выбирается экстремальное. Этот метод требует больших затрат времени (зависящего от значения Δ), но главное его преимущество – это определение глобального экстремума. Блок-схема алгоритма поиска Q (x) представлена на рис. 3.4, б.

Естественным и наиболее распространенным на практике методом  поиска экстремума функции одной  переменной является метод последовательного  деления отрезка пополам. Этот метод  был известен еще в древней  Греции как метод дихотомии.

Пусть требуется определить экстремум унимодальной функции Q (u) на отрезке [a, b] с точностью Δ. Отрезок [a, b] делится пополам и вычисляются значения функции Q (x1) = F1 и Q (x2) = F2 в точках

На основе анализа значений F1 и F2 вдвое уменьшается интервал неопределенности и процесс повторяется пока b – a > Δ. Блок-схема этого метода приведена на рис. 3.5, б.

 

3.3.2 Метод "золотого сечения"

Гораздо эффективнее, с точки  зрения уменьшения затрат на вычисления, метод "золотого сечения": интервал неопределенности делится не пополам, как в методе дихотомии, а в  определенном иррациональном соотношении  τ=ac/cb=cb/ab.

Это соотношение выполняется  при 

Метод заключается в том, что по заданным a и b как можно точнее определяется значение внутренней точки x1 (см. рис. 3.6, б) по формуле

x1 = b – (b – a) / 1,618033989…     (3.6)

Точка x2 определяется как точка, симметричная точке x1 на отрезке (a – b).

На основе анализа значений F1 = Q (x1) и F2 = Q (x2) интервал неопределенности сокращается путем отбрасывания из рассмотрения отрезка в котором экстремум исключен, исходя из условий унимодальности Q (u). Далее мы определим симметричную точку внутри новых границ, вычисляем значение Q в этой точке, проводим анализ и т.д. до тех пор, пока разность между симметричными точками внутри интервала неопределенности больше Δ. Блок-схема алгоритма метода "золотого сечения" представлена на рис. 3.7.

Рис. 3.7 Блок-схема  метода "золотого сечения"

 

3.3.3 Метод Фибоначчи

Метод, использующий числа  Фибоначчи, позволяет наиболее эффективно достичь заданной точности в поиске экстремума функции Q (u). Числа Фибоначчи определяются соотношением F0 = F1 = 1; Fk = Fk–1 + Fk–2; k = 2, 3, …

При большом "k" отношение соседних чисел Фибоначчи близко к отношению "золотого сечения".

Этот метод делит интервал неопределенности не в постоянном соотношении, а в переменном и предполагает некоторое, вполне определенное, зависящее  от Δ, число вычислений значений функции Q (u).

По заданному Δ определяется количество вычислений n и соответствующее ему число Фибоначчи Fn, исходя из соотношения

В остальном схема метода близка к методу "золотого сечения" в котором значение x1 и x2 (см. рис.3.8) определяются отношением соответствующих чисел Фибоначчи.

3.4 Методы многомерной оптимизации

 

В настоящее время разработано  огромное число методов многомерной  оптимизации, охватывающие почти все  возможные случаи. Здесь рассматривается  лишь несколько основных, считающихся  классическими, методов поиска экстремума функции многих переменных.

Смысл всех методов нахождения безусловного экстремума функции нескольких переменных заключается в том, что  по определенному правилу выбирается последовательность значений {uι} вектора u такая, что Q (ul+1) ≤ (≥) Q (ul). Так как целевая функция предполагается ограниченной, то такая последовательность ее значений стремится к пределу.

В зависимости от принятого  алгоритма и выбора начальной  точки этим пределом может быть локальный  или глобальный экстремум функции Q (u).

 

3.4.1 Метод Гаусса-Зайделя

Метод заключается в последовательном определении экстремума функции  одной переменной с точностью  до ε вдоль каждой координаты, т.е. фиксируются все координаты, кроме  одной, по которой и осуществляется поиск экстремума Q. Потом та же процедура осуществляется при фиксации следующей координаты.

После рассмотрения всех n координат выполняется возврат к первой и вновь производится поиск локального экстремума вдоль каждой из n координат до тех пор, пока экстремум не будет локализован с заданной точностью (см. рис. 3.9).

 

3.4.2 Метод градиента

Информация о работе Математические методы в принятии решений