Принятие решений в условиях неопределенности

Автор: Пользователь скрыл имя, 22 Декабря 2012 в 20:48, курсовая работа

Описание работы

В курсовой работе рассматривается элементарная теория принятия решений (ТПР) в условиях неопределенности и риска. Предполагается, что человек находится как бы в состоянии игры с природой. А так как природа не может быть сознательным противником, то критерий минимального гарантированного результата (критерий максимина) в ТПР не может иметь большого значения в отличие от теории игр. Этот критерий в игре с природой слишком пессимистичен.

Работа содержит 1 файл

TPRkurs.doc

— 605.00 Кб (Скачать)

 

  1. Принятие решений в условиях риска

Самый простой случай неопределенности — т.н. «доброкачественная» или стохастическая неопределенность, когда состояния природы имеют какие-то вероятности. Тогда естественно выбрать ту стратегию, для которой среднее значение выигрыша, взятое по строке, максимально.

 

Ситуация ПР в условиях риска  возникает в случаях, когда известны априорные вероятности состояний природы

р(Q1), р(Q2), … , р(Qn),

.                       (5)

 

Естественно воспользоваться этой дополнительной информацией. С этой целью для каждой операции аi находят взвешенные суммы полезностей

  i=1,2, …, m ,                          (6)

и выбирают в качестве наилучшей  ту операцию , для которой взвешенная сумма полезностей в (6) максимальна,

 

 

Любопытно отметить, что та же стратегия, которая обращает в максимум средний выигрыш, обращает в минимум в средний риск. Так что в случае стохастической неопределенности оба подхода («от выигрыша» и «от риска») дают одно В то же оптимальное решение.

 

Пусть в рассмотренном выше примере  р(Q1)=0.25, р(Q2)=0.75. По данным табл. 3 имеем

 

= 1×0.25 + 11×0.75 = 8.5,

= 10×0.25 + 6×0.75 = 7.0,

= 0×0.25 + 14×0.75 = 10.5,

   max (8.5; 7.0; 10.5) = 10.5.

 

 

Следовательно, наилучшей операцией  является операция а3, если р(Q1)=0.25, р(Q2)=0.75. Но при других значениях априорных вероятностей состояний природы возможен  и другой выбор. Используя данные табл.3 и формулу (6) для каждой операции аi, i = 1,2,3, имеем

 

= р +11(1 – p) = 11 – 10p,

= 10p +6(1 – p) = 6 + 4p,

= 14(1 – p) = 14 – 14p.

 

 

На рис.1 даны графики функций  , i = 1, 2,

Прямые  ,   пересекаются в точке В, при , вычисленного из равенства 6 + 4р = 14 – 14р. Из рис. 1 следует, что при   лучшей операцией является   а3, а при   лучшей операцией является   а2. При    безразлично, какую операцию а2 или а3 использовать. Операцию а1 применять невыгодно.

Если р=0 или 1, то имеем ситуацию ПР в условиях достоверности. При  р=0 лучшая операция – а3, при р=1 лучшая операция – а2.

 

3. Принятие решений при проведении эксперимента

Допустим, что вероятности р(Q1), р(Q2), … , р(Qn) в принципе существуют, но вам неизвестны. Иногда в этом случае предполагают все состояния природы равновероятными (так называемый «принцип недостаточного основания» Лапласа), но вообще-то это делать не рекомендуется. Все-таки обычно более или менее ясно, какие состояния более, а какие - менее вероятны. Для того чтобы найти ориентировочные значения вероятностей р(Q1), р(Q2), … , р(Qn), можно, например, воспользоваться методом экспертных оценок. Хоть какие-то ориентировочные значения вероятностей состояния природы все же лучше, чем полная неизвестность. Неточные значения вероятностей состояний природы в дальнейшем могут быть «скорректированы» с помощью специально поставленного эксперимента. Эксперимент может быть как «идеальным», полностью выясняющим состояние природы, так и неидеальным, где, вероятности состояний уточняются по косвенным данным

 

3.1. Принятие решений в условиях неопределенности

Человек, прежде чем принять решение, пытается получить некоторую информацию о состоянии природы экспериментальным путем. Предполагается, что проведение эксперимента не требует никаких затрат,

Пусть проведен эксперимент, имеющий t исходов – возможных прогнозов  состояния природы,

Z=(z1, z2,…, zt),   

.

Известна условная вероятность  Р(zβ/Qj) b-го результата эксперимента при состоянии природы Qj,

Pbj= Р(zβ/Qj),   b=1,2,…,t,   j=1,2,…,n.                        (7)

Множество значений Pbj можно представить в виде матрицы размера t·n, данной в табл. 5.

Для использования информации, полученной в результате эксперимента, введем понятие стратегии.

Таблица 5 

       Qj

        Zb  

 

Q1

 

Q2

 

 

Qn

z1

P11

P12

P1n

z2

P21

P22

P2n

zt

Pt1

Pt2

Ptn


 

Стратегия -  это соответствие последовательности t результатов эксперимента последовательности t операций,

(z1, z2,…, zt)→ (ai, aj,…, ak).                        (8)

Выражение (8) подразумевает, что

z1→ ai,

,

z2→ aj,

,

……………………

zt→ ak,

.

 

Число возможных стратегий l определяется формулой

l = mt,

m – число операций, t -  число результатов эксперимента. При m=2, t=3 всевозможные стратегии представлены в табл.6.

 

  Таблица 6

        Si

zb

S1

S2

S3

S4

S5

S6

S7

S8

z1

a1

a1

a1

a1

а2

а2

а2

а2

z2

a1

a1

а2

а2

a1

a1

а2

а2

z3

a1

а2

a1

а2

a1

а2

a1

а2


 

Задача ПР формулируется так: какую  одну из операций   a1,a2,…, am  следует выбрать в зависимости от одного из результатов эксперимента   z1, z2,…, zt.

Для принятия решения находим усредненные  полезности   стратегий Si, i= 1,2, …,  l, при состояниях природы Qj, j=1, 2, …, n,

U(Si,Qj)= αi β j Pβ j , i= 1,2, …,  l,       j=1, 2, …, n,                 (9)

где αiβj - полезность β-ой компоненты i-ой стратегии при состоянии природы Qj, Pβj – условная вероятность β-го результата эксперимента при состоянии природы Qj.  Стратегия Si определена множеством операций, значения αi β j  берутся из таблицы полезностей значения Pβj   – из табл. 5. Полученные значения усредненных полезностей U(Si,Qj) можно записать в виде матрицы размера n·l. Для принятия решения – выбора наилучшей стратегии можно воспользоваться уже рассмотренными критериями: максимина, минимакса сожалений и равновозможных состояний.

       Рассмотрим конкретный  пример. Предполагается лишь два  состояния природы: Q - теплая погода, Q2 – холодная погода, и только две операции: a1 – одеться для теплой погоды, a2 – одеться для холодной погоды. Эта ситуация характерна для туристов. Матрица полезности дана в табл.7.

      Таблица 7              Таблица 8

    Qj

ai

Q1

Q2

 

    Qj

zb

Q1

Q2

a1

10

0

z1

0.6

0.3

z2

0.2

0.5

a2

4

7

z3

0.2

0.2


 

Критерий максимина гарантирует 4 ед. полезности и рекомендует выбирать операцию а2. Критерий минимакса дает этот же ответ.

Но есть возможность воспользоваться  данными прогноза погоды (в этом и состоит эксперимент), которые могут быть трех видов:

z1 – ожидается теплая погода,

z2 – ожидается холодная погода,

z3 – прогноз неизвестен.

Из прошлого опыта известны условные вероятности этих трех видов прогноза для каждого состояния природы , b=1,2,3, j =1,2, представленные в табл. 8.

Для каждой из 8–ми стратегий и  каждого из 2–х состояний природы  определим взвешенные суммы полезностей  по формуле (9), используя данные таблиц 6 – 8,

U(S1,Q1) =10×0.6 + 10×0.2 +10×0.2 =10,

U(S2,Q1) =10×0.6 + 10×0.2 +4×0.2 = 8.8,

U(S3,Q1) =10×0.6 + 4×0.2 + 10×0.2 = 8.8,

........................................................

U(S8,Q1) = 4×0.6 + 4×0.2 + 4×0.2 = 4,

U(S1,Q2) = 0×0.3 + 0×0.5 +0×0.2 = 0,

.........................................................

U(S8,Q2) = 7×0.3 + 7×0.5 + 7×0.2 = 7.

Все вычисленные значения U(Si,Qj), i = 1,2,…8, j = 1, 2, помещены в табл.9.

                    Таблица 9

Si

Qj

 

   S1

_

S2

 

S3

 

S4

_

S5

_

S6

 

S7

 

S8

   Q1

  10

   8.8

  8.8

  7.6

  6.4

  5.2

  5.2

    4

   Q2

   0

   1.4

  5

  4.9

  2.1

  5

  5.6

    7


 

Из табл. 9 предварительно следует  исключить плохие стратегии –– те стратегии, обе компоненты которых не больше (£) соответствующих компонент какой–либо другой стратегии. Ввиду того, что , , S6 ≤ S7, то стратегии исключаются из рассмотрения (в табл. 9 они помечены знаком "–").

К оставшимся, допустимым стратегиям  можно применить известные нам критерии. Используя критерий максимина, имеем:

,
,

,
,
,

.

Следовательно, наилучшей стратегией является стратегия S7, гарантирующая 5.2 ед. полезности. Для сравнения максиминная операция гарантирует лишь 4 ед. полезности. Так как S7 = (a2, a2, a1), то в силу (8) имеем

.

Это значит, что при прогнозе z1 выбирается операция а2, при прогнозе     z2 – a2, при прогнозе z3 – a1, т.е. максиминная стратегия S7 рекомендует одеваться тепло, если прогноз – теплая или холодная погода, и одеваться легко, если прогноз неизвестен. Последнее утверждение весьма непрактично.

Максиминная стратегия S7 при неблагоприятном стечении обстоятельств может привести и к худшему результату, чем максиминная операция . Например, имеет место холодная погода . Тогда согласно максиминной операции турист получит 7 ед. полезности (табл. 7). С другой стороны, если результат прогноза будет (прогноз неизвестен) и согласно стратегии S7 будет выбрана операция (одеться легко), то он получит 0 ед. полезности. Это явление –– типичное для теории игр и теории принятия решений. S7 гарантирует лишь среднюю полезность в 5.2 ед.

 

3.2. Использование смешанной стратегии

Стратегия S* называется смешанной, если она представлена в виде выпуклой комбинации двух других  стратегий,

S* = сSm1 + (1 - с)Sm2,    0<с<1, m1, m2 Î {1, 2, …, t}.

Это  определение базируется на понятии выпуклой комбинации точек [14]. Переход к смешанной стратегии осуществляется с целью повышения гарантированной средней полезности.

Стратегии  рассмотренного выше примера  изобразим точками на плоскости           с     координатами , i=1,3,4,7,8  (рис. 2).


По рис. 2 видно, что если взять  в определенных пропорциях стратегии S4 и S8, то получим смешанную стратегию, лучшую по сравнению со стратегией S7. Проведем биссектрису I-го координатного угла и найдем точку пересечения ее с отрезком [S4, S8] –– точку .

Запишем уравнение прямой, проходящей через точки  S4(7.6; 4.9),  S8 (4;7)    [15],

,

которое приводится к виду:

.

Из этого уравнения находим  координаты точки  , для которой ,

.

Так как  , то стратегия лучше стратегии S7, гарантирующей 5.2 ед. полезности, S*>S7.

Теперь остается представить стратегию  в виде выпуклой комбинации стратегий S4, S8,

S* = cS4 + (1 – c)S8,   0 < c <1.                             (10)

Для определения значения параметра a достаточно записать уравнение (10) для абсцисс входящих в него точек,

из которого получаем  . Тогда равенство (10) принимает вид:

.                                        (11)

Так как  , , то в силу равенства (11) имеем

.

Практически смешанную стратегию  S* можно реализовать так. Если результат эксперимента есть  z2 или z3, то используется операция a2.  Если же результат эксперимента есть z1, то с помощью подходящего случайного механизма с вероятностью используется операция a1, и с вероятностью –– операция а2.  Основой случайного механизма могут служить 19 одинаковых карточек, на 10–и из которых записан символ а1, а на 9–и –– символ а2.  Из этого набора 19–и карточек случайно выбирается одна и используется та операция, символ, которой изображен на этой карточке.

 

3.3. Принятие решений в условиях риска

К условиям, перечисленным в подпараграфе 3.1, добавляется еще одно – значения априорных вероятностей состояний окружающей среды (природы):

p(Q1), p(Q2), ..., p(Qn).                                    (12)

Информация о работе Принятие решений в условиях неопределенности