Таким образом,
указания на ограниченные возможности
метода рассуждения “по аналогии”
не опровергают существование самой
аналогии как одного из характерных
способов человеческого мышления, а
значит, способа осуществления познания. Метод аналогии,
учитывая эти его особенности, следует
рассматривать как определенный общеметодологический
способ мышления, соответствующий определенному
уровню развития интеллекта. Тем самым
метод рассуждения по аналогии оказывается
не только приобщенным непосредственно
к обыденному уровню человеческого понимания
и познания, но может рассматриваться
также и как общенаучный принцип, позволяющий
сопоставлять различные положения, концепции
и теории. Особенно продуктивным метод
рассуждения “по аналогии” оказывается
в тех случаях, когда необходимо целостное
видение, целостное освещение проблемы.
9) Методология
морфологического анализа.
- определяем пространство поиска, которое обязательно должно включать в себя искомое решение (схему устройства),
- сужаем это пространство, осуществляя поиск этого решения.
формален и
допускает компьютерную реализацию.
Пространство
поиска называется морфологическим множеством, а процесс определения это
пространства – морфологическим анализом. Поиск решения называется морфологическим синтезом.
В результате морфологического
анализа определяется морфологическое
множество или множество альтернатив (альтернативных решений). Такое
множество должно содержать все структурные
решения устройств рассматриваемого класса,
как реально существующие, так и потенциально
возможные, патентоспособные структуры.
Естественно, задать все такие структуры
прямым перебором невозможно, так как
мощность морфологического множества
обычно оказывается очень большой. Поэтому
для его задания проводят классификацию
устройств, входящих в это множество, выделяя
классификационные признаки и определяя
их возможные значения. Особенностью такой
классификации является то, что она является
строгой в том смысле, что задав все значения
классификационных признаков мы можем
однозначно идентифицировать структуру
устройства.
10) Методы
сглаживания стационарных рядов:
наивная модель, скользящие средние
и экспоненциальное сглаживание.
"Наивные"
модели прогнозирования
- некоторый последний период прогнозируемого временного ряда лучше всего описывает будущее этого прогнозируемого ряда
- прогноз - очень простая функция от значений прогнозируемой переменной в недалеком прошлом.
- Самая простая модель Y(t+1)=Y(t), "завтра будет как сегодня".
- не стоит ждать большой точности. Не учитывает механизмы, определяющие прогнозируемые данные. Не учитывает сезонные колебания и тренды.
- можно строить "наивные" модели несколько по-другому
Y(t+1)=Y(t)+[Y(t)-Y(t-1)],
Y(t+1)=Y(t)*[Y(t)/Y(t-1)],
такими
способами мы пытаемся приспособить
модель к возможным трендам
Y(t+1)=Y(t-s),
это попытка
учесть сезонные колебания
(по
лекциям) Наивная модель: прогноз
на следующий период равен
последнему прошедшему. Применяется
тогда, когда тренд не проявляется,
или же наоборот, когда он четко
проявляется.
Средние и скользящие средние
Самой
простой моделью, основанной на простом усреднении является
Y(t+1)=(1/(t))*[Y(t)+Y(t-1)+...+Y(1)],
"завтра
будет как было в среднем
за последнее время".
Такая модель, конечно
более устойчива к флуктуациям,
поскольку в ней сглаживаются
случайные выбросы относительно среднего.
Несмотря на это, этот метод идеологически
настолько же примитивен как и "наивные"
модели и ему свойственны почти те же самые
недостатки.
В приведенной
выше формуле предполагалось, что
ряд усредняется по достаточно длительному
интервалу времени. Однако как правило,
значения временного ряда из недалекого
прошлого лучше описывают прогноз, чем
более старые значения этого же ряда. Тогда
можно использовать для прогнозирования скользящее среднее
Y(t+1)=(1/(T+1))*[Y(t)+Y(t-1)+...+Y(t-T)],
Смысл
его заключается в том, что
модель видит только ближайшее прошлое
(на T отсчетов по времени в глубину)
и основываясь только на этих данных
строит прогноз.
При прогнозировании
довольно часто используется метод экспоненциальных
средних, который постоянно
адаптируется к данным за счет новых значений.
Формула, описывающая эту модель записывается
как
Y(t+1)=a*Y(t)+(1-a)*^Y(t),
где Y(t+1)
– прогноз на следующий период
времени
Y(t) – реальное значение в момент времени
t
^Y(t) – прошлый прогноз на
момент времени t
a – постоянная сглаживания
(0<=a<=1))
Модель простых средних:
;
Модель скользящей средней:
;
, где k – порядок скользящих средних.
Если k = t, то получится метод простых
средних, если k = 1, то наивный метод. Значит
таким методом следует считать прогнозы,
начиная с t = k.
Метод экспоненциального сглаживания
, где
- сглаживающий параметр
…
Все вышеприведенные
модели хорошо работают, если тренд
отсутствует.
11) Способы устранения тренда
и сезонности.
12) Модели
сглаживания с трендом: модели
Холта и Брауна.
Хольт - усовершенствованный
метод экспоненциального сглаживания.
Значения уровня и тренда сглаживаются
с помощью экспоненциального сглаживания.
Причем параметры сглаживания у них различны.
Здесь
первое уравнение описывает сглаженный
ряд общего уровня.
Второе уравнение служит для оценки тренда.
Третье уравнение определяет прогноз на p отсчетов по времени
вперед.
Частным
случаем метода Хольта является метод
Брауна, когда a=ß.
Модель Холта
, p – просто число
и
- выбираются как показатели точности.
Обычно в зависимости от точности предыдущих
прогнозов (чем больше средняя или ещё
какая-нить ошибка, тем больше эти параметры).
Для нахождения L мы можем применять обратное
прогнозирование.
Модель Брауна
13) Модели сглаживания
с трендом и сезонностью: модель
Винтерса.
расширение
метода Хольта до трехпараметрического
экспоненциального сглаживания. + попытка учесть сезонные
составляющие в данных. Система уравнений,
описывающих метод Винтерса выглядит
следующим образом:
Дробь
в первом уравнении служит для
исключения сезонности из Y(t).
После исключения сезонности алгоритм
работает с "чистыми" данными, в которых
нет сезонных колебаний. Появляются они
уже в самом финальном прогнозе, когда
"чистый" прогноз, посчитанный почти
по методу Хольта умножается на сезонный
коэффициент.
Модель Винтерса
14) Определение начальных условий
модели сглаживания.
15) Статистические
показатели модели простой линейной
регрессии.
(заметки) Для
линейного регрессионного анализа
требуется линейность только по параметрам,
поскольку нелинейность по переменным
может быть устранена с помощью изменения
определений. Стандартная ошибка коэффициента
множественной регрессии является оценкой
стандартного отклонения распределения
коэффициента регрессии вокруг его истинного
значения. Используют стандартизованные
регрессионные коэффициенты, т.е. прежде,
чем строить модель, все Х стандартизуются,
следовательно, все коэффициенты становятся
сравнимы между собой. Плюс – меряют силу
влияния, минус – не решают задачу содержательного
смысла. МНК работает даже в случае равномерного
распределения точек. Проверка гипотез:
нулевая – данная прямая не берет на себя
нисколько дисперсии исходных точек (прямой
регрессии нет, нет влияния Х на Y), общая
– есть совокупное влияние Х на Y. Значимость:
вероятность того, что коэффициенты регрессии
равны нулю, вероятность принятия нулевой
гипотезы.
Рассмотрим реализацию линейной
регрессии в SPSS.
Статистика
регрессионные коэффициенты
(regression coefficients)
- оценки (estimates) – включает регрессионные коэффициенты и связанные с ними меры.
- доверительные интервалы (confidence
intervals) – 95% доверительные интервалы для регрессионных коэффициентов.
- ковариационная матрица (covariance
matrix) – ковариационная и корреляционная матрицы. В ковариационной матрице на диагонали – дисперсия.
остатки
(residuals)
- тест Дарбина-Уотсона (Durbin-Watson) - тест для последовательных корреляций остатков, а также суммарная статистика для остатков и предсказанных значений. Если значение статистики равно 2, то третье условие Гаусса-Маркова не нарушается. Если <2, то имеет место положительная автокорреляция – бич временных рядов, если >2 – то отрицательная автокорреляция.
- диагностика (casewise
diagnostic) – «выбросы» за n стандартных отклонений.
разное
- качество модели (model
fit) – коэффициент множественной корреляции R, коэффициент детерминации
(ранее рассматривался в качестве основного индикатора успеха в спецификации модели, но признание того факта, что даже плохая модель может дать высокий коэффициент детерминации, привело к снижению значимости коэффициента), скорректированный R-квадрат (коэффициент детерминации при добавлении объясняющей переменной никогда не уменьшается, скорректированный коэффициент обеспечивает компенсацию для такого автоматического сдвига вверх путем наложения «штрафа» за увеличение числа независимых переменных, увеличение скорректированного коэффициента при добавлении новой переменной не обязательно означает, что ее коэффициент значимо отличается от нуля), стандартная ошибка, ANOVA – число степеней свободы, сумма квадратов, средний квадрат, F-значение, ожидаемая вероятность F. F-статистика используется для проверки нулевой гипотезы о том. что добавляемая переменная не дает значительного прироста R-квадрата. t-статистика проверяет гипотезу: нет линейной связи между зависимой и независимыми переменными, или что коэффициенты регрессии равны нулю.
- изменение коэффициента детерминации (R squared change) – изменение в R квадрате при добавлении и извлечении из модели независимых переменных. Если изменение, связанное с переменной большое, то переменная хорошо вписывается в модель.
- описательная статистика (descriptives) – средние, стандартное отклонение, корреляционная матрица.
- частная и частичная корреляция (part
and partial correlation)
- диагностика коллинеарности (collinearity
diagnostic) – стойкость отдельных переменных и статистики для определения проблем с коллинеарностью. Коллинеарность – нежелательная ситуация, когда одна независимая переменная в модели является линейной функцией других независимых переменных. Собственные числа (eigenvalues) – показывают, сколько существует независимых векторов в пространстве. Если существует собственное значение очень близкое к нулю, то имеет место зависимость. Поэтому небольшие изменения в данных могут привести к большим изменениям в оценках регрессионных коэффициентов. Индекс состояния (condition index) – квадратный корень из отношения большего собственного числа к последующему. Если больше 15, то возможны проблемы с коллинеарностью, если больше 30 – то очень большие проблемы с коллинеарностью. Пропорция дисперсии (variance proportion) – пропорция дисперсии оценки, объясненная каждой компонентой, связанной с каждым собственным значением. Коллинеарность – проблема, когда компонента, связанная с большим индексом состояния, вносит существенный вклад в дисперсию двух или более переменных.
Сохранение
предсказанные
значения (predicted values)
- нестандартизованные (unstandardized) – значение, предсказанное моделью для зависимой переменной.
- стандартизованные (standardized) – преобразование предсказанного значения в стандартную форму (минус математическое ожидание, поделить на стандартное отклонение).
- скорректированные (adjusted) – предсказанное значение для данного случая, когда этот случай исключался из вычисления регрессионных коэффициентов.
- стандартная ошибка средних предсказаний (S.E.
of mean predictions) – оценка стандартного отклонения от среднего значения зависимой переменной для случаев, которые имеют одинаковое значение независимых переменных.
расстояния
(distances)
- расстояние Махаланобиса (Mahalonobis) – мера отличия независимых переменных от среднего по всем случаям. Если значение очень большое, то имеет место случай с экстремальными значениями каких-то независимых переменных.
- расстояние Кука (Cook’s) – мера того, как сильно остатки для всех случаев изменятся, если отдельный случай исключить из вычисления регрессионных коэффициентов.
- (leverage
value) – мера влияния точки на качество модели. Изменяется от нуля (нет влияния) до (N-1)/N.
предсказанные
интервалы (prediction intervals)
- средние (mean) – верхняя и нижняя границы для предсказанного интервала среднего предсказания отклика.
- индивидуальные (individual) – верхняя и нижняя границы интервала зависимой переменной для отдельного случая.
остатки
(residuals)
- нестандартизованные (unstandardized)
- стандартизованные (standardized)
- стьюдентизованные (studentized) – остатки, деленные на оценку стандартного отклонения, которая отличается от случая к случаю, в зависимости от расстояния значений независимых переменных от среднего по независимым переменным.
- удаленные (deleted) – остатки, когда случай был удален при вычислении регрессионных коэффициентов. Разница между значением зависимой переменной и скорректированным предсказанным значением.
- стьюдентизованные удаленные (studentized
deleted) – удаленные остатки, деленные на стандартную ошибку.
статистика
влияния (influence statistics)
- изменение значений бета (DfBeta(s)) – изменение в регрессионных коэффициентах из-за удаления отдельного случая при вычислении регрессионных коэффициентов. Считается для всех параметров, включая константу.
- стандартизованное изменение значений бета (standardized
DfBeta(s))
- изменение качества модели (DfFit) – изменение в качестве модели из-за удаления отдельного случая при вычислении регрессионных коэффициентов.
- стандартизованное изменение качества модели (standardized
DfFit)
- ковариационное отношение (covariance
ratio) – отношение определителя ковариационной матрицы, полученной при удалении отдельного случая при вычислении регрессионных коэффициентов, к определителю матрицы со всеми случаями. Если отношение близко к единице, то случай не сильно меняет ковариационную матрицу.