1 НЕЛИНЕЙНАЯ РЕГРЕССИЯ Принцип минимизации суммы квадратов отклонений. Эта процедура состоит из последовательности шагов: 1. Принимаются некоторые правдоподобные исходные значения параметров. 2. Вычисляются предсказанные значения Y по фактическим значениям Х с использованием этих значений параметров. 3. Вычисляются остатки для всех наблюдений в выборке и, следовательно, RSS,
22
Embed
[PPT]Слайд 1ito.fa.ru/ppt/mmep/econometry/27.ppt · Web viewНЕЛИНЕЙНАЯ РЕГРЕССИЯ Принцип минимизации суммы квадратов отклонений.
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
1
НЕЛИНЕЙНАЯ РЕГРЕССИЯ
Принцип минимизации суммы квадратов отклонений.
Эта процедура состоит из последовательности шагов:1. Принимаются некоторые правдоподобные исходные значения параметров.
2. Вычисляются предсказанные значения Y по фактическим значениям Х с использованием этих значений параметров.
3. Вычисляются остатки для всех наблюдений в выборке и, следовательно, RSS, т. е. сумма квадратов остатков.
2
4. Вносятся небольшие изменения в одну или более оценок параметров.
5. Вычисляются новые предсказанные значения Y, остатки и RSS.
6. Если RSS меньше, чем прежде, то новые оценки параметров лучше прежних и их следует использовать в качестве новой отправной точки.
Принцип минимизации суммы квадратов отклонений
3
7. Шаги 4, 5 и 6 повторяются вновь до тех пор, пока не окажется невозможным внести такие изменения в оценки параметров, которые привели бы к уменьшению RSS.
8. Делается вывод о том, что величина RSS минимизирована и конечные оценки параметров являются оценками по методу наименьших квадратов.
Когда альтернативные регрессионные модели имеют одинаковые переменные, то лучшая выбирается по критерию максимума R2.
Что делать, когда переменные различны, как например в линейной и логарифмической моделях.
uXY 21
uXY 21log
16
ТЕСТЫ КОКСА-БОКСА
Среднее арифметическое логарифма Y сводится к среднему геометрическому Y.
Среднее в одной модели связано со средним в другой.
Усреднение позволяет сравнивать модели между собой по остаткам.
nn
YYY
YYYn
Yn
YYYe
ee
nn
ni
1
21)...log(
)...log(1log1
)...(1
21
21
17
ТЕСТЫ КОКСА-БОКСА
Нормировка значений зависимых переменных
в полулогарифмической модели по
Методу Зарембки.
uXY 21log
YскоегеометричесреднееYY /*
uXY 21
18
ТЕСТЫ КОКСА-БОКСА
uXY 21log
uXY '2
'1*
uXY '2
'1*log
Сравнение нормированных моделей Y* and logeY по среднеквадратичным отклонениям (RSS). Логарифм отношения остатков имеет χ2-распределение. Если χ>χ2 – критическое при заданном пороге вероятности , то модель с меньшим RSS будет лучше.
uXY 21
YскоегеометричесреднееYY /*
RSSRSSn
меньшее большее ln
2 )1(2
19
. sum LGEARN
Variable | Obs Mean Std. Dev. Min Max---------+----------------------------------------------------- LGEARN | 570 2.430133 .5199059 1.163151 4.417514 EARNSTAR=EARNINGS/exp(2.430133) LGEARNST=ln(EARNSTAR)
ТЕСТЫ КОКСА-БОКСА
nn
YYY
YYYn
Yn
YYYe
ee
nn
ni
1
21)...log(
)...log(1log1
)...(1
21
21
Найдем среднее для LGEARN и обозначим LGEARNST=ln( EARNSTAR).
20
. reg EARNSTAR S
Source | SS df MS Number of obs = 570---------+------------------------------ F( 1, 568) = 65.64 Model | 30.8184248 1 30.8184248 Prob > F = 0.0000Residual | 266.69807 568 .469538855 R-squared = 0.1036---------+------------------------------ Adj R-squared = 0.1020 Total | 297.516494 569 .522876089 Root MSE = .68523
То же сделаем для нормированной переменной LGEARNST.
22
ТЕСТЫ КОКСА-БОКСА
Значение статистики 200.2. Оно существенно выше 2 с 1 степенью свободы на 0.1% уровне, исходя из чего можно утверждать о значимости предпочтения полулогарифмической модели линейной.