Regresja liniowa Dany jest układ punktów n n y , x y , x y , x 2 2 1 1 x y b ax y i i x – zmienna objaśniająca (nie obarczona błędem) y – zmienna zależna (obarczona błędem) Naszym zadaniem jest poprowadzenie „najlepszej” prostej przez te punkty.
Regresja liniowa. Dany jest układ punktów. y. x. x – zmienna objaśniająca (nie obarczona błędem) y – zmienna zależna (obarczona błędem). Naszym zadaniem jest poprowadzenie „najlepszej” prostej przez te punkty. Wyznaczanie optymalnych parametrów a i b. - PowerPoint PPT Presentation
Welcome message from author
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Regresja liniowa
Dany jest układ punktów
nn y,x
y,xy,x
22
11
x
y
baxy ii x – zmienna objaśniająca (nie obarczona błędem)
y – zmienna zależna (obarczona błędem)
Naszym zadaniem jest poprowadzenie „najlepszej” prostej przez te punkty.
Bardziej ogólny przypadek dopasowywania równania prostej: regresja ważona
n
iiii
n
i i
ii baxywbaxyb,a1
2
12
2
n
i i
in
i i
n
i i
i
n
i i
iin
i i
in
i i
i
ybax
yxbxax
12
12
12
12
12
12
2
1
Linearyzacja
Mamy dopasować funkcję nieliniową
y=f(x,y;a.b)
Przekształcamy funkcję do takiej postaci aby uzyskać postać zlinearyzowaną
=+
Gdzie jest nową zmienną zależną, nową zmienną objaśniającą a a i b są nowymi parametrami, przy czym ogólnie=(x,y), =(x,y), =(a,b), =(a,b)
Przykład problemu nieliniowego linearyzowalnego: kinetyka reakcji pierwszego rzędu
o
o
o
k
CkCtktCtAktCtA
BA
ln
lnlnlnexp
Jeżeli chcemy postępować poprawnie to należy wykonać regresję ważoną, wyliczając wagi poszczególnych przekształconych zmiennych objaśniających zgodnie z rachunkiem błędów.
22
22
2ii x
i
iy
i
ii xy
W poprzednim przykładzie
2
22ln
2 1AA A
Inne przykłady linearyzacji:
Równanie Michalisa-Mentena
S
KSKS m
m
1v1
vv1vv
maxmax
max
Równanie Hilla
KpnyyKp
yy n lnln
1ln
1
Obie zmienne są obarczone porównywalnym błędem
x
y x
y
22222
22xyxyy a
xy
Poprawiona wartość wagi zależy od a, które jest parametrem regresji. Problem liniowy przekształca się w nieliniowy. Problem można obejść przeprowadzając najpierw “zwykłą” regresję i wyznaczyć przybliżone a, następnie wstawić a do wzoru na wagi i przeprowadzić regresję jeszcze raz.
Sposób: regresja ortogonalna
Regresja uogólniona albo analiza konfluentna
**2
*1
1
2*2
2*2
1
2*2
2*2
,,,;,11
11
n
n
iii
yii
x
n
iii
yii
x
xxxbabaxyxx
yyxx
ii
ii
x
y (x,y)
(x*,y*)
3
2
1
321
221
21
1
321
/
expexp1
3
2
1
kkk
CCytx
tkkk
ktkkkk
kCtC
CB
kkkBA
CA
o
o
k
k
k
p
Przykład problemu nieliniowego nielinearyzowalngo: kinetyka reakcji pierwszego rzędu z produktem przejściowym
Regresja liniowa wielokrotna
mm
nnmnn
m
m
xpxpxpy
yxxx
yxxxyxxx
2211
21
222221
111211
Zmienne objaśniające x1,x2,…,xm nie muszą odpowiadać różnym wielkościom lecz mogą być funkcjami tej samej wielkości mierzonej (np. jej kolejnymi potęgami w przypadku dopasowywania wielomianów).
2
22
21
T
1
2
12
1
T2
1
1000
010
001
1
n
n
i
p
jijji
i
n
i
p
jijji
xpy
xpy
W
XpYWXpY
XpYXpY regresja nieważona
regresja ważona
Przypadek szczególny: dopasowywanie wielomianu
nmnn
m
m
mm
yxx
yxxyxx
xpxppy
1
21
22
11
11
1110
1
11
m
iiimm
n
iim
n
iiim
n
iiim
m
iiim
n
iimi
n
ii
n
iii
m
iiim
n
iimi
n
iii
n
ii
yxpxpxxpxx
yxpxxpxpxx
yxpxxpxxpx
11
22
121
11
12
122
1
221
112
11
112
1211
1
21
WYXpWXX
YXpXXTT
TT
n
i
m
jijjir xpy
mn 1
2
1
2 1
Test F dla istotności efektu liniowego
mn
yy
m
yyyy
F n
i
oblii
n
i
oblii
n
ii
1
2
1
2
1
2
1
1
12
21
121,
m
mm
mmmn
mmF
Test F dla istotności włączenia nowych parmetrów
Przykład dopasowywania wielomianu: rozkład cosinusa kąta rozpraszania mezonów K z protonami (zakładamy że j=sqrt(yj).