ﻤﻘﺩﻤﻪ ﺍﯼ ﺒﺭ ﺭﮔﺭﺴﻴﻭﻥ ﺨﻁﯽ ﮐﺎﺭﺒﺭﺩﯼ
http://MiladZaman005.blogfa.com
ﻣﻘﺪﻣﻪ اﯼ ﺑﺮ رﮔﺮﺳﻴﻮن ﺧﻄﯽ ﮐﺎرﺑﺮدﯼ ﮔﺮوﻩ داﻧﺶ ﺁﻣﺎرﯼ
http://MiladZaman005.blogfa.com ﻧﻮﻳﺴﻨﺪﻩ :ﺳﻴﺪ ﺟﻤﺎل ﻣﻴﺮﮐﻤﺎﻟﯽ ﻣﺪﻳﺮ وﺑﻼگ :ﻣﺤﻤﺪ زﻣﺎن روﺷﻦ ﺑﺨﺶ ﺗﺎﺑﺴﺘﺎن 85
ﻣﻘﺪﻣﻪ اوﻟﻴﻦ ﺑﺎر ﻣﻮﺿﻮع رﮔﺮﺳﻴﻮن ) ﺑﺮﮔﺸﺖ ( ﺗﻮﺳﻂ ﮔﺎﻟﺘﻦ ) (Galtonﻣﻄﺮح ﺷﺪ .وي ﻗﺼﺪ داﺷﺖ راﺑﻄﻪ اي ﺑﻴﻦ ﻗﺪ واﻟﺪﻳﻦ و ﻗﺪ ﭘﺴﺮان ﭘﻴﺪا آﻨﺪ آﺎرﺑﺮد رﮔﺮﺳﻴﻮن ﺑﻴﺸﺘﺮ در اﻗﺘﺼﺎد ،ﻓﻴﺰﻳﻚ و ﺷﻴﻤﻲ ﻣﻲ ﺑﺎﺷﺪ. در رﮔﺮﺳﻴﻮن ﺑﻪ دﻧﺒﺎل راﺑﻄﻪ اي ﺑﻪ ﻓﺮم زﻳﺮ هﺴﺘﻴﻢ: )Y = f( X1,X2,...,Xk ﺑﻪ Yﻣﺘﻐﻴﺮ ﭘﺎﺳﺦ ) (Responseﻣﻲ ﮔﻮﻳﻨﺪ آﻪ ﻣﻲ ﺗﻮاﻧﺪ ﻳﻚ ﻣﺘﻐﻴﺮ آﻤﻲ ﻳﺎ ﭘﻴﻮﺳﺘﻪ ﺑﺎﺷﺪ. ﺑﻪ X1,X2,...,Xkﻣﺘﻐﻴﺮ هﺎي ﻣﺴﺘﻘﻞ ﻳﺎ ﻣﺘﻐﻴﺮ هﺎي ﭘﻴﺶ ﺑﻴﻦ ) (Predictorﮔﻔﺘﻪ ﻣﻲ ﺷﻮد آﻪ ﻣﻲ ﺗﻮاﻧﻨﺪ آﻤﻲ ﻳﺎ آﻴﻔﻲ ﺑﺎﺷﻨﺪ. ﻣﺎ ﺑﻪ دﻧﺒﺎل راﺑﻄﻪ ﺧﻄﻲ Yﺑﺎ ﻣﺘﻐﻴﺮهﺎي ﻣﺴﺘﻘﻞ X1,X2,...,Xkهﺴﺘﻴﻢ ،ﻳﻌﻨﻲ: Y = β0+β1X1+...+βkXk β0,β1,...,βkﺿﺮاﺋﺐ ﻣﺪل رﮔﺮﺳﻴﻮﻧﻲ هﺴﺘﻨﺪ آﻪ ﭘﺎراﻣﺘﺮ هﺎي ﻧﺎ ﻣﻌﻠﻮﻣﻲ هﺴﺘﻨﺪ و ﺑﺎﻳﺪ ﺑﺮﺁورد ﺷﻮﻧﺪ. ﻣﺜﺎل :اﮔﺮ ﺑﺨﻮاهﻴﻢ ﻣﻴﺰان ﻓﺸﺎر ﺧﻮن را از روي ﻣﻴﺰان ﻧﻤﻚ ﺧﻮن و ﭼﺮﺑﻲ ﺧﻮن ﭘﻴﺶ ﺑﻴﻨﻲ آﻨﻴﻢ ﺑﺎﻳﺪ β0,β1,β2را ﺑﺮﺁورد آﻨﻴﻢ: ﻣﻴﺰان ﻓﺸﺎر ﺧﻮن = Y ﻣﻴﺰان ﻧﻤﻚ ﺧﻮن =X1 ﻣﻴﺰان ﭼﺮﺑﻲ ﺧﻮن=X2 Y = β0+β1X1+β2X2
ﺼﻔﺤﻪ 1ﺍﺯ 18
ﻤﻘﺩﻤﻪ ﺍﯼ ﺒﺭ ﺭﮔﺭﺴﻴﻭﻥ ﺨﻁﯽ ﮐﺎﺭﺒﺭﺩﯼ
http://MiladZaman005.blogfa.com
ﻣﻌﺮﻓﻲ ﺳﺎدﻩ ﺗﺮﻳﻦ ﻣﺪل رﮔﺮﺳﻴﻮﻧﻲ: در ﻣﺪل )Y = f( X1,X2,...,Xk اﮔﺮ k=1در اﻳﻦ ﺻﻮرت ﺑﺎ ﻣﺪل ﺳﺎدﻩ زﻳﺮ ﺳﺮوآﺎر دارﻳﻢ: Y = β0+β1X+ε εﻣﻮﻟﻔﻪ ﺗﺼﺎدﻓﻲ ﺧﻄﺎ اﺳﺖ آﻪ ﻓﺮض ﻣﻲ آﻨﻴﻢ: E( ε ) = 0 , var( ε ) = σ2 ﺑﺎ اﻳﻦ ﻣﻔﺮوﺿﺎت دارﻳﻢ: >= )E( Y | X) = E( β0+β1X+ε | X=x ) = E( β0+β1x+ε | X=x ) = β0 + β1x + E(ε E( Y | X) = β0 + β1x در ﻣﺪل :E( Y | X) = β0 + β1x β0ﻋﺮض از ﻣﺒﺪا ﻳﺎ ﺛﺎﺑﺖ ) (Constantﻣﺪل اﺳﺖ، β1ﺷﻴﺐ) (Slopﺧﻂ اﺳﺖ. ﺗﻌﺒﻴﺮ دﻳﮕﺮي ﺑﺮاي :β1 ) β1=E( Y | x + 1 ) - E( Y | x ﭼﺮا ﻣﻲ ﮔﻮﻳﻴﻢ ﻣﺪل رﮔﺮﺳﻴﻮن ﺧﻄﻲ؟ Y = β0+β1X1+...+βkXk+ε ﻣﻨﻈﻮر از ﻣﺪل رﮔﺮﺳﻴﻮن ﺧﻄﻲ اﻳﻦ اﺳﺖ آﻪ ﻣﺪل ﻧﺴﺒﺖ ﺑﻪ ﭘﺎراﻣﺘﺮ هﺎ ﺧﻄﻲ ﺑﺎﺷﺪ.ﺑﻌﺒﺎرﺗﻲ ﺿﺮاﺋﺐ ﻣﺪل ﻧﺒﺎﻳﺪ ﺑﺼﻮرت ﺗﻮاﻧﻲ ﻳﺎ ﺗﻮاﺑﻌﻲ از ﻳﻜﺪﻳﮕﺮ ﺑﺎﺷﻨﺪ. ﻣﺜﺎل :ﻣﺪﻟﻬﺎي زﻳﺮ ﺧﻄﻲ اﻧﺪ: Y = β0+β1X2+ε Y = β0+β1log ( X ) +ε √Y = β0+β1X+ε Y = β0+β1X1+β2X2+β3X1X2+ε Y = β1eX +ε
ﺼﻔﺤﻪ 2ﺍﺯ 18
ﻤﻘﺩﻤﻪ ﺍﯼ ﺒﺭ ﺭﮔﺭﺴﻴﻭﻥ ﺨﻁﯽ ﮐﺎﺭﺒﺭﺩﯼ
http://MiladZaman005.blogfa.com
ﻣﺜﺎل :ﻣﺪﻟﻬﺎي زﻳﺮ ﺧﻄﻲ ﻧﻴﺴﺘﻨﺪ: Y = β0+β12 X +ε Y = β0+log ( β1) X +ε Y = β0.β1eX + ε Y = β0 + β1X1+ β2X2 + β1.β2X3 + ε ﻧﻜﺘﻪ :ﻣﺪﻟﻬﺎﻳﻲ آﻪ ﻗﺎﺑﻞ ﺗﺒﺪﻳﻞ ﺑﻪ ﻳﻚ ﻣﺪل ﺧﻄﻲ ﺑﺎﺷﻨﺪ ،ذاﺗﺎ ﺧﻄﻲ ﮔﻮﻳﻨﺪ. ﻣﺜﺎل :ﻣﺪﻟﻬﺎي ذاﺗﺎ ﺧﻄﻲ: Y = β0+log ( β1) X + ε => ( β2 := log ( β1) ) => Y = β0+ β2 X + ε Y = β0eβ1 X + ε => log( Y ) = log(β0) + β1X1+ ε => ( β2 := log ( β0) ) =>log( Y ) = β2 + β1X1+ ε
ﺑﺮرﺳﻲ ﻣﺪل رﮔﺮﺳﻴﻮن ﺧﻄﻲ ﺳﺎدﻩ: Y = β0 + β1X + ε ﻓﺮض آﻨﻴﻢ ) (x1,y1),...,(xn,ynﻳﻚ زوج ﻧﻤﻮﻧﻪ nﺗﺎﻳﻲ از ﺟﺎﻣﻌﻪ ﻣﻮرد ﻧﻈﺮ ﺑﺎﺷﻨﺪ: yi = β0 + β1xi + εi ,i = 1,2,...,n ﻓﺮﺿﻬﺎي اﺳﺎﺳﻲ رﮔﺮﺳﻴﻮن: .1ﻣﻮﻟﻔﻪ ﺗﺼﺎدﻓﻲ ﺧﻄﺎ ﻣﻴﺎﻧﮕﻴﻦ ﺻﻔﺮ داﺷﺘﻪ ﺑﺎﺷﺪ ﻳﻌﻨﻲ ﺑﻪ ازاي هﺮ ،iاﻣﻴﺪ رﻳﺎﺿﻲ εiﺑﺮاﺑﺮ ﺑﺎ ﺻﻔﺮ ﺑﺎﺷﺪ. .2ﻣﻮﻟﻔﻪ ﺗﺼﺎدﻓﻲ ﺧﻄﺎ وارﻳﺎﻧﺲ ﺛﺎﺑﺖ داﺷﺘﻪ ﺑﺎﺷﺪ ﻳﻌﻨﻲ ﺑﻪ ازاي هﺮ ، iوارﻳﺎﻧﺲ εiﺑﺮاﺑﺮ ﺑﺎ σ2ﺑﺎﺷﺪ. .3ﺧﻄﺎ هﺎ ﻧﺎ هﻤﺒﺴﺘﻪ اﻧﺪ ﻳﻌﻨﻲ εiهﺎ دو ﺑﻪ دو ﻧﺎ هﻤﺒﺴﺘﻪ ﺑﺎﺷﻨﺪ. .4ﻣﺘﻐﻴﺮ ﻣﺴﺘﻘﻞ Xﺗﺤﺖ آﻨﺘﺮل ﻣﺎ ﺑﺎﺷﺪ و ﺑﺎ ﺧﻄﺎي ﻧﺎ ﭼﻴﺰي اﻧﺪازﻩ ﮔﻴﺮي ﺷﻮد ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻓﺮﺿﻬﺎي رﮔﺮﺳﻴﻮن دارﻳﻢ: >= yi = β0 + β1xi + εi var( Yi ) = σ2 cov( Yi,Yj ) = 0 * ﭼﻮن Xﺛﺎﺑﺖ اﺳﺖ ﭘﺲ آﻮارﻳﺎﻧﺲ Yi,Yjﺑﺮاﺑﺮ ﺑﺎ آﻮارﻳﺎﻧﺲ εi,εjاﺳﺖ.
ﺼﻔﺤﻪ 3ﺍﺯ 18
ﻤﻘﺩﻤﻪ ﺍﯼ ﺒﺭ ﺭﮔﺭﺴﻴﻭﻥ ﺨﻁﯽ ﮐﺎﺭﺒﺭﺩﯼ
http://MiladZaman005.blogfa.com
روش آﻤﺘﺮﻳﻦ ﻣﺮﺑﻌﺎت ﺧﻄﺎ )(Least Square Methods
در اﻳﻦ روش β0و β1را ﻃﻮري ﭘﻴﺪا ﻣﻲ آﻨﻴﻢ آﻪ ﻣﺠﻤﻮع ﺗﻮان دوم ﺧﻄﺎ هﺎي εiآﻤﻴﻨﻪ ﺷﻮد: S( β0,β1) = ∑i=1.. n εi2 = ∑i=1.. n ( yi - β0 - β1xi )2 ﭘﺲ β0و β1را ﻃﻮري ﭘﻴﺪا ﻣﻲ آﻨﻴﻢ آﻪ Sآﻤﻴﻨﻪ ﮔﺮدد:
┘
┘ :ﻧﻜﺘﻪ
ﺼﻔﺤﻪ 4ﺍﺯ 18
ﻤﻘﺩﻤﻪ ﺍﯼ ﺒﺭ ﺭﮔﺭﺴﻴﻭﻥ ﺨﻁﯽ ﮐﺎﺭﺒﺭﺩﯼ
http://MiladZaman005.blogfa.com
ﭘﺲ دارﻳﻢ:
ﻣﺜﺎل :ﻓﺮض آﻨﻴﺪ Xﻣﻴﺰان آﻮد و Yﻣﻴﺰان ﻣﺤﺼﻮل ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت: Y = β0 + β1X + ε
ﺗﻌﺒﻴﺮ ŷ0اﻳﻨﺴﺖ آﻪ ﺑﻪ ازاي X = x0ﺑﻄﻮر ﻣﺘﻮﺳﻂ ŷ0ﻣﻴﺰان ﻣﺤﺼﻮل ﺧﻮاهﺪ ﺑﻮد.
ﺧﻮاص ﺑﺮﺁوردﮔﺮ هﺎي آﻤﺘﺮﻳﻦ ﻣﺮﺑﻌﺎت β0و : β1 (1ﺑﺮﺁوردﮔﺮهﺎي آﻤﺘﺮﻳﻦ ﻣﺮﺑﻌﺎت β0و β1ﺗﺮآﻴﺐ ﺧﻄﻲ از ﻣﺸﺎهﺪات yiهﺴﺘﻨﺪ ،ﻳﻌﻨﻲ:
(2اﻳﻦ ﺑﺮﺁوردﮔﺮهﺎ ﻧﺎارﻳﺐ هﺴﺘﻨﺪ:
ﺼﻔﺤﻪ 5ﺍﺯ 18
ﻤﻘﺩﻤﻪ ﺍﯼ ﺒﺭ ﺭﮔﺭﺴﻴﻭﻥ ﺨﻁﯽ ﮐﺎﺭﺒﺭﺩﯼ
http://MiladZaman005.blogfa.com
(3وارﻳﺎﻧﺲ ﺑﺮﺁوردﮔﺮهﺎ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ:
┘
┘ ﭼﻮن:
ﺑﻨﺎﺑﺮ ﺁﻧﭽﻪ ﺑﺪﺳﺖ ﺁﻣﺪ دارﻳﻢ:
┘ ﭼﻮن:
(4ﺑﻨﺎ ﺑﻪ ﻗﻀﻴﻪ ﮔﺎوس -ﻣﺎرآﻮف در ﻣﺪل yi = β0 + β1xi + εiﺗﺤﺖ ﺳﻪ ﻓﺮض ) ,cov( εi,εj ) = 0 ( i ≠ j
E( εi ) = 0 ,var( εi ) = σ2
در ﺑﻴﻦ ﺗﻤﺎم ﺑﺮﺁوردﮔﺮ هﺎي ﻧﺎارﻳﺐ β0و β1آﻪ ﺑﻪ ﺻﻮرت ﺗﺮآﻴﺐ ﺧﻄﻲ از yiهﺎ هﺴﺘﻨﺪ ،ﺑﺮﺁوردﮔﺮ هﺎي آﻤﺘﺮﻳﻦ ﻣﺮﺑﻌﺎت β0 و β1آﻤﺘﺮﻳﻦ وارﻳﺎﻧﺲ را دارﻧﺪ ﻳﻌﻨﻲ آﺎرا ﺗﺮﻳﻦ هﺴﺘﻨﺪ و ﻣﻌﺮوﻓﻨﺪ ﺑﻪ .Best Linear Unbiased Estimator
ﺼﻔﺤﻪ 6ﺍﺯ 18
ﻤﻘﺩﻤﻪ ﺍﯼ ﺒﺭ ﺭﮔﺭﺴﻴﻭﻥ ﺨﻁﯽ ﮐﺎﺭﺒﺭﺩﯼ
http://MiladZaman005.blogfa.com
ﺑﺎﻗﻴﻤﺎﻧﺪﻩ هﺎ) :( Residuals yi = β0 + β1xi + εi ,i =1,2,...,n
) ﻣﻘﺪار ﺑﺮﺁورد ﺷﺪﻩ ( ) -ﻣﻘﺪار ﻣﺸﺎهﺪﻩ ﺷﺪﻩ ( = ei = yi - ŷi در ﺟﺎﻣﻌﻪ دارﻳﻢ:
و ﺑﺮاي ﻧﻤﻮﻧﻪ دارﻳﻢ:
ﻧﻜﺘﻪ :اﮔﺮ ﻓﺮﺿﻴﺎت ﻣﺪل رﮔﺮﺳﻴﻮن ﺑﺮﻗﺮار ﻧﺒﺎﺷﺪ ،ﺑﺎ اﺳﺘﻔﺎدﻩ از ﺑﺎﻗﻴﻤﺎﻧﺪﻩ هﺎ ) eiهﺎ( ﻣﻲ ﺗﻮاﻧﻴﻢ ﻧﺴﺒﺖ ﺑﻪ ﺑﺮﻗﺮار ﻧﺒﻮدن ﺁﻧﻬﺎ اﻃﻤﻴﻨﺎن ﺣﺎﺻﻞ آﻨﻴﻢ.
ﺧﻮاص ﺑﺎﻗﻴﻤﺎﻧﺪﻩ هﺎ : ∑i=1.. n ei = 0 ∑i=1.. n eixi = 0 ∑i=1.. n eiyi = 0
ﺼﻔﺤﻪ 7ﺍﺯ 18
ﻤﻘﺩﻤﻪ ﺍﯼ ﺒﺭ ﺭﮔﺭﺴﻴﻭﻥ ﺨﻁﯽ ﮐﺎﺭﺒﺭﺩﯼ
http://MiladZaman005.blogfa.com
ﺑﺮﺁورد :σ2
...,( 150,50 ),( 150,58 ),( 150,65 ),( 150,68 ),... var( εi ) = var( yi ) = σ2 (1ﺑﺮاي ﺑﺮﺁور σ2آﺎﻓﻲ اﺳﺖ ﺑﺮاي ﺣﺪاﻗﻞ ﻳﻚ ﺳﻄﺢ xﭼﻨﺪ ﻣﺸﺎهﺪﻩ ﺑﺮاي yداﺷﺘﻪ ﺑﺎﺷﻴﻢ ،در اﻳﻦ ﺻﻮرت وارﻳﺎﻧﺲ ﺁﻧﻬﺎ ﺑﺮﺁوردي ﺑﺮاي σ2اﺳﺖ. در ﻣﺜﺎل ﺑﺎﻻ وارﻳﺎﻧﺲ اﻋﺪاد 50,58,65,68ﺑﺮﺁوردي ﺑﺮاي σ2اﺳﺖ. (2وارﻳﺎﻧﺲ ﺑﺎﻗﻴﻤﺎﻧﺪﻩ هﺎ ﺑﺮﺁوردي ﺑﺮاي σ2اﺳﺖ. ﺗﻮﺟﻪ: ﻣﺠﻤﻮع ﻣﺮﺑﻌﺎت ﺧﻄﺎ
Error Sum of Square: SSE
ﻣﻴﺎﻧﮕﻴﻦ ﻣﺮﺑﻌﺎت
ﻣﻴﺎﻧﮕﻴﻦ ﻣﺮﺑﻌﺎت ﺧﻄﺎ
Mean Square: MS
Error Mean Square: MSE
ﻧﻜﺘﻪ:
ﺼﻔﺤﻪ 8ﺍﺯ 18
ﻤﻘﺩﻤﻪ ﺍﯼ ﺒﺭ ﺭﮔﺭﺴﻴﻭﻥ ﺨﻁﯽ ﮐﺎﺭﺒﺭﺩﯼ
http://MiladZaman005.blogfa.com
ﺁزﻣﻮن ﻓﺮﺿﻴﻪ راﺟﻊ ﺑﻪ β0و : β1 yi = β0 + β1xi + εi ,i = 1,2,...,n ﻓﺮض ﻣﻲ آﻨﻴﻢ εiهﺎ ﺗﻮزﻳﻊ ﻧﺮﻣﺎل داﺷﺘﻪ ﺑﺎﺷﻨﺪ ،ﺑﻨﺎﺑﺮاﻳﻦ ) ,εi ~Normal ≡ εi ~N( 0,σ2 ) ( i.i.d.
) ,cov( εi,εj ) = 0 ( i ≠ j
E( εi ) = 0 ,var( εi ) = σ2
i.i.d. : Independent Identically Distribution
ﻓﺮض آﻨﻴﺪ ﺑﺨﻮاهﻴﻢ ﺁزﻣﻮن زﻳﺮ را اﻧﺠﺎم ﺑﺪهﻴﻢ *H0: β1= β1 *H1: β1≠ β1
ﻓﺮض اوﻟﻴﻪ رد ﻣﻲ ﺷﻮد >= | Z0 | > Zα/2
ﺣﺎل ﻓﺮض آﻨﻴﺪ ﺑﺨﻮاهﻴﻢ ﺁزﻣﻮن زﻳﺮ را اﻧﺠﺎم ﺑﺪهﻴﻢ *H0: β0= β0 *H1: β0≠ β0
ﺼﻔﺤﻪ 9ﺍﺯ 18
ﻤﻘﺩﻤﻪ ﺍﯼ ﺒﺭ ﺭﮔﺭﺴﻴﻭﻥ ﺨﻁﯽ ﮐﺎﺭﺒﺭﺩﯼ
http://MiladZaman005.blogfa.com
ﻓﺮض اوﻟﻴﻪ رد ﻣﻲ ﺷﻮد >= | Z0 | > Zα/2
ﺁزﻣﻮن ﻓﺮﺿﻴﻪ و ﻓﺎﺻﻠﻪ اﻃﻤﻴﻨﺎن ﺑﺮاﯼ ﺿﺮاﺋﺐ رﮔﺮﺳﻴﻮﻧﯽ در ﺣﺎﻟﺘﯽ ﮐﻪ σ2ﻧﺎ ﻣﻌﻠﻮم اﺳﺖ ﻓﺮض ﮐﻨﻴﺪ ﺑﺨﻮاهﻴﻢ ﺁزﻣﻮن زﻳﺮ را اﻧﺠﺎم دهﻴﻢ: *H1: β1≠ β1
vs
*H0: β1= β1
ﻓﺮض H0رد ﻣﯽ ﺷﻮد اﮔﺮ
ﺣﺎﻟﺖ ﺧﺎص ﺁزﻣﻮن :هﻤﻴﺸﻪ اﻳﻦ ﺁزﻣﻮن را اﻧﺠﺎم ﻣﯽ دهﻴﻢ) ﺁزﻣﻮن ﻣﻌﻨﺎ دارﯼ رﮔﺮﺳﻴﻮن (: H1: β1≠ 0
vs
H0: β1= 0
ﺼﻔﺤﻪ 10ﺍﺯ 18
ﻤﻘﺩﻤﻪ ﺍﯼ ﺒﺭ ﺭﮔﺭﺴﻴﻭﻥ ﺨﻁﯽ ﮐﺎﺭﺒﺭﺩﯼ
http://MiladZaman005.blogfa.com
اﮔﺮ ﻓﺮض H0رد ﻧﺸﻮد در اﻳﻦ ﺻﻮرت دو ﺣﺎﻟﺖ دارد: x .1و yهﻴﭻ هﻤﺒﺴﺘﮕﯽ ﺗﺪارﻧﺪ. x .2و yراﺑﻄﻪ ﻏﻴﺮ ﺧﻄﯽ دارﻧﺪ. اﮔﺮ ﻓﺮض H0رد ﺷﻮد در اﻳﻦ ﺻﻮرت دو ﺣﺎﻟﺖ دارد: x .1و yراﺑﻄﻪ ﺧﻄﯽ دارﻧﺪ. x .2و yراﺑﻄﻪ ﻏﻴﺮ ﺧﻄﯽ ) ﻧﺴﺒﺖ ﺑﻪ ( xدارﻧﺪ. ﻓﺮض ﮐﻨﻴﺪ ﺑﺨﻮاهﻴﻢ ﺁزﻣﻮن زﻳﺮ را اﻧﺠﺎم دهﻴﻢ: *H0: β0= β0 *H1: β0≠ β0
ﻓﺮض H0رد ﻣﯽ ﺷﻮد اﮔﺮ
ﺣﺎﻟﺖ ﺧﺎص ﺁزﻣﻮن ﺑﻪ ﺷﮑﻞ زﻳﺮ اﺳﺖ: H0: β0= 0 H1: β0≠ 0
اﮔﺮ ﻓﺮض H0رد ﻧﺸﻮد در اﻳﻦ ﺻﻮرت دو ﺣﺎﻟﺖ دارد: β0= 0 .1 x .2و yراﺑﻄﻪ ﻏﻴﺮ ﺧﻄﯽ دارﻧﺪ. اﮔﺮ ﻓﺮض H0رد ﺷﻮد در اﻳﻦ ﺻﻮرت دو ﺣﺎﻟﺖ دارد: β0≠ 0 .1 x .2و yراﺑﻄﻪ ﻏﻴﺮ ﺧﻄﯽ دارﻧﺪ.
ﺼﻔﺤﻪ 11ﺍﺯ 18
ﻤﻘﺩﻤﻪ ﺍﯼ ﺒﺭ ﺭﮔﺭﺴﻴﻭﻥ ﺨﻁﯽ ﮐﺎﺭﺒﺭﺩﯼ
http://MiladZaman005.blogfa.com
ﺑﺮﺁورد ﻧﻘﻄﻪ اﯼ و ﻓﺎﺻﻠﻪ اﯼ ﺑﺮاﯼ ﻣﻴﺎﻧﮕﻴﻦ ﭘﺎﺳﺦ: ﻓﺮض ﮐﻨﻴﺪ ﺑﺨﻮاهﻴﻢ ﺑﺮﺁورد ﻧﻘﻄﻪ اﯼ و ﻓﺎﺻﻠﻪ اﯼ ﺑﺮاﯼ ﻣﻴﺎﻧﮕﻴﻦ ﭘﺎﺳﺦ ﺑﻪ ازاﯼ X = x0دادﻩ ﺷﺪﻩ ﺑﺪﺳﺖ ﺁورﻳﻢ:
ﺑﺮﺁورد ﻧﻘﻄﻪ اﯼ :ﮐﺎﻓﯽ اﺳﺖ ﮐﻪ x0را در ﻣﻌﺎدﻟﻪ ﺧﻂ رﮔﺮﺳﻴﻮن ﺟﺎﻳﮕﺬارﯼ ﮐﻨﻴﻢ:
ﺑﺮﺁورد ﻓﺎﺻﻠﻪ اﯼ: ﺑﺮاﯼ ﻣﺤﺎﺳﺒﻪ ﻓﺎﺻﻠﻪ اﻃﻤﻴﻨﺎن ﺑﺮاﯼ ) E( Y | X=xﺑﺎ ﻓﺮض اﻳﻨﮑﻪ وارﻳﺎﻧﺲ ﻧﺎ ﻣﻌﻠﻮم ﺑﺎﺷﺪ از ﻓﺮﻣﻮل زﻳﺮ اﺳﺘﻔﺎدﻩ ﻣﯽ ﮐﻨﻴﻢ:
ﻃﻮل اﻳﻦ ﻓﺎﺻﻠﻪ وﻗﺘﯽ ﻣﻴﻨﻴﻤﻢ اﺳﺖ ﮐﻪ x0ﺑﻪ xﻧﺰدﻳﮏ ﺑﺎﺷﺪ.
اﮔﺮ ﺗﻤﺎم ﻧﻘﺎط اﺑﺘﺪاﻳﯽ ﻓﺎﺻﻠﻪ اﻃﻤﻴﻨﺎﻧﻬﺎ را ﺑﻪ هﻢ وﺻﻞ ﮐﻨﻴﻢ و ﺗﻤﺎم ﻧﻘﺎط اﻧﺘﻬﺎﻳﯽ ﻓﺎﺻﻠﻪ اﻃﻤﻴﻨﺎﻧﻬﺎ را ﺑﻪ هﻢ وﺻﻞ ﮐﻨﻴﻢ ﺑﻪ ﺷﮑﻠﯽ ﺷﺒﻴﻪ ﺷﮑﻞ زﻳﺮ ﻣﯽ رﺳﻴﻢ:
ﺼﻔﺤﻪ 12ﺍﺯ 18
ﻤﻘﺩﻤﻪ ﺍﯼ ﺒﺭ ﺭﮔﺭﺴﻴﻭﻥ ﺨﻁﯽ ﮐﺎﺭﺒﺭﺩﯼ
http://MiladZaman005.blogfa.com
ﻣﺜﺎل :اﮔﺮ ﺑﺨﻮاهﻴﻢ ﺑﺪاﻧﻴﻢ ﺑﻪ ازاﯼ ﻣﻴﺰان ﻓﺮوش yﭼﻘﺪر ﺑﺎﻳﺪ ﺗﺒﻠﻴﻐﺎت داﺷﺘﻪ ﺑﺎﺷﻴﻢ ﺑﺎﻳﺪ ﻳﮏ ﻣﺪل ﺧﻄﯽ ﺑﻴﻦ ﻓﺮوش و ﺗﺒﻠﻴﻐﺎت ﺑﺪﺳﺖ ﺁورﻳﻢ ﺳﭙﺲ ﻓﺎﺻﻠﻪ اﻃﻤﻴﻨﺎن هﺎﯼ ﺁن را ﺑﺪﺳﺖ ﺁورﻳﻢ و از روﯼ ﻧﻤﻮدار ﻣﺮﺑﻮﻃﻪ ﻓﺎﺻﻠﻪ اﯼ ﺑﺮاﯼ ﻣﻴﺰان ﺗﺒﻠﻴﻐﺎت ﭘﻴﺪا ﮐﻨﻴﻢ:
ﺗﺨﻤﻴﻦ)ﭘﻴﺶ ﺑﻴﻨﯽ( ﻣﺸﺎهﺪات ﺟﺪﻳﺪ:Prediction of new observation- ﻣﯽ داﻧﻴﻢ:
ﺣﺎل ﻓﺮض ﮐﻨﻴﻢ ﺑﺨﻮاهﻴﻢ ﺑﺮ اﺳﺎس ﺧﻂ رﮔﺮﺳﻴﻮن ﻣﻘﺪار ﻣﺘﻐﻴﺮ ﭘﺎﺳﺦ Yرا ﺑﻪ ازاﯼ * X = xﺗﺨﻤﻴﻦ ﺑﺰﻧﻴﻢ؛ ﻳﺎ ﺑﺮاﯼ ﺣﺎﻟﺘﯽ ﮐﻪ هﻴﭻ اﻃﻼﻋﯽ راﺟﻊ ﺑﻪ ﻣﺘﻐﻴﺮ ﭘﺎﺳﺦ ﻧﺪارﻳﻢ ﺁﻧﺮا ﺗﺨﻤﻴﻦ ﺑﺰﻧﻴﻢ. ﻣﺜﺎل: ﻣﻴﺰان ﻣﺤﺼﻮل=Y ﻣﻴﺰان ﮐﻮد=X
?=;Ŷx ﻓﺮض ﮐﻨﻴﻢ ﮐﻪ
از
*X = 15 = x
ﻣﺴﺘﻘﻞ ﺑﺎﺷﺪ.
ﺣﺎل ﻣﯽ ﺧﻮاهﻴﻢ ﺑﺮﺁورد ﻧﻘﻄﻪ اﯼ و ﻓﺎﺻﻠﻪ اﯼ ﺑﻪ ازاﯼ * X=xﺑﺮاﯼ ﻣﺸﺎهﺪﻩ ﺟﺪﻳﺪ Yxﺑﺪﺳﺖ ﺁورﻳﻢ.
ﺼﻔﺤﻪ 13ﺍﺯ 18
ﻤﻘﺩﻤﻪ ﺍﯼ ﺒﺭ ﺭﮔﺭﺴﻴﻭﻥ ﺨﻁﯽ ﮐﺎﺭﺒﺭﺩﯼ
http://MiladZaman005.blogfa.com
ﺑﺮﺁورد ﻧﻘﻄﻪ اﯼ Yxﺑﻪ ﺻﻮرت زﻳﺮ اﺳﺖ:
ﭼﻮن:
Yxاز Y1,Y2,...,Ynﻣﺴﺘﻘﻞ اﺳﺖ ﺑﻨﺎﺑﺮاﻳﻦ از هﺮ ﺗﺮﮐﻴﺐ ﺧﻄﯽ ﺷﺎن ﻧﻴﺰ ﻣﺴﺘﻘﻞ اﺳﺖ .از ﻃﺮﻓﯽ ﺑﺮﺁوردﮔﺮ هﺎﯼ β0,β1هﺮ دو ﺗﺮﮐﻴﺐ ﺧﻄﯽ از Yiهﺎ هﺴﺘﻨﺪ .ﺑﻨﺎﺑﺮاﻳﻦ Yxاز ﺑﺮﺁورد Yxﻧﻴﺰ ﻣﺴﺘﻘﻞ اﺳﺖ:
1
2 →1,2
3
4
→3,4
ﺼﻔﺤﻪ 14ﺍﺯ 18
ﻤﻘﺩﻤﻪ ﺍﯼ ﺒﺭ ﺭﮔﺭﺴﻴﻭﻥ ﺨﻁﯽ ﮐﺎﺭﺒﺭﺩﯼ
http://MiladZaman005.blogfa.com
ﻃﻮل اﻳﻦ ﻓﺎﺻﻠﻪ اﻃﻤﻴﻨﺎن ﺑﺰرﮔﺘﺮ از ﺣﺎﻟﺘﯽ اﺳﺖ ﮐﻪ ﺑﺮاﯼ ﺑﺮﺁورد ﻣﻴﺎﻧﮕﻴﻦ ﭘﺎﺳﺨﻬﺎ ﺑﺪﺳﺖ ﻣﯽ ﺁوردﻳﻢ .ﭼﻮن وارﻳﺎﻧﺲ ﺁن ﺑﺰرﮔﺘﺮ اﺳﺖ.
ﮐﺎرﺑﺮد ﻧﻤﻮدار ﻓﻮق در رﮔﺮﺳﻴﻮن ﻣﻌﮑﻮس اﺳﺖ.
ﺟﺪول ﺁﻧﺎﻟﻴﺰ وارﻳﺎﻧﺲ):(Analysis of variance table ﺟﺪول ﺁﻧﺎﻟﻴﺰ وارﻳﺎﻧﺲ ﻳﺎ ﺟﺪول ANOVAﺑﺮاﯼ ﺑﺮرﺳﯽ و ﺗﺠﺰﻳﻪ و ﺗﺤﻠﻴﻞ وارﻳﺎﻧﺲ Yﻳﺎ وارﻳﺎﻧﺲ ﮐﻞ ﺑﻪ ﮐﺎر ﻣﯽ رود .هﻤﭽﻨﻴﻦ ﺑﺮاﯼ ﺁزﻣﻮن ﻣﻌﻨﯽ دارﯼ رﮔﺮﺳﻴﻮن ﻧﻴﺰ ﻣﻮرد اﺳﺘﻔﺎدﻩ ﻗﺮار ﻣﯽ ﮔﻴﺮد.
Total sum of square:SST=Syy Error sum of square:SSE Regression sum of square:SSR وارﻳﺎﻧﺲ ﮐﻞ= ﺗﻐﻴﻴﺮاﺗﯽ ﮐﻪ ﺑﻪ وﺳﻴﻠﻪ ﻋﺎﻣﻞ xﺑﻴﺎن ﻣﯽ ﺷﻮد +ﺗﻐﻴﻴﺮاﺗﯽ ﮐﻪ ﺑﻮﺳﻴﻠﻪ xﺑﻴﺎن ﻧﻤﯽ ﺷﻮد ﺛﺎﺑﺖ ﻣﯽ ﺷﻮد ﮐﻪ SSRو SSEاز هﻢ ﻣﺴﺘﻘﻞ اﻧﺪ ﭘﺲ:
ﺼﻔﺤﻪ 15ﺍﺯ 18
ﻤﻘﺩﻤﻪ ﺍﯼ ﺒﺭ ﺭﮔﺭﺴﻴﻭﻥ ﺨﻁﯽ ﮐﺎﺭﺒﺭﺩﯼ
http://MiladZaman005.blogfa.com
ﺗﺤﺖ ﻓﺮض H0ﺁزﻣﻮن ﻣﻌﻨﯽ دارﯼ رﮔﺮﺳﻴﻮن دارﻳﻢ: H0:β1=0 H1:β1≠0
1
2 → 1,2 independent ﺑﺎﺷﺪ.
ﻓﺮض H0رد ﻣﯽ ﺷﻮد اﮔﺮ ﻧﮑﺘﻪ:
ANOVA: F0
MS
d.f.
MSR
1
MSE
n-2 n-1
SS
Source of variance Regression
SyySyy
Error Total
ﺁﻣﺎرﻩ F0ﺟﺪول ﺑﺮاﯼ ﺁزﻣﻮن ﻣﻌﻨﯽ دارﯼ رﮔﺮﺳﻴﻮن ﺑﮑﺎر ﻣﯽ رود.
ﺼﻔﺤﻪ 16ﺍﺯ 18
ﻤﻘﺩﻤﻪ ﺍﯼ ﺒﺭ ﺭﮔﺭﺴﻴﻭﻥ ﺨﻁﯽ ﮐﺎﺭﺒﺭﺩﯼ
http://MiladZaman005.blogfa.com
ﺿﺮﻳﺐ ﺗﻌﻴﻴﻦ ):(Coefficient of determination SST=SSE+SSR ﺗﻐﻴﻴﺮات=ﻣﻴﺰان ﺗﻐﻴﻴﺮاﺗﻲ آﻪ ﺗﻮﺳﻂ ﻋﺎﻣﻞ Xﺑﻴﺎن ﻣﻴﺸﻮد)+(SSRﻣﻴﺰان ﺗﻐﻴﻴﺮاﺗﻲ آﻪ ﺗﻮﺳﻂ Xﺑﻴﺎن ﻧﻤﻲ ﺷﻮد)(SSE
R2=0.98ﻳﻌﻨﻲ 98در ﺻﺪ ﺗﻐﻴﻴﺮات Yﺗﻮﺳﻂ ﺧﻂ رﮔﺮﺳﻴﻮن ﺑﻴﺎن ﻣﻲ ﺷﻮد.
R2=0.3ﻳﻌﻨﻲ 30در ﺻﺪ ﺗﻐﻴﻴﺮات Yﺗﻮﺳﻂ ﺧﻂ رﮔﺮﺳﻴﻮن ﺑﻴﺎن ﻣﻲ ﺷﻮد. ﻳﻜﻲ از ﻣﻌﻴﺎر هﺎي ﺑﺮرﺳﻲ ﺧﻮﺑﻲ ﺑﺮازش R2ﻣﻲ ﺑﺎﺷﺪ و هﺮ ﭼﻪ ﺑﻪ ﻳﻚ ﻧﺰدﻳﻜﺘﺮ ﺑﺎﺷﺪ ﻣﻲ ﺗﻮاﻧﺪ دﻟﻴﻞ ﺑﺮ ﺧﻮب ﺑﻮدن ﺑﺮازش ﺑﺎﺷﺪ.اﻟﺒﺘﻪ R2وﻗﺘﻲ ﻣﻌﺘﺒﺮ اﺳﺖ آﻪ راﺑﻄﻪ ﺧﻄﻲ ﺑﺎﺷﺪ.
ﺼﻔﺤﻪ 17ﺍﺯ 18
ﻤﻘﺩﻤﻪ ﺍﯼ ﺒﺭ ﺭﮔﺭﺴﻴﻭﻥ ﺨﻁﯽ ﮐﺎﺭﺒﺭﺩﯼ
http://MiladZaman005.blogfa.com
ﻓﻠﻮﭼﺎرت ﻣﺮاﺣﻞ ﺑﺮازش ﻣﺪل رﮔﺮﺳﻴﻮن ﺧﻄﻲ ﺳﺎدﻩ:
ﺼﻔﺤﻪ 18ﺍﺯ 18