ﻧﺎدر ﻧﻌﻤﺖ اﻟﻬﻲ ﮔﺮوه آﻣﺎر داﻧﺸﮕﺎه ﻋﻼﻣﻪ ﻃﺒﺎﻃﺒﺎﻳﻲ داﻧﻠﻮد از ﺳﺎﻳﺖ رﻳﺎﺿﻲ ﺳﺮا
www.riazisara.ir
ﻓﻬﺮﺳﺖ ﻣﻄﺎﻟﺐ ﻋﻨﻮان
ﺻﻔﺤﻪ
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
1
-1ﺧﻼﺻﻪاي از ﻧﻈﺮﻳﻪ اﻧﺪازه ..........................................................................................................
2
-2ﺧﺎﻧﻮاده ﮔﺮوﻫﻲ از ﺗﻮزﻳﻊﻫﺎ 8 ........................................................................................................ -3ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ از ﺗﻮزﻳﻊﻫﺎ ..........................................................................................................
12
-4آﻣﺎرهﻫﺎي ﺑﺴﻨﺪه 19 ......................................................................................................................... -5ﻛﺎﻣﻞ ﺑﻮدن ................................................................................................................................
29
-6ﺗﻮاﺑﻊ زﻳﺎن ﻣﺤﺪب......................................................................................................................
33
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
38
-1ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳﺐ 39 ................................................................................................................. -5ﻧﺎﻣﺴﺎوي اﻃﻼع )ﻧﺎﻣﺴﺎوي ﻛﺮاﻣﺮ -راﺋﻮ( ....................................................................................
51
-6ﻧﺎﻣﺴﺎوي اﻃﻼع )ﻛﺮاﻣﺮ -راﺋﻮ( در ﺣﺎﻟﺖ ﭼﻨﺪ ﭘﺎراﻣﺘﺮي 58 ...............................................................
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ -1ﻣﻔﻬﻮم ﭘﺎﻳﺎﺋﻲ و ﻛﻠﻴﺎت ...............................................................................................................
63 64
-2ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ ﻣﻜﺎن 78 .................................................................................................... -3ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ ﻣﻘﻴﺎس86 ................................................................................................... -4ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮﻫﺎي ﻣﻜﺎن-ﻣﻘﻴﺎس 93 ...............................................................................
ﻓﺼﻞ ﭼﻬﺎرم :ﺗﺼﻤﻴﻢ ﺑﻴﺰي
102
-1ﻣﻘﺪﻣﻪ 103 ........................................................................................................................................ -2ﺗﺼﻤﻴﻢ ﺑﻴﺰي 105 ..............................................................................................................................
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
122
-1ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ ......................................................................................................................
123
-2ﺗﺼﻤﻴﻢﻫﺎي ﻣﺠﺎز )ﭘﺬﻳﺮﻓﺘﻨﻲ( .....................................................................................................
138
ﻣﺮاﺟﻊ
164
١
داﻧﻠﻮد از ﺳﺎﻳﺖ رﻳﺎﺿﻲ ﺳﺮا
www.riazisara.ir
ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
ﺑﺨﺶ :1ﺧﻼﺻﻪاي از ﻧﻈﺮﻳﻪ اﻧﺪازه
2
1
در اﺑﺘﺪا ﺧﻼﺻﻪاي از ﻧﻈﺮﻳﻪ اﻧﺪازه ﻛﻪ ﻣﻮرد ﻟﺰوم ﻣﺒﺎﺣﺚ اﻳﻦ درس ﻣﻲﺑﺎﺷﺪ را ﻣﺮور ﻣﻲﻛﻨﻴﻢ. ﺗﻌﺮﻳﻒ : 1-1ﺳﻴﮕﻤﺎ ﻣﻴﺪان ) (σ − field
ﻓﺮض ﻛﻨﻴﺪ Ωﻳﻚ ﻣﺠﻤﻮﻋﻪ ﺑﺎﺷﺪ و Aﻣﺠﻤﻮﻋﻪاي ﻏﻴﺮ ﺗﻬﻲ از زﻳﺮ ﻣﺠﻤﻮﻋﻪﻫﺎي Ωﺑﺎﺷﺪ A .را ﻳﻚ ﺳﻴﮕﻤﺎ ﻣﻴﺪان ﮔﻮﻳﻨﺪ ﺑﻪ ﺷﺮط آن ﻛﻪ ﺷﺮاﻳﻂ زﻳﺮ ﺑﺮاي آن ﺑﺮﻗﺮار ﺑﺎﺷﺪ اﻟﻒ( اﮔﺮ A ∈ Aآﻧﮕﺎه A C ∈ A
ب( اﮔﺮ A1, A2 ,....ﻣﺠﻤﻮﻋﻪﻫﺎﻳﻲ درA
∞
ﺑﺎﺷﻨﺪ آﻧﮕﺎه ∪ A n ∈ A
■
n =1
از ﺗﻌﺮﻳﻒ ﻓﻮق ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد ﻛﻪ اﮔﺮ Aﻳﻚ ﺳﻴﮕﻤﺎ ﻣﻴﺪان ﺑﺎﺷﺪ آﻧﮕﺎه ∅ ∈ A ، Ω ∈ Aو ∞
∩ An ∈ A
n =1
ﺧﻮاﻫﺪ ﺑﻮد.
ﺗﻌﺮﻳﻒ : 2-1ﻳﻚ اﻧﺪازه μﻳﻚ ﺗﺎﺑﻊ ﻣﺠﻤﻮﻋﻪاي روي ﺳﻴﮕﻤﺎ ﻣﻴﺪان Aاز زﻳﺮ ﻣﺠﻤﻮﻋﻪﻫﺎي Ωاﺳﺖ )∞ μ : A → [0,
ﻫﺮ ﮔﺎه در ﺷﺮاﻳﻂ زﻳﺮ ﺻﺪق ﻛﻨﺪ اﻟﻒ( اﮔﺮ A ∈ Aآﻧﮕﺎه μ (A ) ≥ 0 ب( اﮔﺮ A1, A2 ,... ∈ Aو A iﻫﺎ ﻣﺠﺰا ﺑﺎﺷﻨﺪ ،ﻳﻌﻨﻲ ∀i ≠ j ∞⎛ ∞ ⎞ ) μ ⎜ ∪ Ai ⎟ = ∑ μ (A n ⎝ n =1 ⎠ n =1
، Ai ∩ A j = φآﻧﮕﺎه ■
اﮔﺮ Aﻳﻚ ﺳﻴﮕﻤﺎ ﻣﻴﺪان از زﻳﺮ ﻣﺠﻤﻮﻋﻪﻫﺎي Ωﺑﺎﺷﺪ آﻧﮕﺎه ) ( Ω, Aرا ﻳﻚ ﻓﻀﺎي اﻧﺪازهﭘﺬﻳﺮ
2
ﮔﻮﻳﻨﺪ و ﻣﺠﻤﻮﻋﻪي A ∈ Aرا اﻧﺪازهﭘﺬﻳﺮ ﮔﻮﻳﻨﺪ .ﻫﻤﭽﻨﻴﻦ اﮔﺮ μﻳﻚ اﻧﺪازه ﺑﺎﺷﺪ ﻛﻪ روي ) ( Ω, A ﺗﻌﺮﻳﻒ ﺷﺪه ﺑﺎﺷﺪ آﻧﮕﺎه ﺳﻪ ﺗﺎﻳﻲ ) ( Ω, A , μرا ﻳﻚ ﻓﻀﺎي اﻧﺪازه 3ﻣﻲﻧﺎﻣﻨﺪ .ﻳﻚ اﻧﺪازه μﺳﻴﮕﻤﺎ
١
Measure Theory Measurable Space ٣ Measure Space ٢
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
3
ﻣﺘﻨﺎﻫﻲ ) (σ − finiteﻧﺎﻣﻴﺪه ﻣﻲﺷﻮد .ﻫﺮ ﮔﺎه ﻣﺠﻤﻮﻋﻪﻫﺎي A i ∈ Aﻣﻮﺟﻮد ﺑﺎﺷﻨﺪ ﻛﻪ Ω = ∪ A i i
و ∞ < ) . μ (Aiﺗﻤﺎم اﻧﺪازهﻫﺎﻳﻲ ﻛﻪ در اﻳﻦ درس ﺑﺮرﺳﻲ ﻣﻲ ﺷﻮﻧﺪ ،ﺳﻴﮕﻤﺎ ﻣﺘﻨﺎﻫﻲ ﻫﺴﺘﻨﺪ و ﺑﻪ ﻫﻤﻴﻦ دﻟﻴﻞ آن ﻫﺎ را ﺗﻨﻬﺎ اﻧﺪازه ﻣﻲ ﻧﺎﻣﻴﻢ. ﻣﺜﺎل :1-1اﻧﺪازهﺷﻤﺎرﻧﺪه .1ﻓﺮضﻛﻨﻴﺪ } Ω = {w 1,w 2 ,w 3 ,...و اﮔﺮ Aﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ اﮔﺮ Aﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ ﻧﺎﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ Aﻧﺎﻣﺘﻨﺎﻫﻲ اﮔﺮ A ﺑﺎﺷﺪ
ﺗﻤﺎم زﻳﺮﻣﺠﻤﻮﻋﻪﻫﺎي A = Ω
ﺗﻌﺪاداﻋﻀﺎي ﻣﺠﻤﻮﻋﻪ ⎧ A ⎨ = ) ⇒ μ (A ﺗﻌﺪاد اﻋﻀﺎي ﻣﺠﻤﻮﻋﻪ ∞⎩
اﻳﻦ اﻧﺪازه را اﻧﺪازه ﺷﻤﺎرﻧﺪه ﮔﻮﻳﻨﺪ.
if A ∈ A
■
ﻣﺜﺎل :2-1اﻧﺪازه ﻟﺒﮓ .2ﻓﺮض ﻛﻨﻴﺪ Ωﻓﻀﺎ اﻗﻠﻴﺪﺳﻲ nﺑﻌﺪي ﺑﺎﺷﺪ،
}
{
Ω = (w 1,...,w n ) | w i ∈ ℜ, ∀iو Aﻛﻮﭼﻜﺘﺮﻳﻦ ﺳﻴﮕﻤﺎ ﻣﻴﺪاﻧﻲ ﺑﺎﺷﺪ ﻛﻪ ﺷﺎﻣﻞ ﺗﻤﺎم
ﻣﺴﺘﻄﻴﻞﻫﺎي ﺑﺎز زﻳﺮ ﺑﺎﺷﺪ:
{
}
∞A = (w 1,w 2 ,....,w n ) | ai < w i < bi , −∞ < ai < bi < +
Aﺷﺎﻣﻞ ﺗﻤﺎم زﻳﺮﻣﺠﻤﻮﻋﻪﻫﺎي ﺑﺎز و ﺑﺴﺘﻪ Ωﻣﻲﺑﺎﺷﺪ و ﺑﻪ اﻋﻀﺎي آن ﻣﺠﻤﻮﻋﻪﻫﺎي ﺑﺮل 3ﮔﻮﻳﻨﺪ .ﺗﻨﻬﺎ ﻳﻚ اﻧﺪازه μﻣﻲﺗﻮان روي اﻳﻦ Aﻣﻌﺮﻓﻲ ﻛﺮد ﻛﻪ ﺑﻪ ﻣﺠﻤﻮﻋﻪ Aﻓﻮق اﻧﺪازه ) μ (A ) = (b1 − a1)(b2 − a2 )....(b n − an
را ﻧﺴﺒﺖ ﻣﻲدﻫﺪ ) ﻛﻪ ﺣﺠﻢ ﻣﺠﻤﻮﻋﻪ Aاﺳﺖ( و ﺑﻪ آن اﻧﺪازه ﻟﺒﮓ ﮔﻮﻳﻨﺪ.
■
ﺗﻮاﺑﻊ اﻧﺪازهﭘﺬﻳﺮ :4 ﻳﻚ ﺗﺎﺑﻊ ﺣﻘﻴﻘﻲ f : Ω → Rﻳﻚ ﺗﺎﺑﻊ اﻧﺪازهﭘﺬﻳﺮ اﺳﺖ اﮔﺮ ﺑﺮاي ﻫﺮ ﻣﺠﻤﻮﻋﻪ ﺑﺮل Bداﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ (B ) ∈ A
−1
. fﺑﺮاي ﻣﺜﺎل x ∈A x ∉A
⎧ ⎪1 ⎨ = ) A ∈ A , I A (x ⎪0 ⎩ ١
Counting Measure Lebesgue Measure ٣ Borel Sets ٤ Measurable Functions ٢
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
4
I Aﻳﻚ ﺗﺎﺑﻊ اﻧﺪازهﭘﺬﻳﺮ اﺳﺖ .اﮔﺮ A1, A2 ,...., A K ∈ Aو Ai ∩ A j = φآﻧﮕﺎه AA ) f s (x ) = a1I A1 (x ) + a2I A2 (x ) + .... + ak I Ak (x
ﻳﻚ ﺗﺎﺑﻊ اﻧﺪازهﭘﺬﻳﺮ اﺳﺖ ﻛﻪ ﺑﻪ آن ﺗﺎﺑﻊ ﺳﺎده ﮔﻮﻳﻨﺪ .ﺣﺎل اﮔﺮ ﻳﻚ دﻧﺒﺎﻟﻪ از ﺗﻮاﺑﻊ ﺳﺎده ﻏﻴﺮﻧﺰوﻟﻲ f s1 , f s2 ,....را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ و ﻗﺮار دﻫﻴﻢ ) ∞ f + (x ) = lim f s n (x ) ∈ [0, ∞→ n
آﻧﮕﺎه
+
fﻳﻚ ﺗﺎﺑﻊ اﻧﺪازهﭘﺬﻳﺮ اﺳﺖ .ﻫﻤﭽﻨﻴﻦ ﻳﻚ ﺗﺎﺑﻊ دﻟﺨﻮاه fرا ﻣﻲﺗﻮان ﺑﺼﻮرت
−
−f
+
f =f
ﻧﻮﺷﺖ ﻛﻪ در آن )f + (x ) = max(f (x ),0 )f − (x ) = − min(f (x ),0
ﻳﻚ ﺗﺎﺑﻊ f : Ω → Rاﻧﺪازهﭘﺬﻳﺮ ﺧﻮاﻫﺪ ﺑﻮد اﮔﺮ ﻗﺴﻤﺖ ﻫﺎي ﻣﺜﺒﺖ و ﻣﻨﻔﻲ آن ﻳﻌﻨﻲ f +و اﻧﺪازهﭘﺬﻳﺮ ﺑﺎﺷﻨﺪ و ﻫﻤﭽﻨﻴﻦ
+
−
f
fو f −در ﺻﻮرﺗﻲ اﻧﺪازهﭘﺬﻳﺮ ﻫﺴﺘﻨﺪ ﻛﻪ ﺑﺼﻮرت ﺣﺪ دﻧﺒﺎﻟﻪاي از ﺗﻮاﺑﻊ
ﺳﺎده ﻏﻴﺮﻧﺰوﻟﻲ ﺑﺎﺷﻨﺪ.
اﻧﺘﮕﺮال ﻳﻚ ﺗﺎﺑﻊ ﻧﺴﺒﺖ ﺑﻪ اﻧﺪازه : μ ) ⇒ ∫ I A d μ = μ (A
⎧ ⎪1 ⎨ = ) I A (x ⎪0 ⎩
x ∈A x ∉A
k
) f s (x ) = a1I A1 (x ) + ... + ak I A k ( x ) ⇒ ∫ f s d μ = ∑ ai μ ( Ai i =1
f (x ) = lim f s n (x ) ⇒ ∫ fd μ = lim ∫ f s n d μ ∞→ n
∞→ n
⇒ ∫ fd μ = ∫ f +d μ − ∫ f −d μ
−
−f
+
f =f
ﻣﺜﺎل :3-1اﮔﺮ } Ω = {x 1, x 2 ,...و μاﻧﺪازه ﺷﻤﺎرﻧﺪه ﺑﺎﺷﺪ اﻧﮕﺎه ﺑﺮاي ﻳﻚ ﺗﺎﺑﻊ ) ∞ f : Ω → [0,دارﻳﻢ ﻛﻪ i = 1, 2,..., n
⎧ ) ⎪f ( x i ⎨ = ) f s n (x ⎪ 0 ⎩
x = xi
o .w .
) = f ( x 1) I {x } ( x ) + f ( x 2 ) I {x } ( x ) + ... + f ( x n ) I {x } ( x n
2
1
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
5
f (x ) = lim f s n (x ) = f (x 1) I {x } (x ) + f (x 2 )I {x } (x ) + ... 2
∞→ n
1
⎧ ) ⎪f ( x i ⎨= ⎪0 ⎩
x = xi o .w . ∞+
n
i =1
i =1
) ∫ f (x )d μ = lim ∫ f s n (x )d μ = lim ∑ f (x i ) =∑ f (x i ﭘﺲ در ﺻﻮرﺗﻲ fﻧﺴﺒﺖ ﺑﻪ μاﻧﺘﮕﺮالﭘﺬﻳﺮ اﺳﺖ ﻛﻪ
واژه ﺗﻘﺮﻳﺒﺎ ﻫﻤﻪ ﺟﺎ
∞→ n
∞→ n
∞+
) ∑ f (x i i =1
ﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ■ .
1
ﻓﺮض ﻛﻨﻴﺪ ﻳﻚ ﮔﺰاره Pﺑﺮاي ﺗﻤﺎم ﻧﻘﺎط Ωدرﺳﺖ ﺑﺎﺷﺪ ﺑﺠﺰ ﻧﻘﺎط Aﻛﻪ در آن ) μ (A ) =0ﻳﻌﻨﻲ P ﺑﺮاي ﺗﻤﺎم Ω − Aدرﺳﺖ اﺳﺖ و μ (A ) = 0ﻣﻲ ﺑﺎﺷﺪ( در اﻳﻦ ﺻﻮرت ﮔﻮﺋﻴﻢ اﻳﻦ ﮔﺰاره ﺗﻘﺮﻳﺒﺎ ﻫﻤﻪ ﺟﺎ μدرﺳﺖ اﺳﺖ( a0e0μ ) .
ﻗﻀﻴﻪ ﻫﻤﮕﺮاﻳﻲ ﻣﻐﻠﻮب : 2 اﮔﺮ f nدﻧﺒﺎﻟﻪاي از ﺗﻮاﺑﻊ اﻧﺪازهﭘﺬﻳﺮ ﺑﺎﺷﻨﺪ و و ﻳﻚ ﺗﺎﺑﻊ اﻧﺘﮕﺮالﭘﺬﻳﺮ gﭼﻨﺎن ﻣﻮﺟﻮد ﺑﺎﺷﺪ ﻛﻪ آﻧﮕﺎه f nو fاﻧﺘﮕﺮالﭘﺬﻳﺮ ﻫﺴﺘﻨﺪ و
ﻟﻢ ﻓﺎﺗﻮ
) (a.e .μ
∀x
) lim f n ( x ) = f (x
∞→ n
) f n (x ) ≤ g (x
f nd μ ∫ fd μ = nlim ∫ ∞→
■
3
اﮔﺮ } {f nدﻧﺒﺎﻟﻪاي از ﺗﻮاﺑﻊ ﻧﺎﻣﻨﻔﻲ اﻧﺪازهﭘﺬﻳﺮ ﺑﺎﺷﻨﺪ ،آﻧﮕﺎه inf f n )d μ ≤ lim inf ∫ f n d μ ∫ ( nlim ∞→ n ∞→
■
١
almost every where Dominated Convergence Theorem ٣ Fatou’s Lemma ٢
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
ﻗﻀﻴﻪ رادون ﻧﻴﻜﻮدﻳﻢ
6
1
ﻓﺮض ﻛﻨﻴﺪ fﻳﻚ ﺗﺎﺑﻊ ﻧﺎﻣﻨﻔﻲ اﻧﺘﮕﺮالﭘﺬﻳﺮ و A ∈ Aﺑﺎﺷﺪ .ﻗﺮار ﻣﻲدﻫﻴﻢ: ν (A ) = ∫ fd μ
)(1
A
در اﻳﻦ ﺻﻮرت ) ν (Aﻳﻚ اﻧﺪازه روي ) ( Ω , Aاﺳﺖ و واﺿﺢ اﺳﺖ ﻛﻪ μ (A ) = 0 ⇒ ν (A ) = 0
)(2
اﮔﺮ راﺑﻄﻪ ) (2ﺑﺮﻗﺮار ﺑﺎﺷﺪ ﮔﻮﻳﻴﻢ ﻛﻪ νﻧﺴﺒﺖ ﺑﻪ μﻣﻄﻠﻘﺎً ﭘﻴﻮﺳﺘﻪ 2اﺳﺖ.
■
ﻗﻀﻴﻪ رادون ﻧﻴﻜﻮدﻳﻢ ﻣﻲ ﮔﻮﻳﺪ ﻛﻪ راﺑﻄﻪ ) (2ﺷﺮط ﻻزم و ﻛﺎﻓﻲ ﺑﺮاي آن اﺳﺖ ﻛﻪ ﻳﻚ ﺗﺎﺑﻊ fﻣﻮﺟﻮد ∂ν ﺑﺎﺷﺪ ﻛﻪ در راﺑﻄﻪ ) (1ﺻﺪق ﻛﻨﺪ .ﺗﺎﺑﻊ fرا ﻣﺸﺘﻖ رادون ﻧﻴﻜﻮدﻳﻢ νﻧﺴﺒﺖ ﺑﻪ μﮔﻮﻳﻨﺪ ∂μ
= .f
اﻳﻦ ﻣﺸﺘﻖ ﺑﻪ ﺻﻮرت a.e .ﻳﻜﺘﺎ اﺳﺖ ﻳﻌﻨﻲ اﮔﺮ gﻧﻴﺰ در راﺑﻄﻪ ) (1ﺻﺪق ﻛﻨﺪ آﻧﮕﺎه: a.e .μ
. f =g
ﻗﻀﻴﻪ ﻓﻮﺑﻴﻨﻲ
3
ﻓﺮض ﻛﻨﻴﺪ ) (Ω1, A , μو ) (Ω2 , B ,νدو ﻓﻀﺎي اﻧﺪازه و fﻳﻚ ﺗﺎﺑﻊ ﻏﻴﺮﻣﻨﻔﻲ اﻧﺪازهﭘﺬﻳﺮ روي Ω1 × Ω2ﺑﺎﺷﺪ .در اﻳﻦ ﺻﻮرت: ⎡
⎤
⎡
⎤
) ∫ ⎢⎣ ∫Ω f (x , y )dν ( y ) ⎥⎦ d μ (x ) = ∫ ⎢⎣ ∫Ω f (x , y )d μ (x ) ⎥⎦ d μ ( y 1
■ ) f d ( μ ×ν
اﻧﺪازه اﺣﺘﻤﺎل
Ω2
2
Ω1
∫=
Ω1×Ω2
4
ﻓﺮض ﻛﻨﻴﺪ Ωﻓﻀﺎي ﻧﻤﻮﻧﻪ ﻳﻚ آزﻣﺎﻳﺶ ﺗﺼﺎدﻓﻲ ﺑﺎﺷﺪ .ﻳﻚ اﻧﺪازهي Pروي ﻓﻀﺎي اﻧﺪازهﭘﺬﻳﺮ ) (Ω, Aﻛﻪ در ﺷﺮط P (Ω) = 1ﺻﺪق ﻛﻨﺪ را اﻧﺪازهي اﺣﺘﻤﺎل ﮔﻮﻳﻨﺪ و ﺑﻪ ﻣﻘﺪار ) P (Aاﺣﺘﻤﺎل Aﮔﻮﻳﻨﺪ و ﺑﻪ ) (Ω, A , Pﻓﻀﺎي اﺣﺘﻤﺎل ﮔﻮﻳﻨﺪ. ١
Radon Nikodym Absolutely Continuous ٣ Fubini’s Theorem ٤ Probability Measure ٢
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
7
اﮔﺮ Pﻧﺴﺒﺖ ﺑﻪ اﻧﺪازه μﻣﻄﻠﻘﺎً ﭘﻴﻮﺳﺘﻪ ﺑﺎﺷﺪ و pﻣﺸﺘﻖ رادون ﻧﻴﻜﻮدﻳﻢ آن ﺑﺎﺷﺪ آﻧﮕﺎه P ( A ) = ∫ pd μ A
pرا ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ اﺣﺘﻤﺎل Pﻧﺴﺒﺖ ﺑﻪ μﮔﻮﻳﻨﺪ. در اﻳﻦ درس ﻣﻌﻤﻮﻻً Ωرا ﻓﻀﺎي اﻗﻠﻴﺪﺳﻲ در ﻧﻈﺮ ﻣﻲ ﮔﻴﺮﻳﻢ .اﮔﺮ اﻧﺪازهي اﺣﺘﻤﺎل Pﻧﺴﺒﺖ ﺑﻪ اﻧﺪازهي ﻟﺒﮓ ﻣﻄﻠﻘﺎً ﭘﻴﻮﺳﺘﻪ ﺑﺎ ﭼﮕﺎﻟﻲ pﺑﺎﺷﺪ آﻧﮕﺎه ﺗﻮزﻳﻊ ﻣﺮﺑﻮﻃﻪ را ﻳﻚ ﺗﻮزﻳﻊ ﭘﻴﻮﺳﺘﻪ و اﮔﺮ P
ﻧﺴﺒﺖ ﺑﻪ اﻧﺪازه ﺷﻤﺎرﻧﺪه ﻣﻄﻠﻘﺎً ﭘﻴﻮﺳﺘﻪ ﺑﺎ ﭼﮕﺎﻟﻲ pﺑﺎﺷﺪ آﻧﮕﺎه ﺗﻮزﻳﻊ ﻣﺮﺑﻮﻃﻪ را ﻳﻚ ﺗﻮزﻳﻊ ﮔﺴﺴﺘﻪ ﮔﻮﻳﻨﺪ .در ﻛﺎرﺑﺮدﻫﺎي ﻣﻌﻤﻮﻟﻲ اﻳﻦ درس دارﻳﻢ ﻛﻪ :
) pﭘﻴﻮﺳﺘﻪ( اﻧﺪازه ﻟﺒﮓ ) pﮔﺴﺴﺘﻪ( اﻧﺪازه ﺷﻤﺎرﻧﺪه
⎧⎪ f ( x ) p (x )dx ∫ μ fdP fpd = = ⎨ ∫ ∫ ) ⎪⎩∑ f ( x ) p (x
در اﺳﺘﻨﺒﺎط آﻣﺎري ﻣﻌﻤﻮﻻً ﺑﺎ ﻳﻚ ﺧﺎﻧﻮاده از ﺗﻮزﻳﻊﻫﺎ ﺑﻪ ﺻﻮرت } P = {Pθ : θ ∈ Θﺳﺮ و ﻛﺎر دارﻳﻢ. اﮔﺮ ﺑﻪ ازاي ﻫﺮ Pθ ، θﻧﺴﺒﺖ ﺑﻪ اﻧﺪازه μﻣﻄﻠﻘﺎً ﭘﻴﻮﺳﺘﻪ ﺑﺎﺷﺪ ﮔﻮﻳﻴﻢ ﻛﻪ ﺧﺎﻧﻮاده Pﺗﺤﺖ ﺗﺴﻠﻂ μ ﻗﺮار دارد .1اﮔﺮ Pθ (N ) = 0ﮔﻮﺋﻴﻢ N = Pθ − null setو اﮔﺮ ∀θ ∈ Θ
Pθ (N ) = 0ﮔﻮﻳﻴﻢ
. N = P – null set
ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ: در ﻳﻚ ﻓﻀﺎي اﺣﺘﻤﺎل ) (Ω, A , Pﺗﺎﺑﻊ X : Ω → Rرا اﮔﺮ اﻧﺪازهﭘﺬﻳﺮ ﺑﺎﺷﺪ ﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﮔﻮﻳﻨﺪ ﻳﻌﻨﻲ اﮔﺮ ﺑﺮاي ﻫﺮ ﻣﺠﻤﻮﻋﻪ ﺑﺮل (B ) ∈ A ، B
−1
Xﺑﺎﺷﺪ آﻧﮕﺎه Xرا ﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ
ﮔﻮﻳﻨﺪ ) PX (B ) = P (X ∈ B ) = P (A
,
) (B
−1
A =X
PXرا ﺗﻮزﻳﻊ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ Xﻧﺎﻣﻴﻢ. اﮔﺮ PXﻧﺴﺒﺖ ﺑﻪ اﻧﺪازه ﻟﺒﮓ ﻣﻄﻠﻘﺎً ﭘﻴﻮﺳﺘﻪ ﺑﺎﺷﺪ آﻧﮕﺎه Xرا ﻳﻚ ﻣﺘﻐﻴﺮ ﭘﻴﻮﺳﺘﻪ ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ p X PX ( A ) = ∫ p x d μ
ﮔﻮﻳﻴﻢ ﻫﺮ ﮔﺎه
A
و Xرا ﮔﺴﺴﺘﻪ ﮔﻮﺋﻴﻢ ﻫﺮ ﮔﺎه
Counting Measure
∼ PX ( A ) = ∫ p x d μ A
μ
Dominated by
١
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
8
در ﻫﺮ ﺻﻮرت p Xرا ﻣﻲﺗﻮان ﭼﮕﺎﻟﻲ PXﻧﺎﻣﻴﺪ .ﮔﺮﭼﻪ در ﺣﺎﻟﺖ ﮔﺴﺴﺘﻪ آن را ﺗﺎﺑﻊ اﺣﺘﻤﺎل ﻧﻴﺰ ﮔﻮﻳﻨﺪ. اﮔﺮ ] A = ( −∞, x
FX ( x ) = PX ( A ),آﻧﮕﺎه FXرا ﺗﺎﺑﻊ ﺗﻮزﻳﻊ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ Xﻧﺎﻣﻴﻢ .اﮔﺮ X
ﭘﻴﻮﺳﺘﻪ ﺑﺎﺷﺪ ) PXﻣﻄﻠﻘﺎً ﭘﻴﻮﺳﺘﻪ اﺳﺖ( آﻧﮕﺎه ﺛﺎﺑﺖ ﻣﻲﺷﻮد ﻛﻪ ﺗﺎﺑﻊ ) FX (xﻧﻴﺰ ) ﺑﺎ ﺗﻌﺮﻳﻒ ﺗﻮاﺑﻊ ﻣﻄﻠﻘﺎً ﭘﻴﻮﺳﺘﻪ در آﻧﺎﻟﻴﺰ( ﻣﻄﻠﻘﺎً ﭘﻴﻮﺳﺘﻪ اﺳﺖ. در آﻧﺎﻟﻴﺰ ،ﺗﺎﺑﻊ gرا ﻣﻄﻠﻘﺎً ﭘﻴﻮﺳﺘﻪ ﻧﺎﻣﻴﻢ اﮔﺮ ﺑﻪ ازاي ﻫﺮ ε > 0ﻳﻚ δ >0وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﻛﻪ ﺑﻪ n
n
i =1
i =1
∑ (bi − ai ) < δ ⇒ ∑ f (bi ) − f (ai ) < ε
ازاي ﻫﺮ ، n
ﺑﺨﺶ :2ﺧﺎﻧﻮاده ﮔﺮوﻫﻲ از ﺗﻮزﻳﻊﻫﺎ
1
در اﻳﻦ درس ﺑﺎ دو ﺧﺎﻧﻮاده از ﺗﻮزﻳﻊﻫﺎ ﺳﺮ و ﻛﺎر دارﻳﻢ ﻛﻪ ﻳﻜﻲ ﺧﺎﻧﻮاده ﮔﺮوﻫﻲ و دﻳﮕﺮي ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ از ﺗﻮزﻳﻊﻫﺎ ﻣﻲ ﺑﺎﺷﺪ. ﺗﻌﺮﻳﻒ :1-2ﻳﻚ ﺧﺎﻧﻮاده ﮔﺮوﻫﻲ از ﺗﻮزﻳﻊﻫﺎ ﺑﻪ وﺳﻴﻠﻪ اﻧﺠﺎم ﻳﻚ ﺧﺎﻧﻮاده از ﺗﺒﺪﻳﻼت روي ﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﺑﺎ ﻳﻚ ﺗﻮزﻳﻊ ﺧﺎص ﺣﺎﺻﻞ ﻣﻲﺷﻮد. در زﻳﺮ ﺳﻪ ﺧﺎﻧﻮادهي ﻣﻬﻢ از ﺧﺎﻧﻮادهي ﮔﺮوهﻫﺎ را ﻣﻌﺮﻓﻲ ﻣﻲ ﻛﻨﻴﻢ.
-1ﺧﺎﻧﻮادهي ﻣﻜﺎﻧﻲ
2
ﻓﺮض ﻛﻨﻴﺪ Uﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﺑﺎ ﻳﻚ ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ﺛﺎﺑﺖ ) f (uﺑﺎﺷﺪ .اﮔﺮ μﻣﻘﺪاري ﺛﺎﺑﺖ ﺑﺎﺷﺪ آﻧﮕﺎه ﺗﻮزﻳﻊ X = U + μﻋﺒﺎرت اﺳﺖ از
) f X (x ) = f (x − μ
ﺗﻮزﻳﻊ ﺣﺎﺻﻞ ﺑﺮاي ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ﺛﺎﺑﺖ fو ∞ −∞ < μ < +را ﻳﻚ ﺧﺎﻧﻮاده ﻣﻜﺎﻧﻲ از ﺗﻮزﻳﻊﻫﺎ ﮔﻮﻳﻨﺪ. ﺑﺮاي ﻣﺜﺎل ﺗﻮزﻳﻊ ) N ( μ ,1ﻛﻪ از ﺗﻮزﻳﻊ ﺛﺎﺑﺖ ) N (0,1ﺑﺎ ﺟﻤﻊ ﺑﺎ ﻣﻘﺪار ﺛﺎﺑﺖ μﺣﺎﺻﻞ ﻣﻲﺷﻮد. 1
) 1 −2(x −μ = ) f x (x e ) = f (x − μ 2π 2
Z ∼ N (0,1) ⇒ X = Z + μ ~ N ( μ ,1), Group Families
١
Location Family
٢
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
-2ﺧﺎﻧﻮاده ﻣﻘﻴﺎﺳﻲ
9
1
ﻓﺮض ﻛﻨﻴﺪ Uﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﺑﺎ ﻳﻚ ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ﺛﺎﺑﺖ ) f (uﺑﺎﺷﺪ .اﮔﺮ σﻣﻘﺪاري ﺛﺎﺑﺖ ﺑﺎﺷﺪ x آﻧﮕﺎه ﺗﻮزﻳﻊ X = σUﻋﺒﺎرت اﺳﺖ از ) ( f
1
= ) f X (x
σ σ ﺗﻮزﻳﻊ ﺣﺎﺻﻞ ﺑﺮاي σ > 0را ﻳﻚ ﺧﺎﻧﻮاده ﻣﻘﻴﺎﺳﻲ از ﺗﻮزﻳﻊﻫﺎ ﮔﻮﻳﻨﺪ.
ﺑﺮاي ﻣﺜﺎل ﺗﻮزﻳﻊ ) E (θﻛﻪ از ﺗﻮزﻳﻊ ﺛﺎﺑﺖ ) E (1ﺑﺎ ﺿﺮب در ﻣﻘﺪار ﺛﺎﺑﺖ θﺣﺎﺻﻞ ﻣﻲﮔﺮدد. x ) ( f
θ
1
θ
x
θ
=
−
1
U ~ E (1) ⇒ X = θU ~ E (θ ),
f X (x ) = e
θ
-3ﺧﺎﻧﻮادهي ﻣﻜﺎﻧﻲ – ﻣﻘﻴﺎﺳﻲ
2
ﻓﺮض ﻛﻨﻴﺪ Uﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﺑﺎ ﻳﻚ ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ﺛﺎﺑﺖ ) f (uﺑﺎﺷﺪ .اﮔﺮ μو σﻣﻘﺎدﻳﺮ ﺛﺎﺑﺘﻲ x −μ
1
ﺑﺎﺷﻨﺪ .آﻧﮕﺎه ﺗﻮزﻳﻊ X = μ + σUﻋﺒﺎرتاﺳﺖ از ) σ σ ﺗﻮزﻳﻊ ﺣﺎﺻﻞ ﺑﺮاي ∞ −∞ < μ < +و σ > 0را ﻳﻚ ﺧﺎﻧﻮاده ﻣﻜﺎﻧﻲ – ﻣﻘﻴﺎﺳﻲ از ﺗﻮزﻳﻊﻫﺎ ﮔﻮﻳﻨﺪ. ( f
= ) f X (x
ﺑﺮاي ﻣﺜﺎل ﺗﻮزﻳﻊ ) N ( μ ,σ 2از ﺗﻮزﻳﻊ ) N (0,1ﺑﻪ ﺻﻮرت زﻳﺮ ﺣﺎﺻﻞ ﻣﻲﮔﺮدد. U ~ N (0,1) ⇒ X = μ + σU ~ N ( μ , σ 2 ), )
x −μ
σ
( f
1
σ
=
1 x −μ 2 )
σ
(1 −2 e 2π
1
σ
= ) f X (x
در زﻳﺮ ﺗﻌﺪادي از ﺧﺎﻧﻮاده ﻫﺎي ﻣﻜﺎﻧﻲ ﻣﻘﻴﺎﺳﻲ آورده ﺷﺪه اﺳﺖ. ) I (α +∞ ) (x
1 ) − ( x −α
β
e
1
β
= ) f X (x
) E (α , β
) (i
1
| 1 − β |x −α = ) f X (x e 2β 1 = ) f X (x x −α 2 ( π {1 + })
) DE (α , β
) (ii
) C (α , β
) (iii
β
scale family location – scale family
١ ٢
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
www.riazisara.ir
10
) U (θ − ,θ + 2 2
) (iv
τ
τ
در ﻫﺮ ﻳﻚ از ﺣﺎﻻت ﻓﻮق ﻣﺎ ﻳﻚ ﻛﻼس از ﺗﺒﺪﻳﻼت Gو ﻳﻚ ﻋﻤﻞ * دارﻳﻢ ﻛﻪ داراي دو ﺧﺎﺻﻴﺖ زﻳﺮ اﺳﺖ. اﻟﻒ -ﻛﻼس Gﺗﺤﺖ ﻋﻤﻞ ﺗﺮﻛﻴﺐ ﺑﺴﺘﻪ اﺳﺖ ﻳﻌﻨﻲ g1 ∗ g 2 ∈ G
g 1, g 2 ∈ G
then
if
ب -ﻛﻼس Gﺗﺤﺖ ﻋﻤﻞ وارون ﺑﺴﺘﻪ اﺳﺖ ﻳﻌﻨﻲ ∋ g * g −1 = e ∈ G
then ∃g −1 ∈ G
g∈G
if
ﻛﻪ eﺗﺒﺪﻳﻞ ﻫﻤﺎﻧﻲ ﻧﺎم دارد. ﻳﻚ ﻛﻼس از ﺗﺒﺪﻳﻼت ﻛﻪ ﺗﺤﺖ ﻋﻤﻞ ﺗﺮﻛﻴﺐ و وارون ﺑﺴﺘﻪ ﺑﺎﺷﺪ ،ﻳﻚ ﮔﺮوه ﺗﺒﺪﻳﻼت ﻧﺎﻣﻴﺪه ﻣﻲﺷﻮد. ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ Pﻳﻚ ﺗﻮزﻳﻊ ﺧﺎص و ﻣﻌﻠﻮم ﻣﺮﺑﻮط ﺑﻪ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ Xﺑﺎﺷﺪ .در اﻳﻦ ﺻﻮرت ﻣﺠﻤﻮﻋﻪي }) G = {g |Y g = g (Xرا ﻳﻚ ﺧﺎﻧﻮاده ﮔﺮوﻫﻲ از ﺗﻮزﻳﻊﻫﺎ ﮔﻮﻳﻨﺪ. ﺑﺮاي ﻣﺜﺎل ﺧﺎﻧﻮادهي ﻣﻜﺎﻧﻲ -ﻣﻘﻴﺎﺳﻲ ﻳﻚ ﺧﺎﻧﻮاده ﮔﺮوﻫﻲ از ﺗﻮزﻳﻊﻫﺎ ﻣﻲ ﺑﺎﺷﺪ. }G = {g | g (U ) = μ + σU , μ ∈ℜ,σ > 0 ) X 1 = g 1(U ) = μ1 + σ1Uاﻟﻒ ) X 2 = g 2 ( X 1 ) = g 2 ( g 1 (U )) = μ2 + σ1 ( g 1 (U )) = μ2 + σ1 ( μ1 + σ1U
= ( μ1σ1 + μ2 ) + σ1σ 2U ⇒ g 2 * g 1 ∈ G U −μ
σ ⇒ g * g −1 = e ∈ G
= ) ⇒ g −1(U
X = g (U ) = μ + σU
U −μ ( Y = g ( g −1(U )) = μ + σ ) =U
σ
ﻳﻚ ﺧﺎﻧﻮاده از ﺗﺒﺪﻳﻼت ﻛﻪ در ﺷﺮط g1 * g 2 = g 2 * g1 ∀g1, g 2 ∈ Gﺻﺪق ﻛﻨﺪ ،ﻳﻚ ﮔﺮوه ﺗﺒﺪﻳﻼت ﺟﺎﺑﺠﺎﻳﻲ 1ﻧﺎﻣﻴﺪه ﻣﻲﺷﻮد .ﺑﺮاي ﻣﺜﺎل ﺧﺎﻧﻮادهي ﻣﻜﺎﻧﻲ و ﺧﺎﻧﻮادهي ﻣﻘﻴﺎﺳﻲ ﻳﻚ ﮔﺮوه ﺗﺒﺪﻳﻼت ﺟﺎﺑﺠﺎﻳﻲ ﻫﺴﺘﻨﺪ ،اﻣﺎ ﺧﺎﻧﻮاده ﻣﻜﺎﻧﻲ – ﻣﻘﻴﺎﺳﻲ ﭼﻨﻴﻦ ﻧﻴﺴﺖ. Commutative
١
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
11
ﻣﺜﺎل :1-2ﻓﺮض ﻛﻨﻴﺪ ) U = (U 1,...,U nﻳﻚ ﺑﺮدار ﺗﺼﺎدﻓﻲ nﺑﻌﺪي ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت ﻣﻲﺗﻮان ﮔﺮوه ﺗﺒﺪﻳﻼت زﻳﺮ را روي اﻳﻦ ﺑﺮدار ﺗﺼﺎدﻓﻲ اﻧﺠﺎم داد. ) U + a = (U 1 + a ,U 2 + a ,...,U n + a
a∈R
) bU = (bU 1,bU 2 ,..., bU n
■
a ∈ R ,b > 0
) a + bU = (a + bU 1, a + bU 2 ,..., a + bU n
ﻣﺜﺎل :2 -2ﺗﻮزﻳﻊ ﭼﻨﺪ ﻣﺘﻐﻴﺮه ﻧﺮﻣﺎل ﻓﺮض ﻛﻨﻴﺪ ) U = (U 1,...,U pو U i ~ N (0,1) , i = 1,..., p ,و U 1,...,U pاز ﻳﻜﺪﻳﮕﺮ ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ و ﺗﺒﺪﻳﻞ زﻳﺮ را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﺪ ⎞ ⎛U 1 ⎜ ⎟ ⎞ ⎛ X 1 ⎞ ⎛ a1 ⎟ ⎜U 2 ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ = ⎜ ⎟ + B ⎜ . ⎟ ⇔ X = a + BU ⎟ ⎜ X p ⎟ ⎜ ap ⎟ ⎜. ⎝ ⎠ ⎝ ⎠ ⎟ ⎜U ⎠⎝ p
ﻛﻪ در آن Bﻳﻚ ﻣﺎﺗﺮﻳﺲ وارون ﭘﺬﻳﺮ p × pاﺳﺖ .ﺗﻮزﻳﻊ Xرا ﺗﻮزﻳﻊ ﻧﺮﻣﺎل ﭼﻨﺪ ﻣﺘﻐﻴﺮه ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ و وارﻳﺎﻧﺲ زﻳﺮ ﮔﻮﻳﻨﺪ E (X ) = a + BE (U ) = a ∑ =V (X ) = BV (U )B ′ = BB ′
ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺗﻮزﻳﻊ Xﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ 1 p − u ′u 2e 2
−
) = (2π
p p − 1 ∑ u i2 2 e 2 i =1
−
) f (u ) = (2π
| X = a + BU ⇒ U = B −1( X − a ) ⇒| J |=| B −1
⎪⎫ ) ⎧⎪ − 1 ( x −a )′( B −1)′B −1( x −a −p | ⎨e 2 ⎬ (2π ) 2 ⎪⎩ ⎪⎭
■
−1
−1
| f U (B (x − a )) =| B 1 ) − ( x −a )′ ∑ −1 ( x −a e 2
−1
f X (x ) =| B
−1 |∑| 2
2
−p
) = (2π
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
12
ﺑﺨﺶ :3ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ از ﺗﻮزﻳﻊﻫﺎ ﺗﻌﺮﻳﻒ :1-3ﻳﻚ ﺧﺎﻧﻮاده } {Pθ : θ ∈ Θاز ﺗﻮزﻳﻊﻫﺎ را ﻳﻚ ﺧﺎﻧﻮادهي ﻧﻤﺎﻳﻲ kﭘﺎراﻣﺘﺮي ﮔﻮﻳﻨﺪ اﮔﺮ ﺗﻮزﻳﻊ Pθﺑﺮاي ﻫﺮ θ ∈ Θو ﻫﺮ *) x ∈ S Xﺗﻜﻴﻪﮔﺎه ( Xداراي ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ﺑﻔﺮم زﻳﺮ ﻧﺴﺒﺖ ﺑﻪ اﻧﺪازهي μﺑﺎﺷﺪ k ∑ ⎧ ⎫ ) c (θ )T j ( x ) − B (θ ⎪ j =1 j ⎪ pθ (x ) = ⎨e ) ⎬ h (x ⎪ ⎪ ⎩ ⎭
)(1 ﻛﻪ در آن ﺑﺎﻳﺴﺘﻲ
S X* -1ﺑﺴﺘﮕﻲ ﺑﻪ ﻣﻘﺎدﻳﺮ ) θ = (θ1,θ2 ,...,θ kﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ. j = 1,..., k ,c j (θ ) -2ﺗﻮاﺑﻌﻲ ﻏﻴﺮﺻﻔﺮ و ﭘﻴﻮﺳﺘﻪ از ) θ = (θ1,...,θ kﺑﺎﺷﻨﺪ. -3در ﺣﺎﻟﺖ ﭘﻴﻮﺳﺘﻪ ) ، j = 1, 2,..., k ،T j′ (x
ﺗﻮاﺑﻌﻲ ﭘﻴﻮﺳﺘﻪ روي * S Xو در ﺣﺎﻟﺖ ﮔﺴﺴﺘﻪ
) ، j = 1, 2,..., k ،T j (xﺗﻮاﺑﻌﻲ ﻏﻴﺮ ﺻﻔﺮ روي * S Xﺑﺎﺷﻨﺪ. -4در ﺣﺎﻟﺖ ﭘﻴﻮﺳﺘﻪ ) h (xﺗﺎﺑﻌﻲ ﭘﻴﻮﺳﺘﻪ روي * S Xﺑﺎﺷﺪ. ﺧﺎﻧﻮاده pθدر ) (1را ﻳﻚ ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﭘﺮ رﺗﺒﻪ 1ﺑﺎ ﺑﻌﺪ kﮔﻮﻳﻨﺪ ﻫﺮﮔﺎه ﺷﺮاﻳﻂ 1ﺗﺎ 4ﺑﺎﻻ ﺑﺮﻗﺮار ﺑﺎﺷﺪ و ﻋﻼوه ﺑﺮ آن اﻟﻒ -ﺗﻮاﺑﻊ ) ، j = 1, 2,..., k ، c j (θﺑﻪ ﻃﻮر ﺗﺎﺑﻌﻲ از ﻳﻜﺪﻳﮕﺮ ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ. ب -ﺗﻮاﺑﻊ ) ، j = 1, 2,..., k ،T j (xﺑﻪ ﻃﻮر ﺧﻄﻲ از ﻳﻜﺪﻳﮕﺮ ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ. ج – ﻓﻀﺎي ﭘﺎراﻣﺘﺮي Θﻳﻚ ﺷﺎﻣﻞ ﻳﻚ ﻣﺴﺘﻄﻴﻞ Kﺑﻌﺪي ﺑﺎﺷﺪ.
■
ﻣﺜﺎل :1-3ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي زﻳﺮ ﺑﻪ ﻳﻚ ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﻳﻚ ﭘﺎراﻣﺘﺮي ﻣﺘﻌﻠﻖ ﻣﻲﺑﺎﺷﻨﺪ. σ >0 θ >0
) N (0, σ 2 ) N (θ ,θ
) (g ) (h
(i ) Γ(α , β ) β > 0, α known
n is known
)B (1,θ ) θ ∈ (0,1 )B (n ,θ ) θ ∈ (0,1
) (a ) (b
(c ) NB ( n ,θ ) θ ∈ (0,1) n is known Full Rank
١
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
α > 0, β known
■
) ( j ) Γ(α , β
)θ ∈ (0,1
α > 0, β known
) (k ) Be (α , β
)∞θ ∈ (0, +
β > 0, α known
) (l ) Be (α , β
13
) (d ) Ge (θ
) (e ) P (θ )(f ) N ( μ ,1
μ ∈R
ﻣﺜﺎل :2-3ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي زﻳﺮ ﺑﻪ ﻳﻚ ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ دو ﭘﺎراﻣﺘﺮي ﭘﺮ رﺗﺒﻪ ﻣﺘﻌﻠﻖ اﺳﺖ. α > 0, β > 0
) Γ(α , β
μ ∈ R ,σ > 0
) (b
■
) N ( μ ,σ 2
) (a
Be (α , β ), α > 0, β > 0
) (c
ﻣﺜﺎل :3-3ﺧﺎﻧﻮادهي N (θ ,θ 2 ),θ > 0ﺑﻪ ﻳﻚ ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﻣﺘﻌﻠﻖ اﺳﺖ اﻣﺎ ﭘﺮرﺗﺒﻪ ﻧﻴﺴﺖ زﻳﺮا ⎧⎪ − 12 x 2 + 1 x − 1 ln(2πθ 2 ) ⎫⎪ − 1 θ 2 = ⎨e 2θ ⎬e 2 ⎩⎪ ⎭⎪ 1 2
−
x 1 x 2+ − θ 2
1 2θ 2
h (x ) = e
2
−
e
1 2
2πθ
=
T1 ( x ) = x
1 ) B (θ ) = + ln(2πθ 2 2 1 1 ﭘﺎراﻣﺘﺮ دوﺑﻌﺪي ) (− 2 ,روي ﻳﻚ ﻣﻨﺤﻨﻲ در ﻓﻀﺎي 2θ θ
( x −θ )2
1 2θ 2
−
e
1 2
2πθ 1 2θ 2
c1(θ ) = −
1
T 2 (x ) = x
ﺧﺎﻧﻮاده را ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﻣﻨﺤﻨﻲ 1ﮔﻮﻳﻨﺪ.
= ) pθ ( x
θ
= ) c2 (θ
R 2ﻗﺮار ﻣﻲ ﮔﻴﺮد و ﺑﻪ ﻫﻤﻴﻦ دﻟﻴﻞ اﻳﻦ
■
ﻣﺜﺎل :4-3ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي زﻳﺮ ﺑﻪ ﻳﻚ ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﻣﺘﻌﻠﻖ ﻧﻴﺴﺘﻨﺪ. ■
E (α , β ), α ∈ ℜ, β > 0
) (b
U (0,θ ), θ > 0
) (a
ﺧﺎﻧﻮادهي ﻧﻤﺎﻳﻲ: -1اﮔﺮ X 1, X 2 ,..., X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ ) (i.i.dاز ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ kﭘﺎراﻣﺘﺮي ﺑﺎﺷﻨﺪ آﻧﮕﺎه ﺗﻮزﻳﻊ ﺗﻮأم ) X = (X 1,..., X nﻧﻴﺰ ﺑﻪ ﻳﻚ ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ - kﭘﺎراﻣﺘﺮي ﻣﺘﻌﻠﻖ اﺳﺖ ،زﻳﺮا
Curved Exponential Family
١
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
14
k
) h (x i
) ∑ c j (θ )T j ( x i )−B (θ
n
n
i =1
i =1
pθ (x 1,..., x n ) = ∏ pθ (x i ) = ∏ e j =1 k
) h * (x
) ∑ c j (θ )T j* ( x )−nB (θ
= ... = e j =1
n
n
) h * (x ) = ∏ h (x i
ﻛﻪ در آن
and
) T j* (x ) = ∑T j ( x i i =1
i =1
-2در ﻳﻚ ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﻳﻚ ﭘﺎراﻣﺘﺮي ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ) pθ (x ) = e c (θ )T ( x )−B (θ ) h (x ) B ′(θ ) C ′(θ
دارﻳﻢ ﻛﻪ زﻳﺮا
h (x )d μ (x ) = 1 ⇒ ∫ [c ′(θ )T (x ) − B ′(θ )] pθ (x )d μ (x ) = 0 ) B ′(θ ) c ′(θ
ﻓﺮم ﻣﺘﻌﺎرف ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﺑﺎ ﺗﻐﻴﻴﺮ ﭘﺎراﻣﺘﺮ )(2
= )) E θ (T (x ) c (θ )T ( x ) − B (θ
∫e
= )) ⇒ c ′(θ )E θ (T (x )) − B ′(θ ) = 0 ⇒ E θ (T (x
1
) j = 1, 2,..., k ،η j = c j (θدر ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻧﻤﺎﻳﻲ ) (1دارﻳﻢ ﻛﻪ k ∑ ⎧ ⎫ ) η T ( x )−A (η ⎪ j =1 j j ⎪ pη (x ) = ⎨e ) ⎬ h (x ⎪ ⎪ ⎩ ⎭
ﻛﻪ اﻳﻦ ﻓﺮم را ﻓﺮم ﻣﺘﻌﺎرف ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻧﻤﺎﻳﻲ ﮔﻮﻳﻨﺪ .در اﻳﻦ ﺣﺎﻟﺖ ﻣﺠﻤﻮﻋﻪي k
) ∑ η jT j ( x ∞+ {η = (η1,...,ηk ) | ∫ h (x )e j =1 }∞ < ) d μ (x ∞−
را ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ﻃﺒﻴﻌﻲ و ηرا ﭘﺎراﻣﺘﺮ ﻃﺒﻴﻌﻲ ﮔﻮﻳﻨﺪ .ﺧﻮاص زﻳﺮ را ﺑﺮاي اﻳﻦ ﺧﺎﻧﻮاده ﻣﻲﺗﻮان اﺛﺒﺎت ﻛﺮد.
Canonical Form
١
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
15
) -1ﻛﺘﺎب TSHﻓﺼﻞ ، 2ﻗﻀﻴﻪ (9ﺑﺮاي ﻫﺮ ﺗﺎﺑﻊ اﻧﺘﮕﺮالﭘﺬﻳﺮ fو ﻫﺮ ηدر ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ﻃﺒﻴﻌﻲ، k
اﻧﺘﮕﺮال ) h ( x )d μ (x
) ∑ η jT j ( x
∫ f (x )e j =1ﭘﻴﻮﺳﺘﻪ و داراي ﻣﺸﺘﻘﺎت ﺗﻤﺎم ﻣﺮاﺗﺐ ﻧﺴﺒﺖ ﺑﻪ η jﻫﺎ اﺳﺖ
و اﻳﻦ ﻣﺸﺘﻘﺎت ﻣﻲ ﺗﻮاﻧﻨﺪ ﺑﻪ درون اﻧﺘﮕﺮال ﺑﺮده ﺷﻮﻧﺪ. ) -2ﻛﺘﺎب TSHﺑﺨﺶ 2 .7ﻟﻢ (8اﮔﺮ Xداراي ﺗﻮزﻳﻌﻲ از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ﺑﻔﺮم )(2 ﻧﺴﺒﺖ ﺑﻪ اﻧﺪازهي μﺑﺎﺷﺪ آﻧﮕﺎه ) T = (T1,...,T kداراي ﺗﻮزﻳﻌﻲ از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﺑﺎ ﭼﮕﺎﻟﻲ k ∑ ⎧ ⎫ ) η t − A (η ⎪ j =1 j j ⎪ pη (t1,...,t k ) = ⎨eﻧﺴﺒﺖ ﺑﻪ ﻳﻚ اﻧﺪازه νﻣﻲﺑﺎﺷﻨﺪ )در اﺳﺘﻨﺒﺎط آﻣﺎري 2اﺛﺒﺎت ) ⎬ k (t ⎪ ⎪ ⎩ ⎭
ﻣﻲﮔﺮدد(. -3ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,..., X nﻣﺘﻐﻴﺮﻫﺎي ﺗﺼﺎدﻓﻲ ﻣﺴﺘﻘﻞ و ﻫﺮ ﻛﺪام داراي ﺗﻮزﻳﻌﻲ از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ زﻳﺮ ﺑﺎﺷﻨﺪ
) } h (x i
) ηT j ( x i )−Ai (η
i
{
pη (x i ) = e
n
در اﻳﻦ ﺻﻮرت
) ∑T i (x i =i
داراي ﺗﻮزﻳﻌﻲ از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﻳﻚ ﭘﺎراﻣﺘﺮي ﻣﻲ ﺑﺎﺷﺪ.
اﮔﺮ دو ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ - kﭘﺎراﻣﺘﺮي )ﺑﺎ ﭘﺎراﻣﺘﺮﻫﺎي ﻳﻜﺴﺎن( ﻣﺴﺘﻘﻞ داﺷﺘﻪ ﺑﺎﺷﻴﻢ آﻧﮕﺎه ) (T1,...,T kو ) (U 1,...,U kﻫﺮ ﻛﺪام داراي ﺗﻮزﻳﻌﻲ از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ kﭘﺎراﻣﺘﺮي ﻣﻲﺑﺎﺷﻨﺪ و ﻃﺒﻖ ﻗﻀﻴﻪ (T1 + U 1,...,T k + U k ) ،2ﻧﻴﺰ داراي ﺗﻮزﻳﻌﻲ از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ - kﭘﺎراﻣﺘﺮي اﺳﺖ .ﺑﻪ وﺳﻴﻠﻪ اﺳﺘﻘﺮا ﻗﻀﻴﻪ 3ﺛﺎﺑﺖ ﻣﻲﺷﻮد. -4اﮔﺮ Xداراي ﺗﻮزﻳﻌﻲ از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ - kﭘﺎراﻣﺘﺮي ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ﺑﻔﺮم ) (2ﺑﺎﺷﺪ آﻧﮕﺎه ) A (η ∂2 ) A (η ∂ηi ∂η j
∂ ∂η j
= )) Eη (T j (x
= )) covη (T i (x ),T j (x
ﻣﺜﺎل :5-3ﻓﺮض ﻛﻨﻴﺪ ) X = (X 1,..., X kداراي ﺗﻮزﻳﻊ ﭼﻨﺪ ﺟﻤﻠﻪاي ﺑﺎ ﭘﺎراﻣﺘﺮﻫﺎي nو p1,..., p k
ﺑﺎﺷﺪ .در اﻳﻦ ﺻﻮرت:
www.riazisara.ir
16
ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ:ﻓﺼﻞ اول
p (x ) = P ( X 1 = x 1,..., X k = x k ) =
n! p1x 1 ... p kx k x 1 !x 2 !...x k !
= h (x )e x 1 ln p1 +....+ x k ln p k = h (x )e = h (x )e
p p p x 1 ln 1 + x 2 ln 2 +...+ x k −1 ln k −1 pk pk pk k −1
p
∑ x i ln p i
i =1
k −1
×e
x k ln p k + ∑ x i ln p k i =1
+ n ln p k
k
در اﻳﻦ ﺻﻮرتηi = ln
pi ﻗﺮار ﻣﻲدﻫﻴﻢ pk
k −1
A (η ) = − n ln p k = n ln(1 + ∑ e ηi ) i =1
(sin ce
∴
e ηi =
k −1 k −1 1− pk 1 pi ⇒ ∑ e ηi = = − 1 ⇒ p k = (1 + ∑ e ηi ) −1 ) pk pk pk i =1 i =1
⎧ k∑−1η x −A (η ) ⎫ i i ⎪ ⎪ pη (x ) = ⎨e i =1 ⎬ h (x ) ⎪ ⎪ ⎩ ⎭
ﭘﺎراﻣﺘﺮ ﻃﺒﻴﻌﻲ اﺳﺖ وη = (η1,...,ηk −1) ﻛﻪ E (X i ) =
∂ ∂ηi
A (η ) =
ne
ηi
k
1 + ∑ e ηi i =1
pi pk = = np i 1 pk n
∂2 cov(X i , X j ) = A (η ) = ...... = −np i p j ∂ηi ∂η j
■ 1
ﺗﺎﺑﻊ ﻣﻮﻟﺪ ﮔﺸﺘﺎور و ﺗﺎﺑﻊ ﻣﻮﻟﺪ اﻧﺒﺎﺷﺘﻪ
ﮔﻮﻳﻨﺪ و ﺗﺎﺑﻊT1,....,T k را ﮔﺸﺘﺎور ﺗﻮأمα r1,...,rk = E (T1r1 ...T krk ) آﻧﮕﺎهT = (T1,....,T k ) اﮔﺮ ﺑﻪ ﺻﻮرت زﻳﺮ ﺗﻌﺮﻳﻒ ﻣﻲﺷﻮدT = (T1,....,T k ) ﻣﻮﻟﺪ ﮔﺸﺘﺎور M T (u1,...,u k ) = E (e u1T1+...+u k T k ) ١
Moment Generating fun. and Cumulant Generating fun.
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
17
اﮔﺮ M Tدر ﻳﻚ ﻫﻤﺴﺎﻳﮕﻲ ﺣﻮل ﻣﺒﺪأ ﻣﻮﺟﻮد ﺑﺎﺷﺪ و ﮔﺸﺘﺎورﻫﺎي α r1,...,rsﻣﻮﺟﻮد ﺑﺎﺷﻨﺪ آﻧﮕﺎه ﺑﺴﻂ ﺗﺎﺑﻊ M Tﺑﻪ ﺻﻮرت زﻳﺮ ﺧﻮاﻫﺪ ﺑﻮد u1r1 ...u krk ! r1 !...rk
M T (u1,...,u k ) = Σ...Σα r1,...,rk r1...rk
ﻫﻤﭽﻨﻴﻦ ﺗﺎﺑﻊ ﻣﻮﻟﺪ اﻧﺒﺎﺷﺘﻪ Tﺑﻪ ﺻﻮرت زﻳﺮ ﺗﻌﺮﻳﻒ ﻣﻲﺷﻮد u1r1 ...u krk ! r1 !...rk
K T (u1,...,u k ) = log M T (u1,...,u k ) = Σ...Σk r1,...,rk r1...rk
ﻛﻪ در آن k r1,...,rkرا اﻧﺒﺎﺷﺘﻪ ﺗﻮأم ) T = (T1,....,T kﮔﻮﻳﻨﺪ .اﮔﺮ ﺗﻨﻬﺎ ﻳﻚ Tداﺷﺘﻪ ﺑﺎﺷﻴﻢ آﻧﮕﺎه ur !r ur !r
M T (u ) = E (e uT ) = ∑ α r r
K T (u ) = ln M T (u ) = ∑ k r r
و ﻣﻲﺗﻮان ﻧﺸﺎن داد ﻛﻪ )ﺗﻤﺮﻳﻦ( α2 = k 2 + k 12
α 3 = k 3 + 3 k 1k 2 + k 13
α1 = k 1
در ﺧﺎﻧﻮادهي ﻧﻤﺎﻳﻲ از ﺗﻮزﻳﻊﻫﺎ ﺗﻮاﺑﻊ ) M T (uو ) K T (uدر ﻳﻚ ﻫﻤﺴﺎﻳﮕﻲ ﻧﺰدﻳﻚ ﺻﻔﺮ ﻣﻮﺟﻮد ﻫﺴﺘﻨﺪ و: ) A (η +u ) A (η
e
e
) K T (u ) = A (η + u ) − A (η
= ) M T (u
)اﺛﺒﺎت :ﺗﻤﺮﻳﻦ( ﺣﺎل اﮔﺮ X 1, X 2 ,...., X nاز ﻳﻜﺪﻳﮕﺮ ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ و X = X 1 + X 2 + .... + X nآﻧﮕﺎه n
) k X (u ) = ∑ k X i (u i =1
n
) ] = ∏ M x i (u i =1
( X 1 +...+ X n )u
M X (u ) = E [e
ﻣﺜﺎل :6-3ﻓﺮض ﻛﻨﻴﺪ ) X ~ B (n , pدر اﻳﻦ ﺻﻮرت p
⎛ n ⎞ x n −x ⎛ n ⎞ x ln q + n ln q = ⎜ ⎟e p (x ) = P (X = x ) = ⎜ ⎟ p q ⎠ ⎝x ⎠ ⎝x
www.riazisara.ir
18
ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ:ﻓﺼﻞ اول
در اﻳﻦ ﺻﻮرتη = ln
p ﻗﺮار ﻣﻲ دﻫﻴﻢ q
⎛n ⎞ p (x ) = ⎜ ⎟ e x η −A (η ) ⎝x ⎠
A (η ) = − n ln q = n ln(1 + e η ) η +u
e A (η +u ) e n ln(1+e ) ⎛ 1 + e η +u M x (u ) = A (η ) = =⎜ η n ln(1+e η ) e e ⎝ 1+ e
⎛ P u n ⎜ 1+ q e ⎞ ⎟ =⎜ ⎜ 1+ P ⎠ ⎜ q ⎝
n
⎞ ⎟ ⎟ = (q + pe u ) n ⎟ ⎟ ⎠
( ﻣﻌﻠﻮمα ) در اﻳﻦ ﺻﻮرتX ~ Γ(α , β ) ﻓﺮض ﻛﻨﻴﺪ:7-3 ﻣﺜﺎل x ⎡ − 1 x −α ln β ⎤ x α −1 − 1 α −1 β ⎥ p (x ) = x e = ⎢e β α ⎢ ⎥ Γ(α ) Γ(α ) β ⎣ ⎦
η=−
⎛1 A (η ) = α ln β = −α ln ⎜ ⎝β
1
β
⎞ ⎟ = −α ln(−η ) ⎠ −α
M X (u ) =
e A (η +u ) e −α ln( −η −u ) = −α ln( −η ) e A (η ) e
k X (u ) = −α ln(1 − βu )
u<
⎛1 ⎞ ⎜ β −u ⎟ ⎠ =⎝ −α ⎛1⎞ ⎜β ⎟ ⎝ ⎠
=
1
(1 − βu )α
1
β
ﺑﻨﺎﺑﺮاﻳﻦ ∂r Γ(α + r ) r E (X ) = r M X (u ) |u =0 = α (α + 1)....(α + r − 1) β r = β Γ(α ) ∂u r
■
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
ﺑﺨﺶ :4آﻣﺎرهﻫﺎي ﺑﺴﻨﺪه
19
1
ﺗﻌﺮﻳﻒ :1-4ﻓﺮض X 1,..., X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﻳﻚ ﺧﺎﻧﻮاده از ﺗﻮزﻳﻊﻫﺎي }P = {Pθ : θ ∈ Θ ﺑﺎﺷﻨﺪ ) θﻣﻤﻜﻦ اﺳﺖ ﻳﻚ ﺑﺮدار ﺑﺎﺷﺪ( آﻣﺎره ) T (X ) = T (X 1,..., X nرا ﻳﻚ آﻣﺎرهي ﺑﺴﻨﺪه ﺑﺮاي θو ﻳﺎ ﺑﻪ ﻋﺒﺎرت دﻗﻴﻖﺗﺮ ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﺑﺮاي ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي Pﮔﻮﻳﻨﺪ ﻫﺮ ﮔﺎه ﺗﻮزﻳﻊ ﺷﺮﻃﻲ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ X 1,..., X nﺑﻪ ﺷﺮط T ( X ) = tﺑﺮاي ﻫﺮ ﻣﻘﺪار tﺑﺴﺘﮕﻲ ﺑﻪ θﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ. ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ آﻣﺎرهﻫﺎي ﺑﺴﻨﺪه دادهﻫﺎ را در ﺧﻮد ﺧﻼﺻﻪ ﻣﻲﻛﻨﻨﺪ ﺑﺪون اﻳﻦ ﻛﻪ اﻃﻼﻋﻲ در ﻣﻮرد ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل را از دﺳﺖ ﺑﺪﻫﻴﻢ .ﻳﻌﻨﻲ دادهﻫﺎ را ﻣﻲﺗﻮان در آﻣﺎرهي ﺑﺴﻨﺪه Tﺧﻼﺻﻪ ﻛﺮد و ﺑﺎ داﺷﺘﻦ ﻣﻘﺪار T
ﻧﻴﺎزي ﺑﻪ داﺷﺘﻦ ﺧﻮد دادهﻫﺎ )ﺗﺎ آن ﺟﺎ ﻛﻪ ﻣﺮﺑﻮط ﺑﻪ اﺳﺘﻨﺒﺎط درﺑﺎره ﭘﺎراﻣﺘﺮﻫﺎي ﻣﺠﻬﻮل ﻣﻲﺷﻮد( ﻧﺪارﻳﻢ. D
D
ﻗﻀﻴﻪ :1-4اﮔﺮ X | T =Y | Tآﻧﮕﺎه X =Y
اﺛﺒﺎت: ) = p X (x ) = ∫ p X |T (x | t )q (t )d μ (t ) = ∫ pY |T (x | t )q (t )d μ (tﭼﮕﺎﻟﻲ X ﭼﮕﺎﻟﻲ = pY (x ) =Y
■
ﻋﻜﺲ اﻳﻦ ﻗﻀﻴﻪ ﺑﺮﻗﺮار ﻧﻴﺴﺖ زﻳﺮا اﮔﺮ در ﭘﺮﺗﺎب ﺳﻪ ﺳﻜﻪ ﺗﻌﺪاد ﺷﻴﺮﻫﺎ = X
ﺗﻌﺪاد ﺷﻴﺮ – ﺗﻌﺪاد ﺧﻂ = T
ﺗﻌﺪاد ﺧﻂ ﻫﺎ = Y
D
آﻧﮕﺎه X =Yاﻣﺎ 3 ⎧ )P (X = 1,T = 1 = )⎪⎪ P (X = 1 | T = 1 = 8 =1 3 )P (T = 1 ⎨ 8 ⎪ ⎪⎩ P (X ≠ 1 | T = 1) = 0
)P (Y = 1,T = 1 ⎧ =0 = )⎪P (Y ≠ 2 | T = 1 )P (T = 1 ⎨ ⎪P (Y = 2 | T = 1) = 1 ⎩ D
⇒ X | T ≠Y | T Sufficient Statistics
١
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
20
ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ ﻛﻪ ﻣﺸﺎﻫﺪات Xرا ﻛﻨﺎر ﮔﺬاﺷﺘﻪ و ﻣﻘﺪار ) T = T (Xرا ﻧﮕﻪ دارﻳﻢ .اﻛﻨﻮن X ′را D
از ﺗﻮزﻳﻊ ﺷﺮﻃﻲ Xﺑﺎ ﻓﺮض T = tﻣﻲﺳﺎزﻳﻢ )ﺑﻪ وﺳﻴﻠﻪ ﺷﺒﻴﻪﺳﺎزي( ﭼﻮن X | T = X ′ | Tﭘﺲ X و X ′ﻳﻚ ﺗﻮزﻳﻊ دارﻧﺪ .در ﻧﺘﻴﺠﻪ ﺑﺎ ﻧﮕﻪ داﺷﺘﻦ ﻣﻘﺪار Tﻣﻲﺗﻮاﻧﻴﻢ ﻣﺸﺎﻫﺪاﺗﻲ ﻫﻤﺎﻧﻨﺪ )ﻫﻢﺗﻮزﻳﻊ( X
ﺑﺴﺎزﻳﻢ .اﻳﻦ ﻛﺎر را ﺑﺎ آﻣﺎرهﻫﺎي ﻏﻴﺮﺑﺴﻨﺪه ﻧﻤﻲﺗﻮان اﻧﺠﺎم داد ،ﭼﻮن ﺗﻮزﻳﻊ ﺷﺮﻃﻲ Xﺑﺎ ﻓﺮض T = tﺑﻪ ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل ﺑﺴﺘﮕﻲ دارد و ﻧﻤﻲﺗﻮان X ′را ﺑﺎزﻳﺎﻓﺖ ﻧﻤﻮد. ﻣﺜﺎل :1-4ﻓﺮض ﻛﻨﻴﺪ X 2 , X 1ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ) P (θﺑﺎﺷﺪ .ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ T (X ) = X 1 + X 2ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﺑﺮاي θاﺳﺖ و از روي آن ﻧﻤﻮﻧﻪي ) (X 1′, X 2′ﻫﻢ ﺗﻮزﻳﻊ ﺑﺎ ) (X 1, X 2را ﺑﺴﺎزﻳﺪ. ) ⎧ P ( X 1 = x 1, X 2 , x 2 x1 + x 2 = t ⎪ ) P (T = t ⎨ = ) P ( X 1 = x 1, X 2 = x 2 | T ( X ) = t ⎪0 x1 + x 2 ≠ t ⎩
x1 + x 2 = t x1 + x 2 ≠ t
!⎧ t ⎪ = ⎨ x 1 !x 2 !2t ⎪0 ⎩
⎧ e −θ θ x 1 e −θ θ x 2 . ⎪ ! x !x 2 ⎪⎪ 1 −2θ ⎨ e (2θ )t ⎪ !t ⎪ ⎩⎪0
x1 + x 2 = t x1 + x 2 ≠ t
=
⎧⎛ t ⎞ ⎛ 1 ⎞ x 1 ⎛ 1 ⎞t −x 1 ⎪ ⎟⎠ = ⎨⎝⎜ x 1 ⎠⎟⎜⎝ 2 ⎠⎟ ⎝⎜ 2 ⎪ ⎩0
x1 + x 2 = t x1 + x 2 ≠ t 1 ) ⇒ X | T = t ~ B (t , 2
ﭼﻮن ﺗﻮزﻳﻊ ﺷﺮﻃﻲ ﺑﻪ θﺑﺴﺘﮕﻲ ﻧﺪارد ،ﭘﺲ T (X ) = X 1 + X 2ﻳﻚ آﻣـﺎرهي ﺑـﺴﻨﺪه ﺑـﺮاي θاﺳـﺖ. ﺣﺎل اﮔﺮ X 1′و X 2′ = t − X 1′را ﺑﻪ ﺗﺮﺗﻴﺐ ﺗﻌﺪاد ﺷﻴﺮﻫﺎ و ﺗﻌﺪاد ﺧﻂﻫﺎ در tﭘﺮﺗﺎب ﻳﻚ ﺳﻜﻪ در ﻧﻈـﺮ 1 2
D
ﺑﮕﻴﺮﻳﻢ آن ﮔﺎه ) X ′ | t ~ B (t ,ﻛﻪ ﺑﺎﺗﻮﺟﻪ ﺑﻪ ﻗﻀﻴﻪ X ′ = X ،1-4اﺳﺖ.
■
اﺳﺘﻔﺎده از ﺗﻌﺮﻳﻒ 1-4ﺑﺮاي ﺑﺮرﺳﻲ ﺑﺴﻨﺪﮔﻲ ﻳﻚ آﻣﺎره ،ﻧﻴﺎز ﺑﻪ در دﺳﺖ داﺷﺘﻦ آﻣﺎره ﺑـﺴﻨﺪه ) T (Xو ﻫﻤﭽﻨﻴﻦ ﺑﺮرﺳﻲ ﺗﻮزﻳﻊ ﺷﺮﻃﻲ ﻧﻤﻮﻧﻪ ﺑﻪ ﺷﺮط Tدارد .ﻳﻚ راه ﺳﺎده ﺑـﺮاي ﺑﺪﺳـﺖ آوردن ﻳـﻚ آﻣـﺎرهي
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
21
ﺑﺴﻨﺪه و ﺑﺮرﺳﻲ ﺑﺴﻨﺪﮔﻲ آن در ﻗﻀﻴﻪ دﺳﺘﻪﺑﻨﺪي ﻧﻴﻤﻦ ﻛﻪ ﺑﻪ ﻗﻀﻴﻪ ﺗﺠﺰﻳﻪ ﺑﻪ ﻋﻮاﻣﻞ ﻣﺸﻬﻮر اﺳـﺖ ،آﻣـﺪه اﺳﺖ. ﻗﻀﻴﻪ ) :2-4ﻗﻀﻴﻪ ﺗﺠﺰﻳﻪ ﺑﻪ ﻋﻮاﻣﻞ (1 ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,...., X nداراي ﺗﻮزﻳﻊ ﺗـﻮأم ﻣﺘﻌﻠـﻖ ﺑـﻪ ﺧـﺎﻧﻮادهي } P = {Pθ : θ ∈ Θﻛـﻪ ﺑـﻪ وﺳﻴﻠﻪ اﻧﺪازهي μﻣﻐﻠﻮب ﺷﺪه اﺳـﺖ ،ﺑﺎﺷـﻨﺪ .ﺷـﺮط ﻻزم و ﻛـﺎﻓﻲ ﺑـﺮاي آن ﻛـﻪ آﻣـﺎره ) T (Xﺑـﺮاي ﺧﺎﻧﻮادهي Pﺑﺴﻨﺪه ﺑﺎﺷﺪ اﻳﻦ اﺳﺖ ﻛﻪ ﺗﻮاﺑﻊ ﻧـﺎﻣﻨﻔﻲ gو hوﺟـﻮد داﺷـﺘﻪ ﺑﺎﺷـﻨﺪ ﺑﻄـﻮري ﻛـﻪ ﺗـﺎﺑﻊ ﭼﮕﺎﻟﻲ pθﻣﺮﺑﻮط ﺑﻪ Pθدر راﺑﻄﻪ زﻳﺮ ﺻﺪق ﻛﻨﺪ. ) (a.e .μ
) pθ (x ) = g (θ ,T (x ))h (x
اﺛﺒﺎت) :ﻛﺘﺎب TSHﺑﺨﺶ 2 .6ﻗﻀﻴﻪ 8و ﻧﺘﻴﺠﻪ (1
■
ﻣﺜﺎل :2-4ﻓﺮض ﻛﻨﻴـﺪ X 1,...., X nﻳـﻚ ﻧﻤﻮﻧـﻪ ﺗـﺼﺎدﻓﻲ از ) Be (θ ,1ﺑﺎﺷـﻨﺪ .ﻳـﻚ آﻣـﺎرهي ﺑـﺴﻨﺪه ﺑﺮاي θﭘﻴﺪا ﻛﻨﻴﺪ. n
= g (θ , ∏ x i ) ×1 i =1 n
= g (θ , ∑ ln x i ) ×1 i =1
n
n
i =1
i =1
⎧ n n θ −1 ) ⎪θ (∏ x i n i =1 ⎪ ⎨ = f θ (x ) = ∏θ x i θ −1 n i =1 ⎪ n (θ −1) ∑ ln x i i =1 ⎪θ e ⎩
ﭘﺲ T (X ) = ∏ X iو S (X ) = ∑ ln X iﺑﺮاي θﺑﺴﻨﺪه ﻣﻲﺑﺎﺷﻨﺪ. ﻗﻀﻴﻪ :3اﮔﺮ Tﻳﻚ آﻣﺎرهي ﺑﺴﻨﺪه ﺑﺮاي θو ) T = k (Uآﻧﮕﺎه Uﻧﻴﺰ ﺑﺮاي θﺑﺴﻨﺪه اﺳﺖ. اﺛﺒﺎت T :ﺑﺴﻨﺪه اﺳﺖ ،ﺑﻨﺎﺑﺮاﻳﻦ ) pθ (x ) = g (θ ,T (x ))h ( x ) = g (θ , k (U ( x )) h (x ) = g * (θ ,U (x ))h ( x
ﭘﺲ ﻃﺒﻖ ﻗﻀﻴﻪ ﺗﺠﺰﻳﻪ ﺑﻪ ﻋﻮاﻣﻞ ) U (Xﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﺑﺮاي θاﺳﺖ.
■
ﺑﻨﺎﺑﺮاﻳﻦ در ﻣﺜﺎل T = ln(S ) 2-4و S = eTﻫﺮ دو ﺑﺮاي θﺑﺴﻨﺪه ﻫﺴﺘﻨﺪ.
Factorization Theorem.
١
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
22
ﻣﺜﺎل :3-4ﻓﺮض ﻛﻨﻴﺪ X 1,..., X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) N ( μ ,σ 2ﺑﺎﺷﻨﺪ .ﻧﺸﺎن دﻫﻴﺪ ﻛـﻪ ) (X , S 2
ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﺑﺮاي θاﺳﺖ. ﻣﺜﺎل :4-4ﻓﺮض ﻛﻨﻴﺪ X 1,..., X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) U (0,θﺑﺎﺷﻨﺪ .ﻧـﺸﺎن دﻫﻴـﺪ ﻛـﻪ ) X ( nﻳـﻚ آﻣﺎرهي ﺑﺴﻨﺪه ﺑﺮاي θاﺳﺖ. ﻣﺜﺎل :5-4ﻓﺮض ﻛﻨﻴﺪ X 1,..., X nﻳـﻚ ﻧﻤﻮﻧـﻪ ﺗـﺼﺎدﻓﻲ از ﻳـﻚ ﺗﻮزﻳـﻊ Pθﺑﺎﺷـﻨﺪ و ﻗـﺮار ﻣـﻲدﻫـﻴﻢ ) ) T = (X (1) ,..., X ( nﭼﻮن ﻛﻠﻴﻪ ﻣﻘﺎدﻳﺮ Xﺑﺮاﺑﺮ ! nﺣﺎﻟﺖ ) ) (X (i1) , X (i 2 ) ,..., X (i nﻣـﻲﺑﺎﺷـﺪ ﻛـﻪ 1 ﺗﻮزﻳﻊ ﺷﺮﻃﻲ Xﺑﻪ ﺷﺮط ﻫﺮ ﻛﺪام از اﻳﻦ ﻣﻘﺎدﻳﺮ ﺑﺮاﺑﺮ !n
اﺳﺖ و ﺑﻪ θﺑﺴﺘﮕﻲ ﻧﺪارد ﭘﺲ ) T (Xﻳـﻚ
آﻣﺎره ﺑﺴﻨﺪه ﺑﺮاي θاﺳﺖ. ﻣﺜﺎل :6-4ﻓﺮض ﻛﻨﻴﺪ X 1,..., X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺧﺎﻧﻮاده ي ﻧﻤﺎﻳﻲ kﭘﺎراﻣﺘﺮي ﺑﺎﺷـﻨﺪ در اﻳـﻦ ﺻﻮرت k n ∑ ⎡ C j (θ ) ∑T j ( x i ) − nB (θ ) ⎤ n n n ⎢ j =1 ⎥ i =1 pθ (x ) = ⎢e )) ⎥ ∏ h (x i ) = g (θ , ∑T1(x i ),..., ∑T k (x i i =1 i =1 ⎢ ⎥ i =1 ⎣ ⎦
n
n
i =1
i =1
ﭘﺲ )) T = (∑T1(X i ),...,∑T k (X iﻳﻚ آﻣﺎرهي ﺑﺴﻨﺪه ﺑﺮاي θاﺳﺖ.
آﻣﺎره ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل: ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,...., X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ) N (θ ,1ﺑﺎﺷﻨﺪ و ﻗﺮار دﻫﻴﺪ n
T 3 (X ) = ∑ X i i =1
n
)Xi
∑
i = m +1
m
T 2 (X ) = (∑ X i , i =1
) T1(X ) = (X 1, X 2 ,..., X n
ﻃﺒﻖ ﻗﻀﻴﻪي ﺗﺠﺰﻳﻪ ﺑﻪ ﻋﻮاﻣﻞ ) T 3 (Xﻳﻚ آﻣﺎرهي ﺑﺴﻨﺪه ﺑﺮاي θاﺳﺖ ) T 3 = k 1(T 2و )T 2 = k 2 (T1 ﭘﺲ ﻃﺒﻖ ﻗﻀﻴﻪ T1 ،3-4و T 2ﻧﻴﺰ ﺑﺮاي θﺑﺴﻨﺪه ﻫﺴﺘﻨﺪ .ﻫﻤﭽﻨـﻴﻦ T 3ﺑﻴـﺸﺘﺮ از T 2و T 2ﺑﻴـﺸﺘﺮ از T1
دادهﻫﺎ را ﺧﻼﺻﻪ ﻣﻲﻛﻨﻨﺪ.
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
23
ﺣﺎل اﻳﻦ ﺳﻮال ﻣﻄﺮح اﺳﺖ ﻛﻪ دادهﻫﺎ را ﺗﺎ ﭼﻪ اﻧﺪازه ﻣﻲﺗﻮان ﺧﻼﺻـﻪ ﻛـﺮد .در ﭘﺎﺳـﺦ ﺑـﻪ اﻳـﻦ ﺳـﻮال ﺑﺎﻳﺴﺘﻲ ﮔﻔﺖ ﺗﺎ ﺟﺎﻳﻲ ﻣﻲﺗﻮان دادهﻫﺎ را ﺧﻼﺻﻪ ﻛﺮد ﻛﻪ اﻃﻼﻋﺎت دادهﻫـﺎ در ﻣـﻮرد ﭘﺎراﻣﺘﺮﻫـﺎ از دﺳـﺖ ﻧﺮود .آﻣﺎرهي ﺑﺴﻨﺪهاي ﻛﻪ ﺗﺎ ﺣﺪ ﻣﻤﻜﻦ دادهﻫﺎ را ﺧﻼﺻﻪ ﻛﻨﺪ آﻣﺎرهي ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل ﻧﺎﻣﻴﺪه ﻣﻲﺷﻮد. ﺗﻌﺮﻳﻒ :2-4آﻣﺎرهي ) T (Xﻳﻚ آﻣﺎرهي ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل اﺳﺖ اﮔﺮ اوﻻً اﻳﻦ آﻣﺎره ﺑﺴﻨﺪه ﺑﺎﺷـﺪ و ﺛﺎﻧﻴـﺎً ﺑﺮاي ﻫﺮ آﻣﺎرهي ﺑﺴﻨﺪهي دﻳﮕﺮ Uآﻣﺎرهي Tﺗﺎﺑﻌﻲ از آن ﺑﺎﺷﺪ ﻳﻌﻨﻲ ) .T = K (U ﻧﻜﺎت -1 :آﻣﺎرهﻫﺎي ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﻳﻜﺘﺎ ﻧﻴﺴﺘﻨﺪ اﻣﺎ اﮔﺮ T1و T 2ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل ﺑﺎﺷﻨﺪ ﻳﻚ راﺑﻄـﻪ ﻳـﻚ ﺑﻪ ﻳﻚ ﺑﻴﻦ آﻧﻬﺎ ﺑﺮﻗﺮار اﺳﺖ. -2اﮔﺮ Tﻳﻚ آﻣﺎرهي ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل ﺑﺎﺷﺪ و ) U = K (Tو Kﻳﻚ ﺗﺎﺑﻊ ﻳﻚ ﺑﻪ ﻳﻚ ﻧﺒﺎﺷﺪ آن ﮔـﺎه Uﻳﻚ آﻣﺎرهي ﺑﺴﻨﺪه ﻧﻴﺴﺖ. ﺑﻪ وﺳﻴﻠﻪ ﻗﻀﺎﻳﺎي زﻳﺮ روش ﺑﺪﺳﺖ آوردن آﻣﺎرهي ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل را ﺑﺮرﺳﻲ ﻣﻲﻛﻨﻴﻢ. )p (x ;θ1 ﻗﻀﻴﻪ :4-4آﻣﺎرهي Uﺑﺮاي θﺑﺴﻨﺪه اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ ﺑﻪ ازاي ﻫﺮ ، θ1,θ2 ∈ Θ ) p ( x : θ2
ﺗﺎﺑﻌﻲ
از Uﺑﺎﺷﺪ. اﺛﺒﺎت) :ﻛﻔﺎﻳﺖ( )p ( x ;θ1 ) = (u ;θ1,θ2 ) ⇒ p (x ;θ1) = (u ;θ1,θ2 ) p (x ;θ2 ) p ( x ;θ 2
اﮔﺮ θ2را ﺑﺮاﺑﺮ ﻣﻘﺪار ﺧﺎص θ0
ﺑﮕﻴﺮﻳﻢ آن ﮔﺎه ∀θ1
)p ( x ;θ1) = (u ;θ1,θ0) p (x ;θ0 ∀θ1
) = g (U ,θ1)h (x
ﭘﺲ ﻃﺒﻖ ﻗﻀﻴﻪ ﺗﺠﺰﻳﻪ ﺑﻪ ﻋﻮاﻣﻞ Uﺑﺮاي θﺑﺴﻨﺪه اﺳﺖ. )ﻟﺰوم( :اﮔﺮ Uﺑﺮاي θﺑﺴﻨﺪه ﺑﺎﺷﺪ آن ﮔﺎه ﻃﺒﻖ ﻗﻀﻴﻪ ﺗﺠﺰﻳﻪ ﺑﻪ ﻋﻮاﻣﻞ دارﻳﻢ ﻛﻪ ⎫ ) p (x ;θ1) = g (θ1,u ) h ( x ) p (x ;θ1) g (θ1,u = ) = (u ;θ1,θ2 ⇒⎬ ⎭ ) p ( x ;θ2 ) = g (θ2 ,u )h ( x ) p (x ;θ2 ) g (θ2 ,u
■
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
ﻗﻀﻴﻪ :5-4ﻓﺮض ﻛﻨﻴﺪ } = { p0, p1,..., p k
24
Pﺧﺎﻧﻮادهاي ﻣﺘﻨﺎﻫﻲ ﻣﺘﺸﻜﻞ از k +1ﺗﻮزﻳﻊ ﺑﺎﺷﺪ ﻛـﻪ
) ⎛ P1(x ⎞ ) P (x ,...., k ﻫﻤﮕﻲ داراي ﺗﻜﻴﻪﮔﺎه ﻳﻜﺴﺎن ﻫـﺴﺘﻨﺪ .در اﻳـﻦ ﺻـﻮرت ⎟ ⎠ ) P0(x ) ⎝ P0(x
⎜ = ) T (xﻳـﻚ آﻣـﺎره
ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﺑﺮاي θاﺳﺖ. اﺛﺒﺎت: j = 1,...., k
) p0(x ) = g (T ( x ), j )h (x
) p j (x ) p0(x
= ) p j (x
) p0( x ) = 1× p0( x ) = 1× h ( x
ﻟﺬا ﻃﺒﻖ ﻗﻀﻴﻪ ﺗﺠﺰﻳﻪ ﺑﻪ ﻋﻮاﻣﻞ ) T (Xﻳﻚ آﻣﺎره ﺑﺴﻨﺪه اﺳﺖ .ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ Uﻳﻚ آﻣـﺎرهي ﺑـﺴﻨﺪه ﺑﺮاي Pﺑﺎﺷﺪ .ﻃﺒﻖ ﻗﻀﻴﻪ 4-4ﺑﺎﻳﺴﺘﻲ Tﺗﺎﺑﻌﻲ از Uﺑﺎﺷﺪ ﭘـﺲ Tﻳـﻚ آﻣـﺎرهي ﺑـﺴﻨﺪهي ﻣﻴﻨﻴﻤـﺎل اﺳﺖ■ . ﻗﻀﻴﻪ :6-4ﻓﺮض ﻛﻨﻴﺪ Pﺧﺎﻧﻮادهاي از ﺗﻮزﻳﻊﻫﺎ ﺑﺎ ﺗﻜﻴـﻪﮔـﺎه ﻳﻜـﺴﺎن و ﺑﺮاي
o
P o ⊂P
ﺑﺎﺷـﺪ .اﮔـﺮ T
Pﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل و ﺑﺮاي Pﺑﺴﻨﺪه ﺑﺎﺷﺪ ،آﻧﮕﺎه ﺑﺮاي Pﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل ﻧﻴﺰ ﻫﺴﺖ. Pاﺳﺖ .ﭘﺲ Uﺑﺮاي P oﻧﻴﺰ ﺑـﺴﻨﺪه اﺳـﺖ و ﻟـﺬا T
اﺛﺒﺎت :ﻓﺮض ﻛﻨﻴﺪ Uﻳﻚ آﻣﺎرهي ﺑﺴﻨﺪه ﺑﺮاي
ﺗﺎﺑﻌﻲ از Uاﺳﺖ ،ﭘﺲ Tﺑﺮاي Pﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل اﺳﺖ.
■
ﻣﺜﺎل :7-4ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 …, X nﻳﻚ ﻧﻤﻮﻧـﻪ ﺗـﺼﺎدﻓﻲ از ﺗﻮزﻳـﻊ ) N (θ ,1ﺑﺎﺷـﺪ .ﻳـﻚ آﻣـﺎرهي ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل ﺑﺮاي θﭘﻴﺪا ﻛﻨﻴﺪ. })P 0 = {N (θ0,1), N (θ1,1 n
) = h (∑ X i i =1
n
ﻛﻪ hﻳﻚ ﺗﺎﺑﻊ ﻳﻚ ﺑﻪ ﻳﻚ اﺳﺖ .ﭼﻮن ∑ X i i =1
n 1 ) (θ1−θ2 ) ∑ X i − (θ12 −θ02 2 i =1
=e
1n ∑ ( X i −θ1)2 2 i =1 1n ∑ ( X i −θ0)2 2 i =1
−
e −
=
) pθ1 (x ) pθ0 (x
e
ﺑﺮاي Pﺑﺴﻨﺪه و ﺑﺮاي P 0ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل اﺳـﺖ ﭘـﺲ
ﺑﺮاي ﺧﺎﻧﻮادهي ) N (θ ,1ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل اﺳﺖ.
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
1 2
25
1 2
ﻣﺜﺎل :8-4ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 …, X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗـﺼﺎدﻓﻲ از ﺗﻮزﻳـﻊ ) U (θ − ,θ +ﺑﺎﺷـﺪ .ﻳـﻚ ) ) T (X ) = (X (1) , X ( n
آﻣﺎرهي ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل ﺑﺮاي θﭘﻴﺪا ﻛﻨﻴﺪ.
ﻗــﻀﻴﻪ :7-4ﻓــﺮض ﻛﻨﻴــﺪ Xداراي ﺗــﻮزﻳﻌﻲ از ﺧــﺎﻧﻮادهي ﻧﻤــﺎﻳﻲ - kﭘــﺎراﻣﺘﺮي ﺑﺎﺷــﺪ .در اﻳــﻦ ﺻﻮرت ) T = (T1,...,T kﻳﻚ آﻣﺎرهي ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل ﺑﺮاي اﻳﻦ ﺧﺎﻧﻮاده اﺳﺖ ﺑﻪ ﺷـﺮط آﻧﻜـﻪ ﻳﻜـﻲ از ﺷﺮاﻳﻂ زﻳﺮ ﺑﺮاي اﻳﻦ ﺧﺎﻧﻮاده ﺑﺮﻗﺮار ﺑﺎﺷﺪ: اﻟﻒ -اﻳﻦ ﺧﺎﻧﻮاده ﭘﺮرﺗﺒﻪ ﺑﺎﺷﺪ. ب -ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ﺷﺎﻣﻞ k +1ﻧﻘﻄﻪ ) η (0) ,η (1) ,...,η ( kﺑﺎﺷﺪ ﻛﻪ ﻓﻀﺎي E kرا ﭘﺪﻳﺪ ﻣـﻲآورﻧـﺪ .ﺑـﻪ اﻳﻦ ﻣﻌﻨﻲ ﻛﻪ آﻧﻬﺎ ﺑﻪ ﻳﻚ زﻳﺮ ﻓﻀﺎي ﻣﺤﺾ E kﺗﻌﻠﻖ ﻧﺪارﻧﺪ. اﺛﺒﺎت :اﮔﺮ ﺷﺮاﻳﻂ )اﻟﻒ( ﻳﺎ )ب( ﺑﺮﻗﺮار ﺑﺎﺷﺪ آﻧﮕﺎه ﻣﻲﺗﻮان ) η (1) ,...,η ( k
را در داﺧــــﻞ ﻓــــﻀﺎي
ﭘﺎراﻣﺘﺮي ﭼﻨﺎن ﻳﺎﻓﺖ ﻛﻪ ﻣﺴﺘﻘﻞ ﺧﻄﻲ ﺑﺎﺷﻨﺪ .ﺣﺎل ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي } ) P 0 = { pη (0) ,..., pη ( kرا در ﻧﻈﺮ ﻣﻲﮔﻴﺮﻳﻢ ﻛﻪ در آن ) η (0ﻳﻚ ﺗﺮﻛﻴﺐ ﺧﻄﻲ ﻏﻴﺮﻣﺤﺪب از ) η (1) ,...,η ( kاﺳﺖ .ﺑﻨﺎﺑﺮاﻳﻦ ⎞ ⎟ ⎟ ⎟ ⎠
k )⎛ k (1) (0 ∑ (ηr( k ) −ηr(0) )t r ) )⎛ p (x ,η (1 p (x ,η ( k ) ) ⎞ ⎜ ∑ (ηr −ηr )t r ⎟ = e r =1 ⎜ = ) T (X ,..., ,..., e r =1 ⎜ ⎟ )(0 ) )⎜ p (x ,η (0 p ( x , ) η ⎝ ⎝⎜ ⎠
و ﻳﺎ ﻣﻌﺎدﻻً k
) ∑ (ηr( k ) − ηr(0) )t r r =1
− η r(0) )t r ,...,
)(η r(1
k
∑( = ) W (x
r =1
⎤ )⎡η1(1) − η1(0) ....η1( k ) − η1(0 ⎢ ⎥ ⎢ ] = [t1,..., t k ⎥ = [t1,..., t k ]B ⎥ )⎢η (1) − η (0) ....η ( k ) − η (0 k k ⎦ k ⎣ k
ﻳﻚ آﻣﺎرهي ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل ﺑﺮاي P oاﺳﺖ .ﭼـﻮن ) η (iﻫـﺎ ﻣـﺴﺘﻘﻞ ﺧﻄـﻲ ﻫـﺴﺘﻨﺪ ﭘـﺲ ﺳـﺘﻮنﻫـﺎي Bﻣﺴﺘﻘﻞ ﺧﻄﻲ و در ﻧﺘﻴﺠﻪ Bوارونﭘﺬﻳﺮ اﺳﺖ .ﺑﻨﺎﺑﺮاﻳﻦ ) (T1,...,T kﺑﺮاي P oﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل اﺳﺖ و ﭼﻮن ﺑﺮاي Pﺑﺴﻨﺪه اﺳﺖ ﭘﺲ ﺑﺮاي Pﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﻧﻴﺰ ﻫﺴﺖ. ﻣﺜﺎل :9-4ﻓﺮض ﻛﻨﻴﺪ X 1,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) N (θ ,θ 2ﺑﺎﺷﻨﺪ .در اﻳﻦ ﺻﻮرت
■
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ 1 n
−
1
}e
) ∑ x i2 +θ ∑ x i − n ln(2πθ 2
1 2θ 2
−
( x ) = {e
θ
26
P
ﺑﻨﺎﺑﺮاﻳﻦ آﻣﺎره ) T = (∑ X i , ∑ X i2ﺑﺮاي θﺑﺴﻨﺪه اﺳﺖ و اﻳﻦ آﻣﺎره ﺑﺮاي θﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل اﺳﺖ 1
1
زﻳﺮا در اﻳﻨﺠﺎ ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ﻋﺒﺎرت از ) η = ( , − 2اﺳﺖ و اﮔﺮ ﻧﻘﺎط θ 2θ 1 ) 18
1 3
η (3) = ( , −
1 8
1 2
) η (1) = ( , −
1 2
) η (0) = (1, −
1 ⎡ 1 ⎤ ⎥ −1 ⎢ 2 −1 3 ⎢ ﻛﻪ وارونﭘﺬﻳﺮ اﺳـﺖ را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ آن ﮔﺎه ﻣﺎﺗﺮﻳﺲ Bﻓﻮق ﻋﺒﺎرت اﺳﺖ از ⎥ ⎥ ⎢− 1 + 1 − 1 + 1 ⎢⎣ 8 2 ⎦⎥ 18 2
و ﻃﺒﻖ ﻗﻀﻴﻪ ﻗﺒﻞ Tﺑﺮاي θﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل اﺳﺖ.
■
روش ﻟﻬﻤﻦ -ﺷﻔﻪ ﺑﺮاي ﺑﺪﺳﺖ آوردن آﻣﺎره ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﻗﻀﻴﻪ :8-4ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي } {Pθ : θ ∈ Θﺑﺎ ﭼﮕـﺎﻟﻲ pθرا در ﻧﻈـﺮ ﺑﮕﻴﺮﻳـﺪ .اﮔـﺮ ) T (Xآﻣـﺎرهاي ﺑﺎﺷﺪ ﻛﻪ ﺑﺮاي ﻫﺮ دو ﻧﻘﻄﻪ xو yدر ﺗﻜﻴﻪ ﮔﺎه * S Xداﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ ) pθ (x ) = K (x , y ) ⇔ T (x ) = T ( yﻣﺴﺘﻘﻞ از = θ ) pθ ( y
آن ﮔﺎه Tﺑﺮاي اﻳﻦ ﺧﺎﻧﻮاده ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل اﺳﺖ. اﺛﺒﺎت :اﺑﺘﺪا ﺛﺎﺑﺖ ﻣﻲﻛﻨﻴﻢ ﻛﻪ ) T (Xﻳﻚ آﻣﺎره ﺑﺴﻨﺪه اﺳﺖ .اﻓﺮازﻫﺎي اﻳﺠﺎد ﺷﺪه ﺗﻮﺳﻂ ) T (Xرا ﺑﻪ ﺻﻮرت } At = {x | T (x ) = tﻧﺸﺎن ﻣﻲدﻫﻴﻢ .ﻓﺮض ﻛﻨﻴﺪ U tﻳﻚ ﻧﻘﻄﻪ ﺑﻪ ﺧﺼﻮص در Atﺑﺎﺷﺪ .ﺣﺎل اﮔﺮ x ∈ Atﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت x ∈ At ) } ⇒ T (x ) = T (u t ) ⇒ pθ (x ) = K (x ,U t ) pθ (u t U t ∈ At
)) ⇒ pθ (x ) = K (x ,U T ( x ) )f θ (U T ( x ) ) = h (x ) g (θ ,T (x
ﭘﺲ ﺑﻨﺎ ﺑﻪ ﻗﻀﻴﻪ ﺗﺠﺰﻳﻪ ﺑﻪ ﻋﻮاﻣﻞ T (X ) ،ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه اﺳﺖ. ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ Uﻳﻚ آﻣﺎره ﺑﺴﻨﺪه دﻳﮕﺮ ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
) Pθ (x ) g (θ ,U (x )) h (x = = ﻣﺴﺘﻘﻞ از = K (x , y ) θ ) Pθ ( y ) g (θ ,U ( y )) h ( y
27
⇒ ) U (x ) = U ( y
ﻟﺬا ﺑﻨﺎ ﺑﻪ ﻓﺮض ) .T (x ) = T ( yﻳﻌﻨﻲ Tﺗﺎﺑﻌﻲ از Uاﺳﺖ ﭘﺲ Tﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل اﺳﺖ.
■
ﻣﺜﺎل :10-4ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳـﻊ ) Pa (α ,θﺑﺎﺷـﻨﺪ ﻳـﻚ آﻣـﺎره ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﺑﺮاي ) (α ,θﭘﻴﺪا ﻛﻨﻴﺪ. ) I (0,x (1) ) (α
θ n α nθ n
) (∏ x i
θ +1
θα θ
I = ) (x θ +1 (α ,+∞ ) i
n
∏ = ) pα ,θ (x
i =1 x i
i =1
n
(∏ y i )θ +1 I n n ) pα ,θ (x ) (0,x (1) )(α = i n=1 ) )= 1 ⇔ (∏ x i , x (1) ) = (∏ y i , y (1 . ) pα ,θ ( y I ) (α i =1 i =1 ) )(∏ x i )θ +1 (0, y (1 i =1
n
ﭘﺲ ) ) T (X ) = (∏ X i , X (1ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﺑﺮاي ) (α ,θاﺳﺖ.
■
i =1
ﺗﻮﺟﻪ :ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ راﺑﻄﻪ آﻣﺎرهﻫﺎي ﺑﺴﻨﺪه و آﻣﺎرهﻫﺎي ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ،روش ﺗﺸﺨﻴﺺ ﺑـﺴﻨﺪﮔﻲ ﻳـﺎ ﻋـﺪم ﺑﺴﻨﺪﮔﻲ ﻳﻚ آﻣﺎره ﺑﻪ ﺻﻮرت زﻳﺮ ﻣﻲ ﺑﺎﺷﺪ .ﻓﺮض ﻛﻨﻴﺪ Tﻳـﻚ آﻣـﺎره دﻟﺨـﻮاه ﺑﺎﺷـﺪ .ﺑـﺮاي ﺗـﺸﺨﻴﺺ ﺑﺴﻨﺪﮔﻲ ﻳﺎ ﻋﺪم ﺑﺴﻨﺪﮔﻲ آﻣﺎره ،Tاﺑﺘﺪا ﺗﻮﺳﻂ روش ﻟﻬﻤﻦ – ﺷﻔﻪ ﻳـﻚ آﻣـﺎره ﺑـﺴﻨﺪه ﻣﻴﻨﻴﻤـﺎل Sﭘﻴـﺪا ﻣﻲﻛﻨﻴﻢ اﮔﺮ Sﺗﺎﺑﻌﻲ از آﻣﺎره Tﺑﺎﺷﺪ آﻧﮕﺎه Tﺑﺴﻨﺪه اﺳﺖ و اﮔﺮ Sﺗﺎﺑﻌﻲ از Tﻧﺒﺎﺷـﺪ .آن ﮔـﺎه T
ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﻧﺨﻮاﻫﺪ ﺑﻮد )اﺛﺒﺎت :ﺑﺮﻫﺎن ﺧﻠﻒ(.
آﻣﺎرهﻫﺎي ﻓﺮﻋﻲ :1 ﺗﻌﺮﻳﻒ :3-4ﻳﻚ آﻣﺎره ) T (Xرا ﻓﺮﻋﻲ ﮔﻮﺋﻴﻢ ﻫﺮﮔﺎه ﺗﻮزﻳﻊ آن ﺑﻪ ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل ﺑﺴﺘﮕﻲ ﻧﺪاﺷﺘﻪ ﺑﺎﺷـﺪ و ﻳﻚ آﻣﺎره ) T (Xرا ﻓﺮﻋﻲ از ﻣﺮﺗﺒﻪ اول ﮔﻮﺋﻴﻢ ﻫﺮﮔﺎه E θ [T (X )] = cو ﺑﻪ θﺑﺴﺘﮕﻲ ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ. ﻣﺜــﺎل :11-4اﮔــﺮ X 1,… , X nﻳــﻚ ﻧﻤﻮﻧــﻪ ﺗــﺼﺎدﻓﻲ از ﻳــﻚ ﺧــﺎﻧﻮاده ﻣﻜــﺎن ) f (x − θﺑﺎﺷــﻨﺪ آﻧﮕﺎه ) S (X ) = X ( n ) − X (1ﻳﻚ آﻣﺎره ﻓﺮﻋﻲ اﺳﺖ زﻳﺮا Ancillary statistics
١
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
i = 1,..., n
28
X i = Z i +θ
Z iداراي ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ) f (xاﺳﺖ ﻛﻪ ﺑﻪ θﺑﺴﺘﮕﻲ ﻧﺪارد. ) R = X ( n ) − X (1) ⇒ FR (r ) = P (R ≤ r ) = P (X ( n ) − X (1) ≤ r ) = P (max X i − min X i ≤ r ) = P (max( Z i + θ )− min( Z i + θ ) ≤ r 1≤i ≤ n
1≤i ≤ n
1≤i ≤ n
1≤i ≤ n
) = P (Z ( n ) − Z (1) ≤ r
ﻛﻪ اﻳﻦ اﺣﺘﻤﺎل ﺑﻪ θﺑﺴﺘﮕﻲ ﻧﺪارد ﭘﺲ Rﻳﻚ آﻣﺎره ﻓﺮﻋﻲ اﺳﺖ■ . x ﻣﺜﺎل :12-4اﮔﺮ X 1,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﻳﻚ ﺧﺎﻧﻮاده ﻣﻘﻴﺎس ) ( f
σ
X1 X ) ,..., n −1 Xn Xn
1
σ
ﺑﺎﺷﻨﺪ آﻧﮕﺎه
( = )S (X ) = (Y 1,… ,Y n −1
ﻳﻚ آﻣﺎره ﻓﺮﻋﻲ ﺑﺮاي σاﺳﺖ زﻳﺮا X1 X )≤ y 1,..., n −1 ≤ y n −1 Xn Xn
Xi
( FY 1,...,Y n −1 ( y 1,… , y n −1) = P
X1 σ X σ )≤ y 1,..., n −1 ≤ y n −1 Xn σ Xn σ
(= P
Z1 Z )≤ y 1,..., n −1 ≤ y n −1 Zn Zn
(= P
= Z iو ) f Z i (z ) = σ f X (σ z ) = f (zﺑﻨﺎﺑﺮاﻳﻦ اﺣﺘﻤـﺎل ﻓـﻮق ﺑـﻪ σﺑـﺴﺘﮕﻲ ﻧـﺪارد
ﻛﻪ در آن σ ﭘﺲ ) S (Xﻳﻚ آﻣﺎره ﻓﺮﻋﻲ اﺳﺖ.
■
ﺗﻮﺟﻪ :ﻫﻤﺎﻧﮕﻮﻧﻪ ﻛﻪ ﻣﻲداﻧﻴﻢ آﻣﺎرهﻫﺎي ﺑﺴﻨﺪه ﺟﻬﺖ ﻛﺎﻫﺶ ﺑﻌﺪ دادهﻫﺎ ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار ﻣـﻲﮔﻴﺮﻧـﺪ .آن آﻣﺎره ﺑﺴﻨﺪهاي ﻣﻲﺗﻮاﻧﺪ اﻳﻦ ﻛﺎﻫﺶ ﺑﻌﺪ را ﺗﺎ ﺣﺪ ﻣﻤﻜﻦ اﻧﺠﺎم دﻫﺪ ﻛﻪ ﻫﻴﭻ ﺗﺎﺑﻊ ﻏﻴﺮﺛﺎﺑﺖ آن ﻳـﻚ آﻣـﺎره ﻓﺮﻋﻲ ﻧﺒﺎﺷﺪ ﻳﻌﻨﻲ اﮔﺮ E [f (T )] = cﻧﺘﻴﺠﻪ دﻫﺪ ﻛﻪ a.e .
ﺗﻌﺮﻳﻒ آﻣﺎره ﻛﺎﻣﻞ ﺣﺎﺻﻞ ﻣﻲﺷﻮد.
f (T ) = cﻛﻪ ﺑﺎ ﻛﻢ ﻛﺮدن cاز ﻃـﺮﻓﻴﻦ،
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
ﺑﺨﺶ :5ﻛﺎﻣﻞ ﺑﻮدن
29
1
ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫـﺎي }= {Pθ : θ ∈ Θ اﮔﺮ ) T ( Xﻳﻚ آﻣﺎره ﺑﺎﺷﺪ آﻧﮕﺎه ﮔﻮﻳﻨﺪ }= {PθT : θ ∈ Θ
Pﺑﺎﺷـﻨﺪ
Pﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﺗﻮﻟﻴﺪ ﺷﺪه ﺗﻮﺳﻂ
T
آﻣﺎره Tاﺳﺖ. ﺗﻌﺮﻳﻒ :1-5اﻟﻒ -ﺧﺎﻧﻮاده T
)(1
a.e . P
T
θ
Pرا ﻛﺎﻣﻞ ﮔﻮﻳﻨﺪ اﮔﺮ ﺑﺮاي ﻫﺮ ﺗﺎﺑﻊ ) h (Tداﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ h(T ) = 0
⇒ ∀θ ∈ Θ
E θ [h (T )] = 0
و آﻣﺎره ) T (Xرا ﻛﺎﻣﻞ ﮔﻮﻳﻨﺪ اﮔﺮ ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﺑﻪ وﺟﻮد آﻣـﺪه ﺗﻮﺳـﻂ Tﻛﺎﻣـﻞ ﺑﺎﺷـﺪ )ﻳﻌﻨـﻲ ﺧﺎﻧﻮادهاي ﻛﺎﻣﻞ اﺳﺖ ﻛﻪ در آن ﺗﻨﻬﺎ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﺻﻔﺮ ﺧﻮد ﺑﺮآوردﮔﺮ ﺻﻔﺮ ﺑﺎﺷﺪ(. ب -ﺧﺎﻧﻮاده
T
θ
Pرا ﻛﺎﻣﻞ ﻛﺮاﻧﺪار ﮔﻮﻳﻨﺪ اﮔﺮ ﺑﺮاي ﻫﺮ ﺗﺎﺑﻊ ﺣﻘﻴﻘﻲ ﻛﺮاﻧـﺪار ) h (Tراﺑﻄـﻪ ) (1ﺑﺮﻗـﺮار
ﺑﺎﺷﺪ. ﺗﻮﺟﻪ :ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ اﮔﺮ ﻳﻚ آﻣﺎره Tﻛﺎﻣﻞ ﺑﺎﺷﺪ آن ﮔﺎه ﻛﺎﻣﻞ ﻛﺮاﻧﺪار ﻧﻴﺰ اﺳﺖ اﻣﺎ ﻋﻜـﺲ اﻳـﻦ ﻣﻄﻠـﺐ ﺑﺮﻗﺮار ﻧﻴﺴﺖ .و ﻫﻤﭽﻨﻴﻦ اﮔﺮ Tﻳﻚ آﻣﺎره ﻛﺎﻣﻞ ﺑﺎﺷﺪ آﻧﮕﺎه ﻫﺮ ﺗﺎﺑﻊ ﻳﻚ ﺑﻪ ﻳﻚ آن ﻧﻴﺰ ﻛﺎﻣﻞ اﺳﺖ. 1 2
ﻣﺜﺎل :1ﻓﺮض ﻛﻨﻴﺪ ) ، X ~ B (θ ,ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ 1 اﻟﻒ -اﮔﺮ } θ ∈ Θ = {0,1, 2,....آﻧﮕﺎه }= {B (θ , ) | θ ∈ Θ 2
Pﻛﺎﻣﻞ اﺳﺖ.
1 ب -اﮔﺮ } θ ∈ Θ* = {1, 2,....آﻧﮕﺎه }= {B (θ , ) | θ ∈ Θ 2
*
Pﻛﺎﻣﻞ ﻧﻴﺴﺖ.
ﺣﻞ: ∀θ ∈ Θ
θ
θ ⎞ ⎛θ ⎞⎛ 1 ⎞ ⎛θ E θ [h (X )] = 0 ⇒ ∑ h (x ) ⎜ ⎟⎜ ⎟ = 0 ⇒ ∑ h (x ) ⎜ ⎟ = 0 ⎠ ⎝ x ⎠⎝ 2 ⎠ ⎝x x =0 x =0 θ
اﻟﻒ- θ = 0 ⇒ h (0) = 0 θ = 1 ⇒ h (0) + h (1) = 0 ⇒ h (1) = 0
ﻓﺮض
θ = k : h (0) = h (1) = ..... = h (k ) = 0 Completeness
١
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
30
θ = k + 1: h (k + 1) = 0
ﺣﻜﻢ
)( 2 ⎞⎛ k + 1 ⎞⎛ k + 1 1 0 ⎜ )h (0) + h (1 ... h ( k ) h ( k ) h (k + 1) = 0 + + + + = ⇒ ⎟ ⎟ ⎜ k ⎠ ⎝ 1 ⎝ ⎠
a.e . P
∴
h (x ) = 0
ﻛﻪ ﻧﺘﻴﺠﻪ ) (2از ﻓﺮض ﺣﺎﺻﻞ ﻣﻲﮔﺮدد ب- θ = 1 ⇒ h (0) + h (1) = 0 ⇒ h (1) = −h (0) = −a θ = 2 ⇒ h (0) + 2h (1) + h (2) = 0 ⇒ h (2) = −a )a = h (0
ﭘﺲ اﮔﺮ a ≠ 0آﻧﮕﺎه
*
x = 0, 2,.... = (1) x a , x = 1, 3,....
⎧a ⎨ = ) h (x ⎩−a
Pﻳﻚ ﺧﺎﻧﻮاده ﻛﺎﻣﻞ ﻧﻴﺴﺖ.
■
ﺗﻮﺟﻪ :ﻣﺜﺎل ﻗﺒﻞ ﻧﺸﺎن ﻣﻲدﻫﺪ ﻛﻪ ﻛﺎﻣﻞ ﺑﻮدن ﺑﻪ ﺧﺎﻧﻮاده ﺗﻮزﻳﻊ ﻫﺎ ﺑﺴﺘﮕﻲ دارد و ﻧﻪ ﺑﻪ آﻣﺎره ) .T (X ﻣﺜﺎل :2-5ﻓﺮض ﻛﻨﻴﺪ Xﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﮔﺴﺴﺘﻪ ﺑﺎ ﺗﺎﺑﻊ اﺣﺘﻤﺎل زﻳﺮ ﺑﺎﺷﺪ. 0< θ <1
x = 2, 3,...
x =1 ⎧⎪θ pθ (x ) = ⎨ x −2 2 ) ⎪⎩θ (1 − θ
ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ Xﻳﻚ آﻣﺎره ﻛﺎﻣﻞ ﻧﻴﺴﺖ اﻣﺎ ﻛﺎﻣﻞ ﻛﺮاﻧﺪار اﺳﺖ. ﺣﻞ: ∞+
∞+
x =2
x =1
0 = E θ [h ( X )] = ∑ h ( x ) pθ ( x ) = θ h (1) + ∑ h ( x )θ x −2 (1 − θ )2 ∞+
⇒ ∑ h (x )θ x −2 = −θ h (1)(1 − θ ) −2 x =2
∞ 1 دارﻳﻢ: ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﻳﻨﻜﻪ = ∑ (x + 1)θ x 2 ) (1 − θ x =0
∞+
∞+
∞y = x −2 +
y =1
x =0
y =0
∑ h ( y + 2)θ y = −h (1)∑ (x + 1)θ x +1 = −h (1)∑ y θ y
⇒
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
x = 1, 2, 3,....
www.riazisara.ir
31
⎧ h (2) = 0 ⎨⇒ )y = 1, 2, 3,... ⇒ h ( x ) = −(x − 2)h (1 )⎩ h ( y + 2) = − yh (1
ﺑﻨﺎﺑﺮاﻳﻦ Xﻛﺎﻣﻞ ﻧﻴﺴﺖ زﻳﺮا ﺑﺮاي E θ [h (X )] = 0ﻧﺘﻴﺠﻪ ﮔﺮﻓﺘﻴﻢ ﻛﻪ) h (x ) ≠ 0ﺑﺎ ﻗﺮار دادن.( h (1) ≠ 0 اﻣــﺎ Xﻳــﻚ آﻣــﺎره ﻛﺎﻣــﻞ ﻛﺮاﻧــﺪار اﺳــﺖ زﻳــﺮا اﮔــﺮ ) h (xﻳــﻚ ﺗــﺎﺑﻊ ﻛﺮاﻧــﺪار ﺑﺎﺷــﺪ وh (1) ≠ 0 آﻧﮕﺎه ∞ . lim h (x ) = ±ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮاي اﻳﻨﻜﻪ ) h (xﻳﻚ ﺗﺎﺑﻊ ﺣﻘﻴﻘﻲ ﻛﺮاﻧﺪار ﺑﺎﺷﺪ ﺑﺎﻳـﺴﺘﻲ h (1) = 0 ∞x →±
ﺑﺎﺷﺪ ﭘﺲ ∀x = 1, 2,.....
h (x ) = 0,ﺑﻨﺎﺑﺮاﻳﻦ Xﻳﻚ آﻣﺎره ﻛﺎﻣﻞ ﻛﺮاﻧﺪار اﺳﺖ.
■
ﻗـــﻀﻴﻪ :1-5اﮔـــﺮ Xداراي ﺗـــﻮزﻳﻌﻲ از ﺧـــﺎﻧﻮاده ﻧﻤـ ـﺎﻳﻲ - kﭘـــﺎراﻣﺘﺮي ﭘﺮرﺗﺒـــﻪ ﺑﺎﺷـــﺪ آﻧﮕـــﺎه آﻣﺎره ) T = (T1,...,T kﺑﺮاي اﻳﻦ ﺧﺎﻧﻮاده ﻛﺎﻣﻞ اﺳﺖ. اﺛﺒﺎت) :ﻛﺘﺎب TSHﺑﺨﺶ 4. 3ﻗﻀﻴﻪ (1
■
ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻗﻀﻴﻪ ﻓﻮق ﻣﻲﺗﻮان ﻧﺘﻴﺠﻪ ﮔﺮﻓﺖ ﻛﻪ در ﺗﻮزﻳـﻊ ) N ( μ ,σ 2آﻣـﺎره ) T (X ) = (X , S 2و در ﺗﻮزﻳﻊ ) B (n ,θآﻣﺎره T (X ) = Xو در ﺗﻮزﻳﻊ ) Be (θ ,1آﻣﺎره T (X ) = ∑ ln X iآﻣﺎرهﻫﺎي ﻛﺎﻣﻞ )و ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل( ﻣﻲﺑﺎﺷﻨﺪ .ﻣﺜﺎﻟﻬﺎي دﻳﮕﺮ در ﻏﻴﺮ از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ در ﻛﺘﺎب ﺧﻮاﻧﺪه ﺷﻮد. ﻫﻤﭽﻨﻴﻦ ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ اﮔﺮ ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﭘﺮرﺗﺒﻪ ﻧﺒﺎﺷﺪ آﻧﮕﺎه آﻣﺎره ) T = (T1,...,T kﻛﺎﻣﻞ ﻧﻴﺴﺖ .ﺑﺮاي ﻣﺜﺎل ) . N (θ ,θ 2 ﻣﺜﺎل :3-5ﻓﺮض ﻛﻨﻴﺪ X 1,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) U (θ ,θ +1ﺑﺎﺷﺪ .در اﻳﻦ ﺻﻮرت ﺑﻪ راﺣﺘﻲ دﻳﺪه ﻣﻲﺷﻮد ﻛﻪ ) ) U (X ) = (X (1) , X ( nو ﻳﺎ ﻣﻌﺎدﻻً )
) X (1) + X ( n 2
T (X ) = (X ( n ) − X (1) ,ﻳـﻚ
آﻣﺎره ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﺗﻮأم ﺑﺮاي θاﺳﺖ و ) S (X ) = X ( n ) − X (1ﻳﻚ آﻣﺎره ﻓﺮﻋـﻲ اﺳـﺖ و ﭼـﻮن S
ﻗﺴﻤﺘﻲ از آﻣﺎره Tاﺳﺖ ﭘﺲ Sو Tاز ﻳﻜﺪﻳﮕﺮ ﻣﺴﺘﻘﻞ ﻧﻤﻲﺑﺎﺷﻨﺪ. ﺗﻮﺟﻪ :ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ آﻣﺎره ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﺗﻤﺎم اﻃﻼﻋﺎت را در ﻣﻮرد ﭘﺎراﻣﺘﺮ ﻣﺠﻬـﻮل θدارد اﻣـﺎ آﻣـﺎره ﻓﺮﻋﻲ ﻫﻴﭻ اﻃﻼﻋﻲ در ﻣﻮرد θﻧﺪارد و ﺑﻪ ﻧﻈﺮ ﻣﻲرﺳﺪ ﻛﻪ ﺑﺎﻳﺴﺘﻲ از ﻳﻜﺪﻳﮕﺮ ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ .اﻣﺎ در ﻣﺜـﺎل ﺑﺎﻻ ﭼﻨﻴﻦ ﻧﺒﻮد.
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
32
ﻗـــﻀﻴﻪ ) 2-5ﻗـــﻀﻴﻪ ﺑﺎﺳـــﻮ :(1اﮔـــﺮ Tﻳـــﻚ آﻣـــﺎره ﺑـــﺴﻨﺪه و ﻛﺎﻣـــﻞ ﻛﺮاﻧـــﺪار ﺑـــﺮاي ﺧﺎﻧﻮاده }= { pθ : θ ∈ Θ
Pﺑﺎﺷﺪ و Vﻳﻚ آﻣﺎره ﻓﺮﻋﻲ ﺑـﺮاي Pﺑﺎﺷـﺪ آﻧﮕـﺎه Tو Vاز ﻳﻜـﺪﻳﮕﺮ
ﻣﺴﺘﻘﻞ ﻫﺴﺘﻨﺪ. w ∈E اﺛﺒﺎت :ﻓﺮض ﻛﻨﻴﺪ Eﻳﻚ ﭘﻴﺸﺎﻣﺪ ﺑﺎﺷﺪ و ﻗﺮار دﻫـﻴﻢ w ∉E
⎧1 ⎨ = ) T E (wدر اﻳـﻦ ﺻـﻮرت I E ⎩0
ﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﻛﺮاﻧﺪار اﺳﺖ و ) . E (I E ) = P (Eﺣﺎل ﻧﺸﺎن ﻣﻲدﻫﻴﻢ ﻛﻪ ﺑﺮاي ﻫﺮ ﻣﺠﻤﻮﻋﻪ ﺑﺮل A
) P (V ∈ A | T = t ) = P (V ∈ A
دارﻳﻢ ﻛﻪ
ﻗﺮار ﻣﻲ دﻫﻴﻢ ) E = (V ∈ Aدر اﻳﻦ ﺻﻮرت ﻣﺴﺘﻘﻞ از θ
> ∼ ) P (V ∈ A ) = P (E ) = E (I E
] P (V ∈ A | T = t ) − P (V ∈ A ) = P ( E | T = t ) − P ( E ) = E [ I E | T = t ] − E [ I E
ﻣﺴﺘﻘﻞ از θ
) = h (t
] h (T ) = E [I E | T ] − E [ I E }) E θ [h (T )] = E {E [I E | T = t ]} − E {E (I E
) h (Tﺗﺎﺑﻌﻲ ﻛﺮاﻧﺪار اﺳﺖ و a.e . P
)(3
= E ( I E ) − E ( I E ) = 0⇒ h (T ) = 0
ﻛﻪ در آن ) (3از ﻛﺎﻣﻞ ﻛﺮاﻧﺪار ﺑﻮدن Tﻧﺘﻴﺠﻪ ﻣﻲﮔﺮدد .ﭘﺲ a.e . P
) P (V ∈ A | T = t ) = P (V ∈ A
■
ﻗﻀﻴﻪ ) 3-5ﻗﻀﻴﻪ ﺑﻬﺎدر :(2اﮔﺮ ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﻛﺎﻣﻞ ﺑﺎﺷﺪ آﻧﮕﺎه آن آﻣﺎره ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل اﺳﺖ. اﺛﺒــﺎت :ﻓــﺮض ﻛﻨﻴــﺪ Uﻳــﻚ آﻣــﺎره ﺑــﺴﻨﺪه ﻛﺎﻣــﻞ و Tﻳــﻚ آﻣــﺎره ﺑــﺴﻨﺪه ﻣﻴﻨﻴﻤــﺎل ﺑﺎﺷــﺪ ،در اﻳــﻦ ﺻﻮرت ) T = K (Uو ﺑﻨﺎﺑﺮاﻳﻦ ])) E θ (U ) = E θ [E (U | T )] = E θ [h (T )] = E θ [h (K (U a.e . P
)( 4
)) ⇒ E θ [U − h ( k (U ))] = 0⇒U = h ( k (U
ﻛﻪ در آن ) (4از ﻛﺎﻣﻞ ﺑﻮدن Uﻧﺘﻴﺠﻪ ﻣﻲﮔﺮدد. Basu's Theorem Bahadour's Theorem
١ ٢
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
Uﺑﺴﻨﺪه ﻣﻲﻧﻴﻤﺎل اﺳﺖ⇒ .
■
a.e . P
33
) ⇒ U = h (T
ﺗﻮﺟﻪ :ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ ﻋﻜﺲ ﻗﻀﻴﻪ ﺑﺎﻻ درﺳﺖ ﻧﻴﺴﺖ ﻳﻌﻨﻲ اﮔﺮ ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﺑﺎﺷـﺪ آﻧﮕـﺎه آن آﻣﺎره ﻣﻤﻜﻦ اﺳﺖ ﻛﺎﻣﻞ ﻧﺒﺎﺷﺪ .ﺑﺮاي ﻣﺜﺎل ﺗﻮزﻳﻊﻫﺎي ) N (θ ,θ 2و ). U (θ ,θ +1 ﺳﻮال :آﻳﺎ آﻣﺎره ﻛﺎﻣﻠﻲ ﺳﺮاغ دارﻳﺪ ﻛﻪ ﺑﺴﻨﺪه ﻧﺒﺎﺷﺪ. ﺟﻮاب P (U = c ) = 1 :در اﻳﻦ ﺻﻮرت E [h (U )] = E [h (c )] = 0 ⇒ P (h (c ) = 0) = 1
■
ﭘﺲ U = cﻳﻚ آﻣﺎره ﻛﺎﻣﻞ اﺳﺖ وﻟﻲ ﺑﺴﻨﺪه ﻧﻴﺴﺖ.
ﺗﻮﺟﻪ :ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻗﻀﻴﻪ ﺑﻬﺎدر ،اﮔﺮ ﺑﺨﻮاﻫﻴﻢ ﻳﻚ آﻣـﺎره ﻛﺎﻣـﻞ در ﺧـﺎﻧﻮاده Pﭘﻴـﺪا ﻛﻨـﻴﻢ اﺑﺘـﺪا در اﻳـﻦ ﺧﺎﻧﻮاده ﻃﺒﻖ روش ﻟﻬﻤﻦ ﺷﻔﻪ ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﭘﻴﺪا ﻣﻲﻛﻨﻴﻢ .اﮔﺮ اﻳﻦ آﻣﺎره ﻛﺎﻣﻞ ﺑﻮد ﻛـﻪ ﻣـﺴﺌﻠﻪ ﺣﻞ ﺷﺪه اﺳﺖ و اﮔﺮ ﻧﺒﻮد آﻧﮕﺎه ﻃﺒﻖ ﻗﻀﻴﻪ ﺑﻬﺎدر ﻣﻲﺗﻮان ﻧﺘﻴﺠﻪ ﮔﺮﻓﺖ ﻛﻪ در اﻳﻦ ﺧﺎﻧﻮاده آﻣـﺎره ﺑـﺴﻨﺪه ﻛﺎﻣﻞ وﺟﻮد ﻧﺪارد.
ﺑﺨﺶ :6ﺗﻮاﺑﻊ زﻳﺎن ﻣﺤﺪب
1
ﻓﺮض ﻛﻨﻴﺪ در ﺑﺮآورد ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل θ ∈ Θﺑﺮآوردﮔﺮ D) δ ∈ Dﻛﻼس ﻛﻠﻴﻪ ﺑﺮآوردﮔﺮﻫﺎ( را در ﻧﻈـﺮ ﺑﮕﻴﺮﻳﻢ .ﻣﻬﻤﺘﺮﻳﻦ ﺧﺼﻮﺻﻴﺖ ﻳﻚ ﺑﺮآوردﮔﺮ ﺧﻮب آن اﺳﺖ ﻛﻪ ﺑﺮآوردي را ﺑﺮاي θﺑﺪﺳﺖ دﻫﺪ ﻛـﻪ ﺗـﺎ ﺣﺪ ﻣﻤﻜﻦ ﺑﻪ ﻣﻘﺪار واﻗﻌﻲ θﻧﺰدﻳﻚ ﺑﺎﺷﺪ .ﻣﻴﺰان اﻳﻦ ﻧﺰدﻳﻜﻲ را ﺑﺎ ﺗﺎﺑﻊ زﻳﺎن اﻧﺪازهﮔﻴﺮي ﻣﻲﻛﻨﻴﻢ ﻛـﻪ ﺑـﺎ ﻧﻤﺎد )) L (θ , δ (Xﻧﻤﺎﻳﺶ داده ﻣﻲﺷﻮد و )∞L : Θ × D → [0, + ∀θ , δ if δ =θ
L (θ , δ ) ≥ 0 L (θ , δ ) = 0
ﭼﻨﺪ ﺗﺎﺑﻊ زﻳﺎن ﻣﺸﻬﻮر ﻋﺒﺎرﺗﻨﺪ از : ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﻳﺎ ﻣﺮﺑﻊ ﺧﻄﺎ
(i ) L (θ ,T ) = (δ − θ )2
ﺗﺎﺑﻊ زﻳﺎن ﻗﺪر ﻣﻄﻠﻖ
| (ii ) L (θ ,T ) =| δ − θ
Convex Loss Function
١
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
34
}(iii ) L (θ ,T ) = b {e a (δ −θ ) − a (δ − θ ) − 1
ﺗﺎﺑﻊ زﻳﺎن LINEX
ﭼﻮن ﺗﺎﺑﻊ زﻳﺎن ﺑﺴﺘﮕﻲ ﺑﻪ ) δ (Xدارد ﭘﺲ ﻣﻘﺪار آن ﺛﺎﺑﺖ ﻧﻴﺴﺖ و ﻳـﻚ ﻣﺘﻐﻴـﺮ ﺗـﺼﺎدﻓﻲ اﺳـﺖ .ﺑـﺮاي ﻣﻘﺎﻳﺴﻪ دو ﺑﺮآوردﮔﺮ ،اﻣﻴﺪ رﻳﺎﺿﻲ ﺗﺎﺑﻊ زﻳﺎن اﻳﻦ دو ﺑﺮآوردﮔﺮ را ﻛﻪ ﺗـﺎﺑﻌﻲ از θﻣـﻲﺑﺎﺷـﺪ ﺑـﺎ ﻳﻜـﺪﻳﮕﺮ ﻣﻘﺎﻳﺴﻪ ﻣﻲﻛﻨﻨﺪ ﻛﻪ ﺑﻪ آن ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه 1ﮔﻮﻳﻨﺪ .ﭘﺲ ])) R (θ , δ ) = E θ [ L (θ , δ (X
در ﺧﺼﻮص ﺗﻮاﺑﻊ زﻳﺎن ﻣﺤﺪب ﻗﻀﺎﻳﺎي ﻣﻬﻤﻲ وﺟﻮد دارد ﻛـﻪ در اﻳـﻦ ﺑﺨـﺶ اﺑﺘـﺪا ﺗﻮاﺑـﻊ ﻣﺤـﺪب را ﻣﻌﺮﻓﻲ و ﺳﭙﺲ اﻳﻦ ﻗﻀﺎﻳﺎ را ﺑﻴﺎن ﻣﻲﻛﻨﻴﻢ. ﺗﻌﺮﻳﻒ :1-6ﺗﺎﺑﻊ ﺣﻘﻴﻘﻲ ϕرا روي ﻓﺎﺻﻠﻪ ) I = ( a,bﻛﻪ ∞ ≤ −∞ ≤ a < bﻣﺤـﺪب ﮔـﻮﺋﻴﻢ ﻫﺮﮔـﺎه ﺑﺮاي ﻫﺮ a < x < y < bو ﻫﺮ 0 < δ < 1داﺷﺘﻪ ﺑﺎﺷﻴﻢ ) ϕ (γ x + (1 − γ ) y ) ≤ γϕ (x ) + (1 − γ )ϕ ( y
و آن را اﻛﻴﺪاً ﻣﺤﺪب ﮔﻮﺋﻴﻢ ﻫﺮﮔﺎه ﻧﺎﻣﺴﺎوي اﻛﻴﺪ ﺑﺎﺷﺪ. ﻣﻲﺗﻮان ﻧﺸﺎن داد ﻛﻪ ﺗﻮاﺑﻊ ﻣﺤﺪب ،ﺗﻮاﺑﻌﻲ ﭘﻴﻮﺳﺘﻪ روي ) ( a ,bﻫﺴﺘﻨﺪ. ﻗﻀﻴﻪ :1-6اﻟﻒ – اﮔﺮ ϕروي ) ( a, bﻣﺸﺘﻖﭘﺬﻳﺮ ﺑﺎﺷﺪ آﻧﮕﺎه ﺷﺮط ﻻزم و ﻛﺎﻓﻲ ﺑﺮاي آﻧﻜﻪ ϕﻣﺤﺪب ﺑﺎﺷﺪ آن اﺳﺖ ﻛﻪ ∀ a < x < y
) ϕ ′(x ) ≤ ϕ ′( y
و اﻛﻴﺪاً ﻣﺤﺪب اﺳﺖ اﮔﺮ ﻧﺎﻣﺴﺎوي اﻛﻴﺪ ﺑﺎﺷﺪ. ب – اﮔﺮ ϕروي ) ( a ,bدوﺑﺎر ﻣﺸﺘﻖﭘﺬﻳﺮ ﺑﺎﺷﺪ آﻧﮕﺎه ﺷﺮط ﻻزم و ﻛﺎﻓﻲ ﺑﺮاي آن ﻛﻪ ϕﻣﺤﺪب ﺑﺎﺷـﺪ آن اﺳﺖ ﻛﻪ ∀ a < x < y
و اﻛﻴﺪاً ﻣﺤﺪب اﺳﺖ اﮔﺮ ﻧﺎﻣﺴﺎوي اﻛﻴﺪ ﺑﺎﺷﺪ.
ϕ ′′(x ) ≥ 0
■
Risk Function
١
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
35
ﻗــﻀﻴﻪ :2-6اﮔــﺮ ϕﻳــﻚ ﺗــﺎﺑﻊ ﻣﺤــﺪب روي ﻳــﻚ ﻓﺎﺻــﻠﻪ ﺑــﺎز Iﺑﺎﺷــﺪ و Xﻳــﻚ ﻣﺘﻐﻴــﺮ ﺗــﺼﺎدﻓﻲ ﺑﺎ P (X ∈ I ) = 1و اﻣﻴﺪ رﻳﺎﺿﻲ ﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ آﻧﮕﺎه ]) ϕ (E (X )) ≤ E [ϕ (Xو اﮔﺮ ϕاﻛﻴﺪاً ﻣﺤـﺪب ﺑﺎﺷﺪ آﻧﮕﺎه ﻧﺎﻣﺴﺎوي اﻛﻴﺪ اﺳﺖ ،ﺑﺠﺰ اﻳﻨﻜﻪ Xﺑﺎ اﺣﺘﻤﺎل ﻳﻚ روي Iﺛﺎﺑﺖ ﺑﺎﺷﺪ. ■
اﺛﺒﺎت) :ﺗﻤﺮﻳﻦ( ﻧﺘﻴﺠﻪ :اﮔﺮ Xﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﻧﺎﺛﺎﺑﺖ ﻣﺜﺒﺖ ﺑﺎ اﻣﻴﺪ ﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ آﻧﮕﺎه )) E (log X ) < log(E (X
1 1 ≤ ( ), ) E (X X
ﺑﺮاي ﺗﻮاﺑﻊ زﻳﺎن ﻣﺤﺪب ﻗﻀﺎﻳﺎي زﻳﺮ را دارﻳﻢ. ﻗــﻀﻴﻪ ) 3-6ﻗــﻀﻴﻪ راﺋﻮﺑﻼﻛــﻮل( :ﻓــﺮض ﻛﻨﻴــﺪ Xﻳــﻚ ﻣﺘﻐﻴــﺮ ﺗــﺼﺎدﻓﻲ ﺑــﺎ ﺗــﻮزﻳﻌﻲ از ﺧــﺎﻧﻮاده } D = { pθ : θ ∈ Θﺑﺎﺷﺪ و Tﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﺑﺮاي Dﺑﺎﺷﺪ .ﻓﺮض ﻛﻨﻴﺪ δﺑﺮآوردﮔـﺮي ﺑـﺮاي ﺗـﺎﺑﻊ ﭘﺎراﻣﺘﺮي ) g (θﺑﺎﺷﺪ و ﺗﺎﺑﻊ زﻳﺎن ) L (θ , dﻳﻚ ﺗﺎﺑﻊ اﻛﻴﺪاً ﻣﺤﺪب ﺑﺮ ﺣﺴﺐ dﺑﺎﺷﺪ .اﮔﺮ δداراي اﻣﻴﺪ و ﻣﺨﺎﻃﺮه ﻣﺘﻨﺎﻫﻲ
∞ < })) R (θ , δ ) = E {L (θ , δ (X
ﺑﺎﺷﺪ و ﻗﺮار دﻫﻴﻢ ] g (T ) = E [δ (X ) | Tآﻧﮕﺎه ) R (θ , g ) < R (θ , δ
ﺑﺠﺰ اﻳﻨﻜﻪ ﺑﺎ اﺣﺘﻤﺎل ﻳﻚ ) g (T ) = δ (Xﺑﺎﺷﺪ. اﺛﺒﺎت :ﻗﺮار ﻣﻲدﻫﻴﻢ ) ϕ (d ) = L (θ , dو ) δ = δ (Xو ﻓﺮض ﻛﻨﻴﺪ P x |tﺗﻮزﻳﻊ ﺷﺮﻃﻲ Xﺑـﻪ ﺷـﺮط T = tﺑﺎﺷﺪ .در اﻳﻦ ﺻﻮرت ﻃﺒﻖ ﻧﺎﻣﺴﺎوي ﺟﻨﺴﻦ دارﻳﻢ ﻛﻪ } L (θ , E [δ (X ) | T ]) < E {L (θ , δ (X )) | T } ⇒ L (θ , g (T )) < E {L (θ , δ (X )) | T
ﺑﺠﺰ اﻳﻨﻜﻪ ﺑﺎ اﺣﺘﻤﺎل ﻳﻚ ) δ (X ) = g (Tﺑﺎﺷﺪ .ﺣﺎل اﮔﺮ از ﻃﺮﻓﻴﻦ اﻣﻴﺪ رﻳﺎﺿﻲ ﺑﮕﻴﺮﻳﻢ آﻧﮕﺎه ) E [L (θ , g (T ))] < E {E [L (θ , δ (X )) | T ]} = E [L (θ , δ (X ))] ⇒ R (θ , g ) < R (θ , δ
ﺑﺠﺰ اﻳﻨﻜﻪ ﺑﺎ اﺣﺘﻤﺎل ﻳﻚ ) δ (X ) = g (Tﺑﺎﺷﺪ.
■
ﺗﻮﺟﻪ :ﻗﻀﻴﻪ راﺋﻮﺑﻼﻛﻮل ﻣﻲﮔﻮﻳﺪ ﻛﻪ ﺑﺎ ﺷﺮﻃﻲ ﻛﺮدن ﻳﻚ ﺑﺮآوردﮔﺮ روي ﻳﻚ آﻣﺎره ﺑـﺴﻨﺪه ،ﺑﺮآوردﮔـﺮي ﺣﺎﺻﻞ ﻣﻲﮔﺮدد ﻛﻪ داراي ﻣﺨﺎﻃﺮه ﻛﻤﺘﺮي ﻧﺴﺒﺖ ﺑﻪ ﺑﺮآوردﮔﺮ اوﻟﻴﻪ اﺳﺖ و اﻳﻦ ﻳﻚ ﺗﻮﺟﻴﻪ ﻣﻨﺎﺳﺐ ﺑﺮاي
www.riazisara.ir
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
36
اﺳﺘﻔﺎده از آﻣﺎرهﻫﺎي ﺑﺴﻨﺪه در ﺑﺮآوردﻳﺎﺑﻲ ﻣﻲﺑﺎﺷﺪ .ﻫﻤﭽﻨﻴﻦ ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ از ﺑـﺴﻨﺪﮔﻲ ﺗﻨﻬـﺎ ﺑـﺮاي اﻳـﻦ اﺳﺘﻔﺎده ﺷﺪ ﻛﻪ ﺑﮕﻮﺋﻴﻢ ] g (T ) = E [δ (X ) | Tﻳﻚ ﺑﺮآوردﮔﺮ اﺳﺖ و ﺑﻪ ﭘﺎراﻣﺘﺮ θﺑﺴﺘﮕﻲ ﻧـﺪارد .اﮔـﺮ در ﻗﻀﻴﻪ ﺗﺎﺑﻊ زﻳﺎن ﺗﻨﻬﺎ ﻣﺤﺪب ﺑﺎﺷﺪ آﻧﮕﺎه ﻧﺎﻣﺴﺎوي ﺑﻪ ﺻﻮرت ) R (θ , g ) ≤ R (θ , δﺗﺒﺪﻳﻞ ﻣﻲﺷﻮد. ﻟﻢ :1-6ﻓﺮض ﻛﻨﻴﺪ ϕﻳﻚ ﺗﺎﺑﻊ ﻣﺤﺪب روي )∞ (−∞, +ﺑﺎﺷﺪ ﻛﻪ از ﭘـﺎﺋﻴﻦ ﻛﺮاﻧـﺪار و ﻫﻤﭽﻨـﻴﻦ ﻏﻴـﺮ ﻳﻜﻨﻮا اﺳﺖ .در اﻳﻦ ﺻﻮرت ϕداراي ﻳﻚ ﻣﻴﻨﻴﻤﻢ ﻣﻘﺪار اﺳﺖ و ﻣﺠﻤﻮﻋﻪ ﻣﻘﺎدﻳﺮ Sﻛﻪ ϕﻣﻘﺪار ﻣﻴﻨﻴﻤﻢ ﺧﻮد را ﻣﻲﮔﻴﺮد ﻳﻚ ﻓﺎﺻﻠﻪ ﺑﺴﺘﻪ اﺳﺖ و اﮔﺮ ϕاﻛﻴﺪاً ﻣﺤﺪب ﺑﺎﺷﺪ اﻳﻦ ﻣﺠﻤﻮﻋﻪ ﺗﻨﻬﺎ ﻳﻚ ﻧﻘﻄﻪ اﺳﺖ. اﺛﺒﺎت :ﭼﻮن ϕﻣﺤـﺪب و ﻏﻴـﺮ ﻳﻜﻨﻮاﺳـﺖ ﭘﺲ ∞ lim ϕ (x ) = +و ﭼـﻮن ϕﭘﻴﻮﺳـﺘﻪ ∞x →±
اﺳﺖ ﻣﻘﺪار ﻣﻴﻨﻴﻤﻢ ﺧﻮد را ﻣـﻲﮔﻴـﺮد .ﭼـﻮن ϕﻣﺤﺪب اﺳﺖ ،ﻣﺠﻤﻮﻋـﻪ Sﻳـﻚ ﻓﺎﺻـﻠﻪ اﺳﺖ و ﭼﻮن ϕﭘﻴﻮﺳﺘﻪ اﺳﺖ ،ﭘﺲ اﻳﻦ ﻣﺠﻤﻮﻋﻪ ﺑﺴﺘﻪ اﺳﺖ.
■
ﻗﻀﻴﻪ :4-6ﻓﺮض ﻛﻨﻴﺪ ρﻳﻚ ﺗﺎﺑﻊ ﻣﺤﺪب ﺑﺎﺷﺪ ﻛـﻪ روي )∞ (−∞, +ﺗﻌﺮﻳـﻒ ﺷـﺪه و Xﻳـﻚ ﻣﺘﻐﻴـﺮ ﺗﺼﺎدﻓﻲ ﺑﺎﺷﺪ ﻛﻪ ]) ϕ (a ) = E [ ρ (X − aﺑﺮاي ﺑﻌﻀﻲ ﻣﻘﺎدﻳﺮ aﻣﺘﻨـﺎﻫﻲ ﺑﺎﺷـﺪ .اﮔـﺮ ρﻳﻜﻨـﻮا ﻧﺒﺎﺷـﺪ آﻧﮕﺎه ) ϕ (aﻣﻘﺪار ﻣﻴﻨﻴﻤﻢ ﺧﻮد را روي ﻳﻚ ﻓﺎﺻﻠﻪ ﺑﺴﺘﻪ ﻣﻲﮔﻴﺮد .اﮔﺮ ρاﻛﻴﺪاً ﻣﺤﺪب ﺑﺎﺷﺪ ﻣﻘﺪار ﻣﻴﻨﻴﻤﻢ ﻳﻜﺘﺎ ﺧﻮاﻫﺪ ﺑﻮد. اﺛﺒﺎت :ﭼـﻮن ∞as a → ±
P
∞ lim ρ (t ) = +∞, X − a →±ﭘـﺲ ∞ lim ϕ (a ) = +ﭘـﺲ ϕ ∞t →±
∞a →±
ﻏﻴﺮ ﻳﻜﻨﻮاﺳﺖ و ﭼﻮن ) ρاﻛﻴﺪاً( ﻣﺤﺪب اﺳﺖ ﭘﺲ ϕﻧﻴﺰ )اﻛﻴﺪاً( ﻳﻜﻨﻮاﺳﺖ .ﺣﺎل ﻛـﻪ ﺷـﺮاﻳﻂ ﻟـﻢ 1-6 ﺑﺮاي ϕﺑﺮﻗﺮار اﺳﺖ ﭘﺲ ﻧﺘﻴﺠﻪ از ﻟﻢ 1-6ﺣﺎﺻﻞ ﻣﻲﺷﻮد.
■
ﻣﺜﺎل ) :1-6ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم( :اﮔﺮ ρ (t ) = t 2و ∞ < ) ، E (X 2ﭼﻮن ρﺗﺎﺑﻌﻲ اﻛﻴﺪاً ﻣﺤﺪب اﺳـﺖ ﭘﺲ ] ϕ (a ) = E [(X − a )2ﻣﻘﺪار ﻣﻴﻨﻴﻤﻢ ﺧﻮد را در ﻧﻘﻄﻪ a = μاﺧﺘﻴﺎر ﻣﻲﻛﻨﺪ.
ﻓﺼﻞ اول :ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ
www.riazisara.ir
37
ﻣﺜﺎل ) :2-6ﺗﺎﺑﻊ زﻳﺎن ﻗﺪرﻣﻄﻠﻖ ﺧﻄﺎ( :اﮔﺮ | ρ (t ) =| tو ∞ < )| ، E (| Xﭼﻮن ρﺗﺎﺑﻌﻲ ﻣﺤﺪب اﺳﺖ ﭘﺲ ]| ϕ (a ) = E [| X − aﻣﻘﺪار ﻣﻴﻨﻴﻤﻢ ﺧﻮد را در ﻧﻘﺎط ﻳﻚ ﻓﺎﺻﻠﻪ ﺑﺴﺘﻪ ﺑﺪﺳـﺖ ﻣـﻲآورد ﻛـﻪ ﻫﻤـﺎن ﻣﻴﺎﻧﻪ Xاﺳﺖ. ﻧﺘﻴﺠﻪ :1-6ﺗﺤﺖ ﺷﺮاﻳﻂ ﻗﻀﻴﻪ 4-6اﮔﺮ ρزوج ﺑﺎﺷﺪ و Xﺣﻮل μﻣﺘﻘﺎرن ﺑﺎﺷﺪ آﻧﮕﺎه ) ϕ (aﻣﻴﻨـﻴﻤﻢ ﺧﻮد را در a = μﺑﺪﺳﺖ ﻣﻲ آورد. اﺛﺒﺎت :ﺑﺮ ﻃﺒﻖ ﻗﻀﻴﻪ ϕ ،4-6ﻣﻘﺪار ﻣﻴﻨﻴﻤﻢ ﺧﻮد را ﺑﺪﺳﺖ ﻣﻲ آورد .اﮔﺮ μ + cﻳﻚ ﻣﻘﺪار ﻣﻴﻨﻴﻤﻢ ﺑﺎﺷﺪ آﻧﮕﺎه μ − cﻧﻴﺰ ﻣﻴﻨﻴﻤﻢ ﻣﻲﺑﺎﺷﺪ و در ﻧﺘﻴﺠﻪ ﻛﻠﻴﻪ ﻧﻘـﺎط در ﻓﺎﺻـﻠﻪ μ − cﺗـﺎ μ + cﻣﻴﻨـﻴﻤﻢ ﻣـﻲﺑﺎﺷـﻨﺪ ﭘﺲ a = μﻧﻴﺰ ﻣﻴﻨﻴﻤﻢ اﺳﺖ. )ﺗﻌﻤﻴﻢ ﺗﻮاﺑﻊ ﻣﺤﺪب ﺑﻪ ﻓﻀﺎي kﺑﻌﺪي ℜ kﺑﻪ ﻋﻬﺪه داﻧﺸﺠﻮ ( )ﻣﺒﺤﺚ ﻫﻤﮕﺮاﻳﻲﻫﺎ ﺑﺨﺶ 8ﺑﻪ ﻋﻬﺪه داﻧﺸﺠﻮ(
■
٣٨
داﻧﻠﻮد از ﺳﺎﻳﺖ رﻳﺎﺿﻲ ﺳﺮا
www.riazisara.ir
ﻧﺎارﻳﺒﻲ
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
39
در ﺑﺮآورد ﻧﻘﻄﻪاي ﻣﻲﺧﻮاﻫﻴﻢ ﺑﺮآوردﮔﺮي را ﺑﺪﺳﺖ آورﻳﻢ ﻛﻪ ﺑﺮاي ﺗﻤـﺎم ﻣﻘـﺎدﻳﺮ ﻣﻤﻜـﻦ ﭘـﺎراﻣﺘﺮ ،ﺗـﺎﺑﻊ ﻣﺨﺎﻃﺮه را ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ .اﻣﺎ در ﻋﻤﻞ ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺑﺰرﮔﻲ ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎ ﭼﻨـﻴﻦ اﻣﻜـﺎﻧﻲ وﺟـﻮد ﻧـﺪارد، ﻳﻌﻨﻲ در آﻣﺎر ﺑﻬﺘﺮﻳﻦ ﺑﻪ ﻣﻌﻨﺎي ﻣﻄﻠﻖ وﺟﻮد ﻧـﺪارد .ﺑﻨـﺎﺑﺮاﻳﻦ در آﻣـﺎر ﻫﻤﻴـﺸﻪ ﺑـﻪ دﻧﺒـﺎل ﺑﺪﺳـﺖ آوردن ﺑﺮآوردﮔﺮﻫﺎﻳﻲ ﻫﺴﺘﻴﻢ ﻛﻪ داراي ﺧﺎﺻﻴﺖ ﺑﻬﻴﻨﻪ ﺑﺎﺷﻨﺪ .ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺑﺮآوردﮔﺮ ﺑﻬﻴﻨﻪ دو روش زﻳـﺮ ﺑﻴﺸﺘﺮ ﻣﻮرد ﺗﻮﺟﻪ اﺳﺖ : -1ﻣﺤﺪود ﻛﺮدن 1ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎ ﺑﻪ ﻳﻚ ﻛﻼس ﻛﻮﭼﻜﺘﺮ ب -ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ﭘﺎﻳﺎ
اﻟﻒ -ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳﺐ
-2ﺑﺮﻗﺮاري ﻳﻚ ﻧﻮع راﺑﻄﻪ ﺗﺮﺗﻴﺐ 2ﺑﻴﻦ ﺑﺮآوردﮔﺮﻫﺎ اﻟﻒ -ﺑﺮآوردﮔﺮﻫﺎي ﺑﻴﺰ
ﺑﺨﺶ :1ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳﺐ
ب -ﺑﺮآوردﮔﺮﻫﺎي ﻣﻴﻨﻴﻤﺎﻛﺲ 3
ﺗﻌﺮﻳﻒ :1-1ﺑﺮآوردﮔﺮ ) T ( Xرا ﺑﺮاي ) γ (θﻧﺎارﻳﺐ ﮔﻮﻳﻨﺪ ﻫﺮﮔﺎه E θ [T ( X )] = γ (θ ), ∀θ ∈ Θ
و اﮔﺮ ﺑﺮآوردﮔﺮ ) T (Xﺑﺮاي ) γ (θﻧﺎارﻳـﺐ ﻧﺒﺎﺷـﺪ ﻣﻘـﺪار ) b (θ ) = E θ [T (X )] − γ (θرا ارﻳﺒـﻲ ﺑﺮآوردﮔﺮ ) T (Xدر ﺑﺮآورد ) γ (θﮔﻮﻳﻨﺪ.
■
ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ در ﺑﻌﻀﻲ ﻣﻮارد ﻣﻤﻜﻦ اﺳﺖ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﻣﻮﺟﻮد ﻧﺒﺎﺷﺪ. ﻣﺜﺎل :1-1ﻓﺮض ﻛﻨﻴﺪ ) X ~ B (n ,θﻧﺸﺎن دﻫﻴﺪ ﻛﻪ ﺣﻞ :ﻓﺮض ﻛﻨﻴﺪ ) T (Xﻳﻚ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ
1
θ
1
θ
= ) γ (θداراي ﻫﻴﭻ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺒﻲ ﻧﻴﺴﺖ.
ﺑﺎﺷﺪ ،در اﻳﻨﺼﻮرت
n ⎞ ⎛n 1 = ⇒ ∑T (x ) ⎜ ⎟θ x (1 − θ ) n −x θ θ ⎠ ⎝x x =0
1
= )) E (T (X
n ⎞ ⎛n 1 = ⇒ T (0)(1 − θ ) + ∑T ( x ) ⎜ ⎟θ x (1 − θ ) n −x θ ⎠ ⎝x x =1
١
Restriction Ordering ٣ Unbiased Estimators ٢
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
40
ﺣﺎل اﮔﺮ θ → 0+آﻧﮕﺎه ﺳﻤﺖ ﭼﭗ ﻣﻌﺎدﻟﻪ ﻓﻮق ﺑﻪ ﺳﻤﺖ ) T (0و ﺳﻤﺖ راﺳﺖ ﺑـﻪ ﺳـﻤﺖ ∞ +ﻣﻴـﻞ ﻣﻲﻛﻨﺪ و ﻧﺸﺎن ﻣﻲدﻫﺪ ﻛﻪ ) T (Xي وﺟﻮد ﻧﺪارد ﻛﻪ در راﺑﻄﻪ ﻓﻮق ﺻﺪقﻛﻨﺪ.
Pﺗـﺎﺑﻊ ﺣﻘﻴﻘـﻲ ) γ (θرا ﺑـﺮآورد
ﺗﻌﺮﻳﻒ :2-1اﻟﻒ – در ﺧﺎﻧﻮاده ﺗﻮزﻳـﻊﻫـﺎي }= { pθ : θ ∈ Θ
ﭘﺬﻳﺮ 1ﮔﻮﻳﻨﺪ اﮔﺮ آﻣﺎره ) h (Xوﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﺑﻄﻮري ﻛﻪ
■
E θ [h (X )] = γ (θ ), ∀θ ∈ Θ
ب -آﻣﺎره ) δ (Xرا ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﺑﺎ وارﻳﺎﻧﺲ ﺑﻄﻮر ﻳﻜﻨﻮاﺧﺖ ﻣﻴﻨـﻴﻤﻢ (UMVU) 2ﺑـﺮاي ) γ (θ
ﮔﻮﻳﻨﺪ اﮔﺮ E θ [h (X )] = γ (θ ), ∀θ ∈ Θو ﺑﺮاي ﻫﺮ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ) h (Xﭘﺎراﻣﺘﺮ ) γ (θداﺷﺘﻪ ∀θ ∈Θ
ﺑﺎﺷﻴﻢ ﻛﻪ
)) V θ (δ (X )) ≤V θ (h (X
ج -آﻣﺎره ) δ (Xرا ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﺑﺎ وارﻳﺎﻧﺲ ﺑﻄﻮر ﻣﻮﺿﻌﻲ ﻣﻴﻨـﻴﻤﻢ (LMVU) 3ﺑـﺮاي ) γ (θدر θ = θ0ﮔﻮﻳﻨﺪ اﮔﺮ اﻳﻦ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﺑـﻮده و ﺑـﺮاي ﻫـﺮ ﺑﺮآوردﮔـﺮ ﻧﺎارﻳـﺐ ) h (Xﭘـﺎراﻣﺘﺮ ) γ (θ )) V θ0 (δ (X )) ≤V θ0 (h (X
داﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ
■
ﻳﻚ روش ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺑﺮآوردﮔﺮﻫﺎي UMVUﻳﺎ LMVUﻳﺎﻓﺘﻦ ﻛـﻼس ﻛﻠﻴـﻪ ﺑﺮآوردﮔﺮﻫـﺎي ﻧﺎارﻳﺐ ) γ (θﻳﻌﻨﻲ Δγاﺳﺖ و ﺳﭙﺲ در اﻳﻦ ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي UMVUﻳـﺎ LMVUرا ﺑﺪﺳـﺖ ﻣﻲآورﻳﻢ .ﺑﺮاي اﻳﻦ ﻣﻨﻈﻮر از ﻟﻢ زﻳﺮ اﺳﺘﻔﺎده ﻣﻲﻛﻨﻴﻢ. ﻟﻢ :1-1اﮔﺮ δ0ﻳﻚ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ) γ (θﺑﺎﺷﺪ آﻧﮕﺎه ﻛﻠﻴﻪ ﺑﺮآوردﮔﺮﻫـﺎي ﻧﺎارﻳـﺐ ) γ (θﺑـﺼﻮرت δ = δ0 − Uﻣــﻲﺑﺎﺷــﺪ ﻛــﻪ در آن Uﻫــﺮ ﺑﺮآوردﮔــﺮ ﻧﺎارﻳــﺐ ﺻــﻔﺮ اﺳــﺖ ) ﻳﻌﻨــﻲ ∀θ ∈Θ V ar (δ ) = E [(δ0 − U )2 ] − [γ (θ )]2
( E θ (U ) = 0و ﺑﻌﻼوه اﺛﺒﺎت :واﺿﺢ اﺳﺖ.
■
ﻗﺮار ﻣﻲدﻫﻴﻢ } Δ0 = {U E θ (U ) = 0, ∀θ ∈ Θو }. Δγ = {δ E θ (δ ) = γ (θ ), ∀θ ∈ Θ
١
Estimable Uniformly Mminimum Variance Unbiased ٣ Locally Mminimum Variance Unbiased ٢
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
41
ﺑﺮاي اﺳﺘﻔﺎده از ﻟﻢ ﻓﻮق در ﺣﻞ ﻳﻚ ﻣﺴﺌﻠﻪ ،اﺑﺘﺪا ﻛﻼس ﻛﻠﻴﻪ ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳـﺐ ) γ (θرا ﺑـﻪ دﺳـﺖ ﻣﻲآورﻳﻢ و وارﻳﺎﻧﺲ آﻧﻬﺎ را در ﻳﻚ ﻧﻘﻄﻪ ﺛﺎﺑﺖ θ0ﻣﻴﻨﻴﻤﻢ ﻣﻲﻛﻨﻴﻢ .اﮔﺮ اﻳﻦ ﻣﻘﺪار ﻣﻴﻨـﻴﻤﻢ ﺑـﻪ ﻣﻘـﺪار θ0
ﺑﺴﺘﮕﻲ ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ )و در ﻧﺘﻴﺠﻪ ﺣﻞ ﻣﺴﺌﻠﻪ ﺑﻪ ﻣﻘﺪار ﻣﺸﺨﺺ θ0ﺑﺴﺘﮕﻲ ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ( آﻧﮕﺎه ﺑﺮآوردﮔـﺮ ﺣﺎﺻﻞ UMVUﭘﺎراﻣﺘﺮ ﻣﻮرد ﻧﻈﺮاﺳﺖ .در ﻏﻴﺮ اﻳﻦ ﺻﻮرت اﮔﺮ ﺑﺮآوردﮔﺮ ﺣﺎﺻﻞ ﺑﻪ θ0ﺑﺴﺘﮕﻲ داﺷـﺘﻪ ﺑﺎﺷﺪ )و در ﻧﺘﻴﺠﻪ ﻛﻤﺘﺮﻳﻦ وارﻳﺎﻧﺲ را در ﺑﻌﻀﻲ از ﻧﻘﺎط θ0ﺑﺪﺳﺖ آورد( آﻧﮕﺎه اﻳﻦ ﺑﺮآوردﮔﺮ LMVU ﻧﺎﻣﻴﺪه ﻣﻲﺷﻮد و در اﻳﻦ ﺣﺎﻟﺖ UMVUﭘﺎراﻣﺘﺮ ﻣﻮرد ﻧﻈﺮ وﺟﻮد ﻧﺪارد. ﻣﺜﺎل :2-1ﻓﺮض ﻛﻨﻴﺪ Xﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﮔﺴﺴﺘﻪ ﺑﺎ ﺗﺎﺑﻊ اﺣﺘﻤﺎل زﻳﺮ ﺑﺎﺷﺪ 0〈θ 〈1
x =1 x = 2, 3,...
θ ⎪⎧ pθ (x ) = ⎨ x −2 2 ) ⎪⎩θ (1 − θ
ﺑﺮرﺳﻲ ﻛﻨﻴﺪ ﻛﻪ آﻳﺎ ﭘﺎراﻣﺘﺮﻫﺎي اﻟﻒ( γ 1(θ ) = θب( γ 2 (θ ) = (1 − θ )2داراي ﺑﺮآوردﮔـﺮ UMVU ﻫﺴﺘﻨﺪ؟ ﺣﻞ :در ﻳﻜﻲ از ﻣﺜﺎلﻫﺎي ﻓﺼﻞ ﻗﺒﻞ ﻧﺸﺎن دادﻳﻢ ﻛﻪ E θ [U (X )] = 0 ⇒ U (x ) = (x − 2)(− h (1)) = (x − 2)a
x = 1, 2,....
و ﻧﺘﻴﺠﻪ ﮔﺮﻓﺘﻴﻢ ﻛﻪ Xﻳﻚ آﻣﺎره ﻛﺎﻣﻞ ﻧﻴﺴﺖ اﻣﺎ ﻛﺎﻣﻞ ﻛﺮاﻧﺪار اﺳﺖ .ﺣﺎل ﻗﺮار ﻣﻲدﻫﻴﻢ: δ1(X ) = I {1} (X ) ⇒ E θ [δ1(X )] = θ δ2 (X ) = I {2} (X ) ⇒ E θ [δ2 (X )] = (1− θ )2
ﭘﺲ δ1و δ 2ﺑﻪ ﺗﺮﺗﻴﺐ ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳﺐ ﺑﺮاي ) γ 1(θو ) γ 2 (θﻣﻲﺑﺎﺷﻨﺪ .در ﻫﺮﻳـﻚ از ﺣـﺎﻻت ﻓﻮق ،ﻓﺮم ﻛﻠﻲ ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳﺐ ﺑﻪ ﻓﺮم زﻳﺮ ﻣﻲﺑﺎﺷﺪ: i = 1, 2,...
) δ i* (X ) = δ i (X ) − U (X
و * δ iﻣﻮﻗﻌﻲ ﻛﻤﺘﺮﻳﻦ وارﻳﺎﻧﺲ ﺧﻮد را در θ0ﺑﺪﺳﺖ ﻣﻲآورد ﻛﻪ V θ0 (δ i* ) = E θ0 [(δ i − U )2 ] − [γ i (θ0)]2
و ﻳﺎ ﻣﻌﺎدﻻ ] E θ0 [(δ i − U )2ﻣﻴﻨﻴﻤﻢ ﺷﻮد .اﻣﺎ ∞+
2 ) E θ0 ⎡⎣ (δ i ( X ) − U (X ))2 ⎤⎦ = ∑ (δ i ( x ) − U ( x ) ) pθ0 ( x x =1
42
www.riazisara.ir
ﻧﺎارﻳﺒﻲ:ﻓﺼﻞ دوم
+∞
= ∑ (δ i (x ) − a ( x − 2) ) pθ0 ( x ) 2
x =1
. را ﻣﻲﺧﻮاﻫﻴﻢ ﭘﻴﺪا ﻛﻨﻴﻢ ﻛﻪ ﻣﺠﻤﻮع ﺑﺎﻻ را ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪa ﺑﻨﺎﺑﺮاﻳﻦ ﻣﻘﺪاري از +∞
i = 1 ⇒ g 1(a ) = E θ0 [(T1(x ) − h (x )) ] = (1 − a ) θ0 + ∑ a 2 (x − 2)2θ0x −2 (1 − θ0)2 (اﻟﻒ 2
2
x =2
+∞
= (1 + a ) θ0 + ∑ a 2 y 2θ0y (1 − θ0)2 2
y =0
+∞ +∞ ⎛ g1′(a ) = 2(1 + a )θ0 + 2a (1 − θ0)2 ∑ y 2θ0y = 2a ⎜ θ0 + (1 − θ0)2 ∑ y 2θ0y ⎜ y =0 y =0 ⎝ −θ0 g 1′′(a ) = cons tan t > 0 ⇒ g 1′(a ) = 0 ⇒ a1* = +∞ 2 θ0 + (1 − θ0) ∑ y 2θ0y
⎞ ⎟ + 2θ0 ⎟ ⎠
y =0
ﺑـﺴﺘﮕﻲ دارد ﻳـﻚ ﺑﺮآوردﮔـﺮθ0 ﺑﻪ ﻣﻘﺪارa1* ﺑﻪ دﻟﻴﻞ آﻧﻜﻪδ1* (X ) = δ1(X ) − a1* (X − 2) ﺑﻨﺎﺑﺮاﻳﻦ . اﺳﺖθ ﺑﺮايLMVU -ب 2 i = 2 ⇒ g 2 (θ ) = E θ0 ⎡(δ 2 (X ) − U ( X ) ) ⎤ ⎣ ⎦ +∞
= a 2θ0 + (1 − θ0)2 + ∑ a 2 (x − 2)2θ0x −2 (1 − θ0)2 x =3
+∞ ⎡ ⎤ = a 2 ⎢θ0 + ∑ y 2θ0y (1 − θ0)2 ⎥ + (1 − θ0)2 y =1 ⎣⎢ ⎦⎥
+∞ ⎡ ⎤ g 2′ (a ) = 2a ⎢θ0 + (1 − θ0)2 ∑ y 2θ0y ⎥ , y =1 ⎣⎢ ⎦⎥
g 2′′(a ) = cons tan t > 0
⇒ g 2′ (a ) = 0 ⇒ a2* = 0
ﻧﺪارد ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮθ0 ﺑﺴﺘﮕﻲ ﺑﻪa2* ﭼﻮن δ 2* (X ) = δ 2 (X ) − a2* (X − 2) = δ 2 (X )
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
43
ﺑﺮآوردﮔﺮي ﻧﺎارﻳﺐ ﺑﺮاي (1 − θ )2اﺳﺖ ﻛﻪ وارﻳﺎﻧﺲ را ﻧﻪ ﺗﻨﻬﺎ ﺑﺮاي θ0ﺑﻠﻜﻪ ﺑﺮاي ﻛﻠﻴﻪ 0〈θ 〈1ﻣﻴﻨﻴﻤﻢ ﻣﻲﻛﻨﺪ ﭘﺲ ) T 2* (Xﺑﺮآوردﮔﺮ UMVUﺑﺮاي (1 − θ )2اﺳﺖ.
■
ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﺜﺎل ﺑﺎﻻ اﻳﻦ ﺳﻮال ﻣﻄﺮح ﻣﻲﺷﻮد ﻛﻪ ﭼﻪ ﺑﺮآوردﮔﺮﻫﺎﻳﻲ ﺑﺮاي ﭘـﺎراﻣﺘﺮ ) γ (θﺑﺮآوردﮔﺮﻫـﺎي UMVUﻫـﺴﺘﻨﺪ و ﻫﻤﭽﻨـﻴﻦ ﭼـﻪ ﺗﻮاﺑـﻊ ﺑﺮآوردﭘـﺬﻳﺮ ) γ (θداراي ﺑﺮآوردﮔﺮﻫـﺎي UMVUﻫـﺴﺘﻨﺪ. ﺟﻮاب ﺑﻪ اﻳﻦ ﺳﻮال از ﻃﺮﻳﻖ ﻗﻀﻴﻪ زﻳﺮ داده ﻣﻲﺷﻮد .در اﻳﻦ ﻗﻀﻴﻪ
{
}
∞〈 ) Δ = δ E (δ 2اﺳﺖ.
ﻗـﻀﻴﻪ ) 1-1ﻗــﻀﻴﻪ ﻟﻬﻤــﻦ– ﺷـﻔﻪ( :ﻓــﺮض ﻛﻨﻴـﺪ Xﻳــﻚ ﻣﺘﻐﻴـﺮ ﺗــﺼﺎدﻓﻲ ﺑـﺎ ﺗــﻮزﻳﻌﻲ از ﺧــﺎﻧﻮاده }= {Pθ : θ ∈ Θ
Pﺑﺎﺷﺪ و δ ∈ Δو Δ0ﻛﻼس ﻛﻠﻴﻪ ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳـﺐ ﺻـﻔﺮ ﺑﺎﺷـﺪ .در اﻳـﻦ
ﺻـــﻮرت ﺷـــﺮط ﻻزم و ﻛـــﺎﻓﻲ ﺑـــﺮاي آﻧﻜـــﻪ δﻳـــﻚ ﺑﺮآوردﮔـــﺮ UMVUﺑـــﺮاي اﻣﻴـــﺪ ﺧـــﻮد ]) γ (θ ) = E θ [δ (Xﺑﺎﺷﺪ آن اﺳﺖ ﻛﻪ : ∀U ∈ Δ0, ∀θ ∈ Θ
Cov (δ ( X ),U ( X ) ) = 0
ﺗﻮﺟﻪ :اﮔﺮ ﺑﻪ ﺟﺎي θﻣﻘﺪار θ0را در ﻗﻀﻴﻪ ﻗﺮار دﻫﻴﻢ ،آﻧﮕﺎه Tﻳﻚ ﺑﺮآوردﮔﺮ LMVUﺧﻮاﻫـﺪ ﺑـﻮد. Cov (δ (X ),U (X ) ) = 0 ⇔ E [δU ] = 0
ﻫﻤﭽﻨﻴﻦ ﭼﻮن E θ (U ) = 0ﭘﺲ اﺛﺒﺎت ) :ﺷﺮط ﻛﺎﻓﻲ( :ﻓﺮض ﻛﻨﻴﺪ
∀U ∈ Δ0, ∀θ ∈ Θ
Cov (δ ( X ),U ( X ) ) = 0
و ﻓﺮض ﻛﻨﻴﺪ * δﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ دﻳﮕﺮي ﺑﺮاي ) γ (θﺑﺎﺷﺪ .ﻳﻌﻨﻲ E θ [δ * (X )] = E θ [δ (X )] = γ (θ ) ⇒ E θ [δ * (X ) − δ ( X )] = 0 ∀θ ∈ Θ
ﺑﻨﺎﺑﺮاﻳﻦ ﻃﺒﻖ ﻓﺮض ﻣﺴﺎﻟﻪ دارﻳﻢ ﻛﻪ
)
(
(
)
Cov δ ( X ), δ * (X ) − δ (X ) = 0 ∀θ ∈ Θ ⇒ Cov δ (X ), δ * (X ) −V (δ (X )) = 0 )(1
)
(
)) ⇒V arθ (δ (X )) = Cov θ δ (X ), δ * (X ) ≤ V arθ (δ (X ))V arθ (δ * (X ⇒ V θ (δ (X )) ≤ V θ (δ * (X )) ⇒V θ (δ (X )) ≤V θ (δ * (X )) ∀θ ∈ Θ
ﻛﻪ در آن ﻧﺎﻣﺴﺎوي ) (1از ﻧﺎﻣﺴﺎوي ﺷﻮارﺗﺰ ﺑﺪﺳﺖ ﻣﻲآﻳﺪ .ﭘﺲ ) δ (Xﺑﺮآوردﮔﺮ UMVUﭘﺎراﻣﺘﺮ ) γ (θ ) = E θ (δاﺳﺖ.
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
44
)ﺷـــﺮط ﻻزم( :ﻓـــﺮض ﻛﻨﻴـــﺪ ) δ (Xﺑﺮآوردﮔـــﺮ UMVUﺑـــﺮاي ) γ (θ ) = E θ (δﺑﺎﺷـــﺪ و Cov θ (δ (X ),U (X )) = 0
. E θ [U (X )] = 0 ∀θ ∈ Θﻣﻲﺧﻮاﻫﻴﻢ ﻧﺸﺎن دﻫﻴﻢ ﻛﻪ
) δ * (X ) = δ (X ) + λU (X
ﺑﺮاي ﻳﻚ ﻣﻘﺪار ﺛﺎﺑﺖ λﻗﺮار ﻣﻲدﻫﻴﻢ
ﭼﻮن ) δ (Xﺑﺮآوردﮔﺮ UMVUو ) δ * (Xﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ) γ (θﻣﻲﺑﺎﺷﻨﺪ ﭘﺲ )) V θ (δ (X )) ≤V θ (δ * (X )) =V θ (δ (X ) + λU ( X )) =V θ (δ (X )) + λ 2V θ (U (X )) + 2λCov θ (δ (X ),U (X
)(2
⇒ λ 2V θ (U ( X )) + 2λCov θ (δ (X ),U (X )) ≥ 0 ∀θ ∈ Θ, ∀λ
ﻣﻌﺎدﻟﻪ λ 2V θ (δ (X )) + 2λCov θ (δ (X ),U (X )) = 0ﻳﻚ ﻣﻌﺎدﻟﻪ درﺟﻪ دوم ﺑﺮ ﺣﺴﺐ λاﺳﺖ )) −2Cov θ (δ ( X ),U ( X ﻛﻪ داراي دو رﻳﺸﻪ )) V θ (δ (X
= λ2و λ1 = 0اﺳﺖ و در ﻧﺘﻴﺠﻪ ﺑﻴﻦ اﻳﻦ دو رﻳﺸﻪ
ﻋﻼﻣﺖ ﻣﻌﺎدﻟﻪ ﻣﻨﻔﻲ ﺧﻮاﻫﺪ ﺑﻮد .ﺑﻨﺎﺑﺮاﻳﻦ اﮔﺮ ﻧﺎﻣﻌﺎدﻟﻪ ) (2ﺑﺨﻮاﻫﺪ ﺑﺮاي ﺗﻤﺎم ﻣﻘﺎدﻳﺮ λﺑﺮﻗﺮار ﺑﺎﺷﺪ ﺑﺎﻳﺴﺘﻲ λ1 = λ2 = 0ﺑﺎﺷﺪ ﻳﻌﻨﻲ ﺑﺎﻳﺴﺘﻲ Cov θ (δ (X ),U (X )) = 0ﺑﺎﺷﺪ.
■
ﻣﺜﺎل :3-1در ﻣﺜﺎل 2-1ﻛﻼس ﻛﻠﻴﻪ ﺑﺮآوردﮔﺮﻫﺎي UMVUو ﻫﻤﭽﻨﻴﻦ ﻛﻼس ﻛﻠﻴﻪ ﭘﺎراﻣﺘﺮﻫﺎي ) γ (θ
ﺑﺮآوردﭘــﺬﻳﺮ داراي ﺑﺮآوردﮔــﺮ UMVUرا ﺑﺪﺳــﺖ آورﻳــﺪ و ﻧــﺸﺎن دﻫﻴــﺪ ﻛــﻪ ﭘــﺎراﻣﺘﺮ θداراي ﻫــﻴﭻ ﺑﺮآوردﮔﺮ UMVUﻧﻴﺴﺖ. ﺣﻞ :ﻛﻼس ﻛﻠﻴﻪ ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳﺐ ﺻﻔﺮ ﻋﺒﺎرت اﺳﺖ از )X = 1, 2,..., a = −U (1
)U (X ) = a (X − 2
δ (X ) ⇔ Cov θ (δ (X ),U (X )) = 0ﺑﺮآوردﮔﺮ UMVUﺑﺮاي ) γ (θ ) = E θ (δ ⇔ E θ [δ (X )a (X − 2)] = 0 ⇔ E θ [δ (X )(X − 2)] = 0
)⇔ δ (X )(X − 2) = {−δ (1)(1 − 2)}(X − 2) = δ (1)(X − 2 ⎧δ (1) x = 1, 3, 4,.... ⎧a x = 1, 3, 4,.... ⎨ = ) ⇒ δ (x ⎨ = ) ⇒ δ (x x =2 x =2 ⎩ b ⎩b
ﻛﻪ در آن bﻳﻚ ﺛﺎﺑﺖ دﻟﺨﻮاه اﺳـﺖ .ﺑﻨـﺎﺑﺮاﻳﻦ ﻓـﺮم ﻛﻠـﻲ ﺑﺮآوردﮔﺮﻫـﺎي UMVUﺑـﺼﻮرت ) δ (X
اﺳﺖ.
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
45
∞+
) γ (θ ) = E θ [δ (X )] = aθ + b (1 − θ )2 + ∑ aθ x −2 (1 − θ )2 = aθ + b (1 − θ )2 + aθ (1 − θ x =3
= a (2θ − θ 2 ) + b (1 − θ )2 = −a (1 − θ )2 + a + b (1 − θ )2 = a + (b − a )(1 − θ )2 = a + c (1 − θ )2
ﺑﻨــﺎﺑﺮاﻳﻦ ﺗﻨﻬــﺎ ﭘﺎراﻣﺘﺮﻫــﺎي ﺑﻔــﺮم ﻓــﻮق داراي ﺑﺮآوردﮔــﺮ UMVUﻫــﺴﺘﻨﺪ ،وﻟــﻲ θداراي ﺑﺮآوردﮔــﺮ UMVUﻧﻴﺴﺖ زﻳﺮا θ = a + c (1 − θ )2 ⇒ c (1 − 2θ + θ 2 ) − θ + a = 0 ⇒ cθ 2 − (2c + 1)θ + a = 0 ⎧ ⎪a = 0 ∀θ ∈(01 ⎪) , ⇒ ⎨c = 0 ⎪ 1 ⎪2c + 1 = 0 ⇒ c = − 2 ⎩
■
ﻛﻪ ﺑﻪ ﺗﻨﺎﻗﺾ ﺑﺮ ﻣﻲﺧﻮرﻳﻢ.
ﻧﻜﺎﺗﻲ در ﻣﻮرد ﻗﻀﻴﻪ ﻟﻬﻤﻦ – ﺷﻔﻪ: (1ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﺜﺎل ﻗﺒﻞ ،ﺑﻮﺳﻴﻠﻪ اﻳﻦ ﻗـﻀﻴﻪ ﻣـﻲﺗـﻮان ﻛﻠﻴـﻪ ﺑﺮآوردﮔﺮﻫـﺎي UMVUو ﻫﻤﭽﻨـﻴﻦ ﻛﻠﻴـﻪ ﭘﺎراﻣﺘﺮﻫﺎي ﺑﺮآوردﭘـﺬﻳﺮ داراي ﺑﺮآوردﮔـﺮ UMVUرا ﺑﺪﺳـﺖ آورد و ﺗﻨﻬـﺎ ﻣـﺸﻜﻞ آن ﺑﺪﺳـﺖ آوردن ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎ ارﻳﺐ ﺻﻔﺮ اﺳﺖ.
}
{
(2ﺗﻌﺒﻴﺮ ﻫﻨﺪﺳﻲ :اﮔﺮ ∞ 〈 ) Δ = δ E (δ 2آﻧﮕﺎه Δﻳﻚ ﻓﻀﺎي ﺑﺮداري اﺳﺖ زﻳﺮا ∀a , b ∈ R , δ1, δ 2 ∈ Δ ⇒ aδ1 + b δ 2 ∈ Δ
و Δoﻧﻴﺰ ﻳﻚ زﻳﺮ ﻓﻀﺎي Δاﺳﺖ .اﮔـﺮ ﻗـﺮار دﻫـﻴﻢ ) 〈δ1, δ 2 〉 = Cov (δ1, δ 2آﻧﮕـﺎه ﻳـﻚ ﺿـﺮب داﺧﻠﻲ روي Δﺧﻮاﻫﻴﻢ داﺷﺖ و ﺑﺎ ﺗﻮﺟـﻪ ﺑـﻪ ﺿـﺮب داﺧﻠـﻲ ﻓﻮق دارﻳﻢ ﻛﻪ
) = d (δ1, δ 2ﻓﺎﺻﻠﻪ δ1, δ 2
) = 〈δ1 − δ 2 , δ1 − δ 2 〉 = V ar (δ1 − δ 2
اﮔﺮ δﺑﺮآوردﮔﺮ UMVUﺑﺎﺷﺪ آﻧﮕـﺎه ﺑـﻪ ازاي ﻫـﺮ δ ′ ∈ Δ دارﻳﻢ ﻛـﻪ ) . V (δ ) ≤ V (δ ′ﺣـﺎل ﭼـﻮن δ = δo − U
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
46
ﻣﻲﺧﻮاﻫﻴﻢ Uرا ﻃﻮري اﻧﺘﺨﺎب ﻛﻨﻴﻢ ﻛﻪ ) V (δ ) =V (δo − U ) = d (δo ,Uﻣﻴﻨﻴﻤﻢ ﺷﻮد .اﻣـﺎ ﺑـﺮاي ﻣﻴﻨﻴﻤﻢ ﻛﺮدن ) d (δo ,Uﺑﺎﻳﺴﺘﻲ Uرا ﺗﺼﻮﻳﺮ δoدر زﻳﺮ ﻓﻀﺎي Δoﺑﮕﻴﺮﻳﻢ .ﺑﻨـﺎﺑﺮاﻳﻦ ﺑﺎﻳـﺪ δo − U
ﺑﺮ زﻳﺮ ﻓﻀﺎي Δoﻋﻤﻮد ﺑﺎﺷﺪ .ﻳﻌﻨﻲ Cov (δo − U ,U ) = 0 ⇔ Cov (δ ,U ) = 0
■
(3از ﻗﻀﻴﻪ ﻟﻬﻤﻦ – ﺷﻔﻪ ﺑﺮاي اﺛﺒﺎت ﻋﺪم UMVUﺑﻮدن ﻳﻚ ﺑﺮآوردﮔﺮ ﻣﻲﺗﻮان اﺳﺘﻔﺎده ﻛﺮد. ﻣﺜﺎل :4-1ﻓﺮض ﻛﻨﻴﺪ ) X ~ U (θ ,θ +1ﻣﻲ داﻧﻴﻢ ﻛﻪ T (X ) = Xﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤـﺎل ﺑـﺮاي 1 θاﺳﺖ .ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ ) T (Xﺑﺮاي θﻛﺎﻣﻞ ﻧﻴﺴﺖ و 2
S (X ) = X −ﻳﻚ ﺑﺮآ وردﮔﺮ ﻧﺎ ارﻳـﺐ θ
اﺳﺖ ﻛﻪ UMVUEآن ﻧﻴﺴﺖ. ﺣﻞ: =0
θ +1
∫ h (x )dx
θ
d dθ
⇒ h (x )dx = 0
θ +1
∫
⇒ E [h (X )] = 0
θ
⇒ h (θ + 1) − h (θ ) = 0 ⇒ h (θ + 1) = h (θ ) ∀θ ∈ ℜ
ﺑﻨﺎﺑﺮاﻳﻦ ﺗﻮاﺑﻊ ﻣﺘﻨﺎوب ﺑﺎ دوره ﺗﻨﺎوب 1داراي اﻣﻴﺪ ﺻﻔﺮ ﻫـﺴﺘﻨﺪ .ﺑـﺮاي ﻣﺜـﺎل اﮔـﺮ ) h (x ) = sin(2π x
آﻧﮕﺎه E [sin(2π x )] = 0اﻣﺎ . P (sin(2π x ) = 0) = 0 ≠ 1 1 1 1 θ +1 1 (x − )dx = x 2 − x = (2θ ) = θ θ 2 2 2 2
θ +1
∫
θ
1 = ) E (S (X )) = E (X − 2
)) Cov θ (S (X ), h (X )) = E θ (S (X )h ( X )) = E θ ( X sin(2π X
θ +1 θ
1
θ +1
1
]) ∫ x sin(2π x )dx = [− 2π x cos(2π x ) + 4x 2 sin(2π x
1 ﭘﺲ 2
=
θ
1 1 1 1 ) (θ + 1) cos(2πθ ) + 2 sin(2πθ ) + θ cos(2πθ ) − 2 sin(2πθ 2π 2π 4π 4π
=−
1 cos(2πθ ) ≠ 0 2π
=−
S (X ) = X −ﺑﺮآوردﮔﺮ UMVUﭘﺎراﻣﺘﺮ θﻧﻴﺴﺖ.
■
(4ﺗﻮﺳﻂ ﻗﻀﻴﻪ ﻟﻬﻤﻦ – ﺷﻔﻪ ﻣﻲﺗﻮان ﻳﻜﺘﺎﻳﻲ ﺑﺮآوردﮔﺮﻫﺎي UMVUرا ﺑﻪ ﺻﻮرت زﻳﺮ ﺛﺎﺑﺖ ﻛﺮد.
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
47
ﻟـــﻢ :2-1ﺑـــﺮاي ﻫـــﺮ دو ﻣﺘﻐﻴـــﺮ ﺗـــﺼﺎدﻓﻲ Xو Yﺑـــﺎ ﮔـــﺸﺘﺎورﻫﺎي دوم ﻣﺘﻨـــﺎﻫﻲ دارﻳـــﻢ ﻛـــﻪ ) [Cov (X ,Y )]2 ≤V (X )V (Yو ﺗﺴﺎوي ﺑﺮﻗﺮار اﺳﺖ اﮔﺮ و ﻓﻘـﻂ اﮔـﺮ ﺛﺎﺑـﺖﻫـﺎي aو bﻣﻮﺟـﻮد ﺑﺎﺷﻨﺪ ﺑﻄﻮري ﻛﻪ . P (X = a + bY ) = 1 ﻗﻀﻴﻪ :2-1اﮔﺮ ) δ (Xﻳﻚ ﺑﺮآوردﮔﺮ UMVUﺑﺮاي ﭘـﺎراﻣﺘﺮ ) γ (θﺑﺎﺷـﺪ آﻧﮕـﺎه ) δ (Xﺑﺮآوردﮔـﺮ ﻳﻜﺘﺎي UMVU 1ﺑﺮاي ) γ (θاﺳﺖ. اﺛﺒﺎت :ﻓﺮض ﻛﻨﻴﺪ δو δ ′دو ﺑﺮآوردﮔﺮ UMVUﭘﺎراﻣﺘﺮ ) γ (θﺑﺎﺷﻨﺪ .ﭘﺲ )(3
V θ (δ ) =V θ (δ ′) ∀θ ∈ Θ
E θ (δ ) = E θ (δ ′) = γ (θ ),
در ﻧﺘﻴﺠﻪ E θ [δ − δ ′] = 0ﭘﺲ δ − δ ′ﺑﺮآوردﮔﺮ ﻧﺎ ارﻳﺐ ﺻﻔﺮ اﺳﺖ .ﭘﺲ ﻃﺒﻖ ﻗﻀﻴﻪ ﻟﻬﻤﻦ – ﺷﻔﻪ ) o = cov(δ , δ − δ ′) =V (δ ) − Cov (δ − δ ′) ⇒ Cov (δ − δ ′) =V (δ )(3
)⇒ [Cov (δ , δ ′)] = [V (δ )] = V θ (δ )V θ (δ ′ 2
2
ﻳﻌﻨﻲ در ﻧﺎﻣﺴﺎوي ﻛﻮارﻳﺎﻧﺲ ﺣﺎﻟﺖ ﺗﺴﺎوي ﺑﺮﻗﺮار اﺳﺖ ﭘﺲ ﻃﺒﻖ ﻟﻢ 3-1دارﻳﻢ ﻛﻪ Pθ (δ = aδ ′ + b ) = 1و در ﻧﺘﻴﺠﻪ ﻃﺒﻖ ) (3دارﻳﻢ ﻛﻪ Pθ (δ = δ ′) = 1ﻳﻌﻨﻲ ﺑﺮآوردﮔﺮ UMVUﻳﻜﺘﺎ ■
اﺳﺖ.
ﺗﻮﺟﻪ :ﺑﺮآوردﮔﺮ δ = cﺑﺮآوردﮔﺮي UMVUﺑﺮاي اﻣﻴﺪ ﺧﻮد اﺳﺖ ،زﻳﺮا داراي وارﻳﺎﻧﺲ ﺻـﻔﺮ اﺳـﺖ. ﺣﺎل اﮔﺮ ﺑﺮآوردﮔﺮﻫﺎي ﺛﺎﺑﺖ را ﻛﻨﺎر ﺑﮕﺬارﻳﻢ ،ﺑﺮاي ﻳﻚ ﺗﺎﺑﻊ ﺑﺮآوردﭘﺬﻳﺮ ) γ (θﺳـﻪ ﺣﺎﻟـﺖ زﻳـﺮ ﭘـﻴﺶ ﻣﻲآﻳﺪ: ﺣﺎﻟﺖ اول :ﻫﻴﭻ ﺗﺎﺑﻊ ﻏﻴﺮ ﺛﺎﺑﺘﻲ از θﺑﺮآوردﮔﺮ UMVUﻧﺪارد. ﻣﺜﺎل :5-1ﻓﺮض ﻛﻨﻴﺪ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ Xداراي ﺗﺎﺑﻊ اﺣﺘﻤﺎل زﻳﺮ ﺑﺎﺷﺪ ،ﻧﺸﺎن دﻫﻴﺪ ﻛـﻪ ﻫـﻴﭻ ﺗـﺎﺑﻊ ﻏﻴـﺮ ﺛﺎﺑﺘﻲ از θﺑﺮآوردﮔﺮ UMVUﻧﺪارد θ +۱
θ
θ −۱
۱ ۳
۱ ۳
۱ ۳
x ) pθ ( x
اﺑﺘﺪا ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳﺐ ﺻﻔﺮ ﻳﻌﻨﻲ Δ0را ﺑﺪﺳﺖ ﻣﻲآورﻳﻢ. Unique
١
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
48
1 E θ [U (X )] = 0 ⇒ [U (θ − 1) + U (θ ) + U (θ + 1)] = 0 3 ⇒ U (θ − 1) + U (θ ) + U (θ + 1) = 0
}
⎫θ = 0 ⇒ U (−1) + U (0) + U (1) = 0 )U ( k ) = U ( k + 3 ⎧ ⎪ ∈k ⎨ ⇒ ⎬ θ = 1 ⇒ U (0) + U (1) + U (2) = 0 U (k ) + U (k + 1) + U (k + 2) = 0 ⎩ ⎪ ⎭θ = 2 ⇒ U (1) + U (2) + U (3) = 0
⇒ Δ0 = {U U (3 k ) = a ,U (3 k + 1) = b ,U (3 k + 2) = −(a + b ), k ∈ , a ,b ∈ ℜ δ (3 k )U (3 k ) = a ⎧ ⎪ δ ⇔ δU ∈ Δ0 ⇒ ⎨ δ (3 k + 1)U (3 k + 1) = bﺑﺮآوردﮔﺮ UMVU ) ⎪δ (3k + 2)U (3 k + 2) = −(a + b ⎩ a ≠ 0, b ≠ 0, ⎧ δ (3 k ) = 1 ⎪ ∈ a + b ≠ . ⎨ δ (3 k + 1) = 1 ⇒ δ (k ) = 1 ∀k ⎪δ (3 k + 2) = 1 ⇒ ⎩
ﭘﺲ δﻳﻚ ﺑﺮآوردﮔﺮ ﺛﺎﺑﺖ اﺳﺖ ﻛﻪ ﻧﻤﻲﺗﻮا ﻧﺪ ﺑﺮاي ) γ (θﻧﺎارﻳﺐ ﺑﺎﺷﺪ ﭘﺲ UMVUﻧﻴﺰ ﻧﻴﺴﺖ■ . ﺣﺎﻟﺖ دوم :ﺗﻨﻬﺎ ﺑﻌﻀﻲ از ﺗﻮاﺑﻊ ﺑﺮآوردﭘﺬﻳﺮ ﻏﻴﺮ ﺛﺎﺑﺖ داراي ﺑﺮآوردﮔﺮ UMVUﻫﺴﺘﻨﺪ) .ﻣﺜﺎل (-31 ﺣﺎﻟﺖ ﺳﻮم :ﻫﺮ ﭘﺎراﻣﺘﺮ ﺑﺮآوردﭘﺬﻳﺮ ) γ (θداراي ﺑﺮآوردﮔﺮ UMVUاﺳﺖ. ﻳﻚ روش ﺑﺮاي ﺑﻪ دﺳﺖ آوردن UMVUدر اﻳﻦ ﺣﺎﻟﺖ ﺗﻮﺳﻂ ﻗﻀﻴﻪ راﺋﻮﺑﻼﻛـﻮل اﺳـﺖ .ﻃﺒـﻖ ﻗـﻀﻴﻪ راﺋﻮﺑﻼﻛﻮل اﮔﺮ Tﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﺑﺮاي θﺑﺎﺷﺪ و ) δ (Xﻳﻚ ﺑﺮآوردﮔـﺮ ﻧﺎارﻳـﺐ ﺑـﺮاي ) γ (θﺑﺎﺷـﺪ آﻧﮕــــﺎه ] g (T ) = E [δ (X ) Tﻳــــﻚ آﻣــــﺎره اﺳــــﺖ و ) E θ [ g (T )] = E θ [δ (X )] = γ (θو ]) V θ [ g (T )]
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
ﻗﻀﻴﻪ :3-1ﻓﺮض ﻛﻨﻴﺪ Xداراي ﺗﻮزﻳﻌﻲ از ﺧـﺎ ﻧـﻮاده }= {Pθ : θ ∈ Θ
ﺑﺴﻨﺪه ﻛﺎﻣﻞ ﺑﺮاي
49
Pﺑﺎﺷـﺪ و Tﻳـﻚ آﻣـﺎره
Pﺑﺎﺷـﺪ .در اﻳـﻦ ﺻـﻮرت ﻫـﺮ ﺗـﺎﺑﻊ ﺑﺮآوردﭘـﺬﻳﺮ ) γ (θداراي ﻳـﻚ و ﺗﻨﻬـﺎ ﻳـﻚ
ﺑﺮآوردﮔﺮ ﻧﺎ ارﻳﺐ اﺳﺖ ﻛﻪ ﺗﺎﺑﻌﻲ از Tﻣﻲ ﺑﺎﺷﺪ. اﺛﺒﺎت :وﺟﻮد اﻳﻦ ﺑﺮآوردﮔﺮ از ﻗﻀﻴﻪ راﺋﻮﺑﻼﻛﻮل ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ و اﮔﺮ ) g1(Tو ) g 2 (Tدو ﺑﺮآوردﮔﺮ ﻧﺎ ارﻳﺐ ) γ (θﺑﺎﺷﻨﺪ آﻧﮕﺎه ﺑﺎ اﺣﺘﻤﺎل ﻳﻚ
) g 1(T ) = g 2 (T
completeness
⇒
E [ g 1(T ) − g 2 (T )] = 0
■
از ﻗﻀﻴﻪ راﺋﻮﺑﻼﻛﻮل و ﻗﻀﻴﻪ ﻗﺒﻞ ﻧﺘﻴﺠﻪ زﻳﺮ را ﻣﻲﺗﻮان ﺑﺪﺳﺖ آورد. ﻗﻀﻴﻪ :4-1ﻓﺮض ﻛﻨﻴﺪ Xداراي ﺗـﻮزﻳﻌﻲ از ﺧـﺎﻧﻮاده }= {Pθ : θ ∈ Θ
ﺑﺴﻨﺪه و ﻛﺎﻣﻞ ﺑﺮاي ﺧﺎﻧﻮاده
Pﺑﺎﺷـﺪ و Tﻳـﻚ آﻣـﺎره
Pﺑﺎﺷﺪ.
اﻟﻒ( ﺑﺮاي ﻫﺮ ﺗﺎﺑﻊ ﺑﺮآوردﭘﺬﻳﺮ ) γ (θﻳﻚ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ وﺟﻮد دارد ﻛﻪ ﺑﻪ ﻃﻮر ﻳﻜﻨﻮاﺧـﺖ ﻣﺨـﺎﻃﺮه را ﺑﺮاي ﻫﺮ ﺗﺎﺑﻊ زﻳﺎن ﻣﺤﺪب ) L (θ , dﻣﻴﻨﻴﻤﻢ ﻣﻲﻛﻨﺪ .اﻳﻦ ﺑﺮآوردﮔﺮ در ﺣﺎﻟﺖ ﺧﺎص UMVUاﺳﺖ. ب( ﺑﺮآوردﮔﺮ UMVUﺣﺎﻟﺖ ﻗﺒﻞ ﻫﻤﺎن ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ) γ (θاﺳﺖ ﻛﻪ ﺗـﺎﺑﻌﻲ از Tﻣـﻲﺑﺎﺷـﺪ.اﻳـﻦ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﺑﺎ ﻣﺨﺎﻃﺮه ﻣﻴﻨﻴﻤﻢ اﺳﺖ ﺑﻪ ﺷﺮط آﻧﻜﻪ ﻣﺨﺎﻃﺮه آن ﻣﺘﻨﺎﻫﻲ و ﺗـﺎﺑﻊ زﻳـﺎن اﻛﻴـﺪا ﻣﺤـﺪب ﺑﺎﺷﺪ■ . ﺗﻮﺟﻪ :اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻪ ﻏﻴﺮ از ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺎﺷﺪ ،ﺑﺮآوردﮔﺮ ﺣﺎﺻﻞ را UMRUﮔﻮﻳﻨﺪ. ﻗﻀﺎﻳﺎي ﻗﺒﻞ ﻧﻪ ﺗﻨﻬﺎ وﺟﻮد ﺑﺮآوردﮔﺮ UMVUرا ﺗﻀﻤﻴﻦ ﻣﻲﻛﻨﺪ ﺑﻠﻜﻪ روشﻫﺎﻳﻲ را ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺑﺮآوردﮔﺮﻫﺎي UMVUاراﻳﻪ ﻣﻲدﻫﺪ .ﺑﺎ داﺷﺘﻦ آﻣـﺎره ﺑـﺴﻨﺪه ﻛﺎﻣـﻞ Tدر ﺑـﺮآورد ﭘـﺎراﻣﺘﺮ ) γ (θاﻳـﻦ روشﻫﺎ ﻋﺒﺎرﺗﻨﺪ از: اﻟــﻒ( اﺑﺘــﺪا ﻳــﻚ ﺑﺮاوردﮔــﺮ ﻧﺎارﻳــﺐ ) δ (Xﺑــﺮاي ) γ (θﺗﻌﻴــﻴﻦ ﻣــﻲﻛﻨــﻴﻢ در اﻳــﻦ ﺻــﻮرت ] g (T ) = E [δ (X ) Tﺑﺮآوردﮔﺮ UMVUﭘﺎراﻣﺘﺮ ) γ (θاﺳﺖ.
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
ﻣﺜﺎل : 6-1ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,..., X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) U (0,θﺑﺎﺷﻨﺪ و θ
ﺻـــﻮرت ) T = X ( nﻳـــﻚ آﻣـــﺎره ﺑـــﺴﻨﺪه و ﻛﺎﻣـــﻞ ﺑـــﺮاي θاﺳـــﺖ و
2
θ 2
50
= ) . γ (θدر اﻳﻦ
= ] ، E [X 1ﭘـــﺲ
] g (T ) = E [X 1 Tﺑﺮآوردﮔﺮ UMVUﭘﺎراﻣﺘﺮ ) γ (θاﺳـﺖ .اﻣـﺎ اﮔـﺮ X ( n ) = T = tﺑﺎﺷـﺪ آﻧﮕـﺎه 1 X 1 = tﻳﺎ X 1 < tﺧﻮاﻫﺪ ﺑﻮد .ﭘﺲ اﮔﺮ X ( n ) = tﺑﺎﺷﺪ آﻧﮕﺎه ﺑﺎ اﺣﺘﻤﺎل n n −1 X 1 ،داراي ﺗﻮزﻳﻊ ﻳﻜﻨﻮاﺧﺖ در ﻓﺎﺻﻠﻪ ) (0,tﻣﻲﺑﺎﺷﺪ .ﺑﻨﺎﺑﺮاﻳﻦ n 1 t n −1 n + 1 t ( =t) =t( )+ =) . n 2 n n 2 θ n +1 T = ) g (Tﺑﺮآوردﮔﺮ UMVUﭘﺎراﻣﺘﺮ = ) γ (θاﺳﺖ. ﭘﺲ . 2 n 2
X 1 = t ،و ﺑﺎ اﺣﺘﻤـﺎل
) g (t ) = E ( X 1 X ( n
■
ب( ﭼﻮن ﺑﺮآوردﮔﺮ UMVUﻳﻜﺘﺎ اﺳﺖ ،ﭘـﺲ ﺑﺮآوردﮔـﺮ UMVUﺗـﺎﺑﻊ ﺑﺮآوردﭘـﺬﻳﺮ ) γ (θﺑـﺎ ﺣـﻞ E θ [ g (T )] = γ (θ ) ∀θ ∈ Θ
ﻣﻌﺎدﻟﻪ زﻳﺮ ﺑﺪﺳﺖ ﻣﻲآﻳﺪ.
) X (n
) X (n
n ﻣﺜﺎل :7-1در ﻣﺜﺎل ﻗﺒﻞ دارﻳﻢ ﻛﻪ θ θ n +1 θ n + 1 X (n ) θ ) n + 1 X (n is UMVUE of ■ (⇒E . ⇒ =) . n 2 2 n 2 2 =)
( ~ Be (n ,1) ⇒ E
ﻣﺜﺎل :8-1ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,..., X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) B (1,θﺑﺎﺷـﻨﺪ .ﺑﺮآوردﮔـﺮ UMVU ﭘﺎراﻣﺘﺮ ) γ (θ ) = θ (1 − θرا ﺑﺪﺳﺖ آورﻳﺪ. n
ﺣﻞ :ﻣﻲداﻧﻴﻢ ﻛﻪ ) T = ∑ X i ~ B (n ,θآﻣﺎره ﺑﺴﻨﺪه و ﻛﺎﻣﻞ ﺑﺮاي θاﺳﺖ. i =1
⎞ ⎛n ) E [ g (T )] = θ (1 − θ ) ⇒ ∑ g (t ) ⎜ ⎟θ t (1 − θ ) n −t = θ (1 − θ ⎠ ⎝t t =0 n ⎛n ⎞ θ t ( ⎟ ⎜ ) ⇒ ∑ g (t ) = θ (1 − θ )1−n ⎝ t ⎠ 1− θ t =0 n
1 β θ =θو = βدر اﻳﻦ ﺻﻮرت ﻗﺮار ﻣﻲ دﻫﻴﻢ > 0 1+ β 1+ β 1− θ
= 1 − θﺑﻨﺎﺑﺮاﻳﻦ
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
51
n −2 n − 2 ⎛n ⎞ t ⎛ ⎞ 1 1−n β n −2 g t 1 ( ) β ( ) β ( β ) = = + = ∑ ⎜ t ⎟ 1+ β 1+ β ∑ ⎜ u ⎟ β u +1 ⎠ ⎝ ⎠ t =0 ⎝ u =0 n
∀β > 0
⎞− 2
t =u +1 n −1 ⎛ n
∑ ⎜ t −1 ⎟ β t ⎝ t =1
⎠
⎧ ⎪0 ⎞⎪⎛ n − 2 ⎪ ⎟ ⇒ g (t ) = ⎨ ⎜ t − 1 ⎠ ⎝⎪ n ⎞ ⎛ ⎪ ⎠⎟ ⎪ ⎜⎝ t ⎩
t = 0, n
t = 0,..., n
) t (n − t )n (n − 1
) T (n −T ﭘﺲ )n (n −1
= ) ⇒ g (t
t = 0, n t ≠ 0, n
=
⎧ ⎪0 ) = ⎨ t (n − t ⎪ t ≠ 0, n )⎩ n (n − 1
= ) g (Tﺑﺮآوردﮔﺮ UMVUﭘﺎراﻣﺘﺮ ) θ (1 − θاﺳﺖ■ .
ﺑﺨﺶﻫﺎي 2-3 ،2-2و 2-4ﺑﻪ ﻋﻨﻮان ﺳﻤﻴﻨﺎر ﺑﺮاي داﻧﺸﺠﻮﻳﺎن
ﺑﺨﺶ :5ﻧﺎﻣﺴﺎوي اﻃﻼع ) 1ﻧﺎﻣﺴﺎوي ﻛﺮاﻣﺮ -راﺋﻮ( ﻓﺮض ﻛﻨﻴﺪ δﻳﻚ ﺑﺮآوردﮔﺮ ) g (θﺑﺎﺷﺪ ﻛﻪ ) E (δ ) = g (θو ) ψ (x ,θﺗﺎﺑﻌﻲ از xو θﺑـﺎ ﮔـﺸﺘﺎور دوم ﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ ،در اﻳﻦ ﺻﻮرت ﻃﺒﻖ ﻧﺎﻣﺴﺎوي ﻛﻮارﻳﺎﻧﺲ دارﻳﻢ ﻛﻪ 2 ]) Cov (δ ,ψ [ ≥ ) Var (δ
)( 1
) Var (ψ
ﺑﺮاي ﻳﺎﻓﺘﻦ ﻳﻚ ﻛﺮان ﭘﺎﻳﻴﻦ ﺑﺮاي ) V (δﻣﻲﺧﻮاﻫﻴﻢ ﺳﻤﺖ راﺳﺖ ﻧﺎﻣﺴﺎوي ﻓـﻮق ﺑـﻪ δﺑـﺴﺘﮕﻲ ﻧﺪاﺷـﺘﻪ ﺑﺎﺷﺪ و ﺣﺪاﻗﻞ ﺑﻪ ) E (δ ) = g (θﺑﺴﺘﮕﻲ داﺷﺘﻪ ﺑﺎﺷﺪ. 2 ﻗﻀﻴﻪ ) 1-5ﺑﻠﻴـﺖ :(1974ﺷـﺮط ﻻزم و ﻛـﺎﻓﻲ ﺑـﺮاي آن ﻛـﻪ ) Cov (δ ,ψﺑـﺴﺘﮕﻲ ﺑـﻪ δﺗﻨﻬـﺎ از
ﻃﺮﻳﻖ ) g (θداﺷﺘﻪ ﺑﺎﺷﺪ آن اﺳﺖ ﻛﻪ ﻛﻪ در آن
}
∀U ∈ Δ0
∀θ ∈ Θ
Cov (U ,ψ ) = 0
{
∞ < ) Δ0 = U : E θ (U ) = 0, E θ (U 2
Information Inequality Blyth
١ ٢
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
52
اﺛﺒﺎت) :ﻛﻔﺎﻳﺖ( ﻓﺮض ﻛﻨﻴﺪ δ1و δ 2ﻫﺮ دو ﺑﺮاي ) g (θﻧﺎ ارﻳﺐ ﺑﺎﺷﻨﺪ در اﻳﻦ ﺻـﻮرت . δ1 − δ 2 ∈ Δ0 ﭘــﺲ Co v(δ1 − δ 2 ,ψ ) = 0و در ﻧﺘﻴﺠــﻪ ) .Cov (δ1,ψ ) = Cov (δ 2 ,ψﻳﻌﻨــﻲ از ) E (δ1) = E (δ 2
ﻧﺘﻴﺠﻪ ﮔﺮﻓﺘﻴﻢ ﻛﻪ ) Cov (δ1,ψ ) = Cov (δ 2 ,ψﭘﺲ ) Cov (δ ,ψﺗﻨﻬﺎ از ﻃﺮﻳﻖ ) E (δﺑـﻪ δواﺑـﺴﺘﻪ اﺳﺖ. )ﻟـــﺰوم( :ﻓـــﺮض ﻛﻨﻴـ ـﺪ ) Cov (δ ,ψﺗﻨﻬـــﺎ از ﻃﺮﻳـ ـﻖ ) g (θ ) = E (δﺑـــﻪ δواﺑـــﺴﺘﻪ ﺑﺎﺷـــﺪ. ﭼﻮن ) E (δ + U ) = g (θﭘﺲ ∀U ∈ Δ0
∀θ ∈ Θ
) Cov (δ ,ψ ) = Cov (δ + U ,ψ
) ⇒ Cov (δ ,ψ ) = Cov (δ ,ψ ) + Cov (U ,ψ ∀U ∈ Δ0
∀θ ∈ Θ
⇒ Cov (U ,ψ ) = 0
اﻃﻼع ﻓﻴﺸﺮ: ﻧﻤﻮدارﻫﺎي زﻳﺮ را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﺪ.
ﺳﺆال :ﻣﺸﺎﻫﺪه Xدر ﻛﺪام ﺣﺎﻟﺖ اﻃﻼع ﺑﻴﺸﺘﺮي در ﻣﻮرد ﭘﺎراﻣﺘﺮ θﺑﻪ ﻣﺎ ﻣﻲدﻫﺪ؟ ﺟﻮاب :ﺑﺪن ﺷﻚ در ﺣﺎﻟﺖ )ب( ﻣﺸﺎﻫﺪه Xﺑﻪ ﻣﺎ اﻃﻼع ﺑﻴﺸﺘﺮي ﻣﻲدﻫﺪ. ﭘﺲ ﻫﺮ ﭼﻪ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ Xاز ﻳﻚ ﻣﻘﺪار θﺑﻪ ﻣﻘﺪار دﻳﮕﺮ θﺑﻴﺸﺘﺮ ﺗﻐﻴﻴﺮ ﻛﻨﺪ ،ﻣﺸﺎﻫﺪه Xﺑﻪ ﻣﺎ در ﻣـﻮرد ﻣﻘﺪار ﭘﺎراﻣﺘﺮ θﺑﻴﺸﺘﺮ اﻃﻼع ﻣﻲدﻫﺪ .ﺣﺎل ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ
ﻣﻘﺪار ﺗﻐﻴﻴﺮ ﻧﺴﺒﻲ در ﭼﮕﺎﻟﻲ در ﻧﻘﻄﻪ
) ⎡ P ( x ; θ + Δ ) − p ( x ;θ ⎤ 1 ⎢= . ⎥⎦ ) p (x ;θ Δ ⎣ ﺑﻪ ازاي ﺗﻐﻴﻴﺮ ﭘﺎراﻣﺘﺮ ﺑﻪ اﻧﺪازه Δ
X
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
) ⎡ P ( x ;θ + Δ ) − p ( x ;θ ⎤ 1 . ⎣ Δ→0 ⎥⎦ ) p (x ;θ Δ
53
⎢ = limﻣﻴﺰان ﺗﻐﻴﺮ ﻧﺴﺒﻲ در ﭼﮕﺎﻟﻲ در ﻧﻘﻄﻪ X 1
∂ ) p ( x ;θ ∂ θ ∂ ) ln p (x ;θ = = ∂θ ) p ( x ;θ
ﻣﻴﺎﻧﮕﻴﻦ ﺗﻮان دوم اﻳﻦ ﺗﻐﻴﻴﺮ ﻧﺴﺒﻲ را ﻣﻴﺰان اﻃﻼﻋﻲ ﻛﻪ Xدر ﻣﻮرد ﭘﺎراﻣﺘﺮ θدارد ﻣﻲﻧﺎﻣﻨﺪ و ﺑﻪ آن اﻃﻼع ﻓﻴﺸﺮ ﮔﻮﻳﻨﺪ ﻳﻌﻨﻲ 2
2 ⎞ ⎛ p′ ∂ ⎡ ⎤ I X (θ ) = E θ ⎢ ln p (X ;θ ) ⎥ = ∫ ⎜ θ ⎟ pθ d μ ⎣ ∂θ ⎦ ⎠ ⎝ pθ
ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ ﻫﺮ ﭼﻪ اﻳﻦ اﻣﻴﺪ رﻳﺎﺿﻲ در ﻳﻚ ﻧﻘﻄﻪ θ0ﺑﻴﺸﺘﺮ ﺷﻮد آﻧﮕﺎه ﻣﻲﺗﻮان θ0را از ﻧﻘﺎط ﻫﻤـﺴﺎﻳﻪ θﺑﻬﺘﺮ ﺗﺸﺨﻴﺺ داد و ﺑﻨﺎﺑﺮاﻳﻦ θرا در ﻧﻘﻄﻪ θ = θ0دﻗﻴﻖﺗﺮ ﺑﺮآورد ﻛﺮد. ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ ﺷﺮاﻳﻂ زﻳﺮ ﺑﺮﻗﺮار ﺑﺎﺷﻨﺪ:
اﻟﻒ( Θﻳﻚ زﻳﺮ ﻓﺎﺻﻠﻪ ﺑﺎز از اﻋﺪاد ﺣﻘﻴﻘﻲ ﺑﺎﺷﺪ ) ( Θ ⊆ R ب( ﺗﻮزﻳﻊﻫﺎي Pθداراي ﺗﻜﻴﻪﮔﺎه ﻳﻜﺴﺎن ﺑﺎﺷﻨﺪ و ﺑﻨـﺎﺑﺮاﻳﻦ } S X* = {x | p ( x ;θ ) > 0ﺑـﻪ θﺑـﺴﺘﮕﻲ ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ. ∂ ج( ) p ( x ; θ ∂θ
ﺑﺮاي ﺗﻤﺎم θ ∈ Θﻣﻮﺟﻮد و ﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ.
∂ ∂ ∫ = p (x ;θ )d μ د( p (x ;θ )d μ ∫ ∂θ ∂θ 2
∂ ⎡ ⎤ ﻫـ( E ⎢ ln p (x ;θ ) ⎥ > 0 ∀θ ∈ Θ ⎣ ∂θ ⎦
و( ﺑﺮاي ﻫﺮ ﺑﺮآوردﮔﺮ δداﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ:
∂ ∂ ∂ δ pθ d μ = ∫ δ = ] E θ [δ pθ d μ ∫ ∂θ ∂θ ∂θ
اﻳﻦ ﺷﺮاﻳﻂ را ﺷﺮاﻳﻂ ﻧﻈﻢ 2ﮔﻮﻳﻨﺪ. ∂ ﺣﺎل اﮔﺮ ﻗﺮار دﻫﻴﻢ ) ln p ( x ;θ ∂θ
= ) ψ (x ;θآﻧﮕﺎه ﺑﺮاي ﺑﺮآوردﮔﺮ Uﻛﻪ E θ (U ) = 0دارﻳﻢ ﻛﻪ
Relative Rate Regularity Condition
١ ٢
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
54
) و( ∂ ∂ ∂ ∂ E θ (U ) = ∫U pθ d μ = ∫ [U ] ln pθ ] pθ d μ = E [U . ln pθ ∂θ ∂θ ∂θ ∂θ ∂ ) = Cov (U , ln pθ ∂θ
=0
ﺑﻨﺎﺑﺮاﻳﻦ ﺷﺮاﻳﻂ ﻗﻀﻴﻪ 1-5ﺑﺮﻗﺮار اﺳﺖ .ﻫﻤﭽﻨﻴﻦ ﭼﻮن ∂ ) د( ∂ ∂ ∂ ⎡ ⎤ ∂ ⎛ ⎞ ⎜ ∫ = ⎥ E ⎢ ln pθ = ln pθ ⎟pθ d μ = ∫ pθ d μ = pθ d μ (1) = 0 ∫ ∂θ ∂θ ∂θ ⎣ ∂θ ⎦ ⎝ ∂θ ⎠
∂ ) و( ∂ ∂ = pθ d μ δ p d μ ) E θ [δ ] = g ′(θ = θ ∂θ ∫ ∂θ ∂θ
ﭘﺲ
Cov (δ ,ψ ) = E (δψ ) = ∫ δ
ﺑﻨﺎﺑﺮاﻳﻦ ﻧﺎﻣﺴﺎوي ) (1ﺑﻪ ﺻﻮرت زﻳﺮ ﺗﺒﺪﻳﻞ ﻣﻲﺷﻮد. [ g ′(θ )]2 ) I X (θ
=
[ g ′(θ )]2 2
∂ ⎡ ⎤ ⎥ ) E ⎢ ln p (x ;θ ⎣ ∂θ ⎦
≥ ) V ar (δ
اﻳﻦ ﻧﺎﻣﺴﺎوي را ﻧﺎﻣﺴﺎوي اﻃﻼع ﻳﺎ ﻧﺎﻣﺴﺎوي ﻛﺮاﻣﺮ – راﺋﻮ ﮔﻮﻳﻨﺪ .ﺑـﻪ ﻛـﺮان ﭘـﺎﻳﻴﻦ ﺑﺪﺳـﺖ آﻣـﺪه ﺑـﺮاي وارﻳﺎﻧﺲ ،ﻛﺮان ﭘﺎﻳﻴﻦ ﻛﺮاﻣﺮ– راﺋﻮ ) (CRLBﮔﻮﻳﻨﺪ .ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ اﮔﺮ ﻣﺸﺘﻖ دوم ) ln p (x ;θﻣﻮﺟﻮد ∂2 ∂2 p d μ = θ ﺑﺎﺷﺪ و ∫ ∂θ 2 pθ d μ ∫ ∂θ 2
آﻧﮕﺎه 2
∂2 ∂ ⎡ ⎤ ]) I X (θ ) = E ⎢ ln p (x ;θ ) ⎥ = − E [ 2 ln p ( x ;θ ∂θ ⎣ ∂θ ⎦
ﺣـﺎل اﮔـﺮ X 1, X 2 ,… , X nﻳــﻚ ﻧﻤﻮﻧـﻪ ﺗــﺼﺎدﻓﻲ از ﺗـﻮزﻳﻌﻲ ﺑـﺎ ﭼﮕــﺎﻟﻲ pθ : θ ∈ Θﺑﺎﺷـﻨﺪ آﻧﮕــﺎه 2
∂ ⎡ ⎤ ⎥ ) I (θ ) = E θ ⎢ ln p (X ,θرا ﻣﻴﺰان اﻃﻼع ﻓﻴﺸﺮ ﻛﻪ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ ⎣ ∂θ ⎦
X 1, X 2 ,… , X nدر ﻣـﻮرد
θدارد ،ﮔﻮﻳﻨﺪ. 2
n ∂ ∂ ∂ ⎡ ⎤ ]) I (θ ) = E θ ⎢ ln p (X ;θ ) ⎥ =V θ [ ln p (X ;θ )] =V θ [ ln ∏ ln p (X i ;θ ∂θ ∂θ i =1 ⎣ ∂θ ⎦ )(3 ∂ ∂ ∂ ) ln p (X i ;θ )] = nV θ [ ln p (X 1;θ )] = nE θ [ ln p (X 1;θ )]2 = nI X 1 (θ ∂θ ∂θ ∂θ
ﻛﻪ در آن ) (2از اﺳﺘﻘﻼل و ) (3از ﻫﻤﺘﻮزﻳﻊ ﺑﻮدن X iﻫﺎ ﻧﺘﻴﺠﻪ ﻣﻲﮔﺮدد.
( 2) n
[ = ∑V θ i =1
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
55
ﻣﺜﺎل :1-5ﻓـﺮض ﻛﻨﻴـﺪ X 1, X 2 ,… , X nﻳـﻚ ﻧﻤﻮﻧـﻪ ﺗـﺼﺎدﻓﻲ از ﺗﻮزﻳـﻊ N (θ ,1),θ ∈ Rﺑﺎﺷـﻨﺪ، CRLBرا ﺑﺮاي وارﻳﺎﻧﺲ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ g (θ ) = θ 2ﺑﺪﺳـﺖ آورده و آن را ﺑـﺎ وارﻳـﺎﻧﺲ ﺑﺮآوردﮔـﺮ UMVUﭘﺎراﻣﺘﺮ θ 2ﻣﻘﺎﻳﺴﻪ ﻛﻨﻴﺪ. g (θ ) = θ 2 ⇒ g ′(θ ) = 2θ 1 1 n ∂2 ln f θ (x ) = − ln(2π ) − ∑ (x i − θ )2 ⇒ 2 ln f θ (x ) = −1 2 2 i =1 ∂θ
(2θ )2 4θ 2 = ⇒ I (θ ) = nI X 1 (θ ) = n ⇒ CRLB = n n n S2 −n در اﻳــﻦ ﺧــﺎﻧﻮاده ) S = ∑ X i ~ N (nθ , nآﻣــﺎره ﺑــﺴﻨﺪه و ﻛﺎﻣــﻞ ﺑــﺮاي θاﺳــﺖ و = T n2 i =1
4θ 2 2 4θ 2 = ) V (T >+ 2 = CRLB n n n ?
ﺑﺮآوردﮔﺮ UMVUﺑﺮاي θ 2اﺳﺖ و
■
ﻣﺜﺎل :2-5ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,… , X nﻳﻚ ﻧﻤﻮﻧـﻪ ﺗـﺼﺎدﻓﻲ از ﺗﻮزﻳـﻊ ﻧﻤـﺎﻳﻲ ﺑـﺎ ﭘـﺎراﻣﺘﺮ θﺑﺎﺷـﻨﺪ . CRLBرا ﺑﺮاي وارﻳﺎﻧﺲ ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳﺐ θو
1
θ
ﺑﺪﺳﺖ آورده و آن را ﺑﺎ وارﻳﺎﻧﺲ ﺑﺮآوردﮔﺮﻫﺎي
UMVUﻣﻘﺎﻳﺴﻪ ﻛﻨﻴﺪ. ∂2 1 2x ln f θ (x ) = 2 − 3 2 θ θ ∂θ
⇒
x
θ
ln f θ (x ) = − ln θ −
⎡ ∂2 ⎤ n 2 ⎞ 1 ⎛ 1 I X 1 (θ ) = − E θ ⎢ 2 ln f θ (X 1) ⎥ = − ⎜ 2 − 2 ⎟ = 2 ⇒ I (θ ) = 2 θ ⎠ θ θ ⎝θ ⎣ ∂θ ⎦
θ2 n
=
1 n θ2
= CRL B 1 nθ 2
1 1 > 2 = CRLB 2 (n − 2)θ nθ
n
= ) T = X is UMV UE of θ ⇒V (T
) ( −1 θ = ⇒ CRLB
2
=
θ2
= ) g 1(θ ) = θ ⇒ g 1′(θ ) = 1 ⇒ CRLBاﻟﻒ
2
2
n θ
= ) ⇒V (T
1
θ
−1 2
θ
= ) ⇒ g 2′ (θ
1
θ
= ) ) g 2 (θب
n −1 is UMVUE of ∑X i
= T
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
56
ﻳﻚ ﺳﻮال ﻛﻪ در ﻣﻮرد ﻧﺎﻣﺴﺎوي ﻛﺮاﻣﺮ – راﺋﻮ ﻣﻄﺮح اﺳﺖ اﻳﻦ اﺳﺖ ﻛﻪ ﭼﻪ ﻣﻮﻗﻊ ﻧﺎﻣﺴﺎوي ﺑـﻪ ﻣـﺴﺎوي ﺗﺒﺪﻳﻞ ﻣﻲﺷﻮد و ﻳﺎ ﺑﻪ ﻋﺒﺎرﺗﻲ ﺑﺮاي ﭼـﻪ ﺑﺮآوردﮔﺮﻫـﺎي ﻧـﺎارﻳﺒﻲ وارﻳـﺎﻧﺲ ﺑﺮآوردﮔـﺮ ﺑـﺎ CRLBﺑﺮاﺑـﺮ ﻣﻲﺷﻮد. ﻗﻀﻴﻪ :2-5ﻓﺮض ﻛﻨﻴﺪ ﺷﺮاﻳﻂ ﻧﻈﻢ ﺑﺮﻗﺮار ﺑﺎﺷﺪ و Tﺑﺮآوردﮔﺮي ﺑﺎﺷﺪ ﻛـﻪ . V θ (T ) < ∞, ∀θ ∈ Θ در اﻳﻦ ﺻﻮرت V θ (T ) = CRLBاﮔﺮ و ﻓﻘﻂ اﮔﺮ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ) pθ (xﻣﺘﻌﻠﻖ ﺑﻪ ﺧـﺎﻧﻮاده ﻧﻤـﺎﻳﻲ ﻳـﻚ ﭘﺎراﻣﺘﺮي زﻳﺮ ﺑﺎﺷﺪ. ) pθ (x ) = e c (θ )T ( x )−B (θ ) h (x ) B ′(θ در اﻳــﻦ ﺣﺎﻟــﺖ ) c ′(θ
= ]) g (θ ) = E θ [T (Xو ) I (θ ) = c ′(θ ) g ′(θﻣــﻲﺑﺎﺷــﺪ) .ﻳﻌﻨــﻲ ﺗﻨﻬــﺎ در
ﺧﺎﻧﻮادهﻫﺎي ﻧﻤﺎﻳﻲ ﺑﻔﺮم ﻓﻮق و ﺗﻨﻬﺎ ﺑﺮاي ﺗﻮاﺑﻊ ﭘﺎراﻣﺘﺮي ﺑﻔﺮم ﻓﻮق وارﻳﺎﻧﺲ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ) g (θﺑـﺎ CRLBﺑﺮاﺑﺮ ﻣﻲﺷﻮد(. اﺛﺒﺎت: ⎞ )⎟ =1 ⎠
∂ ln f θ (X ),T (X ⎝ ∂θ
⎜⎛ ⇔ ρ 2ﺗﺴﺎوي در ﻧﺎﻣﺴﺎوي ﻛﺮاﻣﺮ – راﺋﻮ ﺑﺮﻗﺮار اﺳﺖ
∂ ) ln f θ (X ) = a (θ )T (X ) + b (θ ∂θ
⇔
⇔ ln f θ (X ) = T (X ) ∫ a (θ )d θ + ∫ b (θ )d θ ) = T (X )c (θ ) − B (θ ) + R (X ) ⇔ f θ (X ) = e c (θ )T ( X )−B (θ )+ R ( X ) ⇔ f θ (x ) = e c (θ )T ( X )−B (θ ) h (X ) B ′(θ در اﻳﻦ ﺧﺎﻧﻮاده ) c ′(θ
= ) ) g (θ ) = E θ (T (Xو ) c ′′(θ )B ′(θ ) − B ′′(θ )c ′(θ ) c ′(θ
I (θ ) = −E [c ′′(θ )T (X ) − B ′′(θ )] = −
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
57
⎡ B ′(θ ) ⎤′ ⎢= ) ⎥ c ′(θ ) = g ′(θ )c ′(θ ′ θ C ( ) ⎣ ⎦
■
ﻣﺜﺎل :3-5ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ ﺗﻨﻬﺎ ﺗﻮزﻳﻊ ﮔﺴﺴﺘﻪاي ﻛﻪ داراي ﻣﻴﺎﻧﮕﻴﻦ و وارﻳﺎﻧﺲ ﻳﻜـﺴﺎن اﺳـﺖ و ) V θ (X
در آن ﺑﺎ CRLBﺑﺮاﺑﺮ ﻣﻲﺷﻮد ﺗﻮزﻳﻊ ﭘﻮاﺳﻮن اﺳﺖ. g (θ ) = E θ (X ) =V θ (X ) = θ (θ ′)2 1 1 1 = = = ) I X (θ ) I X (θ ) g ′(θ )c ′(θ ) c ′(θ )*(
) ⇒ c (θ ) = ln θ ⇒ pθ (x ) = e (ln θ ) x −B (θ ) h (x ) + B ′(θ ﻛﻪ در آن )*( از ﻗﻀﻴﻪ 2-5ﺑﺪﺳﺖ ﻣﻲآﻳﺪ .اﻣﺎ 1θ
B (θ ) = θو در ﻧﺘﻴﺠﻪ ! h (x ) = xﭘﺲ
θ x e −θ !x
1
θ
)*(
= V θ ( X ) = CRLB ⇔ θ
= ) ⇒ c ′(θ
= ) θ = g (θ ) = E θ ( Xﭘﺲ B ′(θ ) = 1ﻳـﺎ
= ) pθ (x
■
ﻗﻀﻴﻪ :3-5اﮔﺮ ) θ = h (ζو hﻣﺸﺘﻖ ﭘﺬﻳﺮ ﺑﺎﺷﺪ آن ﮔـﺎه ]) I * (ζ ) = I [ h (ζ )][ h ′(ζاﻣـﺎ CRLB 2
ﺑﺮاي وارﻳﺎﻧﺲ ﺑﺮآوردﮔﺮﻫﺎي θو ζﻳﻜـﻲ اﺳـﺖ) .ﻳﻌﻨـﻲ CRLBﺑـﺎ ﺗﺒـﺪﻳﻼت روي ﭘﺎراﻣﺘﺮﻫـﺎ ﺗﻐﻴﻴـﺮ ﻧﻤﻲﻛﻨﺪ(. 2
اﺛﺒﺎت:
2
⎤ ∂ ⎡ ⎤ ∂θ ⎥ ) ⎥ = E ⎢ ln f θ (X ). ⎦ ∂ζ ⎦ ⎣ ∂ζ 2 ⎤ ∂θ ⎤⎦ ) ) ⎥ [ ]2 = I (θ ) ⎣⎡ h ′ (ζ ⎦ ∂ζ 2
∂ ⎡ I (ζ ) = E ⎢ ln f ζ ( X ⎣ ∂ζ ∂ ⎡ = E ⎢ ln f θ (X ⎣ ∂θ
∂ ∂ ∂θ ) = g ′(θ )h ′(ζ = ] E [T ] E [T ∂ζ ∂θ ∂ζ
■
θ
2 2 2 ] ) g ′(ζ ) ] [ g ′(θ )h ′(ζ ) ] [ g ′(θ [ = = = = CRLB
) I (θ
I (θ )[h ′(ζ )]2
) I (ζ
⇒ CRLB ζ
ﻣﺜـــﺎل :4-5ﻓـــﺮض ﻛﻨﻴـــﺪ Xﻣﺘﻌﻠـــﻖ ﺑـــﻪ ﻳـــﻚ ﺧـــﺎﻧﻮاده ﻧﻤـــﺎﻳﻲ ﺑـــﺎ ﺗـــﺎﺑﻊ ﭼﮕـــﺎﻟﻲ ) pθ (x ) = e C (θ )T ( x )−B (θ ) h (xﺑﺎﺷﺪ و ﻓﺮض ﻛﻨﻴﺪ ]) g (θ ) = E θ [T (Xدر اﻳـﻦ ﺻـﻮرت ﻧـﺸﺎن 1 دﻫﻴﺪ ﻛﻪ ) V ar (T
= ]) . I [ g (θ
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
ﺣﻞ:
2 ⎤ ) ) ⎥V θ [c ′(θ )T (X ) − B ′(θ ) ] = [c ′(θ ) ] V θ (T ⎦
58
∂ ⎡ I (θ ) =V θ ⎢ ln pθ ( X ⎣ ∂θ
2
⎤ ) ⎡ c ′(θ 1 = ) V θ (T ⎢= ⎥ ) V θ (T ⎦ ) ⎣ g ′(θ
) I (θ
[ g ′(θ )]2
= )) I ( g (θ
⎛ ⎞ ) B ′′(θ ) − c ′′(θ ) g (θ ) g ′(θ = = ) ⎜ Since V θ (T ⎟ 2 ⎠ ) c ′(θ ′ c [ ( ]) θ ⎝
ﺑﺨﺶ :6ﻧﺎﻣﺴﺎوي اﻃﻼع )ﻛﺮاﻣﺮ -راﺋﻮ( در ﺣﺎﻟﺖ ﭼﻨﺪ ﭘﺎراﻣﺘﺮي در اﻳﻦ ﻗﺴﻤﺖ ﻓﺮض ﻣـﻲﻛﻨـﻴﻢ θ = (θ1,… ,θ k )′ﺑﺎﺷـﺪ و ﺷـﺮاﻳﻂ ﻧﻈـﻢ را ﺑـﻪ ﺻـﻮرت زﻳـﺮ در ﻧﻈـﺮ ﻣﻲﮔﻴﺮﻳﻢ: اﻟﻒ Θ -ﻳﻚ ﮔﻮي ﺑﺎز در ﻓﻀﺎي R kﺑﺎﺷﺪ. Θ ⊆ R k ، ب -ﺗﻮزﻳﻊﻫﺎي Pθداراي ﺗﻜﻴﻪ ﮔﺎه ﻳﻜﺴﺎن ﺑﺎﺷـﻨﺪ و ﺑﻨـﺎﺑﺮاﻳﻦ } S X* = {x | pθ (x ) > 0ﺑـﻪ θﺑـﺴﺘﮕﻲ ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ. ∂ جf θ ( x ) - ∂θi
ﺑﺮاي ﻫﺮ i = 1, 2,..., kو ﺑﺮاي ﺗﻤﺎم θ ∈ Θﻣﻮﺟﻮد ﺑﺎﺷﺪ.
∂ ∂ ∫ = ) f θ (x )d μ (x دf θ (x )d μ ( x ) - ∫ ∂θi ∂θi ∂ ﻫـln f θ (x ), i = 1, 2,..., k - ∂θi
∀ i = 1, 2,..., k
ﻣﺴﺘﻘﻞ ﺧﻄﻲ ﺑﺎﺷﻨﺪ.
و – ﺑﺮاي ﻫﺮ ﺑﺮآوردﮔﺮ Tﭘﺎراﻣﺘﺮ ) g (θداﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ ∂ ∂ ∂ = ]) E θ [T (X ) T (x )f θ (x )d μ (x ) = ∫T (x ) f θ (x )d μ ( x ∫ ∂θi ∂θi ∂θi
∀ i = 1, 2,..., k
ﺗﻌﺮﻳﻒ :1-6ﻣﺎﺗﺮﻳﺲ )) I (θ ) = (I ij (θﻛﻪ در آن k ×k
⎞ ∂ ∂ [)⎟ = E ) ln f θ (X ]) ln f θ ( X ⎟ ∂ ∂ θ θ j i ⎠
∂ ⎛ ∂ ln f θ (X ), ln f θ (X ⎜ I ij (θ ) = Cov ⎜ ∂θi ∂ θ j ⎝
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
59
را ﻣﺎﺗﺮﻳﺲ اﻃﻼع ﻓﻴﺸﺮ θﮔﻮﻳﻨﺪ .ﻣﻲﺗﻮان ﻧﺸﺎن داد ﻛﻪ اﮔﺮ ﺷﺮط )ﻫـ( ﺑﺮﻗﺮار ﺑﺎﺷﺪ آﻧﮕﺎه ﻣـﺎﺗﺮﻳﺲ ) I (θ n ⎛ ⎞ ≤ 0 V ( ⎜ ﻣﻌﻴﻦ ﻣﺜﺒﺖ اﺳﺖ )زﻳﺮا ﻣﺎﺗﺮﻳﺲ وارﻳﺎﻧﺲ ﻛﻮارﻳﺎﻧﺲ ﻣﻌﻴﻦ ﻧﺎﻣﻨﻔﻲ اﺳـﺖ ⎟ ∑ ai X i ) = a′Σa i =1 ⎝ ⎠
و در ﺻﻮرﺗﻲ ﻣﻌﻴﻦ ﻣﺜﺒﺖ اﺳﺖ ﻛﻪ ﻣﺘﻐﻴﺮﻫﺎي ﺗﺼﺎدﻓﻲ ﺑﺮدار ﺗـﺼﺎدﻓﻲ ﻣﺮﺑﻮﻃـﻪ واﺑـﺴﺘﻪ ﺧﻄـﻲ ﻧﺒﺎﺷـﻨﺪ(. ﻫﻤﭽﻨﻴﻦ اﮔﺮ در ﺷﺮاﻳﻂ )ج( و )د( ﺑﺘﻮان ﻣﺸﺘﻖ ﻣﺮﺗﺒـﻪ اول را ﺑـﺎ ﻣـﺸﺘﻖ ﻣﺮﺗﺒـﻪ دوم ﻋـﻮض ﻛـﺮد ،آﻧﮕـﺎه ⎤ ⎥) ⎥⎦
ﻣﻲﺗﻮان ﻧﺸﺎن داد ﻛﻪ
⎡ ∂2 ln f θ (X ⎢ I ij (θ ) = −E θ θ ∂ ∂ ⎣⎢ i j
ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ اﮔﺮ ﺗﻐﻴﻴﺮ ﭘﺎراﻣﺘﺮ زﻳﺮ را داﺷﺘﻪ ﺑﺎﺷﻴﻢ
θi = hi (ζ 1, ζ 2 ,..., ζ k ) i = 1, 2,..., kو
⎤ ⎡ ∂θi ﻗﺮاردﻫﻴﻢ ⎥ ⎢⎣ ∂ζ j ⎥⎦ ij
⎢ = J k ×kآﻧﮕﺎه ∂ ⎡ ⎤ ∂ ⎢ I ij* (ζ ) = E ) ln pθ (ζ ) (X ⎥ ) ln pθ (ζ ) (X ∂ζ j ⎦⎥ ⎣⎢ ∂ζ i ⎤ ∂θ ∂θ )⎥ r . ⎦ ∂ζ i ∂ζ j
k k ∂ ⎡ ∂ ) ln pθ (X ln pθ (X ⎢ = ∑∑ E ∂θ ⎣ ∂θ r r =1 =1
⇒ I * (ζ ) = JI (θ )J ′
ﻣﺜﺎل :1-6ﻓﺮض ﻛﻨﻴﺪ Xداراي ﭼﮕﺎﻟﻲ از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ kﭘﺎراﻣﺘﺮي ﺑﻔﺮم زﻳﺮ ﺑﺎﺷﺪ k ∑ ⎡ ⎤ ) c (θ )T j ( x ) − B (θ ⎢ j =1 j ⎥ pθ (x ) = ⎢e ) ⎥ h (x ⎢ ⎥ ⎣ ⎦
و ﻗﺮار دﻫﻴﻢ )) τ i = E (T i (X
i = 1, 2,..., kدر اﻳﻦ ﺻﻮرت ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ I (τ ) = C −1ﻛﻪ C
ﻣﺎﺗﺮﻳﺲ وارﻳﺎﻧﺲ ﻛﻮارﻳﺎﻧﺲ ) (T1,...,T kاﺳﺖ. ﺣﻞ :اﮔﺮ ﺗﻐﻴﻴﺮ ﭘﺎراﻣﺘﺮ η j = c j (θ ), j = 1,..., kرا ﺑﺪﻫﻴﻢ آﻧﮕﺎه ﺗﻮزﻳﻊ ﺑﻪ ﺻﻮرت k ∑ ⎡ ⎤ ) η T ( x ) − A (η ⎥ ⎢ j =1 j j pθ (x ) = ⎢e ) ⎥ h (x ⎢ ⎥ ⎣ ⎦
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
60
در ﻣﻲ آﻳﺪ و در اﻳﻦ ﺣﺎﻟﺖ ∂2 ⎦⎤ ) A (η ) ⇒ I * (η ) = C = ⎣⎡Cov (T j ,T k jk ∂η j ∂ηk ﻫﻤﭽﻨﻴﻦ ) A (η
∂ ∂η j
= ) I *j ,k (η
= )) τ j = E (T j (Xﭘﺲ ﻃﺒﻖ ﻣﻄﺎﻟﺐ ﻓﻮق
⎡ ∂2 ⎤ ⎤ ⎡ ∂τ j = ⎢= J A (η ) ⎥ = ⎣⎡Cov (T i ,T j ) ⎦⎤ = C ⎢ ⎥ i ,j ⎣ ∂ηi ⎦ i , j ⎢⎣ ∂ηi ∂η j ⎦⎥ i , j
و ﺑﻨﺎﺑﺮاﻳﻦ C = I * (η ) = JI (τ )J ′ = CI (τ )C ′ ⇒ I (τ ) = C −1
■
ﺑﺮاي ﺳﺎﺧﺘﻦ ﻧﺎﻣﺴﺎوي اﻃﻼع اﺑﺘﺪا ﻗﻀﻴﻪ زﻳﺮ را ﻣﻲآورﻳﻢ. ﻗﻀﻴﻪ :1-6ﺑﺮاي ﻫﺮ ﺑﺮآوردﮔﺮ Tﺑﺮاي ) g (θو ﻫﺮ ﺗﺎﺑﻊ ) ψ i (x ,θﺑﺎ ﮔﺸﺘﺎور ﻣﺮﺗﺒﻪ دوم ﻣﺘﻨﺎﻫﻲ دارﻳـﻢ ﻛﻪ )(1
V θ (T ) ≥ γ ′C −1γ
ﻛــــــﻪ در آن ) γ ′ = (γ 1,…, γ kو ) C = (C ijو ) γ i = Cov (T ,ψ iو ) .C ij = Cov (ψ i ,ψ j ﻃﺮف راﺳﺖ راﺑﻄﻪ ) (1ﺗﻨﻬﺎ از ﻃﺮﻳﻖ ) g (θ ) = E θ (Tﺑﺴﺘﮕﻲ ﺑﻪ Tدارد ﺑﻪ ﺷﺮط آﻧﻜﻪ ﻫﺮ ﻛـﺪام از ψ i
ﻫﺎ در ﺷﺮط Cov (U ,ψ i ) = 0ﺑﺮاي ﻫﺮ U ∈ Δ0ﺻﺪق ﻛﻨﻨﺪ. اﺛﺒﺎت :ﺑﺮاي ﻫﺮ ﺛﺎﺑﺖ a1, a2 ,… , akدارﻳﻢ ﻛﻪ 2
k k ⎡ ⎤ ) ⎢Cov (T , ∑ aiψ i ) ⎥ ≤V (T )V (∑ aiψ i i =1 i =1 ⎣ ⎦ 2
k ⎡ ⎤ Cov ( T , a ψ ) ⎢ ⎥ ∑i i i =1 ⎣ ⎦ ≥ ) ⇒V (T k ) V (∑ aiψ i i =1
k
اﻣﺎ
k
k
Cov (T , ∑ aiψ i ) = ∑ ai Cov (T ,ψ i ) = ∑ ai γ i = a′γ i =1
i =1
i =1
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
61
k
V (∑ aiψ i ) =V (a′ψ ) = a′V (ψ )a = a′Ca i =1
2
ﺑﺎ اﺳﺘﻔﺎده از ﻧﺎﻣﺴﺎوي ﻛﺸﻲ– ﺷﻮارﺗﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ ) ⎣⎡a′γ ⎦⎤ ≤ (a′Ca )(γ ′C −1γ ), ∀a ≠ 0ﻛـﻪ در آن C
ﻣﻌﻴﻦ ﻣﺜﺒﺖ اﺳﺖ ( دارﻳﻢ ﻛﻪ 2
⎤ ⎡a′γ ∀a ≠ 0 ⇒V (T ) ≥ max ⎣ ⎦ = γ ′C −1γ a ≠0 a′Ca
2
⎤ ⎡a′γ ⎦ ⎣ ≥ ) V (T a′Ca
∴V (T ) ≥ γ ′C −1γ
■
ﻗﻀﻴﻪ :2-6ﻓﺮض ﻛﻨﻴﺪ Xداراي ﺗـﺎﺑﻊ ﭼﮕـﺎﻟﻲ ) f θ (xﺑﺎﺷـﺪ اﮔـﺮ Tﺑﺮآوردﮔـﺮ ﺑـﺮاي ) g (θﺑﺎﺷـﺪ ﻛﻪ ∞ < ) E (T 2و ﺷﺮاﻳﻂ ﻧﻈﻢ ﺑﺮﻗﺮار ﺑﺎﺷﺪ آﻧﮕﺎه )(2
V θ (T ) ≥ α ′I −1(θ )α
∂ ﻛﻪ در آن ) α ′ = (α1,…, α kو ]) E θ [T (X ∂θi
= α iو ﻧﺎﻣﺴﺎوي ﻓﻮق را ﻧﺎﻣﺴﺎوي اﻃﻼع ﮔﻮﻳﻨﺪ.
∂ اﺛﺒﺎت :در ﻗﻀﻴﻪ 1-6ﻗﺮار ﻣﻲ دﻫـﻴﻢ ) ln f θ (x ∂θi
= ) ψ i ( x ,θﺑﻨـﺎﺑﺮاﻳﻦ ﻣـﺎﺗﺮﻳﺲ Cﺣﺎﺻـﻞ ﺑﻨـﺎﺑﺮ
ﺷﺮط ﻧﻈﻢ )ﻫـ( ﻣﻌﻴﻦ ﻣﺜﺒﺖ اﺳﺖ و ﻧﺘﻴﺠﻪ ﺑﻪ دﺳﺖ ﻣﻲآﻳﺪ. ∂ ∂ = ) f θ (x )d μ (x E θ (T (X )) = α i ∂θi ∂θi
γ i = E (T ψ i ) = ∫T
■
ﻣﺜﺎل :2-6ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,....X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) N ( μ ,σ 2ﺑﺎﺷﻨﺪ CRLB .ﺑﺮاي وارﻳﺎﻧﺲ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﭘﺎراﻣﺘﺮ E (X 2 ) = μ 2 + σ 2را ﺑﺪﺳﺖ آورﻳﺪ. n 1 n ln f θ (X ) = − ln(2πσ 2 ) − 2 ∑ (x i − μ )2 2 2σ i =1
ﺣﻞ:
1 n ∂ ) ln f θ (x ) = 2 ∑ (x i − μ ∂μ σ i =1
∂2 n ln f θ (x ) = 2 2 σ ∂μ
∑ ( x i − μ )2 ∂2 1 ) ln f θ (x ) = − 4 ∑ (x i − μ 2 ∂μ∂σ σ
2
) ∑ (x i − μ
1 4
2σ
1
σ6
+
−
n 2
2σ
n 2σ 4
ln f θ (x ) = −
= ) ln f θ (x
∂ 2 2
∂σ
∂
∂ (σ 2 )2
www.riazisara.ir
ﻓﺼﻞ دوم :ﻧﺎارﻳﺒﻲ
⎤ ⎥ 0 ⎥ ⎥ n ⎦⎥ 2σ 4
62
⎡n ⎢σ 2 ⎢ = ) ∴ I ( μ ,σ 2 ⎢ 0 ⎣⎢
⎡σ 2 ⎤ ⎥0 ⎢ 2 2 4 ⎤ ⎡2μ ⎥ ⎢ ⎥ = 2μ σ + 2σ ⇒ CRLB = α ′I −1α ′ = [2μ 1] ⎢ n n n ⎦ ⎢ 2σ 4 ⎥ ⎣1 ⎢0 ⎥ ⎦ n ⎣
)■ α ′ = (2μ ,1
ﺗﻮﺟﻪ :اﮔﺮ ) I ii (θاﻃﻼع ﻓﻴﺸﺮ در ﺣﺎﻟﺘﻲ ﺑﺎﺷﺪ ﻛﻪ θ iﻧﺎﻣﻌﻠﻮم و ﻣﺎﺑﻘﻲ اﻋﻀﺎي θﺑﺠﺰ θ iﻣﻌﻠﻮم ﺑﺎﺷﻨﺪ Tآﻧﮕﺎه ⎦⎤ ) I ii −1(θ ) ≤ ⎡⎣ I −1(θو در ﻧﺘﻴﺠﻪ ii
2
⎤ ) ⎡ ∂g (θ 2 ⎥ ⎢ ∂θ ⎤ ) ⎡ ∂g (θ −1 ⎦ i ⎣ ⎢≤ ⎥ ⎡⎣ I (θ ) ⎤⎦ ii ) I ii (θ ⎦ ⎣ ∂θi
ﻳﻌﻨﻲ اﻳﻨﻜﻪ ﺗﻌﺮﻳﻒ اﻃﻼع ﻓﻴﺸﺮ ﭼﻨﺪ ﭘﺎراﻣﺘﺮي و ﻧﺎﻣﺴﺎوي اﻃﻼع ﭼﻨﺪﭘﺎراﻣﺘﺮي ﺑﺎﻋﺚ ﻣﻲﺷﻮد ﻛﻪ CRLB )در ﻳﻚ ﭘﺎراﻣﺘﺮي( ﺗﻴﺰﺗﺮ 1ﺷﻮد .ﺑﺮاي رﺳﻴﺪن ﺑﻪ اﻳﻦ ﻧﺎﻣﺴﺎوي ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ اﮔﺮ در ﻗﻀﻴﻪ 1-6ﻗﺮار دﻫﻴﻢ ) a′ = (0,....,0,1,0,.....,0آﻧﮕﺎه ) ⎧ ∂g (θ k =i ⎪ , α k = ⎨ ∂θi ⎪0 k ≠i ⎩
a′α ≤ α ′I −1(θ )α α ′I (θ )α
2 ]) Cov (T ,ψ i [ = =
) V (ψ i
CRLB
2
⎤ ) ⎡ ∂g (θ 2 ⎥ ⎢ ∂θ ⎤ ) ⎡ ∂g (θ −1 −1 −1 ⎣ ⎦ i ⇒ ⎢≤ ⎥ ⎡⎣ I (θ ) ⎤⎦ ii ⇒ I ii (θ ) ≤ ⎡⎣ I (θ ) ⎤⎦ ii ) I ii (θ ⎦ ⎣ ∂θi ﻫﻤﭽﻨﻴﻦ ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ اﮔﺮ ﭘﺎراﻣﺘﺮﻫﺎ ﺑﺮ ﻫﻢ ﻣﺘﻌﺎﻣﺪ ﺑﺎﺷﻨﺪ آﻧﮕﺎه ∀i ≠ j
I ij (θ ) = 0و در اﻳﻦ
ﺻﻮرت ﻧﺎﻣﺴﺎوي ﻓﻮق ﺑﻪ ﺗﺴﺎوي ﺗﺒﺪﻳﻞ ﻣﻲﺷﻮد .ﻣﺜﺎل 2-6اﻳﻦ ﺣﺎﻟﺖ را ﻧﺸﺎن ﻣﻲدﻫﺪ.
Sharp
١
٦٣
داﻧﻠﻮد از ﺳﺎﻳﺖ رﻳﺎﺿﻲ ﺳﺮا
www.riazisara.ir
ﭘﺎﻳﺎﻳﻲ
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
64
ﺑﺨﺶ :1ﻣﻔﻬﻮم ﭘﺎﻳﺎﺋﻲ 1و ﻛﻠﻴﺎت در ﻓﺼﻞ ﻗﺒﻞ ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎ را ﻣﺤﺪود ﺑﻪ ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳﺐ ﻛﺮدﻳﻢ و در اﻳﻦ ﻛﻼس ﺑﻬﺘﺮﻳﻦ ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳﺐ را ﭘﻴﺪا ﻛﺮدﻳﻢ .در اﻳﻦ ﻗﺴﻤﺖ ﻣﻲﺧﻮاﻫﻴﻢ ﺧﻮد را ﻣﺤﺪود ﺑﻪ ﻛﻼس دﻳﮕﺮي از ﺑﺮآوردﮔﺮﻫﺎ ،ﻳﻌﻨﻲ ﺑﺮآوردﮔﺮﻫﺎي ﭘﺎﻳﺎ ﻛﻨﻴﻢ و در اﻳﻦ ﻛﻼس ﺑﻬﺘﺮﻳﻦ ﺑﺮآوردﮔﺮ ﭘﺎﻳﺎ را ﭘﻴﺪا ﻛﻨﻴﻢ. ﺑﺮاي ﭘﻲ ﺑﺮدن ﺑﻪ ﻣﻔﻬﻮم ﭘﺎﻳﺎﺋﻲ ﺑﻪ ﻣﺜﺎل زﻳﺮ ﺗﻮﺟﻪ ﻛﻨﻴﺪ. ﻣﺜﺎل :1-1ﻓﺮض ﻛﻨﻴﺪ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ Xﻃﻮل ﻋﻤﺮ ﻳﻚ ﻗﻄﻌﻪ ﺑﺮﺣﺴﺐ ﺳﺎﻋﺖ ﺑﺎﺷﺪ ﻛﻪ داراي ﺗﻮزﻳﻊ −x
1
θ ﻧﻤﺎﻳﻲ ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ زﻳﺮ اﺳﺖ: x > 0, θ > 0 θ δ ﻣﻲﺧﻮاﻫﻴﻢ ﺑﺮاﺳﺎس ﻳﻚ ﻣﺸﺎﻫﺪه Xﭘﺎراﻣﺘﺮ θرا ﺑﺮاﺳﺎس ﺗﺎﺑﻊ زﻳﺎن L (θ , δ ) = (1 − )2ﺑﺮآورد θ ﻛﻨﻴﻢ .ﻓﺮض ﻛﻨﻴﺪ ) δ (xﻳﻚ ﺑﺮآورد ﭘﺎراﻣﺘﺮ θﺑﺮاﺳﺎس ) Xﻃﻮل ﻋﻤﺮ ﺑﺮﺣﺴﺐ ﺳﺎﻋﺖ( ﺑﺎﺷﺪ.
e
= ) f θ (x
ﺣﺎل اﮔﺮ ﺷﺨﺺ دﻳﮕﺮي ﻃﻮل ﻋﻤﺮ اﻳﻦ ﻗﻄﻌﻪ را ﺑﺮ ﺣﺴﺐ دﻗﻴﻘﻪ اﻧﺪازهﮔﻴﺮي ﻛﻨﺪ و در اﻳﻦ ﺣﺎﻟﺖ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ Yرا ﻃﻮل ﻋﻤﺮ ﻗﻄﻌﻪ ﺑﺮﺣﺴﺐ دﻗﻴﻘﻪ در ﻧﻈﺮ ﺑﮕﻴﺮد در اﻳﻦ ﺻﻮرت ﺑﺎﻳﺴﺘﻲ Y = 60Xﺑﺎﺷﺪ. اﮔﺮ ﻗﺮار دﻫﻴﻢ η = 60θدر اﻳﻦ ﺻﻮرت ﺑﻪ راﺣﺘﻲ دﻳﺪه ﻣﻲﺷﻮد ﻛﻪ Yداراي ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ زﻳﺮ اﺳﺖ: y > 0,η > 0
η
−y
1
y
⇒ f η (y ) = e
η
1 y 1 − 60θ = ) ( f η (y ) = f θ e 60 60 60θ
ﺣﺎل اﮔﺮ در اﻳﻦ اﻧﺪازهﮔﻴﺮي ﺟﺪﻳﺪ ﺑﺮآورد * δرا ﺑﺮاي ﭘﺎراﻣﺘﺮ ηﺑﺪﺳﺖ آورﻳﻢ اﻧﺘﻈﺎر دارﻳﻢ ﻛﻪ ) δ * ( y ) = 60δ (X
)(1
ﺑﺎﺷﺪ) زﻳﺮا ﻣﻨﻄﻘﻲ ﺑﻪ ﻧﻈﺮ ﻣﻲرﺳﺪ ﻛﻪ ﺑﺮآوردﮔﺮﻫﺎي ﻳﻜﺴﺎﻧﻲ را ﺻﺮف ﻧﻈﺮ از ﻧﻮع اﻧﺪازهﮔﻴﺮي ﺑﻜﺎر ﺑﺒﺮﻳﻢ (.در اﻳﻦ ﺣﺎﻟﺖ: δ* 2 60δ 2 δ L (η , δ ) = (1 − ) = (1 − ) ) = (1 − )2 = L (θ , δ η θ 60θ *
ﺑﻨﺎﺑﺮاﻳﻦ ﺳﺎﺧﺘﺎر ﻛﻠﻲ ﻣﺴﺌﻠﻪ ﺑﺎ اﻧﺪازهﮔﻴﺮي ﺑﺮﺣﺴﺐ دﻗﻴﻘﻪ )ﻳﻌﻨﻲ ﻛﻼس ﺗﻮاﺑﻊ ﭼﮕﺎﻟﻲ ،ﻛﻼس ﻓﻀﺎي ﭘﺎراﻣﺘﺮي و ﻛﻼس ﺗﻮاﺑﻊ زﻳﺎن( دﻗﻴﻘﺎ ﺑﺎ ﺳﺎﺧﺘﺎر ﻛﻠﻲ ﻣﺴﺌﻠﻪ ﺑﺎ اﻧﺪازهﮔﻴﺮي ﺑﺮﺣﺴﺐ ﺳﺎﻋﺖ ﻳﻜﻲ ﻣﻲﺷﻮد.
Inrariance
١
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
65
در ﻧﺘﻴﺠﻪ ﻣﻨﻄﻘﻲ ﺑﻪ ﻧﻈﺮ ﻣﻲرﺳﺪ ﻛﻪ در اﻳﻦ ﻣﺴﺌﻠﻪ ﺑﺮآوردﻫﺎﻳﻲ را ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار دﻫﻴﻢ ﻛﻪ ﺗﺤﺖ اﻳﻦ دو ﺳﺎﺧﺘﺎر ﻳﻜﺴﺎن ﺑﺎﺷﻨﺪ ﻳﻌﻨﻲ: ) δ (y ) = δ *(y
)(2 ﺑﻨﺎﺑﺮاﻳﻦ از رواﺑﻂ ) (1و ) (2دارﻳﻢ ﻛﻪ:
) δ (60x ) = 60δ (x
)(3
ﺑﺮآوردﮔﺮ δﻛﻪ در ﺷﺮط ) (3ﺻﺪق ﻣﻲﻛﻨﺪ را ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ 1ﻣﻲﻧﺎﻣﻨﺪ و ﻫﻤﺎﻧﻄﻮر ﻛﻪ دﻳﺪه ﻣﻲﺷﻮد ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢ ﭘﺎﻳﺎ ﻳﻚ ﻗﺴﻤﺖ ﻛﻮﭼﻚ از ﻛﻼس ﻛﻠﻴﻪ ﺑﺮآوردﮔﺮﻫﺎ اﺳﺖ. ﻣﺴﺌﻠﻪ ﻓﻮق ﺑﺮاي ﺣﺎﻟﺖ ﻛﻠﻲﺗﺮ ﻳﻌﻨﻲ Y = cX , c > 0ﻧﻴﺰ ﺑﺮﻗﺮار اﺳﺖ و در اﻳﻦ ﺣﺎﻟﺖ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ ﺑﻪ ﺻﻮرت زﻳﺮ اﺳﺖ: )(4
∀c > 0
) δ (cx ) = c δ (x
1 ﭼﻮن اﻳﻦ راﺑﻄﻪ ﺑﺮاي ﻫﺮ xﺑﺮﻗﺮار اﺳﺖ ﭘﺲ ﺑﺮاي c
= xﻧﻴﺰ ﺑﺮﻗﺮار اﺳﺖ و در ﻧﺘﻴﺠﻪ از راﺑﻄﻪ )(4
دارﻳﻢ ﻛﻪ 1 δ (x ) ⇒ δ (x ) = δ (1)x ⇒ δ (x ) = kx x
= )δ (1
ﺑﻨﺎﺑﺮاﻳﻦ در اﻳﻦ ﺣﺎﻟﺖ ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎ ﻋﺒﺎرت اﺳﺖ از: }D E = {δ ∈ D | δ (x ) = kx , ∀x , ∀k > 0 در اﻳﻦ ﻓﺼﻞ ﻣﻲﺧﻮاﻫﻴﻢ در ﺑﻴﻦ ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎ ﺑﺮاي ﻳﻚ ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل آن ﺑﺮآوردﮔﺮي را ﭘﻴﺪا ﻛﻨﻴﻢ ﻛﻪ داراي ﻛﻤﺘﺮﻳﻦ ﻣﺨﺎﻃﺮه 2ﺑﺎﺷﺪ ،ﻛﻪ ﺑﻪ آن ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ ﺑﺎ ﻛﻤﺘﺮﻳﻦ ﻣﺨﺎﻃﺮه ) (MRE3ﮔﻮﻳﻨﺪ. در اﻳﻦ ﻣﺜﺎل دارﻳﻢ ﻛﻪ: δ (X ) 2 ⎤ 1 1 2 ⎡ R (θ , δ ) = E θ ⎢(1 − ⎤ ] ) ) ⎥ = 2 E θ ⎡⎣(kX − θ )2 ⎤⎦ = 2 ⎡V (kX ) + [ E (kX − θ ⎦ θ ⎣ θ ⎣ ⎦ θ 1 = 2 ⎡⎣ k 2θ 2 + ( k − 1)2θ 2 ⎤⎦ = k 2 + (k − 1)2 = 2k 2 − 2k + 1 θ ١
Equivariance Risk ٣ Minimom Risk Equivariant Estimator ٢
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
66
ﺑﻨﺎﺑﺮاﻳﻦ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﺛﺎﺑﺖ اﺳﺖ و ﺑﻪ θﺑﺴﺘﮕﻲ ﻧﺪارد .در ﻧﺘﻴﺠﻪ ﺑﺮآوردﮔﺮ MREﺑﺎ ﻣﻴﻨﻴﻤﻢ ﻛﺮدن ) R (θ , δﻧﺴﺒﺖ ﺑﻪ kﺑﺪﺳﺖ ﻣﻲ آﻳﺪ: ) ∂ 2R (θ , δ = 4 >0 ∂k 2 1 ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ δ * (X ) = Xﺑﺮآوردﮔﺮي ﻫﻢﭘﺎﻳﺎ ﺑﺎ ﻛﻤﺘﺮﻳﻦﻣﺨﺎﻃﺮه اﺳﺖ .ﭘﺲ ﺑﺮآوردﮔﺮ MRE 2 1 ) ∂R (θ , δ = 4k − 2 = 0 ⇒ k = , 2 ∂k
ﭘﺎراﻣﺘﺮ θاﺳﺖ.
■
اﺻﻮل ﭘﺎﻳﺎﺋﻲ: ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﺜﺎل ﺑﺎﻻ ﻣﻲﺗﻮان ﺧﻮد را ﻣﺤﺪود ﺑﻪ ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ﭘﺎﻳﺎ ﻛﻨﻴﻢ .اﻣﺎ ﭘﺎﻳﺎﺋﻲ را ﻣﻲﺗﻮان از دو ﺟﻨﺒﻪ در ﻧﻈﺮ ﮔﺮﻓﺖ.
-1ﭘﺎﻳﺎﺋﻲ اﻧﺪازهﮔﻴﺮي ) 1ﭘﺎﻳﺎﺋﻲ ﻃﺒﻴﻌﻲ ﻳﺎ ﻣﻨﻄﻘﻲ ﻳﺎ ﺗﺎﺑﻌﻲ( اﻳﻦ ﺟﻨﺒﻪ از ﭘﺎﻳﺎﺋﻲ ﻣﻲﮔﻮﻳﺪ ﻛﻪ اﺳﺘﻨﺒﺎط ﻧﺒﺎﻳﺴﺘﻲ ﺑﻪ ﻧﻮع اﻧﺪازهﮔﻴﺮي دادهﻫﺎ ﺑﺴﺘﮕﻲ داﺷﺘﻪ ﺑﺎﺷﺪ. )ﻣﺜﻼ در ﻣﺜﺎل 1-1اﮔﺮ ) δ (Xﺑﺮاي ﺑﺮآورد θﺑﻜﺎر ﺑﺮده ﻣﻲﺷﻮد ﻃﺒﻴﻌﻲ ﺑﻪ ﻧﻈﺮ ﻣﻲرﺳﺪ ﻛﻪ ) δ * (Y ) = cδ (Xﺑﺮاي ﺑﺮآورد η = cθﺑﻜﺎر ﺑﺮده ﺷﻮد(.
-2ﭘﺎﻳﺎﺋﻲ ﺳﺎﺧﺘﺎري )2ﻳﺎ رﻳﺎﺿﻲ( اﻳﻦ ﺟﻨﺒﻪ از ﭘﺎﻳﺎﺋﻲ ﻣﻲﮔﻮﻳﺪ ﻛﻪ اﮔﺮ دو ﻣﺴﺌﻠﻪ اﺳﺘﻨﺒﺎﻃﻲ داراي ﻳﻚ ﺳﺎﺧﺘﺎر از ﻟﺤﺎظ ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ،ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ و ﺗﺎﺑﻊ زﻳﺎن ﺑﺎﺷﻨﺪ آﻧﮕﺎه ﺑﺎﻳﺴﺘﻲ روش اﺳﺘﻨﺒﺎط ﻳﻜﺴﺎﻧﻲ را در دو ﻣﺴﺌﻠﻪ ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار دﻫﻴﻢ. )ﻣﺜﻼ در ﻣﺜﺎل 1-1ﺑﺮآورد ) δ (Y ) = δ (cXرا ﺑﺮاي ﺑﺮآورد η = cθﺑﻜﺎر ﺑﺒﺮﻳﻢ(. ﺑﺎ ﺗﻠﻔﻴﻖ اﻳﻦ دو ﺟﻨﺒﻪ ﻣﻲﺗﻮان ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎ را ﭘﻴﺪا ﻛﺮد)ﻣﺜﻼ در ﻣﺜﺎل ( δ (cX ) = cδ (X ) 1-1
ﻓﺮﻣﻮل ﺑﻨﺪي و ﺗﻌﺎرﻳﻒ ﭘﺎﻳﺎﻳﻲ ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﻄﺎﻟﺐ ﺑﺎﻻ در ﺣﺎﻟﺖ ﻛﻠﻲ ﻣﺎ ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ ) X = (X 1, X 2 ,..., X nﺑﺎ ﻣﻘﺎدﻳﺮ χو ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ﻳﺎ اﺣﺘﻤﺎل ﺗﻮام ) f θ (x ) = f θ (x 1,..., x nدارﻳﻢ .ﭘﺲ ﺑﻮﺳﻴﻠﻪ ﻳﻚ ﺗﺒﺪﻳﻞ ﻳﻚ ﺑﻪ ﻳﻚ و Measurement Invariance Formal Invariance
١ ٢
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
67
ﭘﻮﺷﺎي ) Y = g (Xدادهﻫﺎي Xرا ﺑﻪ دادهﻫﺎي ﺟﺪﻳﺪ Yﺗﺒﺪﻳﻞ ﻣﻲﻛﻨﻴﻢ ﻛﻪ اﻳﻦ ﺗﺒﺪﻳﻼت ﻳﻚ ﮔﺮوه از ﺗﺒﺪﻳﻼت Gرا ﺑﻮﺟﻮد ﻣﻲآورﻧﺪ. ﺗﻌﺮﻳﻒ :1-1ﻳﻚ ﮔﺮوه از ﺗﺒﺪﻳﻼت روي χﻛﻪ آن را ﺑﺎ Gﻧﻤﺎﻳﺶ ﻣﻲدﻫﻴﻢ ﻳﻚ ﻣﺠﻤﻮﻋﻪ ﺗﺒﺪﻳﻼت اﻧﺪازهﭘﺬﻳﺮ ﻳﻚ ﺑﻪ ﻳﻚ و ﭘﻮﺷﺎ روي χاﺳﺖ ﻛﻪ در ﺷﺮاﻳﻂ زﻳﺮ ﺻﺪق ﻣﻲﻛﻨﺪ: (i ) if g1, g 2 ∈ G ⇒ g 1g 2 ∈ G
∃g −1 ∈ G ∋ g −1( g (x )) = x
(ii ) ∀g ∈ G
(iii ) ∃e ∈ G ∋ e (x ) = x
ﻣﺜﺎل :2-1در ﻣﺜﺎل 1-1ﮔﺮوه ﺗﺒﺪﻳﻼت زﻳﺮ را دارﻳﻢ } G = {g c : g c (X ) = cX ,c > 0ﻛﻪ ﺑﻪ آن ﮔﺮوه ﺗﺒﺪﻳﻼت ﺿﺮﺑﻲ ﻳﺎ ﻣﻘﻴﺎﺳﻲ ﮔﻮﻳﻨﺪ .ﺗﻮاﺑﻊ g cﻳﻚ ﺑﻪ ﻳﻚ و ﭘﻮﺷﺎ ﻫﺴﺘﻨﺪ. g c2 g c1 (x ) = g c2 ( g c1 (x )) = g c2 (c1x ) = c2c1x = g c2c1 (x ) ⇒ g c2 g c1 = g c2c1 ∈ g g c −1 = g c −1 ∈ G ,e = g 1 ∈ G
ﺗﻌﺮﻳﻒ :2-1ﻓﺮضﻛﻨﻴﺪ } F = {f θ (x ) : θ ∈ Θﻳﻚ ﺧﺎﻧﻮاده از ﺗﻮزﻳﻊﻫﺎي اﺣﺘﻤﺎل ﺑﺮاي Xﺑﺎﺷﻨﺪ و
Gﻳﻚ ﮔﺮوه از ﺗﺒﺪﻳﻼت روي xﺑﺎﺷﺪ .ﺧﺎﻧﻮاده Fرا ﺗﺤﺖ ﮔﺮوه Gﭘﺎﻳﺎ 1ﮔﻮﻳﻨﺪ اﮔﺮ ﺑﺮاي ﻫﺮ θ ∈ Θ و g ∈Gﻳﻚ θ ′ ∈ Θﻳﻜﺘﺎ وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﺑﻄﻮرﻳﻜﻪ ) Y = g (Xداراي ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ) f θ ′ ( y
ﻣﺘﻌﻠﻖ ﺑﻪ ﺧﺎﻧﻮاده Fﺑﺎﺷﺪ در اﻳﻦ ﺣﺎﻟﺖ θ ′را ﺑﺎ ) g (θﻧﻤﺎﻳﺶ ﻣﻲدﻫﻨﺪ.
■
ﻣﺜﻼ در ﻣﺜﺎل 1-1ﺗﺤﺖ ﮔﺮوه ﺗﺒﺪﻳﻼت } G = {g c : g c (X ) = cX ,c > 0ﺧﺎﻧﻮاده ﺗﻮزﻳﻊ ﻧﻤﺎﻳﻲ ﭘﺎﻳﺎ ﻣﻲﺑﺎﺷﺪ. y >0 η >0
1 −y η )= e 2
Y =cX f η (y →⎯⎯⎯ η =cθ
x >0 θ >0
θ
−x
1
f θ (x ) = e
θ
اﮔﺮ ﻗﺮار دﻫﻴﻢ ) PθX (A ) = Pθ (X ∈ Aآﻧﮕﺎه ﺗﻌﺮﻳﻒ 2-1ﻣﻲﮔﻮﻳﺪ ﻛﻪ ﺧﺎﻧﻮاده Fﺗﺤﺖ ﺗﺒﺪﻳﻼت G ﭘﺎﻳﺎ اﺳﺖ اﮔﺮ ﺑﺮاي ﻫﺮ θ ∈ Θو g ∈Gﻳﻚ g (θ ) ∈ Θﻣﻮﺟﻮد ﺑﺎﺷﺪ ﺑﻄﻮري ﻛﻪ ) Pθg ( X ) = PgX(θ
و ﻳﺎ: invariant
١
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
68
) Pθ ( g (X ) ∈ A ) = Pg (θ ) (X ∈ A
)(5 زﻳﺮا ) f g (θ ) ( g (x ))d μ ( x
∫
)*(
∫
= ) f θ (x )d μ ( x
} {x |g ( x )∈A
= ) Pθg ( X ) (A ) = Pθ ( g (X ) ∈ A
} {x |g ( x )∈A
∫
) f g (θ ) ( y )dv ( y ) = Pg (θ ) (X ∈ A ) = PgX(θ ) (A
) Y =g (X
=
} { y | y ∈A
ﻛﻪ در آن ﺗﺴﺎوي )*( از ﭘﺎﻳﺎﻳﻲ ﺗﻮزﻳﻊ ﻧﺘﻴﺠﻪ ﻣﻲﮔﺮدد .از راﺑﻄﻪ ) (5ﺑﺮاي ﻫﺮ ﺗﺎﺑﻊ اﻧﺘﮕﺮال ﭘﺬﻳﺮ hﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد ﻛﻪ )(6
]) E θ [h ( g (X )] = E g (θ ) [h (X
ﻗﻀﻴﻪ :1-1اﮔﺮ ﺗﻮزﻳﻊﻫﺎي f θ ∈ Fﻣﺠﺰا ﺑﺎﺷﻨﺪ و ﺧﺎﻧﻮاده Fﺗﺤﺖ ﺗﺒﺪﻳﻼت Gﭘﺎﻳﺎ ﺑﺎﺷﺪ آﻧﮕﺎه ﮔﺮوه ﺗﺒﺪﻳﻼت } G = {g : g ∈ Gروي Θﺗﺸﻜﻴﻞ ﻳﻚ ﮔﺮوه از ﺗﺒﺪﻳﻼت را ﻣﻲدﻫﺪ. اﺛﺒﺎت :ﻣﺠﺰا ﺑﻮدن f θﺑﺪﻳﻦ ﻣﻌﻨﻲ اﺳﺖ ﻛﻪ . θ1 ≠ θ2 ⇒ pθX1 ≠ pθX2ﺣﺎل ﺷﺮاﻳﻂ ﮔﺮوه ﺗﺒﺪﻳﻞ ﺑﻮدن Gرا ﺑﺮرﺳﻲ ﻣﻲ ﻛﻨﻴﻢ: ﻳﻚ ﺑﻪ ﻳﻚ اﺳﺖ (i ) g ∈ G ) Let C = g (A ), g (θ1) = g (θ2 ) ⇒ Pg (θ1) (X ∈C ) = Pg (θ2 ) (X ∈C )(5
) ⇒ Pθ1 ( g (X ) ∈C ) = Pθ2 ( g (X ) ∈C )*(
⇒ Pθ1 ( X ∈ g −1(C )) = Pθ2 (X ∈ g −1(C )) ⇒ Pθ1 (X ∈ A ) = Pθ2 (X ∈ A ) ⇒θ1 = θ2
is onto , i .e ., ∀θ ∈ Θ ∃θ * ∈ Θ ∋ g (θ * ) = θ ) ( g (X ) ∈ A
)(5
(ii ) g ∈ G
Pθ ( X ∈ A ) = Pθ ( g −1( g (X )) ∈ A ) = P
) g −1 (θ
) ( X ∈ A ) = Pg (θ * ) (X ∈ A
=P
)) g ( g −1 (θ
)*(
) ⇒ g (θ * ) = θ where θ * = g −1(θ
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
69
(iii ) g1, g 2 ∈ G
⇒ g 2 g1 ∈ G
اﺑﺘﺪا ﻧﺸﺎن ﻣﻲدﻫﻴﻢ ﻛﻪ g 2g1 = g 2 g1 )) ∈ g 2−1(A
)(1 −1 ) ∈ g 2 (A )) = Pg1(θ ) (X
)(1
( X ∈ A ) = Pθ ( g 2 g1(X ) ∈ A ) = Pθ ( g1(X
) 2 g 1 (θ
Pg
)(1
) = Pg1(θ ) ( g 2 (X ) ∈ A )) = Pg 2g1(θ ) (X ∈ A )*(
⇒ g1g 2 = g 2 g1 ∈ G
) (since g 2 g1 ∈ G
∋ g g −1(θ ) = θ −1
اﺑﺘﺪا ﻧﺸﺎن ﻣﻲدﻫﻴﻢ ﻛﻪ = g −1 ) (X ∈ A
∃g −1 ∈ G
(iv ) ∀g ∈ G
g
( g (X ) ∈ A ) = P
)) g ( g −1 (θ
)(1
Pθ (X ∈ A ) = Pθ ( g −1g (X ) ∈ A ) = P
) g −1 (θ
)*(
⇒ g ( g −1(θ )) = θ ⇒ g −1 = g −1
از ﻃﺮﻓﻲ
and g −1 ∈ G
)
⇒ g −1 ∈ G ⇒ g ∈ G
(
gg −1(θ ) = g g −1(θ ) = gg −1(θ ) = e (θ ) = θ
and
⇒ g −1 = g −1 ∈ G
∋ e (θ ) = θ )*(
g ∈G
(v ) ∃e ∈ G
)(1
Pθ (X ∈ A ) = Pθ (e (X ) ∈ A ) = Pe (θ ) (X ∈ A ) ⇒ e (θ ) = θ , e ∈ G
ﻛﻪ در آن ﻛﻠﻴﻪ رواﺑﻂ )*( از ﻣﺠﺰا ﺑﻮدن ﺑﺪﺳﺖ آﻣﺪهاﺳﺖ.
■
ﺑﺮاي ﻣﺜﺎل ،در ﻣﺜﺎل G = {g c | g c (θ ) = cθ ,c > 0} ،1-1ﮔﺮوه ﺗﺒﺪﻳﻼت ﺑﻮﺟﻮد آﻣﺪه ﺗﺤﺖ ﺧﺎﻧﻮاده ﺗﻮزﻳﻊ ﻫﺎي ﭘﺎﻳﺎي ﻧﻤﺎﻳﻲ ،روي ﻓﻀﺎي ﭘﺎراﻣﺘﺮي Θﻣﻲﺑﺎﺷﺪ. ﺗﻌﺮﻳﻒ :3-1ﻓﺮض ﻛﻨﻴﺪ ﺧﺎﻧﻮاده } F = {f θ (x ) : θ ∈ Θﺗﺤﺖ ﮔﺮوه ﺗﺒﺪﻳﻼت Gﭘﺎﻳﺎ ﺑﺎﺷﺪ .در اﻳﻦ
ﺻﻮرت ﺗﺎﺑﻊ زﻳﺎن ) L (θ , δرا ﺗﺤﺖ ﮔﺮوه Gﭘﺎﻳﺎ ﮔﻮﻳﻨﺪ اﮔﺮ ﺑﺮاي ﻫﺮ g ∈ Gو ﻫﺮ δ ∈ D )ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎ( ﻳﻚ δ * ∈ Dﻳﻜﺘﺎ وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﺑﻄﻮري ﻛﻪ ∀θ ∈ Θ
) * L (θ , δ ) = L ( g (θ ), δ
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
70
در اﻳﻦ ﺣﺎﻟﺖ * δرا ﺑﻮﺳﻴﻠﻪ ) g (δﻧﺸﺎن ﻣﻲدﻫﻨﺪ و ﻣﺴﺌﻠﻪ ﻣﻮرد ﻧﻈﺮ را ﺗﺤﺖ ﮔﺮوه ﺗﺒﺪﻳﻼت Gﭘﺎﻳﺎ ■
ﮔﻮﻳﻨﺪ. ﺑﺮاي
ﻣﺜﺎل،
ﻣﺜﺎل
در
1-1
}= {g c | g c (X ) = cX , c > 0
ﺗﺎﺑﻊ
زﻳﺎن
δ θ
L (θ , δ ) = (1 − )2
ﺗﺤﺖ
ﺗﺒﺪﻳﻼت
Gﭘﺎﻳﺎ ﺑﻮد زﻳﺮا
δ cδ 2 ) ) = (1 − )2 = L (θ , δ cθ θ
L ( g (θ ), g (δ ) = L (cθ , c δ ) = (1 −
ﻗﻀﻴﻪ :2-1اﮔﺮ ﺧﺎﻧﻮاده Fﺗﺤﺖ ﺗﺒﺪﻳﻼت Gﭘﺎﻳﺎ ﺑﺎﺷﺪ ،اﻧﮕﺎه ﮔﺮوهﺗﺒﺪﻳﻼت } G = {g : g ∈ G
)ﻳﻌﻨﻲ ﮔﺮوه ﺗﺒﺪﻳﻼت ﺑﻮﺟﻮد آﻣﺪه ﺗﺤﺖ اﻳﻦ ﺧﺎﻧﻮاده روي ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎ( ﺗﺸﻜﻴﻞ ﻳﻚ ﮔﺮوه از ﺗﺒﺪﻳﻼت را ﻣﻲدﻫﻨﺪ. اﺛﺒﺎت :ﺗﻤﺮﻳﻦ )ﻫﻤﺎﻧﻨﺪ ﻗﻀﻴﻪ.(1-1
■
ﺑﺮاي ﻣﺜﺎل ،در ﻣﺜﺎل G = {g c | g c (δ ) = c δ ,c > 0} ،1-1ﮔﺮوه ﺗﺒﺪﻳﻼت ﺑﻮﺟﻮد آﻣﺪه ﺗﺤﺖ ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﭘﺎﻳﺎي ﻧﻤﺎﻳﻲ روي ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي Dﻣﻲ ﺑﺎﺷﺪ.
ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎ
1
در ﻗﺴﻤﺖ ﻗﺒﻞ اﺻﻮل ﭘﺎﻳﺎﻳﻲ را ﺑﻪ ﺻﻮرت زﻳﺮ ﻣﻌﺮﻓﻲ ﻛﺮدﻳﻢ: -1ﭘﺎﻳﺎﺋﻲ اﻧﺪازهﮔﻴﺮي )ﻃﺒﻴﻌﻲ ﻳﺎ ﻣﻨﻄﻘﻲ ﻳﺎ ﺗﺎﺑﻌﻲ( :اﮔﺮ ) δ (xرا ﺑﺮاي ﺑﺮآورد ) h (θﺑﻜﺎر ﻣﻲﺑﺮﻳﻢ ﻃﺒﻴﻌﻲ ﺑﻪ ﻧﻈﺮ ﻣﻲرﺳﺪ ﻛﻪ )) g (δ (Xرا ﺑﺮاي ﺑﺮآورد )) g (h (θﺑﻜﺎر ﺑﺒﺮﻳﻢ. -2ﭘﺎﻳﺎﺋﻲ ﺳﺎﺧﺘﺎري)ﻳﺎ رﻳﺎﺿﻲ( :اﮔﺮ دو ﻣﺴﺌﻠﻪ اﺳﺘﻨﺒﺎﻃﻲ داراي ﻳﻚ ﺳﺎﺧﺘﺎر از ﻟﺤﺎظ ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ،ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ و ﺗﺎﺑﻊ زﻳﺎن ﺑﺎﺷﻨﺪ آﻧﮕﺎه ﺑﺎﻳﺴﺘﻲ روش ﻳﻜﺴﺎﻧﻲ را در دو ﻣﺴﺌﻠﻪ ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار دﻫﻴﻢ .ﻳﻌﻨﻲ )) δ ( g (Xرا ﺑﺮاي ﺑﺮآورد )) g (h (θﺑﻜﺎر ﺑﺒﺮﻳﻢ. ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺗﻌﺎرﻳﻒ ﺑﺎﻻ و اﺻﻮل ﭘﺎﻳﺎﺋﻲ ،ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ را ﺑﺼﻮرت زﻳﺮ ﺗﻌﺮﻳﻒ ﻣﻲﻛﻨﻴﻢ.
Equivariant Estimators
١
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
71
ﺗﻌﺮﻳﻒ :4-1ﻓﺮض ﻛﻨﻴﺪ ﻣﺴﺌﻠﻪ ﻣﻮرد ﻧﻈﺮ ﻣﺎ ﺗﺤﺖ ﮔﺮوه ﺗﺒﺪﻳﻼت Gﭘﺎﻳﺎ ﺑﺎﺷﺪ )ﺗﻌﺎرﻳﻒ2-1و(3-1 ﺑﺮآوردﮔﺮ δرا ﺗﺤﺖ ﮔﺮوه ﺗﺒﺪﻳﻼت Gﻫﻢﭘﺎﻳﺎ ﮔﻮﻳﻨﺪ ﻫﺮﮔﺎه ﺑﺮاي ﻫﺮ g ∈ Gو ﻫﺮ x ∈ χداﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ
)) δ ( g (X )) = g (δ (X
■
ﺑﺮاي ﻣﺜﺎل ،در ﻣﺜﺎل 1-1ﺷﺮط ﻓﻮق ﻣﻌﺎدل اﺳﺖ ﺑﺎ ) . δ (cX ) = cδ (X ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺗﻌﺮﻳﻒ ﻫﻢﭘﺎﻳﺎﻳﻲ اﻳﻦ ﺳﻮال ﻣﻄﺮح ﻣﻲﺷﻮد ﻛﻪ ﺗﺤﺖ ﻳﻚ ﺗﺒﺪﻳﻞ Gﻛﺪاﻣﻴﻚ از ﺗﻮاﺑﻊ ) h (θ
داراي ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ ﻫﺴﺘﻨﺪ .اﮔﺮ در ﺗﻌﺮﻳﻒ G 4-1را ﺑﺎ
Gو χرا ﺑﺎ Θﻋﻮض ﻛﻨﻴﻢ آﻧﮕﺎه
ﻳﻚ ﺗﺎﺑﻊ ) h (θﻃﺒﻖ اﺻﻮل ﭘﺎﻳﺎﻳﻲ داراي ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ اﺳﺖ اﮔﺮ در ﺷﺮط زﻳﺮ ﺻﺪق ﻣﻲﻛﻨﺪ: )) h ( g (θ )) = g (h (θ
ﺑﺮاي ﻣﺜﺎل ،در ﻣﺜﺎل h (θ ) = θ ،1-1در ﺷﺮط ﻓﻮق ﺻﺪق ﻣﻲ ﻛﻨﺪ زﻳﺮا : h ( g (θ )) = h (cθ ) = cθ g (h (θ )) = c (h (θ )) = cθ
اﻣﺎ اﮔﺮ ﺑﺨﻮاﻫﻴﻢ h (θ ) = θ rرا ﺑﺮآورد ﻛﻨﻴﻢ آﻧﮕﺎه ) h (θدر ﺷﺮط ﻓﻮق ﺻﺪق ﻧﻤﻲﻛﻨﺪ زﻳﺮا g (h (θ )) = cθ r
h ( g (θ )) = h (cθ ) = c r θ r
ﺑﻨﺎﺑﺮاﻳﻦ ،در اﻳﻦ ﻣﺜﺎل اﮔﺮ ﺑﺨﻮاﻫﻴﻢ h (θ ) = θ rرا ﺑﺮآورد ﻛﻨﻴﻢ ﺑﺎﻳﺴﺘﻲ از اﺑﺘﺪا ﺧﺎﻧﻮاده Gرا ﺑﻪﺻﻮرﺗﻲ درﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ ﻛﻪ
g (h (θ )) = c r θ rﺑﺎﺷﺪ ﻳﻌﻨﻲ } = {g c | g c (δ ) = c r δ
.G
ﻣﺜﺎل :3-1ﻓﺮض ﻛﻨﻴﺪ ) X ∼ B (n , pﻛﻪ در آن nﻣﻌﻠﻮم و pﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل اﺳﺖ و ﻣﻲﺧﻮاﻫﻴﻢ آن را ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن L ( p , δ ) = (δ − p )2ﺑﺮآورد ﻛﻨﻴﻢ .ﻓﺮض ﻛﻨﻴﺪ ) T (Xﺑﺮآوردﮔﺮ ﭘﺎراﻣﺘﺮ p
ﺑﺮاﺳﺎس Xﺑﺎﺷﺪ. ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ ﺷﺨﺼﻲ ﺑﺨﻮاﻫﺪ اﺣﺘﻤﺎل ﺷﻜﺴﺖ ﻳﻌﻨﻲ q = 1 − pرا ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﻓﻮق ﺑﺮآورد ﻧﻤﺎﻳﺪ .اﻳﻦ ﺷﺨﺺ از ﺗﻌﺪاد ﺷﻜﺴﺖﻫﺎ در nآزﻣﺎﻳﺶ ﻳﻌﻨﻲ ) Y = n − X ∼ B (n , qاﺳﺘﻔﺎده ﻣﻲﻧﻤﺎﻳﺪ .ﺑﻨﺎﺑﺮاﻳﻦ در اﻳﻦ ﻣﺴﺌﻠﻪ ﮔﺮوه ﺗﺒﺪﻳﻼت زﻳﺮ را دارﻳﻢ: g 1(x ) = n − x , g 2 (x ) = x
} = {g 1 , g 2
G
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
72
ﭼﻮن ﺑﺮاﺳﺎس اﻳﻦ ﺗﺒﺪﻳﻞ ) Y = g1(X ) ∼ B (n ,1 − pو ) Y = g 2 (X ) ∼ B (n , pﭘﺲ ﮔﺮوه ﺗﺒﺪﻳﻼت Gﺗﻮﻟﻴﺪ ﺷﺪه ﺗﻮﺳﻂ Gﻋﺒﺎرت اﺳﺖ از g2( p ) = p
g 1( p ) = 1 − p
}= {g1, g 2
G
ﺣﺎل ﭼﻮن ﻣﻲﺧﻮاﻫﻴﻢ h ( p ) = pﻳﺎ h ( p ) = 1 − pرا ﺑﺮآورد ﻛﻨﻴﻢ ﭘﺲ ﺑﺎﻳﺴﺘﻲ g (1 − p ) = g (h ( p )) = h ( g 1( p )) = h (1 − p ) = p g 2 ( p ) = g 2 ( h ( p )) = h ( g 2 ( p )) = h ( p ) = p
ﺑﻨﺎﺑﺮاﻳﻦ ﮔﺮوه ﺗﺒﺪﻳﻼت زﻳﺮ روي Dﺑﻮﺟﻮد ﻣﻲآﻳﺪ g1(δ ) = 1 − δ , g 2 (δ ) = δ
G
}= {g 1, g 2
ﻫﻤﭽﻨﻴﻦ ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ ) L ( g 1( p ), g 1(δ )) = L (1 − p ,1 − δ ) = (δ − p )2 = L ( p , δ
ﻳﻌﻨﻲ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دم ﺗﺤﺖ اﻳﻦ ﺗﺒﺪﻳﻞ ﭘﺎﻳﺎ اﺳﺖ. ﺣﺎل ﻃﺒﻖ ﺗﻌﺮﻳﻒ 4-1ﺑﺮآوردﮔﺮ δدر اﻳﻦ ﻣﺴﺌﻠﻪ ﻫﻢﭘﺎﻳﺎ اﺳﺖ اﮔﺮ ) δ ( g (X )) = g (δ (X )) ⇔ δ (n − X ) = 1 − δ (X x از ﺟﻤﻠﻪ ﺑﺮآوردﮔﺮﻫﺎي ﭘﺎﻳﺎ در اﻳﻦ ﻣﺴﺌﻠﻪ n
x n
= ) T1(xو ) T 2 (x ) = α ( ) + (1 − α )(0.5ﻣﻲﺑﺎﺷﺪ.
اﮔﺮ ﺑﺮآوردﮔﺮﻫﺎي ﭘﺎﻳﺎ ﺑﻔﺮم ﺑﺎﻻ را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ در اﻳﻦ ﺻﻮرت ﺗﻌﻴﻴﻦ اﻳﻦ ﺑﺮآوردﮔﺮ در ﻧﻘﺎط n ) ⎥⎤ ⎢⎡ ( T (0),T (1),.....Tﻛﺎﻓﻲ ﻣﻲﺑﺎﺷﺪ زﻳﺮا ﻃﺒﻖ راﺑﻄﻪ ﺑﺎﻻ ⎦⎣2
.T (n ) = −T (0), T (n − 1) = −T (1),... در ﺣﺎﻟﻲ ﻛﻪ اﮔﺮ ﻳﻚ ﺑﺮآوردﮔﺮ ﻋﺎدي را ﺑﻜﺎر ﺑﺒﺮﻳﻢ ﺑﺎﻳﺴﺘﻲ اﻳﻦ ﺑﺮآوردﮔﺮ را در ﻧﻘﺎط ) T (0),T (1),.....T (nﺗﻌﻴﻴﻦ ﻛﻨﻴﻢ و ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮﻫﺎي ﭘﺎﻳﺎ ﻧﻴﺰ روﺷﻲ ﺑﺮاي ﺧﻼﺻﻪ ﻛﺮدن دادهﻫﺎ اراﻳﻪ ﻣﻲدﻫﻨﺪ.
■
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
73
ﺑﻬﺘﺮﻳﻦ ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ ﺣﺎل اﻳﻦ ﺳﻮال ﻣﻄﺮح ﻣﻲﺷﻮد ﻛﻪ در ﺑﻴﻦ ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢ ﭘﺎﻳﺎ ﻛﺪام ﺑﺮآوردﮔﺮ ﺑﻬﺘﺮ اﺳﺖ .ﺟﻮاب اﻳﻦ ﺳﻮال اﻳﻦ اﺳﺖ ﻛﻪ ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎﺋﻲ ﻛﻪ داراي ﻛﻤﺘﺮﻳﻦ ﻣﺨﺎﻃﺮه ﺑﺎﺷﺪ ﺑﻬﺘﺮﻳﻦ ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ ﻣﻲﺑﺎﺷﺪ .ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺑﻬﺘﺮﻳﻦ ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ از ﺗﻌﺎرﻳﻒ و ﻗﻀﺎﻳﺎي زﻳﺮ اﺳﺘﻔﺎده ﻣﻲﻛﻨﻴﻢ. ﺗﻌﺮﻳﻒ :5-1دو ﻧﻘﻄﻪ θ1,θ2در Θرا ﻣﻌﺎدل 1ﮔﻮﻳﻨﺪ اﮔﺮ g ∈ Gﻣﻮﺟﻮد ﺑﺎﺷﺪ ﻛﻪ ). θ2 = g (θ1 ﻳﻚ ﻣﺪار 2در Θﻋﺒﺎرت از ﻳﻚ ﻛﻼس )ﻣﺠﻤﻮﻋﻪ( از ﻧﻘﺎط ﻣﻌﺎدل در Θاﺳﺖ .ﺑﻨﺎﺑﺮاﻳﻦ ﻣﺪار θ0در Θ
ﻋﺒﺎرت از ﻣﺠﻤﻮﻋﻪ زﻳﺮ اﺳﺖ:
} . Θ(θ0) = {g (θ0) | g ∈ G
■
ﻣﻌﺎدل ﺑﻮدن در ﺗﻌﺮﻳﻒ 5-1ﻳﻚ راﺑﻄﻪ ﻫﻢارزي را ﺑﺪﺳﺖ ﻣﻲدﻫﺪ .ﺑﻨﺎﺑﺮاﻳﻦ ﺗﻌﺮﻳﻒ ﻓﻮق Θرا ﺑﻪ ﻛﻼسﻫﺎي ﻫﻢارزي اﻓﺮاز ﻣﻲﻛﻨﺪ .ﻫﺮ ﻳﻚ از اﻳﻦ ﻛﻼسﻫﺎ را ﻳﻚ ﻣﺪار )ﺗﺤﺖ ( Gﻣﻲﻧﺎﻣﻴﻢ. ﺗﻌﺮﻳﻒ :6-1ﻳﻚ ﮔﺮوه Gاز ﺗﺒﺪﻳﻼت روي Θرا اﻧﺘﻘﺎﻟﻲ ﻳﺎ ﮔﺬرا 3ﮔﻮﻳﻨﺪ ،ﻫﺮﮔﺎه Θداراي ﺗﻨﻬﺎ ﻳﻚ ﻣﺪار ﺑﺎﺷﺪ و ﻳﺎ ﻣﻌﺎدﻻ اﮔﺮ ﺑﺮاي ﻫﺮ دو ﻧﻘﻄﻪ θ1,θ2 ∈ Θﻳﻚ g ∈ Gﻣﻮﺟﻮد ﺑﺎﺷﺪ ﺑﻄﻮرﻳﻜﻪ ). θ2 = g (θ1
■
ﺑﺮاي ﻣﺜﺎل ،در ﻣﺜﺎل 1-1
θ2 Gﺗﻨﻬﺎ داراي ﻳﻚ ﻣﺪار اﺳﺖ )θ = cθ1 θ1 1
= (θ2ﭘﺲ ﻳﻚ ﮔﺮوه اﻧﺘﻘﺎﻟﻲ
اﺳﺖ وﻟﻲ در ﻣﺜﺎل 3-1ﭼﻮن g ( p ) = 1 − pﭘﺲ ﻣﺪارﻫﺎ ﻫﻤﺎن زوجﻫﺎي ﻣﺮﺗﺐ ) ( p ,1 − pﻫﺴﺘﻨﺪ و 1 در ﻧﺘﻴﺠﻪ Gاﻧﺘﻘﺎﻟﻲ ﻧﻴﺴﺖ .در اﻳﻦ ﮔﺮوه ﻧﻘﺎط 3 2 1 ﻧﻘﺎط = p2 = , p1را ﻧﻤﻲﺗﻮان ﺑﻪ ﻫﻢ اﻧﺘﻘﺎل داد. 3 3
2 3
= p2 = , p1را ﻣﻲﺗﻮان ﺑﻪ ﻫﻢ اﻧﺘﻘﺎل داد وﻟﻲ
ﻗﻀﻴﻪ )3-1ﻣﻬﻢ( :ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﻫﺮ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ روي ﻣﺪارﻫﺎي Θﻣﻘﺪاري ﺛﺎﺑﺖ دارد و ﻳﺎ ﻣﻌﺎدﻻ R (θ , δ ) = R ( g (θ ), δ ) ∀θ ∈ Θ, g ∈ G
١
Equivalent Orbit ٣ Transitive ٢
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
74
]) R (θ , δ ) = E θ [L (θ , δ (X
اﺛﺒﺎت: )ﭘﺎﻳﺎﺋﻲ ﺗﺎﺑﻊ زﻳﺎن(
])) = E θ [L ( g (θ ), g (δ (X
)ﻫﻢﭘﺎﻳﺎﺋﻲ ﺑﺮآوردﮔﺮ ( δ
])) = E θ [L ( g (θ ), δ ( g (X
)ﭘﺎﻳﺎﺋﻲ ﺗﻮزﻳﻊ ،راﺑﻄﻪ )((6
])) = E g (θ ) [L ( g (θ ), δ (X
■
) = R ( g (θ ), δ
ﻧﺘﻴﺠﻪ :1-1اﮔﺮ
Gﻳﻚ ﮔﺮوه اﻧﺘﻘﺎﻟﻲ از ﺗﺒﺪﻳﻼت روي ﻓﻀﺎي ﭘﺎراﻣﺘﺮي Θﺑﺎﺷﺪ آﻧﮕﺎه ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه
ﻫﺮ ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ ﺛﺎﺑﺖ اﺳﺖ و ﺑﻪ θﺑﺴﺘﮕﻲ ﻧﺪارد. ﺗﻮﺟﻪ :ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻧﺘﻴﺠﻪ ﻓﻮق اﮔﺮ
■
Gﻳﻚ ﮔﺮوه اﻧﺘﻘﺎﻟﻲ ﺑﺎﺷﺪ آﻧﮕﺎه ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎ
ﻧﺴﺒﺖ ﺑﻪ θﺛﺎﺑﺖ اﺳﺖ و در ﻧﺘﻴﺠﻪ ﺑﻬﺘﺮﻳﻦ ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ ) (MREآن ﺑﺮآوردﮔﺮي اﺳﺖ ﻛﻪ اﻳﻦ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﺛﺎﺑﺖ را ﻣﻴﻨﻴﻤﻢ ﻣﻲﻛﻨﺪ. ﺑﺮاي ﻣﺜﺎل ،در ﻣﺜﺎل 1-1دﻳﺪﻳﻢ ﻛﻪ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي
δ (X ) = kXﺑﺮاﺑﺮ
1 R (θ , δ ) = 2k 2 − 2k + 1ﺑﻮد ﻛﻪ ﺑﻪ θﺑﺴﺘﮕﻲ ﻧﺪاﺷﺖ و ﻣﻴﻨﻴﻤﻢ آن ﺑﻪ ازاي 2 1 ﺑﺮآوردﮔﺮ MREﻋﺒﺎرت از δ * (X ) = Xﺑﻮد. 2
= kﺑﺪﺳﺖ آﻣﺪ ،ﭘﺲ
ﺗﻌﺮﻳﻒ :7-1ﻓﺮض ﻛﻨﻴﺪ
Gﮔﺮوﻫﻲ از ﺗﺒﺪﻳﻼت روي ﻓﻀﺎي χﺑﺎﺷﺪ .ﺗﺎﺑﻊ ) T (Xرا روي χ
ﻧﺴﺒﺖ ﺑﻪ Gﭘﺎﻳﺎ 1ﮔﻮﻳﻨﺪ ﻫﺮﮔﺎه ﺑﺮاي ﻫﺮ x ∈ χو g ∈ Gداﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ ) .T ( g (x )) = T (x ﺗﺎﺑﻊ ) T (xرا ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل 2ﻧﺴﺒﺖ ﺑﻪ Gﮔﻮﻳﻨﺪ ﻫﺮﮔﺎه Tﭘﺎﻳﺎ ﺑﺎﺷﺪ و در ﺷﺮط زﻳﺮ ﺻﺪق ﻛﻨﺪ T (x 1) = T (x 2 ) ⇒ x 1 = g (x 2 ) for some g ∈ G
■
ﻣﻔﺎﻫﻴﻢ ﻓﻮق ﺑﺮاي درك اﻳﻦ ﻣﻄﻠﺐ ﻛﻪ χﻣﻲﺗﻮاﻧﺪ ﺑﻪ ﻣﺪارﻫﺎﻳﻲ از ﻧﻘﺎط ﻛﻪ ﺗﺤﺖ Gﻣﻌﺎدل ﻫﺴﺘﻨﺪ، ﻣﻔﻴﺪ ﻣﻲﺑﺎﺷﺪ.
ﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎ ﺗﺎﺑﻌﻲ اﺳﺖ ﻛﻪ روي ﻫﺮ ﻣﺪار ﻣﻘﺪاري ﺛﺎﺑﺖ دارد.
) ) ( x ′ ∼ x ⇒ T ( x ′) = T ( xو ﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل ﺗﺎﺑﻌﻲ اﺳﺖ ﻛﻪ روي ﻫﺮ ﻣﺪار ﻣﻘﺪاري ﺛﺎﺑﺖ
Invariant Maximal Invariant
١ ٢
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
75
دارد و ﻣﻘﺎدﻳﺮ ﻣﺘﻔﺎوﺗﻲ را ﺑﻪ ﻫﺮ ﻳﻚ از ﻣﺪارﻫﺎي ﻣﺘﻔﺎوت ﻣﻲدﻫﺪ .ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ اﮔﺮ Gﻳﻚ ﮔﺮوه
اﻧﺘﻘﺎﻟﻲ روي χﺑﺎﺷﺪ آﻧﮕﺎه χﺧﻮد ﻳﻚ ﻣﺪار اﺳﺖ و ﺑﻨﺎﺑﺮاﻳﻦ ﺗﻨﻬﺎ ﺗﺎﺑﻊ ﭘﺎﻳﺎﺋﻲ ﻣﺎﻛﺰﻳﻤﺎل روي χ ﺗﺎﺑﻊ ﺛﺎﺑﺖ اﺳﺖ. ﺑﺪﻳﻬﻲ اﺳﺖ ﻛﻪ اﮔﺮ Tﻳﻚ آﻣﺎره ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل ﺑﺎﺷﺪ ،ﻫﺮ ﺗﺎﺑﻊ ﻳﻚ ﺑﻪ ﻳﻚ از آن ﻧﻴﺰ ﻳﻚ آﻣﺎره ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل اﺳﺖ .ﭘﺲ آﻣﺎره ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل ﻳﻜﺘﺎ ﻧﻴﺴﺖ وﻟﻲ ﻫﻤﻪ آﻧﻬﺎ ﺗﻮاﺑﻌﻲ ﻳﻚ ﺑﻪ ﻳﻚ از ﻳﻜﺪﻳﮕﺮ ﻫﺴﺘﻨﺪ. ﻣﺜﺎل :4-1ﻓﺮض ﻛﻨﻴﺪ χ = ℜnو Gﮔﺮوه ﺗﺒﺪﻳﻼت ﻣﻜﺎﻧﻲ ﺑﺎﺷﺪ. } = {g c : g c ( x 1, x 2 ,..., x n ) = ( x 1 + c ,....., x n + c ), c ∈ R
در
اﻳﻦ
) T (x ) = ( x 1 − x n ,...., x n −1 − x n
ﺻﻮرت
ﭘﺎﻳﺎي
G
ﻣﺎﻛﺰﻳﻤﺎل
اﺳﺖ.
ﭼﻮن
(x i + c ) − (x n + c ) = x i − x nﭘﺲ ) T ( g c (x )) = T (xﭘﺲ Tﭘﺎﻳﺎ اﺳﺖ .ﺣﺎل اﮔﺮ ) T (x ) = T (x ′آﻧﮕﺎه ) (x i − x n ) = (x i ′ − x nو در ﻧﺘﻴﺠﻪ ﺑﺎ c = x n − x n ′دارﻳﻢ ﻛﻪ g c (x ′) = xﭘﺲ Tﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل اﺳﺖ.
■
ﻣﺜﺎل :5-1ﻓﺮض ﻛﻨﻴﺪ χ = ℜnو Gﮔﺮوه ﺗﺒﺪﻳﻼت ﻣﻘﻴﺎﺳﻲ ﺑﺎﺷﺪ. }= {g c : g c ( x 1,..., x n ) = (cx 1,..., cx n ), c > 0 n
اﮔﺮ Z = ∑ X i2آﻧﮕﺎه i =1
if Z = 0 if Z ≠ 0
G
⎧0 ⎪ T (X ) = ⎨ Xﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل اﺳﺖ. Xn 1 ) ⎪( ,... Z ⎩ Z
ﻣﺜﺎل :6-1ﻓﺮض ﻛﻨﻴﺪ χ = ℜnو Gﮔﺮوه ﺗﺒﺪﻳﻼت ﻣﻜﺎﻧﻲ -ﻣﻘﻴﺎﺳﻲ ﺑﺎﺷﺪ } = {g b ,c | g b ,c (x 1,..., x n ) = (cx 1 + b ,...,cx n + b ), c > 0, b ∈ R
اﮔﺮ
1 n x = ∑x i n i =1
و
1 n (x i − x )2 = s ∑ n − 1 i =1
⎧0 s =0 ⎪ آﻧﮕﺎه T (x ) = ⎨ x − xﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل اﺳﺖ. x −x 1 ,..., n ) s ≠0 (⎪ s ⎩ s
2
G
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
76
ﺗﻮﺟﻪ :ﭘﺎﻳﺎﻳﻲ و ﭘﺎﻳﺎﻳﻲ ﻣﺎﻛﺰﻳﻤﺎل را روي Θﺑﻄﻮر ﻣﺸﺎﺑﻪ ﻣﻲﺗﻮان ﺗﻌﺮﻳﻒ ﻛﺮد. ﻗﻀﻴﻪ :4-1ﻓﺮض ﻛﻨﻴﺪ Gﮔﺮوﻫﻲ از ﺗﺒﺪﻳﻼت روي ﻓﻀﺎي χﺑﺎﺷﺪ و ) T (Xﻳﻚ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل ﺑﺎﺷﺪ .در اﻳﻦ ﺻﻮرت ﺗﺎﺑﻊ ) h (Xﻧﺴﺒﺖ ﺑﻪ Gﭘﺎﻳﺎ اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ hﺗﺎﺑﻌﻲ از Tﺑﺎﺷﺪ. اﺛﺒﺎت: )ﻛﻔﺎﻳﺖ( :ﻓﺮض ﻛﻨﻴﺪ )) h (x ) = s (T (xدر اﻳﻦ ﺻﻮرت ) h ( g (x )) = s (T ( g (x )) = s (T (x )) = h (xﭘﺲ hﭘﺎﻳﺎ اﺳﺖ. )ﻟﺰوم( :ﻓﺮض ﻛﻨﻴﺪ hﭘﺎﻳﺎ ﺑﺎﺷﺪ و ) T (x 1) = T (x 2در اﻳﻦ ﺻﻮرت ﭼﻮن Tﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل اﺳﺖ ﭘﺲ ) x 1 = g (x 2و در ﻧﺘﻴﺠﻪ ) h (x 1) = h ( g (x 2 )) = h (x 2ﻳﻌﻨﻲ hﺗﺎﺑﻌﻲ از Tاﺳﺖ.
■
ﻗﻀﻴﻪ :5-1اﮔﺮ hﻳﻚ آﻣﺎره ﭘﺎﻳﺎ ﺑﺎﺷﺪ آﻧﮕﺎه ﺗﻮزﻳﻊ آن روي ﻫﺮ ﻣﺪار Θﻣﻘﺪاري ﺛﺎﺑﺖ اﺳﺖ. اﺛﺒﺎت :ﻓﺮض ﻛﻨﻴﺪ θ1,θ2در ﻳﻚ ﻣﺪار Θﺑﺎﺷﻨﺪ در اﻳﻦ ﺻﻮرت g ∈ Gوﺟﻮد دارد ﻛﻪ ) θ2 = g (θ1و ﺑﻨﺎﺑﺮاﻳﻦ )*(
)(5
) Pθ2 (h (X ) ∈ A ) = Pg (θ1) (h ( X ) ∈ A ) = Pθ1 ( h ( g (x )) ∈ A ) = Pθ1 ( h (X ) ∈ A
ﻳﻌﻨﻲ ﺗﻮزﻳﻊ روي ﻫﺮ ﻣﺪار Θﺛﺎﺑﺖ اﺳﺖ .ﺗﻮﺟﻪ داﺷﺘﻪ ﺑﺎﺷﻴﺪ ﻛﻪ ﺗﺴﺎوي )*( از ﭘﺎﻳﺎﺋﻲ hﺣﺎﺻﻞ ﻣﻲﮔﺮدد. ﻧﺘﻴﺠﻪ :2-1اﮔﺮ
■ Gﺗﻘﺎرﻧﻲ ﺑﺎﺷﺪ آﻧﮕﺎه Θﺗﻨﻬﺎ ﻳﻚ ﻣﺪار دارد و در ﻧﺘﻴﺠﻪ ﺗﻮزﻳﻊ ﻫﺮ آﻣﺎره ﭘﺎﻳﺎي h
روي آن ﺑﻪ θﺑﺴﺘﮕﻲ ﻧﺪارد ،ﻳﻌﻨﻲ hﻳﻚ آﻣﺎره ﻓﺮﻋﻲ 1اﺳﺖ. ﻗﻀﻴﻪ زﻳﺮ ﺣﺎﻟﺖ ﻛﻠﻲ ﺗﺮ ﻗﻀﻴﻪ 5-1را ﺑﻴﺎن ﻣﻲ ﻛﻨﺪ. ﻗﻀﻴﻪ :6-1ﻓﺮض ﻛﻨﻴﺪ ﻳﻚ ﻣﺴﺌﻠﻪ ﺗﺤﺖ ﺗﺒﺪﻳﻼت Gﭘﺎﻳﺎ ﺑﺎﺷﺪ و ) υ (θﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل روي Θﻧﺴﺒﺖ ﺑﻪ
Gﺑﺎﺷﺪ .اﮔﺮ ) h (Xﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎ ﺗﺤﺖ Gﺑﺎﺷﺪ آﻧﮕﺎه ﺗﻮزﻳﻊ ) h (Xﺗﻨﻬﺎ ﺑﻪ ) υ (θ
ﺑﺴﺘﮕﻲ دارد. اﺛﺒﺎت :ﺑﺮاي ﻫﺮ A ⊂ χدارﻳﻢ ﻛﻪ Ancillary
١
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ )*(
77
)(5
) Pg (θ ) (h (X ) ∈ A ) = Pθ (h ( g (X )) ∈ A ) = Pθ (h ( X ) ∈ A
ﺗﻮﺟﻪ داﺷﺘﻪ ﺑﺎﺷﻴﺪ ﻛﻪ ﺗﺴﺎوي )*( از ﭘﺎﻳﺎﺋﻲ hﺣﺎﺻﻞ ﻣﻲﮔﺮدد .ﻳﻌﻨﻲ ) S (θ ) = Pθ (h (X ) ∈ Aﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎ روي Θاﺳﺖ )) (S ( g (θ )) = S (θﺑﻨﺎﺑﺮاﻳﻦ ﻃﺒﻖ ﻗﻀﻴﻪ S (θ ) 4-1ﺗﺎﺑﻌﻲ از ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل ) υ (θاﺳﺖ .ﭼﻮن اﻳﻦ ﻣﻄﻠﺐ ﺑﺮاي ﻫﺮ Aﺑﺮﻗﺮار اﺳﺖ ﭘﺲ ﺗﻮزﻳﻊ ) h (Xﺗﻨﻬﺎ ﺑﻪ ) υ (θﺑﺴﺘﮕﻲ دارد. ■ ﺗﻮﺳﻂ ﻗﻀﻴﻪ زﻳﺮ ﺑﺮآوردﮔﺮﻫﺎي MREرا ﺑﺪﺳﺖ ﻣﻲآورﻳﻢ. ﻗﻀﻴﻪ :7-1ﻓﺮض ﻛﻨﻴﺪ ﻣﺴﺌﻠﻪ ﻣﻮرد ﻧﻈﺮ ﺗﺤﺖ ﺗﺒﺪﻳﻼت Gﭘﺎﻳﺎ ﺑﺎﺷﺪ)ﺗﻌﺎرﻳﻒ2-1و (3-1و
Gﻳﻚ
ﮔﺮوه اﻧﺘﻘﺎﻟﻲ روي Θﺑﺎﺷﺪ و ) Y = T (Xﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل روي χﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت ﻫﺮ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي ) δ (Xﺑﺎ ﻣﺨﺎﻃﺮه ﻣﺘﻨﺎﻫﻲ ﻛﻪ اﻣﻴﺪ ﺷﺮﻃﻲ ] E e [L (e , δ (X ) |Y = yرا ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ θاﺳﺖ. اﺛﺒﺎت :ﺑﺮآوردﮔﺮ MREاز ﻣﻴﻨﻴﻤﻢ ﻛﺮدن ]) R (θ , δ ) = E θ [L (θ , δ (Xﺑﺪﺳﺖ ﻣﻲ آﻳﺪ .اﻣﺎ ﻃﺒﻖ ﻧﺘﻴﺠﻪ 1-1ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﻫﺮ ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ ﻧﺴﺒﺖ ﺑﻪ θﺛﺎﺑﺖ اﺳﺖ)ﭼﻮن Gاﻧﺘﻘﺎﻟﻲ اﺳﺖ( .ﺑﻨﺎﺑﺮاﻳﻦ ﻛﺎﻓﻲ
اﺳﺖ اﻳﻦ ﻣﺨﺎﻃﺮه را در ﻧﻘﻄﻪ θ = eﻣﻴﻨﻴﻤﻢ ﻛﻨﻴﻢ .ﺑﻨﺎﺑﺮاﻳﻦ ﻛﺎﻓﻲ اﺳﺖ ﻣﺨﺎﻃﺮه زﻳﺮ را ﻧﺴﺒﺖ ﺑﻪ δ ﻣﻴﻨﻴﻤﻢ ﻛﻨﻴﻢ }] R (e , δ ) = E e [L (e , δ (X ))] = E e {E e [L (e , δ (X )) |Y
) (
= ∫ E e [L (e , δ (X )) |Y = y ]f Y ( y )d μ y
اﻳﻦ اﻧﺘﮕﺮال ﻣﻮﻗﻌﻲ ﻣﻴﻨﻴﻤﻢ ﻣﻲ ﺷﻮد ﻛﻪ ] E e [L (e , δ (X )) |Y = yﻣﻴﻨﻴﻤﻢ ﺷﻮد و در ﻧﺘﻴﺠﻪ ﻗﻀﻴﻪ ﺛﺎﺑﺖ اﺳﺖ.
■
ﺗﻮﺟﻪ :اﮔﺮ در ﻣﺴﺌﻠﻪاي آﻣﺎره ﺑﺴﻨﺪه ) S (Xوﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﻛﻪ ﭘﺎﻳﺎ ﺑﺎﺷﺪ ﻳﻌﻨﻲ )) S ( g (X )) = g (S (Xآﻧﮕﺎه ﻣﻲﺗﻮان ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي ) δ (Xرا ﻫﻤﻴﻦ آﻣﺎره ﺑﺴﻨﺪه ) S (Xدر ﻧﻈﺮ ﮔﺮﻓﺖ ﻛﻪ ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻗﻀﻴﻪ ﺑﺎﺳﻮ و ﻗﻀﻴﻪ 5-1اﻳﻦ آﻣﺎره ﻫﻢﭘﺎﻳﺎ از ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل ) Y = T (Xﻣﺴﺘﻘﻞ اﺳﺖ.
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
ﺑﺨﺶ : 2ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ ﻣﻜﺎن
78
1
ﻓﺮض ﻛﻨﻴﺪ ) X = (X 1, X 2 ,..., X nداراي ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ﺗﻮام ) f (x − θ ) = f (x 1 − θ ,..., x n − θ
ﺑﺎﺷﺪ ﻛﻪ در آن fﻣﻌﻠﻮم و θﭘﺎراﻣﺘﺮ ﻣﻜﺎن ﻧﺎﻣﻌﻠﻮم اﺳﺖ .اﮔﺮ ﮔﺮوه ﺗﺒﺪﻳﻼت زﻳﺮ را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ.
} G = {g a : g a ( x 1,...., x n ) = ( x 1 + a ,..., x n + a ) = x + a , a ∈ R آﻧﮕﺎه ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻓﻮق ﻧﺴﺒﺖ ﺑﻪ اﻳﻦ ﺗﺒﺪﻳﻞ ﭘﺎﻳﺎ اﺳﺖ ،ﻫﺮﮔﺎه ﮔﺮوه ﺗﺒﺪﻳﻼت } = {g a : g a (θ ) = θ + a , a ∈ R
ﺑﺎﺷﺪ
Gﺑﺼﻮرت زﻳﺮ
G
ﻛﻪ ﻳﻚ ﮔﺮوه اﻧﺘﻘﺎﻟﻲ از ﺗﺒﺪﻳﻼت اﺳﺖ .در ﺑﺮآورد ﭘﺎراﻣﺘﺮ h (θ ) = θﺗﺤﺖ ﺗﺒﺪﻳﻞ h (θ ) ، Gداراي ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ اﺳﺖ اﮔﺮ ) h ( g (θ )) = g (h (θ )) ⇔ θ + a = g (θ } = {g a : g a (δ ) = δ + a , a ∈ R
ﺑﻨﺎﺑﺮاﻳﻦ ﮔﺮوه ﺗﺒﺪﻳﻼت Gﺑﺼﻮرت زﻳﺮ اﺳﺖ
G
در ﻧﺘﻴﺠﻪ ﺗﺤﺖ ﮔﺮوه Gﺗﺎﺑﻊ زﻳﺎن ) L (θ , δﭘﺎﻳﺎ اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ ?
) L (θ , δ ) = L ( g (θ ), g (δ )) ⇔ L (θ , δ ) = L (θ + a , δ + a ) ⇔ L (θ , δ ) = ρ (δ − θ
)اﺛﺒﺎت راﺑﻄﻪ ﺳﻮم: ) ⇒) a = −θ ⇒ L (θ , δ ) = L (0, δ − θ ) = ρ (δ − θ
) ( ⇐) L (θ + a, δ + a ) = ρ (δ + a − θ − a ) = ρ (δ − θ ) = L (θ , δ ﺑﻨﺎﺑﺮاﻳﻦ اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم ) L (θ , δ ) = ρ (δ − θﺑﺎﺷﺪ آﻧﮕﺎه ﻣﺴﺌﻠﻪ ،ﺗﺤﺖ ﮔﺮوه ﺗﺒﺪﻳﻼت Gﭘﺎﻳﺎ اﺳﺖ .ﺑﺮاي ﻣﺜﺎل | L (θ , δ ) =| δ − θﻳﺎ L (θ , δ ) = (δ − θ )2از اﻳﻦ ﻧﻮع ﺗﺎﺑﻊ زﻳﺎن ﻣﻲ ﺑﺎﺷﻨﺪ. ﻫﻤﭽﻨﻴﻦ ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎ در اﻳﻦ ﺣﺎﻟﺖ ﺑﺼﻮرت زﻳﺮ ﻣﻲﺑﺎﺷﻨﺪ: δ ( g (X )) = g (δ (X )) ⇔ δ (X + a ) = δ (X ) + a
از ﺟﻤﻠﻪ ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢ ﭘﺎﻳﺎ در اﻳﻦ ﺣﺎﻟﺖ Xو
) X (1) + X ( n 2
ﻣﻲﺑﺎﺷﻨﺪ.
ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺑﺮآوردﮔﺮﻫﺎي MREدر اﻳﻦ ﺣﺎﻟﺖ از ﻗﻀﻴﻪ زﻳﺮ اﺳﺘﻔﺎده ﻣﻲﻛﻨﻴﻢ.
MRE Estimator of Location Parameter
١
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
79
ﻗﻀﻴﻪ :1-2اﮔﺮ δ0ﻫﺮ ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎي θﺑﺎﺷﺪ آﻧﮕﺎه ﺷﺮط ﻻزم و ﻛﺎﻓﻲ ﺑﺮاي آﻧﻜﻪ ﺑﺮآوردﮔﺮ δ ﺑﺮاي θﻫﻢ ﭘﺎﻳﺎ ﺑﺎﺷﺪ آن اﺳﺖ ﻛﻪ ) δ (x ) = δ0(x ) + U (x
)(1
ﻛﻪ در آن ) U (xﻫﺮ ﺗﺎﺑﻊ ﭘﺎﻳﺎ ﻧﺴﺒﺖ ﺑﻪ Gاﺳﺖ ﻳﻌﻨﻲ: ) U (x + a ) = U (x
)(2
اﺛﺒﺎت :ﻓﺮض ﻛﻨﻴﺪ رواﺑﻂ ) (1و ) (2ﺑﺮﻗﺮار ﺑﺎﺷﻨﺪ در اﻳﻦ ﺻﻮرت: ) δ (x + a ) = δ0(x + a ) + U (x + a ) = {δ0(x ) + a} + U (x ) = δ (x + a
ﭘﺲ ) δ (xﻳﻚ ﺑﺮاوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ اﺳﺖ .ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ ) δ (xﻫﻢ ﭘﺎﻳﺎ ﺑﺎﺷﺪ و ﻗﺮار ﻣﻲدﻫﻴﻢ ) U (x ) = δ (x ) − δ0(xدر اﻳﻦ ﺻﻮرت راﺑﻄﻪ ) (1ﺑﺮﻗﺮار اﺳﺖ و ﻫﻤﭽﻨﻴﻦ ) U (x + a ) = δ (x + a ) − δ0( x + a ) = δ (x ) + a − δ0(x ) − a = δ (x ) − δ0(x ) = U (x
ﭘﺲ راﺑﻄﻪ ) (2ﺑﺮﻗﺮار اﺳﺖ.
■
اﮔﺮ ﻗﺮار دﻫﻴﻢ ) Y = (Y 1,....,Y n −1ﻛﻪ Y i = X i − X n , i = 1,..., n − 1و Y = cاﮔﺮ n = 1
ﺑﺎﺷﺪ ،آﻧﮕﺎه Yﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل ﻧﺴﺒﺖ ﺑﻪ Gاﺳﺖ و ﻃﺒﻖ ﻗﻀﻴﻪ 4-1ﺗﺎﺑﻊ ) U (xﭘﺎﻳﺎ اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ ﺗﺎﺑﻌﻲ از ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل Yﺑﺎﺷﺪ ﺑﻨﺎﺑﺮاﻳﻦ از ﻗﻀﻴﻪ 1-2ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد ﻛﻪ ﻧﺘﻴﺠﻪ :1اﮔﺮ δ0ﻫﺮ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي θﺑﺎﺷﺪ آﻧﮕﺎه ﺷﺮط ﻻزم و ﻛﺎﻓﻲ ﺑﺮاي اﻳﻨﻜﻪ ﺑﺮآوردﮔﺮ δﺑﺮاي θﻫﻢﭘﺎﻳﺎ ﺑﺎﺷﺪ اﻳﻦ اﺳﺖ ﻛﻪ ﺗﺎﺑﻊ vاز n −۱ﻣﺘﻐﻴﺮ i = 1,..., n − 1 ، y i = x i − x nوﺟﻮد داﺷﺘﻪﺑﺎﺷﺪ ﺑﻄﻮري ﻛﻪ ) . δ (x ) = δ0(x ) − v ( y ﺣﺎل ﭼﻮن ﮔﺮوه
■
Gاﻧﺘﻘﺎﻟﻲ اﺳﺖ و Yﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل اﺳﺖ در اﻳﻦ ﺻﻮرت ﻃﺒﻖ 7-1
ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎي ) δ (X ) = δ0(X ) − v (Yﻛﻪ اﻣﻴﺪ ﺷﺮﻃﻲ ] E θ =0[ ρ (δ0(X ) − v ( y )) | yرا ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ θاﺳﺖ .ﺣﺎل اﮔﺮ ) v * ( yاﻳﻦ اﻣﻴﺪ ﺷﺮﻃﻲ را ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ آﻧﮕﺎه ) δ * (x ) = δ0(x ) −v * ( yﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ θاﺳﺖ.
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
80
ﻧﺘﻴﺠﻪ :2-2در ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻣﻜﺎن و ﺗﺤﺖ ﺗﺒﺪﻳﻼت ﻣﻜﺎن Gدارﻳﻢ ﻛﻪ اﻟﻒ -اﮔﺮ ρ (δ − θ ) = (δ − θ )2ﺑﺎﺷﺪ آﻧﮕﺎه ] v * ( y ) = E θ =0[δ0(x ) | yو در ﻧﺘﻴﺠﻪ ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ θﻋﺒﺎرت اﺳﺖ از ] δ * (x ) = δ0(x ) − E θ =0[δ0(x ) | y
ب( اﮔﺮ | ρ (δ − θ ) =| δ − θﺑﺎﺷﺪ آﻧﮕﺎه ] )v * ( y ) = med θ =0[δ0(x ) | yﻣﻴﺎﻧﻪ ﺗﻮزﻳﻊ δ0(x ) | yﺑﻪ ازاي ( θ = 0و در ﻧﺘﻴﺠﻪ ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ θﻋﺒﺎرت اﺳﺖ از ] δ * (x ) = δ0(x ) − med θ =0[δ0(x ) | y
■
ﻣﺜﺎل ) :1-2ﺣﺎﻟﺖ ( n = 1اﮔﺮ Xداراي ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ) f (x − θﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت ) v ( yﻳﻚ ﻣﻘﺪار ﺛﺎﺑﺖ اﺳﺖ و ﻃﺒﻖ ﻣﻄﺎﻟﺐ ﻓﻮق * δ * (x ) = x − vﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ θاﺳﺖ ﻛﻪ * v
ﻣﻘﺪاري اﺳﺖ ﻛﻪ ]) E0[ ρ (x − vرا ﻣﻴﻨﻴﻤﻢ ﻣﻲﻛﻨﺪ و ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ) δ * (x ) = X − E0(xﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ θاﺳﺖ.
■
ﻣﺜﺎل :2-2ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,..., X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) N ( μ ,σ 2ﺑﺎﺷﻨﺪ ﻛﻪ σ 2ﻣﻌﻠﻮم اﺳﺖ .ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ μرا ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺪﺳﺖ آورﻳﺪ. ﺣﻞ:
) = f (x − μ
( x − μ )2
1 2σ 2
−
e
1 2
2πσ
= ) f X (x
ﻗﺮار ﻣﻲ دﻫﻴﻢ δ0(X ) = Xﭘﺲ ) δ0(Xآﻣﺎره ﺑﺴﻨﺪه ﻛﺎﻣﻞ و ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي ﻣﻜﺎن μاﺳﺖ ) (δ0(X + a ) = δ0(X ) + aو ﭼﻮن ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل Yﻳﻚ آﻣﺎره ﻓﺮﻋﻲ اﺳﺖ ﭘﺲ ﻃﺒﻖ ﻗﻀﻴﻪ ﺑﺎﺳﻮ ) δ0(Xو Yاز ﻳﻜﺪﻳﮕﺮ ﻣﺴﺘﻘﻞ ﻫﺴﺘﻨﺪ. ﺑﻨﺎﺑﺮاﻳﻦ ﺗﺤﺖ ﺗﺎﺑﻊزﻳﺎن درﺟﻪدوم دارﻳﻢ ﻛﻪ δ * (X ) = δ0(X ) − E0[δ0(X ) | y ] = X − E0[X ] = X
ﭘﺲ Xﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ μاﺳﺖ.
■
ﻗﻀﻴﻪ :2-2ﻓﺮض ﻛﻨﻴﺪ Fﻛﻼس ﻛﻠﻴﻪ ﺗﻮزﻳﻊ ﻫﺎي ﻳﻚ ﻣﺘﻐﻴﺮه Fﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ fو وارﻳﺎﻧﺲ ﺛﺎﺑﺖ ﻣﺘﻨﺎﻫﻲ ﻣﺜﻼ σ 2 = 1ﺑﺎﺷﻨﺪ .ﻫﻤﭽﻨﻴﻦ ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,..., X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ ﻫﺮ ﻳﻚ ﺑﺎ
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
81
ﭼﮕﺎﻟﻲ ) f (x i − θﺑﺎ ) θ = E (X iﺑﺎﺷﺪ و ) rn (Fﻣﺨﺎﻃﺮه ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ θﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺎﺷﺪ .در اﻳﻦ ﺻﻮرت ) rn (Fﻣﻮﻗﻌﻲ ﻣﻘﺪار ﻣﺎﻛﺰﻳﻤﻢ ﺧﻮد را روي Fﺑﺪﺳﺖ ﻣﻲآورد ﻛﻪ Fﺗﻮزﻳﻊ ﻧﺮﻣﺎل ﺑﺎﺷﺪ. 1 اﺛﺒﺎت :در ﺣﺎﻟﺖ ﺗﻮزﻳﻊ ﻧﺮﻣﺎل ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ θﺑﺮاﺑﺮ Xﺑﺎ ﻣﺨﺎﻃﺮه n 1 ﭼﻮن ﻣﺨﺎﻃﺮه Xدر ﻫﺮ ﺗﻮزﻳﻌﻲ ﺑﺮاﺑﺮ اﺳﺖ ﺑﻨﺎﺑﺮاﻳﻦ ﻣﺨﺎﻃﺮه ﺑﺮآوردﮔﺮ MREدر ﻫﺮ ﺗﻮزﻳﻊ F n 1 ﺑﺎﻳﺴﺘﻲ ﻛﻤﺘﺮ ﻳﺎ ﻣﺴﺎوي ﺑﺎﺷﺪ) MREﻣﺨﺎﻃﺮه را ﻣﻴﻨﻤﻢ ﻣﻲﻛﻨﺪ( ﺑﻨﺎﺑﺮاﻳﻦ ﺗﻮزﻳﻊ ﻧﺮﻣﺎل داراي ﻣﺎﻛﺰﻳﻤﻢ n
= ) rn (Fاﺳﺖ .
ﻣﻘﺪار ﻣﺨﺎﻃﺮه ﺑﺮآوردﮔﺮ MREدر ﺑﻴﻦ ﻛﻠﻴﻪ ﺗﻮزﻳﻊﻫﺎي Fاﺳﺖ.
■
ﻣﺜﺎل :3-2ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,..., X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ﻧﻤﺎﻳﻲ دو ﭘﺎراﻣﺘﺮي ) E (θ ,b
ﺑﺎﺷﻨﺪ ﻛﻪ bﻣﻘﺪاري ﻣﻌﻠﻮم اﺳﺖ .ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ θرا ﺗﺤﺖ ﺗﻮاﺑﻊ زﻳﺎن درﺟﻪ دوم و ﻗﺪر ﻣﻄﻠﻖ ﺧﻄﺎ ﺑﺪﺳﺖ آورﻳﺪ. 1
ﺣﻞ:
1
) 1 − ( x −θ ) 1 − ( x −θ f θ (x ) = e b I (θ ,+∞ ) (x ) = e b ) I (0,+∞ ) (x − θ ) = f (x − θ b b
ﻗﺮار ﻣﻲدﻫﻴﻢ ) δ0(X ) = X (1ﺑﻨﺎﺑﺮاﻳﻦ ) δ0(Xآﻣﺎره ﺑﺴﻨﺪه ﻛﺎﻣﻞ وﻫﻤﭽﻨﻴﻦ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي ﻣﻜﺎن θاﺳﺖ و ﻃﺒﻖ ﻗﻀﻴﻪ ﺑﺎﺳﻮ از آﻣﺎره ﻓﺮﻋﻲ ) Yﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل( ﻣﺴﺘﻘﻞ اﺳﺖ .ﺑﻨﺎﺑﺮاﻳﻦ اﻟﻒ -ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم n
n − x b = x ( e b )dx b n
∞+
∫
*
= ) )v ( y ) = E [X (1) | y ] = E0(X (1
0
b ﭘﺲ ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ θﻋﺒﺎرت اﺳﺖ از n
δ * (X ) = X (1) −ﻛﻪ ﺑﺮآوردﮔﺮ UMVUﻧﻴﺰ
ﻫﺴﺖ. ب -ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﻗﺪر ﻣﻄﻠﻖ ﺧﻄﺎ ) ) v * ( y ) = med0[X (1) | y ] = med0(X (1ﭘﺲ * n
n
n
− v *− x v n −b x b 1 1 1 b = ⇒ 1− e = ⇒ v * = ln 2 e dx = ⇒ −e b 2 2 2 b n 0
*v
∫0
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
82
b n
ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ θﻋﺒﺎرت اﺳﺖ از δ * ( X ) = X (1) − ln 2ﻛﻪ اﻳﻦ ﺑﺮآوردﮔﺮ ■
ﻧﺎارﻳﺐ ﻧﻴﺴﺖ.
ﺑﺮآوردﮔﺮ ﭘﻴﺘﻤﻦ
1
اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺎﺷﺪ ،آﻧﮕﺎه ﺑﺮآوردﮔﺮ MREﻣﻜﺎن را ﺑﻪ ﻓﺮم راﺣﺖﺗﺮي ﻣﻲﺗﻮان ﺑﺪﺳﺖ آورد. ﻗﻀﻴﻪ :3-2ﺗﺤﺖ ﮔﺮوه ﺗﺒﺪﻳﻼت ﻣﻜﺎﻧﻲ Gو در ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻣﻜﺎن و ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم، ﺑﺮآوردﮔﺮ MREﻣﻜﺎن ﻋﺒﺎرت اﺳﺖ از: ∞+
∫ uf (x 1 − u ,...., x n − u )du
∞− ∞+
∫−∞ f (x 1 − u ,...., x n − u )du
*
= ] δ (X ) = δ0(X ) − E0[δ0(X ) | y
اﻳﻦ ﻓﺮم را ﺑﻌﻨﻮان ﺑﺮآوردﮔﺮ ﭘﻴﺘﻤﻦ ﭘﺎراﻣﺘﺮ θﻣﻲﺷﻨﺎﺳﻨﺪ. اﺛﺒﺎت :ﻓﺮض ﻛﻨﻴﺪ δ0(X ) = X nﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي θﺑﺎﺷﺪ .ﺑﻨﺎﺑﺮاﻳﻦ ) v * ( y ) = E0( X n | y
ﺣﺎل ﺗﺒﺪﻳﻞ زﻳﺮ را در ﻧﻈﺮ ﻣﻲﮔﻴﺮﻳﻢ: ⎧⎪Y i = X i − X n , i = 1,..., n − 1 ⎨ ⎪⎩W = X n
در اﻳﻦ ﺻﻮرت J = 1و
) ( y 1,...., y n −1,w ) = f ( y 1 + w ,...., y n −1 + w ,w
,W
fY
و ﺑﻨﺎﺑﺮاﻳﻦ ) ( y 1,..., y n −1,w
,W
fY
∫ f Y ,W ( y 1,..., y n −1,w )dw
= ) f X n Y| (w | y ) = f W Y| (w | y
f ( y 1 + w ,..., y n −1 + w ,w )dw
=
∫ f ( y 1 + w ,..., y n −1 + w ,w )dw ∫wf ( y 1 + w ,..., y n −1 + w ,w )dw = ) ⇒ v * ( y ) = E0(X n |Y ) = E0(W |Y ∫ f ( y 1 + w ,..., y n −1 + w ,w )dw Pitman Estimator
١
www.riazisara.ir
83
ﭘﺎﻳﺎﻳﻲ:ﻓﺼﻞ ﺳﻮم
∫wf (x 1 − x n + w ,..., x n −1 − x n + w ,w )dw ∫ f (x 1 − x n + w ,..., x n −1 − x n + w ,w )dw u = x −w ∫ uf (x 1 − u ,..., x n −1 − u , x n − u )du = xn − ∫ f (x 1 − u ,..., x n −1 − u , x n − u )du ∫ uf (x 1 − u ,..., x n − u )du ∴ δ * (x ) = x n − E0(X n |Y ) = ∫ f (x 1 − u ,..., x n − u )du = n
1 2
■
1 2
ﺑﺎﺷﺪ ﺑﺮآوردﮔﺮU (θ − ,θ + ) ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ ازX 1, X 2 ,..., X n ﻓﺮض ﻛﻨﻴﺪ:4-2ﻣﺜﺎل . را ﺑﺪﺳﺖ آورﻳﺪθ ﭘﺎراﻣﺘﺮMRE :ﺣﻞ n ⎧ n = I ( x ) ⎪∏ (θ − 1,θ + 1 ) i ∏ I (−1,1 ) (x i − θ ) = f (x 1 − θ ,...., x n − θ ) ⎪ i =1 i =1 2 2 22 f X (x ) = ⎨ ⎪I 1 1 (θ ) ⎪⎩ ( x ( n ) − 2,x (1) + 2 )
∴ δ * (x ) =
■
∫ uf (x − u )du ∫ f (x − u )du
=
∫ uI (x ∫ I (x
(n ) −
(n ) −
1 1 du ,x (1) + ) 2 2
1 1 du ,x (1) + ) 2 2
= .... =
x (1) + x ( n ) 2
. ﻧﻴﺴﺖUMVUE اﺳﺖ وﻟﻲθ ﺑﺮايMRE ﺑﺮآوردﮔﺮδ * (X ) =
X (1) + X ( n ) 2
ﭘﺲ
ﻣﻌﻠﻮم اﺳﺖb ﺑﺎﺷﻨﺪ ﻛﻪE (θ ,b ) ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ ازX 1, X 2 ,..., X n ﻓﺮض ﻛﻨﻴﺪ:5-2 ﻣﺜﺎل . را ﺑﺪﺳﺖ آورﻳﺪθ ﭘﺎراﻣﺘﺮMRE ﺑﺮآوردﮔﺮ :ﺣﻞ ⎧ n 1 − ( x i −θ )/b I (0,+∞ ) (x i − θ ) = f (x 1 − θ ,...., x n − θ ) ⎪∏ e ⎪ i =1 b f X (x ) = ⎨ ⎪ 1 e ( − nx + nθ )/b I ( −∞ ,x (1) ) (θ ) ⎪⎩b n
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
)x (1 ∞−
nu b
)x (1 ∞−
b b (u − )e n n − nu e b
b n
84
)x (1
=
u ( − nx + nu )/b du ∫ bn e ∞− )(1
= ∫ uf (x − u )du x ∫ f (x − u )du
= ) ∴ δ * (x
1 ( − nx + nu )/b du ∫ bn e ∞−
b n
= x (1) −
■
ﻛﻪ ﻫﻤﺎن ﺑﺮآوردﮔﺮ ﺑﺪﺳﺖ آﻣﺪه در ﻣﺜﺎل -3-2اﻟﻒ ﻣﻲﺑﺎﺷﺪ.
ﻗﻀﻴﻪ :4-2ﺑﺮآوردﮔﺮ ﭘﻴﺘﻤﻦ ﭘﺎراﻣﺘﺮ ﻣﻜﺎن ﺗﺎﺑﻌﻲ از آﻣﺎره ﺑﺴﻨﺪه اﺳﺖ. اﺛﺒﺎت :ﻓﺮض ﻛﻨﻴﺪ ) S = (S 1,...., S kﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﺗﻮام ﺑﺮاي θﺑﺎﺷﺪ .ﺑﻨﺎﺑﺮاﻳﻦ ﻃﺒﻖ ﻗﻀﻴﻪ ﺗﺠﺰﻳﻪ ﺑﻪ ﻋﻮاﻣﻞ دارﻳﻢ ﻛﻪ ) f (x 1 − θ ,..., x n − θ ) = g (S ,θ )h (x 1,..., x nﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ ﭘﻴﺘﻤﻦ ﭘﺎراﻣﺘﺮ θﻋﺒﺎرت اﺳﺖ از
) ∫ uf (x − u )du = ∫ ug (S ,u )h (x )du = ∫ ug (S ,u )du = k (S ∫ f (x − u )du ∫ g (S ,u )h (x )du ∫ g (S ,u )du
= ) ■ δ * (x
ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﺜﺎلﻫﺎي ﺑﺎﻻ دﻳﺪه ﻣﻲﺷﻮد ﻛﻪ ﺑﺮاي ﺑﺮآورد ﭘﺎراﻣﺘﺮ ﻣﻜﺎن ارﺗﺒﺎﻃﻲ ﺑﻴﻦ ﺑﺮآوردﮔﺮﻫﺎي MREو ﻧﺎارﻳﺐ و UMVUEوﺟﻮد دارد .اﻳﻦ ارﺗﺒﺎط در ﻗﻀﻴﻪ زﻳﺮ آورده ﺷﺪه اﺳﺖ: ﻗﻀﻴﻪ :5-2ﻓﺮض ﻛﻨﻴﺪ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت ﺑﺮاي ﺑﺮآورد ﭘﺎراﻣﺘﺮ ﻣﻜﺎن اﻟﻒ -اﮔﺮ ) δ (Xﻫﺮ ﺑﺮآورد ﻫﻢﭘﺎﻳﺎ ﺑﺎ ارﻳﺐ ﺛﺎﺑﺖ bﺑﺎﺷﺪ آﻧﮕﺎه δ (X ) − bﻳﻚ ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ و ﻧﺎارﻳﺐ ﻣﻲﺑﺎﺷﺪ و داراي ﻣﺨﺎﻃﺮه ﻛﻤﺘﺮي ﻧﺴﺒﺖ ﺑﻪ ) δ (Xاﺳﺖ. ب -ﺑﺮآوردﮔﺮ ﻳﻜﺘﺎي MREﻳﻚ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ اﺳﺖ. ج -اﮔﺮ ﺑﺮآوردﮔﺮ UMVUﻣﻮﺟﻮد ﺑﺎﺷﺪ و ﻫﻢﭘﺎﻳﺎ ﺑﺎﺷﺪ آﻧﮕﺎه ﻳﻚ ﺑﺮآوردﮔﺮ MREاﺳﺖ. اﺛﺒﺎت :اﻟﻒ(ﻫﻢﭘﺎﻳﺎ ﺑﻮدن و ﻧﺎارﻳﺐ ﺑﻮدن δ (X ) − bواﺿﺢ اﺳﺖ. ] R (θ , δ − b ) = E θ [(δ (X ) − b − θ )2 2 ] = E θ ⎡(δ (X ) − θ ) ⎤ + b 2 − 2bE θ [δ (X ) − θ ⎣ ⎦
) = R (θ , δ ) − b 2 < R (θ , δ
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
85
ب -ﻓﺮض ﻛﻨﻴﺪ ) δ (Xﻳﻚ ﺑﺮآوردﮔﺮ ﻳﻜﺘﺎي MREﺑﺎﺷﺪ وﻟﻲ ﻧﺎارﻳﺐ ﻧﺒﺎﺷﺪ و داراي ارﻳﺐ bﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت ﻃﺒﻖ ﻗﺴﻤﺖ )اﻟﻒ( δ (X ) − bﻳﻚ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ ﺑﺎ ﻣﺨﺎﻃﺮه ﻛﻤﺘﺮ ﻧﺴﺒﺖ ﺑﻪ ) δ (X
اﺳﺖ ﻛﻪ اﻳﻦ ﺑﺎ ﻳﻜﺘﺎ ﺑﻮدن ﺑﺮآوردﮔﺮ δ (X ) ، MREﻣﺘﻨﺎﻗﺾ اﺳﺖ .ﭘﺲ ) δ (Xﻧﺎارﻳﺐ ﻣﻲﺑﺎﺷﺪ. ج -اﮔﺮ ) δ (Xﻳﻚ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ و UMVUﺑﺎﺷﺪ آﻧﮕﺎه اﻳﻦ ﺑﺮآوردﮔﺮ ﻣﻘﺪار ﻣﺨﺎﻃﺮه را ﻣﻴﻨﻴﻤﻢ ﻣﻲﻛﻨﺪ .ﭘﺲ ﻳﻚ ﺑﺮآوردﮔﺮ MREاﺳﺖ.
■
ﺗﻮﺟﻪ :در ﻣﺜﺎلﻫﺎي ﻓﻮق دﻳﺪﻳﻢ ﻛﻪ اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﻧﺒﺎﺷﺪ آﻧﮕﺎه ﻣﻤﻜﻦ اﺳﺖ ﺑﺮآوردﮔﺮ MRE ﻳﻚ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﻧﺒﺎﺷﺪ .ﻣﻔﻬﻮم ﻣﻌﻤﻮل ﻧﺎارﻳﺒﻲ اﻳﻦ اﺳﺖ ﻛﻪ E θ [δ (X )] = θ ∀θ ∈ Θ
و اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺎﺷﺪ آﻧﮕﺎه ] R (θ , δ ) = E θ [(δ (X ) − θ )2ﻣﻮﻗﻌﻲ ﺑﻪ ازاي ﻫﺮ θ ∈ Θ ﻣﻴﻨﻴﻤﻢ ﻣﻘﺪار ﺧﻮد را ﺑﺪﺳﺖ ﻣﻲآورد ﻛﻪ ]) θ = E θ [δ (Xﺑﺎﺷﺪ ﺑﻨﺎﺑﺮاﻳﻦ ∀θ ′ ≠ θ
])E θ [(δ (X ) − θ )2 ] ≤ E θ [(δ (X ) − θ ′
ﻳﻌﻨﻲ ﻣﺘﻮﺳﻂ ﻓﺎﺻﻠﻪ ) δ (Xﺑﺎ ﻣﻘﺪار واﻗﻌﻲ ﭘﺎراﻣﺘﺮ ،ﻳﻌﻨﻲ ] E θ [(δ (X ) − θ )2ﻛﻤﺘﺮ اﺳﺖ از ﻣﺘﻮﺳﻂ ﻓﺎﺻﻠﻪ ) δ (Xاز ﻫﺮ ﻣﻘﺪار دﻳﮕﺮ ﭘﺎراﻣﺘﺮ .اﻳﻦ ﻣﻄﻠﺐ راه ﮔﺸﺎي ﺗﻌﺮﻳﻔﻲ ﺑﺮاي ﻧﺎارﻳﺒﻲ ﺗﺤﺖ ﺗﻮاﺑﻊ زﻳﺎن دﻳﮕﺮ اﺳﺖ.
■
ﺗﻌﺮﻳﻒ) :1-2ﻣﺨﺎﻃﺮه ﻧﺎارﻳﺐ :(1ﻓﺮض ﻛﻨﻴﺪ در ﻳﻚ ﻣﺴﺌﻠﻪ ﺑﺮآوردﻳﺎﺑﻲ ﺗﺎﺑﻊ زﻳﺎن )) L (θ , δ (Xﺑﺎﺷﺪ. ﺑﺮآوردﮔﺮ ) δ (Xرا ﻣﺨﺎﻃﺮه ﻧﺎارﻳﺐ ﮔﻮﻳﻨﺪ ﻫﺮﮔﺎه ■
∀θ ′ ≠ θ
])) E θ [L (θ , δ (X ))] ≤ E θ [L (θ ′, δ (X
ﻣﺜﺎل) :6-2ﻧﺎارﻳﺒﻲ ﻣﻴﺎﻧﻪ( :اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﻗﺪرﻣﻄﻠﻖ ﺧﻄﺎ ﺑﺎﺷﺪ آﻧﮕﺎه | δ − θ | f (δ )d δ
∞+
∫ = ]| g (θ ) = E θ [L (θ , δ (X ))] = E [| δ (X ) − θ
∞−
(δ − θ )f (δ )d δ
■
)) f (δ )d δ ⇒ θ = med θ (δ (X
∞+
∞+
θ
∫ = f (δ )d δ
θ
θ
∫ = ∫ (θ − δ )f (δ )d δ + ∞−
θ
∞∫−
⇒
g ′(θ ) = 0
Risk-unbiased
١
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
86
ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻗﻀﻴﻪ -5-2ب ﻣﻲﺧﻮاﻫﻴﻢ ﻧﺸﺎن دﻫﻴﻢ ﻛﻪ ﺑﺮآوردﮔﺮ MREﻳﻚ ﺑﺮآوردﮔﺮ ﻣﺨﺎﻃﺮه ﻧﺎارﻳﺐ اﺳﺖ .ﺑﺮاي اﻳﻦ ﻣﻨﻈﻮر از ﻟﻢ زﻳﺮ اﺳﺘﻔﺎده ﻣﻲﻛﻨﻴﻢ. ﻟﻢ :1-2اﮔﺮ Gﻳﻚ ﮔﺮوه ﺟﺎﺑﺠﺎﻳﻲ )آﺑﻠﻲ( ﺑﺎﺷﺪ و δﻳﻚ ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ ﺗﺤﺖ ﮔﺮوه Gﺑﺎﺷﺪ آﻧﮕﺎه ) G (δﺑﺮاي ﻫﺮ g ∈ Gﻳﻚ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ اﺳﺖ. اﺛﺒﺎت :ﺑﺮاي ﻫﺮ g * ∈ Gدارﻳﻢ ﻛﻪ )(1
)(2
) )) g (δ ( g * (X )) ) = g ( g * (δ ( X )) ) = g * ( g (δ (X
ﻛﻪ در آن ) (1از ﻫﻢﭘﺎﻳﺎ ﺑﻮدن δو ) (2از آﺑﻠﻲ ﺑﻮدن Gﺑﺪﺳﺖ ﻣﻲآﻳﺪ .ﻳﻌﻨﻲ ) g (δﻳﻚ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ اﺳﺖ.
■
ﻗﻀﻴﻪ :6-2اﮔﺮ Gﻳﻚ ﮔﺮوه اﻧﺘﻘﺎﻟﻲ و Gﻳﻚ ﮔﺮوه ﺟﺎﺑﺠﺎﻳﻲ ﺑﺎﺷﺪ آﻧﮕﺎه ﺑﺮآوردﮔﺮ MREﻳﻚ ﺑﺮآوردﮔﺮ ﻣﺨﺎﻃﺮه ﻧﺎارﻳﺐ اﺳﺖ. اﺛﺒﺎت :ﻓﺮض ﻛﻨﻴﺪ δﺑﺮآوردﮔﺮ MREﺑﺎﺷﺪ و . θ ′,θ ∈ Gﭼﻮن Gاﻧﺘﻘﺎﻟﻲ اﺳﺖ ﭘﺲ
g∈ G
ﻣﻮﺟﻮد اﺳﺖ ﺑﻄﻮري ﻛﻪ ) θ = g (θ ′و ﺑﻨﺎﺑﺮاﻳﻦ )*(
)**(
(
)
]) E θ [L (θ ′, δ (X ) )] = E θ [L g −1(θ ), δ (X ) ] = E [L (θ , g (δ (X ))) ) ≥ E θ [L (θ , δ (X
ﻛﻪ در آن ﺗﺴﺎوي )*( از ﭘﺎﻳﺎﻳﻲ ﺗﺎﺑﻊ زﻳﺎن و ﻧﺎﻣﺴﺎوي )**( از ﻟﻢ 1-2و MREﺑﻮدن δﺣﺎﺻﻞ ﻣﻲﮔﺮدﻧﺪ .ﭘﺲ δﺑﺮآوردﮔﺮ ﻣﺨﺎﻃﺮه ﻧﺎارﻳﺐ اﺳﺖ.
■
ﻧﺘﻴﺠﻪ :3-2ﺗﺤﺖ ﮔﺮوه ﺗﺒﺪﻳﻼت ﻣﻜﺎن Gو ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ،ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ θ
ﻣﺨﺎﻃﺮه-ﻧﺎارﻳﺐ)ﻧﺎارﻳﺐ – ﻣﻴﺎﻧﮕﻴﻦ( اﺳﺖ.
ﺑﺨﺶ :3ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ ﻣﻘﻴﺎس
■
1
ﻓﺮض ﻛﻨﻴﺪ ) X = (X 1,… , X nداراي ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ﺗﻮام σ >0
⎞ x ⎛x ⎞ 1 ⎛x ⎟ f ⎜ ⎟ = n f ⎜ 1 ,..., n ⎠ σ σ ⎝σ ⎠ σ ⎝σ
1
n
MRE Estimator of scale-parameter
١
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
87
ﺑﺎﺷﺪ ﻛﻪ در آن fﻣﻌﻠﻮم و σﭘﺎراﻣﺘﺮ ﻣﻘﻴﺎس ﻧﺎﻣﻌﻠﻮم اﺳﺖ .اﮔﺮ ﮔﺮوه ﺗﺒﺪﻳﻼت زﻳﺮ را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ }= {g c : g c (x 1, x 2 ,…, x n ) = (cx 1,… , cx n ) = cx , c > 0
G
آﻧﮕﺎه ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻓﻮق ﻧﺴﺒﺖ ﺑﻪ اﻳﻦ ﺗﺒﺪﻳﻞ ﭘﺎﻳﺎ اﺳﺖ ﻫﺮﮔﺎه ﮔﺮوه ﺗﺒﺪﻳﻼت Gﺑﺼﻮرت زﻳﺮ }= {g c : g c (σ ) = cσ , c > 0
ﺑﺎﺷﺪ
G
ﻛﻪ ﻳﻚ ﮔﺮوه اﻧﺘﻘﺎﻟﻲ از ﺗﺒﺪﻳﻼت اﺳﺖ .در ﺑﺮآورد ﭘﺎراﻣﺘﺮ h (σ ) = σ rﺗﺤﺖ ﺗﺒﺪﻳﻞ h (σ ) ، Gداراي ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ اﺳﺖ اﮔﺮ ) h ( g (σ )) = g (h (σ )) ⇔ (cσ )r = g (σ r }= {g c : g c (δ ) = c r σ , c > 0
ﺑﻨﺎﺑﺮاﻳﻦ ﮔﺮوه ﺗﺒﺪﻳﻼت Gﺑﺼﻮرت زﻳﺮ اﺳﺖ
G
ﺑﻨﺎﺑﺮاﻳﻦ ﺗﺤﺖ ﮔﺮوه Gﺗﺎﺑﻊ زﻳﺎن ) L (σ , δﭘﺎﻳﺎ اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ ⎞ ⎛ δ ⎟ L ( g (σ ), g (δ )) = L (σ , δ ) ⇔ L (cσ , c δ ) = L (σ , δ ) ⇔ L (σ , δ ) = γ ⎜ r ⎠ ⎝σ )*(
r
δ δ γ ) = ( ) σr σr
اﺛﺒﺎت)*(:
⇒ L (σ , δ ) = L (1,
1
σ
= ⇒) c
c rδ δ ) ) = γ ( r ) = L (σ , δ ( ⇐) L (cσ , c δ ) = γ r σ ) (cσ r
δ ﺑﻨﺎﺑﺮاﻳﻦ اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم ) σr δ δ اﺳﺖ .ﺑﺮاي ﻣﺜﺎل L (σ , δ ) = (1 − r )2و | L (σ , δ ) =| 1 − rاز اﻳﻦ ﻧﻮع ﺗﺎﺑﻊ زﻳﺎن ﻫﺴﺘﻨﺪ. σ σ ﻫﻤﭽﻨﻴﻦ ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎ در اﻳﻦ ﺣﺎﻟﺖ ﺑﺼﻮرت زﻳﺮ ﻣﻲﺑﺎﺷﻨﺪ
( L (σ , δ ) = γﺑﺎﺷﺪ آﻧﮕﺎه ﻣﺴﺌﻠﻪ ﻣﺎ ﺗﺤﺖ ﮔﺮوه ﺗﺒﺪﻳﻼت Gﭘﺎﻳﺎ
) δ ( g ( X ) ) = g (δ ( X ) ) ⇔ δ (cX ) = c r δ ( X
از ﺟﻤﻠﻪ ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎي ﭘﺎراﻣﺘﺮ (r = 1)σﻋﺒﺎرﺗﻨﺪ از 1 n (X i − X )2 ∑ n − 1 i =1
= S
1 n | ∑| X i − X n i =1
=D
ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺑﺮآوردﮔﺮ MREدر اﻳﻦ ﺣﺎﻟﺖ از ﻗﻀﻴﻪ زﻳﺮ اﺳﺘﻔﺎده ﻣﻲﻛﻨﻴﻢ.
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
88
ﻗﻀﻴﻪ :1-3اﮔﺮ ) δ0(Xﻫﺮ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي σ rﺑﺎﺷﺪ آﻧﮕﺎه ﺷﺮط ﻻزم و ﻛﺎﻓﻲ ﺑﺮاي آﻧﻜﻪ ﺑﺮاوردﮔﺮ ) δ (Xﺑﺮاي σ rﻫﻢﭘﺎﻳﺎ ﺑﺎﺷﺪ آن اﺳﺖ ﻛﻪ ) δ0(x
)(1
) U (x
= ) δ (x
ﻛﻪ در آن ) U (xﻫﺮ ﺗﺎﺑﻊ ﭘﺎﻳﺎ ﻧﺴﺒﺖ ﺑﻪ Gاﺳﺖ ﻳﻌﻨﻲ ) U (cx ) = U ( x
)(2
اﺛﺒﺎت :ﻓﺮض ﻛﻨﻴﺪ) (1و ) (2ﺑﺮﻗﺮار ﺑﺎﺷﻨﺪ در اﻳﻦ ﺻﻮرت ) c r δ0(x ) = c r δ (x ) U (x
=
) δ0(cx ) U (cx
= ) δ (cx
ﭘﺲ ) δ (xﻳﻚ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ اﺳﺖ .ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ ) δ (xﺑﺮآوردﮔﺮي ﻫﻢﭘﺎﻳﺎ ﺑﺎﺷﺪ ﻗﺮار ﻣﻲدﻫﻴﻢ. ) δ0(x ) δ (x
= ) U (xدر اﻳﻦ ﺻﻮرت راﺑﻄﻪ ) (1ﺑﺮﻗﺮار اﺳﺖ و ﻫﻤﭽﻨﻴﻦ ) δ0(cx ) c r δ0(x ) δ0(x = ) U (cx = = ) = U (x ) δ (cx ) c r δ (x ) δ (x
■ Xi Xn اﮔﺮ ﻗﺮار دﻫﻴﻢ ) Z = ( Z 1,..., Z nﻛﻪ = i = 1,..., n − 1, Z n Xn | |X n
= ) Z iو Z = cاﮔﺮn =۱
ﺑﺎﺷﺪ( آﻧﮕﺎه Zﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل ﻧﺴﺒﺖ ﺑﻪ Gاﺳﺖ و ﻃﺒﻖ ﻗﻀﻴﻪ 4-1ﺗﺎﺑﻊ ) U (xﭘﺎﻳﺎ اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ ﺗﺎﺑﻌﻲ از ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل Zﺑﺎﺷﺪ .ﺑﻨﺎﺑﺮاﻳﻦ از ﻗﻀﻴﻪ 1-3ﻧﺘﻴﺠﻪ ﻣﻲ ﺷﻮد ﻛﻪ:
ﻧﺘﻴﺠﻪ :1-3اﮔﺮ δ0ﻫﺮ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي σ rﺑﺎﺷﺪ آﻧﮕﺎه ﺷﺮط ﻻزم و ﻛﺎﻓﻲ ﺑﺮاي اﻳﻦ ﻛﻪ ﺑﺮآوردﮔﺮ δ ﺑﺮاي σ rﻫﻢﭘﺎﻳﺎ ﺑﺎﺷﺪ اﻳﻦ اﺳﺖ ﻛﻪ ﺗﺎﺑﻊ wاز nﻣﺘﻐﻴﺮ Xi Xn = i = 1,..., n − 1, Z n Xn | |X n
وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﺑﻄﻮري ﻛﻪ
) δ0( x ) w (z
= Zi
= ) δ (x
■
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
89
ﺣﺎل ﭼﻮن ﮔﺮوه Gاﻧﺘﻘﺎﻟﻲ اﺳﺖ و Zﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل اﺳﺖ در اﻳﻦ ﺻﻮرت ﻃﺒﻖ ﻗﻀﻴﻪ 7-1 ⎞ ) ⎛ δ0(X ) δ0(X ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎي = ) δ ( Xﻛﻪ اﻣﻴﺪ ﺷﺮﻃﻲ ] ⎟ | z ) w (Z ⎠ ) ⎝ w (z
⎜ E σ =1[γرا ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ
ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ σ rاﺳﺖ .ﺣﺎل اﮔﺮ ) w * (zاﻳﻦ اﻣﻴﺪ ﺷﺮﻃﻲ را ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ آﻧﮕﺎه ) δ0(X
) w * (z
= ) δ (Xﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ σ rاﺳﺖ.
ﻟﻢ :1-3ﻓﺮض ﻛﻨﻴﺪ Xﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﻣﺜﺒﺖ ﺑﺎﺷﺪ 2
) E (X 2 ⎛X ⎞ اﻟﻒ -اﮔﺮ ∞ < ) E (X 2آﻧﮕﺎه ⎟ E ⎜ − 1ﻣﻘﺪار ﻣﻴﻨﻴﻤﻢ ﺧﻮد را ﺑﻪ ازاي ) E (X ⎝c ⎠
= cﺑﺪﺳﺖ
ﻣﻲآورد. ⎛X
⎞
ب -اﮔﺮ ∞ < ) E (Xو Xداراي ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ fﺑﺎﺷﺪ آﻧﮕﺎه ⎟ E ⎜ − 1ﻣﻘﺪار ﻣﻴﻨﻴﻤﻢ ﺧﻮد را ﺑﻪ ⎝ c ⎠ ازاي ﻣﻘﺪار cﺑﺪﺳﺖ ﻣﻲآورد ﻛﻪ در راﺑﻄﻪ زﻳﺮ ﺻﺪق ﻛﻨﺪ xf (x )dx
∞+
c
∫0 xf (x )dx =∫c
)ﻫﺮ ﻣﻘﺪاري cﻛﻪ در راﺑﻄﻪ ﻓﻮق ﺻﺪق ﻣﻲ ﻛﻨﺪ را ﻣﻴﺎﻧﻪ – ﻣﻘﻴﺎس 1ﺗﻮزﻳﻊ Xﻣﻲﻧﺎﻣﻨﺪ( ■
اﺛﺒﺎت :ﺗﻤﺮﻳﻦ.
ﻧﺘﻴﺠﻪ :2-3در ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻣﻘﻴﺎس و ﺗﺤﺖ ﺗﺒﺪﻳﻼت ﻣﻘﻴﺎس Gدارﻳﻢ ﻛﻪ ⎞ ⎛ δ ⎞ اﻟﻒ -اﮔﺮ ⎟⎟ = ⎜ r − 1 ⎠ ⎝σ ⎠ 2
⎛ δ ) γ ⎜ rﻓﺮم ( Aآﻧﮕﺎه ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ σﻋﺒﺎرتاﺳﺖ از ⎝σ r
] δ0(X )E1[δ0(X ) | z ] E1[δ02 (X ) | z ⎞ δ ب -اﮔﺮ ⎟ = r − 1 ⎠ σ
δ ⎝σ r
⎛⎜ ) γﻓﺮم ( Bآﻧﮕﺎه
) δ0(X *
) w (z
= ) δ * (X
= ) δ * (Xﻛﻪ در آن ) w * (zﻫﺮ ﻣﻴﺎﻧﻪ ﻣﻘﻴﺎس
ﺗﻮزﻳﻊ ) δ0(Xﺑﻪ ﺷﺮط Zﺑﺎ σ = 1ﻣﻲﺑﺎﺷﺪ. اﺛﺒﺎت :ﺗﻤﺮﻳﻦ.
■ Scale-median
١
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
⎞ ﻣﺜﺎل ) :1-3ﺣﺎﻟﺖ ( n = 1اﮔﺮ Xداري ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ⎟ ⎠ Xr ﻣﻘﺪار ﺛﺎﺑﺖ اﺳﺖ و ﻃﺒﻖ ﻣﻄﺎﻟﺐ ﻓﻮق *w
⎤⎞ ﻣﻘﺪاري اﺳﺖ ﻛﻪ ⎥ ⎟⎟ ⎦⎥ ⎠
⎡ ⎛X r ⎜⎜ E1 ⎢γ ⎢⎣ ⎝ w
⎛x ⎜ f σ ⎝σ 1
90
ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت ) w * (zﻳﻚ
= ) δ * (Xﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ σ rاﺳﺖ ﻛﻪ * w
را ﻣﻴﻨﻴﻤﻢ ﻣﻲﻛﻨﺪ .ﺑﻨﺎﺑﺮاﻳﻦ ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﻓﺮم ، A
) X r E1(X r Xr * = ) δ (Xو ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم δ (X ) = * ، Bﻛﻪ wﻫﺮ ﻣﻴﺎﻧﻪ ﻣﻘﻴﺎس ) E 1 ( X 2r w *
*
ﺗﻮزﻳﻊ X rﻣﻲﺑﺎﺷﺪ ،ﺑﺮآوردﮔﺮﻫﺎي MREﭘﺎراﻣﺘﺮ σ rﻫﺴﺘﻨﺪ.
■
ﻣﺜﺎل :2-3ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) N (0,σ 2ﺑﺎﺷﻨﺪ ﺑﺮآوردﮔﺮ MRE ﭘﺎراﻣﺘﺮ σ 2را ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم Aﺑﺪﺳﺖ آورﻳﺪ. 1 x 2
) ( − 1 1 x = ) f X (x ) ( e 2σ = f σ σ σ 2π
ﺣﻞ: n
ﻗﺮار ﻣﻲدﻫﻴﻢ δ0(X ) = ∑ X i2در اﻳﻦ ﺻﻮرت ) δ0(Xآﻣﺎره ﺑﺴﻨﺪه ﻛﺎﻣﻞ ﺑﺮاي σو ﻫﻤﭽﻨﻴﻦ 2
i =1
ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي σ 2اﺳﺖ )زﻳﺮا ) ( δ0(cX ) = c 2δ0(Xو ﻃﺒﻖ ﻗﻀﻴﻪ ﺑﺎﺳﻮ از آﻣﺎره ﻓﺮﻋﻲ ) Zﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل( ﻣﺴﺘﻘﻞ اﺳﺖ .ﺑﻨﺎﺑﺮاﻳﻦ n
n ∑ X i2
2 2 ) ) δ0( X ) E1[δ0(X )] ∑ X i E ( χ ( n 1 n i =1 = = = = ) δ (X ∑X i ]) E 1[δ02 (X ] E 1[( χ (2n ) )2 2n + n 2 n + 2 i =1 *
■
ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ اﻳﻦ ﺑﺮآوردﮔﺮ ﻣﺨﺎﻃﺮه ﻧﺎارﻳﺐ اﺳﺖ.
ﻣﺜﺎل :3-3ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) U (0,θﺑﺎﺷﻨﺪ ﺑﺮآوردﮔﺮ MRE ﭘﺎراﻣﺘﺮ θرا ﺗﺤﺖ ﺗﻮاﺑﻊ زﻳﺎن Aو Bﺑﺪﺳﺖ آورﻳﺪ. ﺣﻞ:
⎞ ⎞ 1 ⎛x ⎟ ⎜ ⎟= f ⎠ ⎠ θ ⎝θ
⎛x ⎜ ) I (01, θ ⎝θ 1
= ) I (0,θ ) (x
1
θ
= ) f X (x
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
91
ﻗﺮار ﻣﻲ دﻫﻴﻢ ) δ0(X ) = X ( nﺑﻨﺎﺑﺮاﻳﻦ ) δ0(Xآﻣﺎره ﺑﺴﻨﺪه ﻛﺎﻣﻞ ﺑﺮاي θاﺳﺖ و ﻫﻤﭽﻨﻴﻦ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي θاﺳﺖ .ﺑﻨﺎﺑﺮاﻳﻦ از آﻣﺎره ﻓﺮﻋﻲ )ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل( Zﻣﺴﺘﻘﻞ اﺳﺖ .درﻧﺘﻴﺠﻪ اﻟﻒ -ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم Aﺑﺎ ، r =۱ ⎞ ⎛ n ⎜ ) X (n ⎟ ) ) X ( n ) E 1(X ( n n +1⎠ n + 2 * ⎝ ( ) ))(X ( n ) ~ Be (n ,1 = δ X = = ) x (n n n +1 ) ) E1( X (2n n +2 X ب -ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم Bﺑﺎ δ * (X ) = ( n* ) ، r = 1ﻛﻪ در آن * wﻫﺮ ﻣﻴﺎﻧﻪ ﻣﻘﻴﺎس ﺗﻮزﻳﻊ ) X ( n w
ﺑﺎ θ = 1اﺳﺖ .ﻳﻌﻨﻲ 1 1 ) x ( nx n −1 )dx = ∫ * x ( nx n −1 )dx ⇒ ... ⇒ w * = n +1 ⇒ δ * ( X ) = n +1 2X ( n w 2
*w
∫0 ■
ﺑﺮآوردﮔﺮ ﭘﻴﺘﻤﻦ: اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم Aﺑﺎﺷﺪ آﻧﮕﺎه ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ ﻣﻘﻴﺎس را ﺑﻔﺮم راﺣﺖﺗﺮي ﻣﻲﺗﻮان ﺑﺪﺳﺖ آورد. ﻗﻀﻴﻪ :2-3ﺗﺤﺖ ﮔﺮوه ﺗﺒﺪﻳﻼت ﻣﻘﻴﺎﺳﻲ Gو در ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻣﻘﻴﺎﺳﻲ و ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم A ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ ﻣﻘﻴﺎس σ rﻋﺒﺎرت اﺳﺖ از (ν x 1,...,ν x n )dν (ν x 1,...,ν x n )dν
+∞ n + r −1 ν f 0 +∞ n +2r −1 ν f 0
∫ ∫
] δ0(x )E1[δ0(x ) | z = ] E1[δ02 (x ) | z
= ) δ * (x
اﻳﻦ ﻓﺮم را ﺑﻌﻨﻮان ﺑﺮآورد ﭘﻴﺘﻤﻦ ﭘﺎراﻣﺘﺮ σ rﻣﻲﺷﻨﺎﺳﻨﺪ. اﺛﺒﺎت :ﺗﻤﺮﻳﻦ )ﻫﻤﺎﻧﻨﺪ اﺛﺒﺎت ﻗﻀﻴﻪ 3-2ﻣﻲ ﺑﺎﺷﺪ( . δ0(X ) = X nr
■
ﻣﺜﺎل :4-3ﻓﺮضﻛﻨﻴﺪ X 1, X 2 ,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ﻧﻤﺎﻳﻲ ﺑﺎ ﭘﺎراﻣﺘﺮ λﺑﺎﺷﻨﺪ .ﺑﺮآوردﮔﺮ ﭘﻴﺘﻤﻦ ﭘﺎراﻣﺘﺮ λرا ﺑﺪﺳﺖ آورﻳﺪ.
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
92
ﺣﻞr =۱ :
x ⎛x f ⎜ 1 ,..., n λ λ ⎝λ
n x −∑ i
x − i
⎞ n ) ⎟ = ν f (ν x 1,...,ν x n λ ⎠ i =1 λ )Γ(n + 1 +∞ n +∞ n −ν x ∑ i dν (∑ x i ) n +1 ∑ x i ∫0 ν f (ν x )dν = ∫0 ν e ∞δ * (x ) = + = = +∞ n +1 −ν x )Γ(n + 2 n +1 ∑ n +1 i dν ∫0 ν f (ν x )dν ∫0 ν e n +2 ) (∑ x i 1
n
ﭘﺲﺑﺮآوردﮔﺮ MREﭘﺎرﻣﺘﺮ λﺑﺮاﺑﺮ
Xi
=
λ
i =1
e
1
n
=
λ
n
1 f X (x ) = ∏ e
∑ = ) δ * (Xاﺳﺖ)ﻛﻪ ﻣﺨﺎﻃﺮهﻧﺎارﻳﺐ ﻧﻴﺰ اﺳﺖ(.
n +1
■
ﻣﺜﺎل :5-3ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) U (0,θﺑﺎﺷﻨﺪ .ﺑﺮآوردﮔﺮ ﭘﻴﺘﻤﻦ ﭘﺎراﻣﺘﺮ θرا ﺑﺪﺳﺖ آورﻳﺪ. ﺣﻞ: ⎧ n 1 xi xi ⎞ xn 1 n 1 ⎛ x1 n = = I I f ( ) ( ) ,..., ) ⎪∏ (01, ∏ 01 ( , ) ⎜ ) ⎟ = ν f (ν x n n θ θ ⎠ θ θ i =1 θ ⎝θ ⎪ i =1 θ ⎨ = ) f X (x 1 1 ⎪ I =ν ) (θ ) = ν n I 1 (ν ) ∞n ( x ( n ) ,+ (0, ) θ ⎪ θ ) x (n ⎩ ) ν n +1 1 x ( n +∞ n 1 x (n ) n ∫0 ν f (ν x )dν = ∫0 ν dν = n + 1 0 = n + 2 x ∞δ * (x ) = + ) (n 1 x ( n ) n +1 n +1 ν n +2 1 x ( n ) n + 1 ( ) f x d d ν ν ν ν ν ∫0 ∫0 n +2 0
ﻛﻪ ﻫﻤﺎن ﺑﺮآوردﮔﺮ ﺑﺪﺳﺖ آﻣﺪه در ﻣﺜﺎل 3-3اﺳﺖ.
■
ﻗﻀﻴﻪ :3-3ﺑﺮآوردﮔﺮ ﭘﻴﺘﻤﻦ ﭘﺎراﻣﺘﺮ ﻣﻘﻴﺎس ﺗﺎﺑﻌﻲ از آﻣﺎره ﺑﺴﻨﺪه اﺳﺖ. اﺛﺒﺎت :ﺗﻤﺮﻳﻦ.
■
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
93
ﺑﺨﺶ :4ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮﻫﺎي ﻣﻜﺎن-ﻣﻘﻴﺎس ﻓﺮض ﻛﻨﻴﺪ ) X = (X 1,… , X nداراي ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ﺗﻮام )
x n −θ
σ
,...,
x1 −θ
σ
( f
1 n
σ
ﺑﺎﺷﻨﺪ ﻛﻪ در
آن fﻣﻌﻠﻮم و θو σﻫﺮ دو ﻧﺎﻣﻌﻠﻮم ﻫﺴﺘﻨﺪ .در زﻳﺮ ﺑﺮآوردﮔﺮﻫﺎي MERﺑﺮاي σو θرا ﺑﻪ ﻃﻮر ﺟﺪاﮔﺎﻧﻪ ﺑﺪﺳﺖ ﻣﻲآورﻳﻢ. اﻟﻒ -ﺑﺮآوردﮔﺮﻫﺎي MREﭘﺎراﻣﺘﺮ ﻣﻘﻴﺎس : σ ﻓﺮض ﻛﻨﻴﺪ ﺑﺨﻮاﻫﻴﻢ ﭘﺎراﻣﺘﺮ σ rرا ﺑﺮآورد ﻛﻨﻴﻢ .اﮔﺮ ﮔﺮوه ﺗﺒﺪﻳﻼت زﻳﺮ را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ. }G = {g a ,b | g a ,b (x ) = a + bx , a ∈ R , b > 0 آﻧﮕﺎه ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻓﻮق ﻧﺴﺒﺖ ﺑﻪ اﻳﻦ ﺗﺒﺪﻳﻞ ﭘﺎﻳﺎ اﺳﺖ ﻫﺮﮔﺎه ﮔﺮوه ﺗﺒﺪﻳﻼت Gﺑﻪ ﺻﻮرت زﻳﺮ ﺑﺎﺷﺪ. }= {g a ,b | g a ,b (θ , σ ) = (a + bθ , b σ ), a ∈ R , b > 0
G
ﻛﻪ ﻳﻚ ﮔﺮوه اﻧﺘﻘﺎﻟﻲ از ﺗﺒﺪﻳﻼت اﺳﺖ .در ﺑﺮآورد ﭘﺎراﻣﺘﺮ h (θ ,σ ) = σ rﺗﺤﺖ ﺗﺒﺪﻳﻞ h (σ ) ، G
داراي ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ اﺳﺖ اﮔﺮ ) h ( g (θ , δ )) = g ( h (θ , σ ) ) ⇔ h (a + bθ , b σ ) = g (σ r ) ⇔ b r σ r = g (σ r
ﺑﻨﺎﺑﺮاﻳﻦ ﮔﺮوه ﺗﺒﺪﻳﻼت Gﺑﻪ ﺻﻮرت زﻳﺮ اﺳﺖ. } = {g a ,b | g a ,b (δ ) = b r δ , b > 0, a ∈ R
G
ﺑﻨﺎﺑﺮاﻳﻦ ﺗﺤﺖ ﮔﺮوه Gﺗﺎﺑﻊ زﻳﺎن ) L (θ , σ , δﭘﺎﻳﺎ اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ ⎞ ⎛ δ ⎟ L (θ , σ , δ ) = γ ⎜ r ⎠ ⎝σ
1
σ
= ,b
−θ
σ
⇔
=a
) L (θ , σ , δ ) = L (a + bθ , bσ , b r δ
)ﺑﺮاي ﻣﺜﺎل ﺗﺎﺑﻊ زﻳﺎن ﻫﺎي ﺑﻔﺮم Aو .( B در اﻳﻦ ﺣﺎﻟﺖ ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎ ﺑﻔﺮم زﻳﺮ ﻣﻲﺑﺎﺷﻨﺪ. )(1
) ) δ ( g (X ) ) = g (δ ( X ) ) ⇔ δ (a + bX ) = b r (δ ( X
ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺑﺮآوردﮔﺮ MREدر اﻳﻦ ﺣﺎﻟﺖ ﺑﻪ ﺻﻮرت زﻳﺮ ﻋﻤﻞ ﻣﻲﻛﻨﻴﻢ .اﮔﺮ ﺗﻨﻬﺎ ﻳﻚ ﺗﻐﻴﻴﺮ در ﻣﻜﺎن داﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻳﻌﻨﻲ:
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
)(b = 1
) g (θ , σ ) = (θ + a , σ
94
g (x ) = x + a
) δ (a + bX ) = δ (X
در اﻳﻦ ﺻﻮرت راﺑﻄﻪ ) (1ﺑﺎ b = 1ﻧﺘﻴﺠﻪ ﻣﻲدﻫﺪ ﻛﻪ ﺑﺎﻳﺴﺘﻲ
ﻳﻌﻨﻲ δﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎ ﻧﺴﺒﺖ ﺑﻪ Gاﺳﺖ ﭘﺲ ﻃﺒﻖ ﻧﺘﻴﺠﻪ ،1-2
δﺗﺎﺑﻌﻲ از n −1
ﺗﻔﺎﺿﻞ Y i = X i − X n , i = 1,..., n − 1,ﻣﻲﺑﺎﺷﺪ .اﻣﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ﺗﻮام Y iﻫﺎ ﺑﺼﻮرت زﻳﺮ ﺑﺪﺳﺖ ﻣﻲآﻳﺪ: ⎞ ⎛w ⎟ ⎜ f σ ⎠ ⎝σ 1
n
= ) i = 1,..., n ⇒ f W (w ) = f X (w + θ ⇒ J =1
i = 1,..., n − 1
⎞ y n −1 + t t ⎛ y1 +t ,..., ⎟ , f ⎜ σ ⎠σ σn ⎝ σ 1
W i = X i −θ
⎧Y i = X i − X n =W i −W n ⎨ ⎩ T =W n
= ) ( y , t ) = f W ( y 1 + t ,..., y n −1 + t , t
⎞ y +t t ⎛ y1 +t ,..., n −1 , ⎟ dt ⎜ σ ⎠σ ⎝ σ
∞+
∫−∞ f
1 n
σ
= ) ⇒ fY (y
⎞ y y n −1 1 ⎛ y1 ⎞ ⎛* + + = ,..., , f u u u du f ⎟ ⎜ ⎜ ⎟ σ σ n −1 ∫−∞ ⎝ σ ⎠ σ n −1 ⎝ σ ⎠ ∞+
,T
fY
1
t
σ
=u
=
ﺑﻨﺎﺑﺮاﻳﻦ ﺗﻮزﻳﻊ ) Y = (Y 1,… ,Y n −1ﺑﻪ ﻳﻚ ﺧﺎﻧﻮاده ﻣﻘﻴﺎس ﻣﺘﻌﻠﻖ اﺳﺖ در ﻧﺘﻴﺠﻪ در اﻳﻦ ﺧﺎﻧﻮاده ﺑﺮاي ﺑﺮآورد ﭘﺎراﻣﺘﺮ σ rاز ﺑﺮآوردﮔﺮﻫﺎي MREﺑﺪﺳﺖ آﻣﺪه در ﺑﺨﺶ ﻗﺒﻞ اﺳﺘﻔﺎده ﻣﻲﻛﻨﻴﻢ .ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ σ rﺑﻔﺮم ﭘﺎراﻣﺘﺮ σ rﺑﺮ
اﺳﺎس Y
Yi , i = 1, 2,..., n − 2 Y n −1
⎪⎫ ⎞ ) ⎧⎪ ⎛ δ0(Y ⎬ ⎟|z ⎪⎭ ⎠ ) ⎩⎪ ⎝ w (z
) δ0(Y *
) w (Z
= ) δ (Xاﺳﺖ ﻛﻪ ) δ0(Yﻫﺮ ﺑﺮآوردﮔﺮ ﭘﺎﻳﺎي ﻣﻘﻴﺎس
اﺳﺖ ) ) (δ (bY ) = b δ (Y r
0
0
= Z = ( Z 1,… , Z n −1), Z i
⎜ E σ =1 ⎨γرا ﻣﻴﻨﻴﻤﻢ ﻣﻲﻛﻨﺪ.
ﻛﻪ
در
آن
Y n −1 | |Y n −1
= Z n −1
و ) w * (zﻫﺮ ﻋﺪدي اﺳﺖ ﻛﻪ
و
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
95
2 ⎛ ⎛ δ ⎞ ⎞ ﻧﺘﻴﺠﻪ :1-4اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم ⎜ L (θ , σ , δ ) = ⎜ r − 1⎟ ⎟ Aﺑﺎﺷﺪ آﻧﮕﺎه ﺑﺮاوردﮔﺮ MRE ⎜ ⎝σ ⎠⎟ ⎠ ⎝
] δ0(Y )E σ =1[δ0(Y ) | z ] E σ =1[δ02 (Y ) | z
ﭘﺎراﻣﺘﺮ σ rﻋﺒﺎرت اﺳﺖ از ⎛ δ ⎞⎞ و اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم − 1⎟ ⎟ B r ⎝σ ⎠⎠
= ) δ * (X
⎛
⎜ = ) ⎜ L (θ ,σ , δﺑﺎﺷﺪ آﻧﮕﺎه ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ σ rﻋﺒﺎرت
) δ0(X
⎝
= ) δ * (Xﻛﻪ در آن ) w * (zﻫﺮ ﻣﻴﺎﻧﻪ ﻣﻘﻴﺎس ﺗﻮزﻳﻊ ) δ0(Yﺑﻪ ﺷﺮط Zﺑﺎ σ = 1
اﺳﺖ از
) w * (z
ﻣﻲﺑﺎﺷﺪ.
■
ﻣﺜﺎل :1-4ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) N ( μ ,σ 2ﺑﺎﺷﻨﺪ ﻛﻪ در آن μو σ 2ﻫﺮ دو ﻧﺎﻣﻌﻠﻮم ﻫﺴﺘﻨﺪ .ﺑﺮآورد MREﭘﺎراﻣﺘﺮ σ 2را ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎنﻫﺎي ﺑﻔﺮم Aو Bﺑﺪﺳﺖ آورﻳﺪ. n
ﺣﻞ T = (X , ∑ (X i − X )2 ) :ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﻛﺎﻣﻞ ﺑﺮاي μو σاﺳﺖ .ﻗﺮار ﻣﻲدﻫﻴﻢ 2
i =1
n
δ0 = ∑ (X i − X )2در اﻳﻦ ﺻﻮرت δ0ﻳﻚ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ ﺑﺮاي σ 2اﺳﺖ
)
i =1
(
) δ0(a + bX ) = b 2δ0(X ), δ0(Y ) = b 2δ0(Yو از آﻣﺎره ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل ) Zﻓﺮﻋﻲ( ﻣﺴﺘﻘﻞ
اﺳﺖ و
)δ0 ~ χ(2n −1) (σ = 1
اﻟﻒ -اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم Aﺑﺎﺷﺪ آﻧﮕﺎه )δ0E1(δ0 | z ) δ0E 1(δ0 1 n )δ0(n − 1 δ0 = = = = = ) δ (X ( X i − X )2 ∑ 2 2 2 n + 1 n + 1 i =1 ) E1(δ0 | z )E1(δ0 ) 2( n − 1) + (n − 1 *
D
ب -اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم Bﺑﺎﺷﺪ آﻧﮕﺎه * wﻣﻴﺎﻧﻪ-ﻣﻘﻴﺎس ﺗﻮزﻳﻊ δ0 | Z = δ0اﺳﺖ.
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ n −1 1 −1 − x 2 e 2 dx
n +1 1 −1 − x 2 e 2 dx
x
x
x
∞+
n −1 ⎛ 22 Γ
*w
⎞n −1 ⎜ ⎟ ⎠ ⎝ 2
x
∞+
n +1 ⎛ 22 Γ
*w
⎞n +1 ⎜ ⎟ ⎠ ⎝ 2
∫=
∫=
n −1 −1 − 1 x 2 e 2 dx
n +1 1 −1 − x 2 e 2 dx
x
x
x n −1 ⎛ 22 Γ
⎞n −1 ⎜ ⎟ ⎠ ⎝ 2 *w
1
n +1 ⎛ 22 Γ
⎞n +1 ⎜ ⎟ ⎠ ⎝ 2
96 *w
∫0
∫ ⇔ ⇔ .....
0
ﻳﻌﻨﻲ * wﻣﻴﺎﻧﻪ ﺗﻮزﻳﻊ ) χ (2n +1اﺳﺖ و ﺑﻨﺎﺑﺮاﻳﻦ ) w * = χ02/5 (n + 1و در ﻧﺘﻴﺠﻪ n 1 ( X i − X )2 ∑ 2 χ0/5 (n + 1) i =1
= ) δ * (X
■ 1 2
1 2
ﻣﺜﺎل :2-4ﻓﺮضﻛﻨﻴﺪ X 1, X 2 ,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ) U (θ − σ ,θ + σﺑﺎﺷﺪ. ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ σرا ﺗﺤﺖ ﺗﻮاﺑﻊ زﻳﺎن ﺑﻔﺮم Aو Bﺑﺪﺳﺖ آورﻳﺪ. )
ﺣﻞ:
x −θ
σ
( 11 ) (− , 22
I
1
σ
=)
1 1 (x ) (θ − ,θ + 2 2
I
1
σ
= ) f θ ,σ (x
) ) T = (X (1) , X ( nﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﺑﺮاي ) (θ ,σاﺳﺖ و ) δ0 = X ( n ) − X (1ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي σاﺳﺖ ﻛﻪ از آﻣﺎره ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل )ﻓﺮﻋﻲ( Zﻣﺴﺘﻘﻞ اﺳﺖ و اﮔﺮ σ = 1ﺑﺎﺷﺪ. 1 2
1 2
)δ0 = X ( n ) − X (1) = (X ( n ) − θ + ) − (X (1) − θ + ) =V ( n ) −V (1 D
)=V ( n −1) ~ Be (n − 1, 2
اﻟﻒ -اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم Aﺑﺎﺷﺪ آﻧﮕﺎه n −1 ) n +2 n +2 n +1 ) )(X ( n ) − X (1 = δ0 = )n (n − 1 n n )(n + 1)(n + 2
(δ0
] δ E [δ = δ * (X ) = 0 1 20 ] E1[δ0
ب -اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻪ ﻓﺮم Bﺑﺎﺷﺪ ﺑﺮآوردﮔﺮ σ ،MREرا ﺑﺪﺳﺖ آورﻳﺪ. }= {g b ( x ) = bx , b > 0 ﺗﻮﺟﻪ :ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ اﮔﺮ ﮔﺮوه ﺗﺒﺪﻳﻼت }= {g b (σ ) = b σ , b > 0
ﺑﺨﺶ ﻗﺒﻞ( آﻧﮕﺎه
■ G G
را ﺑﻪ ﻛﺎر ﻣﻲﺑﺮدﻳﻢ )ﻫﻤﺎﻧﻨﺪ
Gدﻳﮕﺮ ﻳﻚ ﮔﺮوه اﻧﺘﻘﺎﻟﻲ ﻧﺒﻮد و از روش ﺑﻜﺎر ﺑﺮده ﺷﺪه در اﻳﻦ ﻓﺼﻞ ﻧﻤﻲﺗﻮان
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
⎞ 2 1 r ﺑﺮآوردﮔﺮ σ ،MREرا ﺑﺪﺳﺖ آورد) .اﺷﺘﺎﻳﻦ ) (1964ﻧﺸﺎن داد ﻛﻪ ⎟ s ⎠
⎧ ⎫ nx 2 ⎪⎪ 1 1 + ⎪ ⎞ ⎛x ⎪ s ⎨ ψ ⎜ ⎟ = minﺗﺤﺖ ﺗﺒﺪﻳﻞ ﻓﻮق ﺑﺮاي , ⎬ ⎠ ⎝s ⎪ ⎪ n +1 n + 2 ⎩⎪ ⎭⎪ 1 n ﻛﻤﺘﺮي ﻧﺴﺒﺖ ﺑﻪ (X i − X )2 ∑ n + 1 i =1
97
⎜⎛ δ ( x ) = ψﻛﻪ
x ⎝s
σ 2در ﺗﻮزﻳﻊ ﻧﺮﻣﺎل داراي ﻣﺨﺎﻃﺮه
= δ0در ﻣﺜﺎل 1-4اﺳﺖ(
ب -ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ ﻣﻜﺎن θ ⎞ ﻓﺮض ﻛﻨﻴﺪ ﺑﺨﻮاﻫﻴﻢ ﭘﺎراﻣﺘﺮ ﻣﻜﺎن θرا در ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ⎟ ⎠
x n −θ ⎛ x1 −θ f ,..., ⎜ σ σn ⎝ σ 1
ﺑﺮآورد
ﻛﻨﻴﻢ .ﻫﻤﺎنﮔﻮﻧﻪ ﻛﻪ دﻳﺪﻳﻢ اﻳﻦ ﺧﺎﻧﻮاده ﺗﺤﺖ ﮔﺮوهﻫﺎي ﺗﺒﺪﻳﻼت } = {g a ,b | g a ,b (x ) = a + bx }) = {g a ,b | g a ,b (θ , σ ) = (a + bθ , bσ
G G
ﭘﺎﻳﺎ اﺳﺖ و در ﺑﺮآورد ﭘﺎراﻣﺘﺮ θﮔﺮوه ﺗﺒﺪﻳﻼت Gﺑﻪ ﺻﻮرت زﻳﺮ ﻣﻲﺑﺎﺷﺪ } = {g a ,b (δ ) = a + b δ
G
در اﻳﻦﺻﻮرت ﻣﺴﺌﻠﻪ ﻣﻮرد ﻧﻈﺮ ﺗﺤﺖ ﮔﺮوه Gﭘﺎﻳﺎ اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم زﻳﺮ ﺑﺎﺷﺪ ⎞ ⎛ δ −θ ⎜ L (θ , σ , δ ) = ρ ⎟ ⎠ ⎝ σ
1
σ
= ,b
−θ
σ
=a
⇔
) L (θ ,σ , δ ) = L (a + bθ , bσ , a + b δ
در اﻳﻦ ﺣﺎﻟﺖ ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎ ﺑﻪ ﻓﺮم زﻳﺮ ﻣﻲﺑﺎﺷﻨﺪ )(2
) δ ( g (X ) ) = g (δ (X ) ) ⇔ δ (a + bx ) = a + b δ (x
ﭼﻮن Gاﻧﺘﻘﺎﻟﻲ اﺳﺖ ﭘﺲ ﻣﺨﺎﻃﺮه ﻫﺮ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ ﺛﺎﺑﺖ اﺳﺖ .ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ θدو ﺣﺎﻟﺖ زﻳﺮ ﭘﻴﺶ ﻣﻲآﻳﺪ. ﺣﺎﻟﺖ اول :ﺑﺮاي ﻳﻚ ﻣﻘﺪار ﺛﺎﺑﺖ σﻗﺮار ﻣﻲدﻫﻴﻢ )
xn
σ
,...,
x1
σ
( f
1 n
σ
= ) g σ (x 1,…, x n Stein
١
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
98
ﺑﻨﺎﺑﺮاﻳﻦ ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻣﻜﺎن ﻣﻘﻴﺎس ﺑﻪ ﺻﻮرت زﻳﺮ ﺗﺒﺪﻳﻞ ﻣﻲﺷﻮد. ) g σ (x 1 − θ ,...., x n − θ
)(3 ﻛﻪ ﺑﻪ ﻳﻚ ﺧﺎﻧﻮاده ﻣﻜﺎن ﻣﺘﻌﻠﻖ اﺳﺖ.
⎞ δ −θ ⎜⎛ ρﻳﻚ ﺑﺮآوردﮔﺮ MRE ﻟﻢ :1-4ﻓﺮض ﻛﻨﻴﺪ ﺑﺮاي ﺧﺎﻧﻮاده ﻣﻜﺎن ) (3و ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم ⎟ ⎠ ⎝ σ * δﺑﺮاي θﺗﺤﺖ ﺗﺒﺪﻳﻼت ﻣﻜﺎن) }= {g a ( x ) = x + a
*
( Gﻣﻮﺟﻮد ﺑﺎﺷﺪ و
) δ * (iﺑﻪ σﺑﺴﺘﮕﻲ ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ ) δ * (iiدر راﺑﻄﻪ ) (2ﺻﺪق ﻛﻨﺪ. آﻧﮕﺎه * δﻣﺨﺎﻃﺮه را در ﺑﻴﻦ ﺗﻤﺎم ﺑﺮآوردﮔﺮﻫﺎﻳﻲ ﻛﻪ در ) (2ﺻﺪق ﻣﻲﻛﻨﻨﺪ ،ﻣﻴﻨﻴﻤﻢ ﻣﻲﻛﻨﺪ. اﺛﺒﺎت :ﻓﺮض ﻛﻨﻴﺪ δﻫﺮ ﺑﺮاوردﮔﺮ ﻫﻢﭘﺎﻳﺎي دﻳﮕﺮ ﻛﻪ در ) (2ﺻﺪق ﻣﻲﻛﻨﺪ ﺑﺎﺷﺪ ،ﺑﻨﺎﺑﺮاﻳﻦ δﺗﺤﺖ
*
G
ﻧﻴﺰ ﻫﻢﭘﺎﻳﺎ اﺳﺖ .ﻫﻤﭽﻨﻴﻦ ﻓﺮض ﻛﻨﻴﺪ ﻛﻪ σﻣﻘﺪاري ﻣﻌﻠﻮم ﺑﺎﺷﺪ .ﺑﻨﺎﺑﺮاﻳﻦ ﻃﺒﻖ ﻓﺮض ﻗﻀﻴﻪ در ﻣﻮرد * ، δ ﺑﺮاي اﻳﻦ ﻣﻘﺪار σﻣﺨﺎﻃﺮه * δﻛﻤﺘﺮ ﻳﺎ ﻣﺴﺎوي δاﺳﺖ و ﭼﻮن اﻳﻦ ﻣﻮﺿﻮع ﺑﺮاي ﻫﺮ σﺑﺮﻗﺮار اﺳﺖ ﭘﺲ * δﺑﺮآوردﮔﺮ MREدر ﺑﻴﻦ ﺗﻤﺎم ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎي ) (2اﺳﺖ.
■
ﻣﺜﺎل :3-4ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) N ( μ ,σ 2ﺑﺎﺷﻨﺪ ﻛﻪ ﻫﺮ دوي μو σ ﻧﺎﻣﻌﻠﻮم ﻫﺴﺘﻨﺪ .ﻃﺒﻖ ﻣﺜﺎل δ * = X ،2-2ﺑﺮآوردﮔﺮ MRE
ﭘﺎراﻣﺘﺮ μﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن
⎞ ⎛ δ −θ ⎞ ⎛ δ −θ ⎜ ρاﺳﺖ .ﭼﻮن ﺷﺮاﻳﻂ ) (iو ) (iiﻟﻢ 1-4ﺑﺮﻗﺮار اﺳﺖ ﺑﻨﺎﺑﺮاﻳﻦ δ = X ⎜=⎟ ⎟ ⎠ ⎝ σ ⎠ ⎝ σ
2
*
ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ μﺗﺤﺖ ﺗﺒﺪﻳﻼت Gﻣﻲﺑﺎﺷﺪ.
■ 1 2
1 2
ﻣﺜﺎل :4-4ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) U (θ − σ ,θ + σﺑﺎﺷﻨﺪ .در اﻳﻦﺻﻮرت ﻃﺒﻖ ﻣﺜﺎل،4-2 ⎞ ⎞ ⎛ δ −θ ⎜=⎟ ⎟ ⎠ ⎠ ⎝ σ
2
) X (1) + X ( n 2
= * δﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ θﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن
⎛ δ −θ ⎜ ρاﺳﺖ.ﭼﻮن ﺷﺮاﻳﻂ ) (iو ) (iiﻟﻢ 1-4ﺑﺮﻗﺮار اﺳﺖ ،ﺑﻨﺎﺑﺮاﻳﻦ δﺑﺮآوردﮔﺮ ⎝ σ
MERﭘﺎراﻣﺘﺮ θﺗﺤﺖ ﺗﺒﺪﻳﻼت Gﻣﻲﺑﺎﺷﺪ.
*
■
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
b ﺗﻮﺟﻪ :در ﻣﺜﺎل 3-2دﻳﺪﻳﻢ ﻛﻪ در ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ) E (θ ,bﺑﺎ bﻣﻌﻠﻮم n
99
δ * = X (1) −ﺑﺮآوردﮔﺮ
MREﭘﺎراﻣﺘﺮ θاﺳﺖ .ﭼﻮن ﺷﺮط ) (iﻟﻢ 1-4ﺑﺮاي اﻳﻦ ﺑﺮآوردﮔﺮ ﺻﺪق ﻧﻤﻲﻛﻨﺪ ﭘﺲ از اﻳﻦ روش ﻧﻤﻲﺗﻮان ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ θرا ﭘﻴﺪا ﻛﺮد. ﺣﺎﻟﺖ دوم :اﮔﺮ ﺷﺮاﻳﻂ ﺣﺎﻟﺖ اول ﺑﺮﻗﺮار ﻧﺒﺎﺷﺪ ،ﺑﺮاي ﻳﺎﻓﺘﻦ ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ θﻫﻤﺎﻧﻨﺪ ﺑﺨﺶﻫﺎي ﻗﺒﻞ ﺑﻪ ﺻﻮرت زﻳﺮ ﻋﻤﻞ ﻣﻲﻛﻨﻴﻢ. ﻗﻀﻴﻪ :1-4ﻓﺮض ﻛﻨﻴﺪ δ0ﻫﺮ ﺑﺮآوردﮔﺮ θﺑﺎﺷﺪ ﻛﻪ در راﺑﻄﻪ زﻳﺮ ﺻﺪق ﻛﻨﺪ ) δ0(a + bx ) = a + b δ0( x
و δ1ﻫﺮ ﺑﺮآوردﮔﺮ σﺑﺎﺷﺪ ﻛﻪ ﻣﻘﺎدﻳﺮ ﻣﺜﺒﺖ را ﺑﮕﻴﺮد و در راﺑﻄﻪ زﻳﺮ ﺻﺪق ﻛﻨﺪ ) δ1(a + bx ) = b δ1(x
در اﻳﻦ ﺻﻮرت δﻳﻚ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي ﻣﻜﺎن )) (δ (a + bx ) = a + b δ (xﻣﻲﺑﺎﺷﺪ اﮔﺮ و ﻓﻘﻂ اﮔﺮ ) δ (x ) = δ0(x ) − w (z )δ1(x
،Y i = X i − X n i = 1,...., n − 1
ﻛﻪ در آن
Y n −1 Y , Z i = i i = 1,...., n − 1 | |Y n −1 Y n −1
= Z = ( Z 1,..., Z n −1), Z n
اﺛﺒﺎت :ﻫﻤﺎﻧﻨﺪ اﺛﺒﺎت ﻗﻀﻴﻪ 1-2ﻣﻲﺑﺎﺷﺪ و ﺑﻌﻨﻮان ﺗﻤﺮﻳﻦ واﮔﺬار ﻣﻲﮔﺮدد.
■
ﻧﺘﻴﺠﻪ :2-4اﮔﺮ δ0و δ1ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎي θو σﺑﺎﺷﻨﺪ ﻛﻪ در ﺷﺮاﻳﻂ ﻗﻀﻴﻪ 1-4ﺻﺪق ﻣﻲﻛﻨﻨﺪ آﻧﮕﺎه ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ ﻣﻜﺎن θﻋﺒﺎرت اﺳﺖ از ) δ * (x ) = δ0(x ) − w * (z )δ1(x
ﻛﻪ در آن ﺑﺮاي ﻫﺮ w (z ) ، zﻫﺮ ﻋﺪدي اﺳﺖ ﻛﻪ } E 01, {ρ [δ0(x ) − w * (z )δ1(x )} | zرا ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ.
■
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
100
⎞ ⎛ δ −θ ⎞ ⎛ δ −θ ⎜ ) ρﻓﺮم ( Cﺑﺎﺷﺪ آﻧﮕﺎه ) w (zاز راﺑﻄﻪ زﻳﺮ ⎜=⎟ ﻧﺘﻴﺠﻪ :3-4اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم ⎟ ⎠ ⎝ σ ⎠ ⎝ σ ] E [δ ( X )δ (X ) | Z ﺑﺪﺳﺖ ﻣﻲآﻳﺪ. w * (z ) = 01, 0 2 1 ] E01, [δ1 (X ) | Z 2
*
■
اﺛﺒﺎت :ﺗﻤﺮﻳﻦ.
ﻣﺜﺎل :5-4ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ﻧﻤﺎﻳﻲ ) E (θ ,σﺑﺎﺷﻨﺪ ﻛﻪ در
آن θو σﻫﺮ دو ﻧﺎﻣﻌﻠﻮم ﻫﺴﺘﻨﺪ .ﺑﺮآوردﮔﺮﻫﺎي MREﭘﺎراﻣﺘﺮﻫﺎي θﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﺑﻪ ﻓﺮم Cو σ ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﺑﻪ ﻓﺮم Aرا ﺑﺪﺳﺖ آورﻳﺪ. n ⎛ ⎞ T ( T , T ) X , ﺣﻞ :ﺑﻪ راﺣﺘﻲ دﻳﺪه ﻣﻲﺷﻮد ﻛﻪ ⎟ ) ) = 1 2 = ⎜ (1) ∑ (X i − X (1ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﻛﺎﻣﻞ i =1 ⎝ ⎠
σ ﺑﺮاي ) (θ ,σاﺳﺖ و ) T1 ∼ E (θ ,و )χ (22n −2 n
σ 2
∼ T 2و T1و T 2از ﻳﻜﺪﻳﮕﺮ ﻣﺴﺘﻘﻞ ﻫﺴﺘﻨﺪ.
n 1 1 n و ( X − X ) ﺑﻨﺎﺑﺮاﻳﻦ ) )∑ i (1) n − 1 ∑ (X i − X (1 n (n − 1) i =1 i =1
X (1) −ﺑﻪ ﺗﺮﺗﻴﺐ ﺑﺮآوردﮔﺮﻫﺎي
UMVUﭘﺎراﻣﺘﺮﻫﺎي θو σﻫﺴﺘﻨﺪ. اﻟﻒ -در ﺑﺮآورد
δ σﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ) L (θ , σ , δ ) = ( − 1)2ﻓﺮم σ
Aﺑﺎ ( r = 1
n
) ) δ1 = ∑ (X i − X (1ﻳﻚ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ ﺑﺮاي σاﺳﺖ ) ) (δ1(a + bX ) = b δ1(Xو ﻃﺒﻖ ﻗﻀﻴﻪ i =1
ﺑﺎﺳﻮ از آﻣﺎره ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل )ﻓﺮﻋﻲ( Zﻣﺴﺘﻘﻞ اﺳﺖ .ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ σﻋﺒﺎرت اﺳﺖ از ]δ1E 1[δ1 | z ] δ1E 1[δ1 )δ1(n − 1 δ1 1 n = = = ) )= ∑ ( X i − X (1 ] E 1[δ12 | z E 1[δ12 ] ( n − 1) + (n − 1)2 n n i =1
= ) δ * (X
)ﺗﻮﺟﻪ ﻛﻨﻴﺪ در ﺑﺨﺶ ﻗﺒﻞ دﻳﺪﻳﻢ ﻛﻪ اﮔﺮ θ = 0ﺑﺎﺷﺪ ،آﻧﮕﺎه ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ σﻋﺒﺎرت 1 n ﺑﻮد(. از ∑ X i n + 1 i =1
www.riazisara.ir
ﻓﺼﻞ ﺳﻮم :ﭘﺎﻳﺎﻳﻲ
101
ب -در ﺑﺮآورد θﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﺑﻪ ﻓﺮم ) ،( C n
)δ0(X ) = X (1
و
) )δ1( X ) = ∑ (X i − X (1 i =1
⎞ ) ⎛ δ (a + bx ) = a + b δ0(x ⎜ 0و ﺑﻨﺎﺑﺮ ﻗﻀﻴﻪ ﺑﻪ ﺗﺮﺗﻴﺐ ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎ ﺑﺮاي θو σﻫﺴﺘﻨﺪ ⎟ ⎠ ) ⎝ δ1(a + bx ) = b δ1(x
ﺑﺎﺳﻮ ) (δ0, δ1و Zاز ﻳﻜﺪﻳﮕﺮ ﻣﺴﺘﻘﻞ ﻫﺴﺘﻨﺪ .ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ σﻋﺒﺎرت اﺳﺖ از 1 1 ( n − ) 1 ]E [δ δ | z ] E01, [δ0]E01, [δ1 1 n = = =n = 2 w * (z ) = 01, 0 21 2 2 n n ] E01, [δ1 | z ] E01, [δ1 )(n − 1) + (n − 1 1 n ) )⇒ δ (X ) = δ0(X ) − w (z )δ1(X ) = X (1) − 2 ∑ ( X i − X (1 n i =1 *
*
)ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ در ﺑﺨﺶﻫﺎي ﻗﺒﻞ دﻳﺪﻳﻢ ﻛﻪ ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ ﻣﻜﺎن θﺑﺎ ﻓﺮض ﻣﻌﻠﻮم ﺑﻮدن σ ﺑﺮاﺑﺮ
σ n
X (1) −ﺑﻮد( .
■
⎞ ⎛ δ −θ ⎜ ﻫﻴﭻ ﺑﺮآوردﮔﺮ ﻣﺨﺎﻃﺮه ﻧﺎارﻳﺐ وﺟﻮد ﻧﺪارد .ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ ﮔﺮوه G ﺗﻮﺟﻪ :ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ⎟ ⎠ ⎝ σ 2
در اﻳﻦ ﺣﺎﻟﺖ ﻏﻴﺮﺟﺎﺑﺠﺎﻳﻲ اﺳﺖ.
■
١٠٢
داﻧﻠﻮد از ﺳﺎﻳﺖ رﻳﺎﺿﻲ ﺳﺮا
www.riazisara.ir
ﺗﺼﻤﻴﻢ ﺑﻴﺰي
ﻓﺼﻞ ﭼﻬﺎرم :ﺗﺼﻤﻴﻢ ﺑﻴﺰي
www.riazisara.ir
103
ﺑﺨﺶ :1ﻣﻘﺪﻣﻪ ﺗﻤﺎﻣﻲ روشﻫﺎي اﺳﺘﻨﺒﺎط آﻣﺎري ﻛﻪ ﺗﺎﻛﻨﻮن ﺑﺮرﺳﻲ ﻛﺮدهاﻳﻢ ﻳﻚ ﻧﻮع ﺗﺼﻤﻴﻢﮔﻴﺮي ﻣﻲﺑﺎﺷﻨﺪ و در آﻧﻬﺎ ﺑﻪ ﻛﻤﻚ ﻧﻤﻮﻧﻪﻫﺎي آﻣﺎري و دادهﻫﺎ درﺑﺎره ﭘﺎراﻣﺘﺮ ﻳﺎ ﺗﻮزﻳﻊ ﻣﺠﻬﻮل ﺑﻪ ﺗﺼﻤﻴﻢﮔﻴﺮي ﻣﻲﭘﺮداﺧﺘﻴﻢ و ﺑﻪ آﻧﻬﺎ آﻣﺎر ﻛﻼﺳﻴﻚ ﮔﻮﻳﻨﺪ .در ﻧﻈﺮﻳﻪ ﺗﺼﻤﻴﻢ ﺑﻪ ﻛﻤﻚ ﻧﻤﻮﻧﻪﻫﺎي آﻣﺎري و دﻳﮕﺮ ﺟﻮاﻧﺐ ،ﺑﺎ ﺑﺮرﺳﻲ ﻣﻘﺪار ﺳﻮد و زﻳﺎن ﻣﻲﻛﻮﺷﻴﻢ ﺗﺎ ﺑﻪ ﺑﻬﺘﺮﻳﻦ ﺗﺼﻤﻴﻢﮔﻴﺮي دﺳﺖ ﻳﺎﺑﻴﻢ. ﺑﻨﺎﺑﺮاﻳﻦ ﻧﻈﺮﻳﻪ ﺗﺼﻤﻴﻢ ﺷﺎﻣﻞ روشﻫﺎي دﻳﮕﺮي از ﻣﺴﺎﺋﻞ اﺳﺘﻨﺒﺎط آﻣﺎري اﺳﺖ ﻛﻪ روشﻫﺎي ﻗﺒﻠﻲ را ﺷﺎﻣﻞ ﻣﻲﺑﺎﺷﺪ و ﺟﻨﺒﻪﻫﺎي ﺟﺪﻳﺪي را ﻧﻴﺰ در ﻧﻈﺮ ﻣﻲﮔﻴﺮد .در ﻓﺼﻞﻫﺎي ﻗﺒﻞ ﺑﺎ ﻋﻨﺎﺻﺮ ﻳﻚ ﻣﺴﺌﻠﻪ ﺗﺼﻤﻴﻢ آﺷﻨﺎ ﺷﺪهاﻳﻢ وﻟﻲ آﻧﻬﺎ را ﺑﻄﻮر ﻛﻠﻲ ﻣﻌﺮﻓﻲ ﻧﻜﺮدهاﻳﻢ .در زﻳﺮ اﻳﻦ ﻋﻨﺎﺻﺮ را ﻣﻌﺮﻓﻲ ﻣﻲﻛﻨﻴﻢ. دادهﻫﺎ :دادهﻫﺎ ﺑﻮﺳﻴﻠﻪ ﻳﻚ ﺑﺮدار ﺗﺼﺎدﻓﻲ Xﺑﺎ ﻓﻀﺎي ﻧﻤﻮﻧﻪ)ﻣﺠﻤﻮﻋﻪ ﻣﻘﺎدﻳﺮ( χﻧﻤﺎﻳﺶ داده ﻣﻲﺷﻮد. وﺿﻊ ﻃﺒﻴﻌﺖ : 1ﭘﺎراﻣﺘﺮ واﻗﻌﻲ و ﻣﺠﻬﻮل θرا ﻛﻪ ﻣﻲﺧﻮاﻫﻴﻢ روي آن اﺳﺘﻨﺒﺎط اﻧﺠﺎم دﻫﻴﻢ را وﺿﻊ ﻃﺒﻴﻌﺖ ﮔﻮﻳﻨﺪ. ﻓﻀﺎي ﭘﺎراﻣﺘﺮي : 2ﻣﺠﻤﻮﻋﻪ ﺗﻤﺎم ﻣﻘﺎدﻳﺮ ﻣﻤﻜﻦ θرا ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ﮔﻮﻳﻨﺪ و ﺑﺎ ﻧﻤﺎد Θﻧﻤﺎﻳﺶ ﻣﻲدﻫﻨﺪ.
ﻣﺪل :ﻣﺪل ﻋﺒﺎرت اﺳﺖ از ﻣﺠﻤﻮﻋﻪ ﻛﻠﻴﻪ ﺗﻮزﻳﻊﻫﺎي اﺣﺘﻤﺎل ﺑﺮاي ﺑﺮدار Xﻛﻪ داراي ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل θ اﺳﺖ .ﻳﻌﻨﻲ ﻣﺠﻤﻮﻋﻪ } {f (x | θ ) : θ ∈ Θﻛﻪ در آن ) f (x | θﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ﻳﺎ ﺗﺎﺑﻊ اﺣﺘﻤﺎل روي χ اﺳﺖ. ﻓﻀﺎي ﻛﺎرﻫﺎ : 3ﺑﻌﺪ از اﻳﻨﻜﻪ X = xﻣﺸﺎﻫﺪه ﮔﺮدﻳﺪ ،ﺗﺼﻤﻴﻤﻲ ﺑﺮاي θاﺗﺨﺎذ ﻣﻲﮔﺮدد .ﻣﺠﻤﻮﻋﻪ ﻛﻠﻴﻪ ﺗﺼﻤﻴﻢﻫﺎي ﻣﻤﻜﻦ را ﻓﻀﺎي ﻛﺎرﻫﺎ ﮔﻮﻳﻨﺪ و ﺑﺎ ﻧﻤﺎد Aﻧﻤﺎﻳﺶ ﻣﻲدﻫﻨﺪ و اﻋﻀﺎي آن را ﺑﺎ a ∈ A
ﻧﺸﺎن ﻣﻲدﻫﻨﺪ .ﻓﻀﺎي ﻛﺎرﻫﺎ ﻣﻌﻴﻦ ﻣﻲﻛﻨﺪ ﻛﻪ ﻣﺴﺌﻠﻪ ﺗﺼﻤﻴﻢ ﻣﻮرد ﻣﻄﺎﻟﻌﻪ ،ﻳﻚ ﻣﺴﺌﻠﻪ ﺑﺮآورد ﻧﻘﻄﻪاي ﻳﺎ ﻓﺎﺻﻠﻪ اﻃﻤﻴﻨﺎن و ﻳﺎ آزﻣﻮن ﻓﺮض ﻣﻲﺑﺎﺷﺪ .در ﻣﺴﺌﻠﻪ ﺑﺮآورد ﻧﻘﻄﻪاي ﻣﻲﺧﻮاﻫﻴﻢ ﻧﻘﺎﻃﻲ از ﻓﻀﺎي ﻛﺎرﻫﺎ را
١
State of Nature Parameter Space ٣ Action Space ٢
www.riazisara.ir
ﻓﺼﻞ ﭼﻬﺎرم :ﺗﺼﻤﻴﻢ ﺑﻴﺰي
104
ﺑﺮاي θﺣﺪس ﺑﺰﻧﻴﻢ ﭘﺲ θ ⊂ Aﺧﻮاﻫﺪ ﺑﻮد )ﻣﺜﻼ" در ﺑﺮآورد ﭘﺎراﻣﺘﺮ ﺗﻮزﻳﻊ دو ﺟﻤﻠﻪاي ۰ < p < ۱
و ﻣﻲﺗﻮاﻧﺪ ] A = [0,1ﺑﺎﺷﺪ( در ﻣﺴﺌﻠﻪ آزﻣﻮن ﻓﺮض ،ﻣﺎ دو ﻛﺎر "ﻗﺒﻮل " H 0و "رد " H 0را دارﻳﻢ ﻛﻪ آن را ﺑﺎ a0و a1ﻧﻤﺎﻳﺶ ﻣﻲدﻫﻴﻢ و ﺑﻨﺎﺑﺮاﻳﻦ }= {a0, a1
. Aدر ﻳﻚ ﻣﺴﺌﻠﻪ ﻓﺎﺻﻠﻪ اﻃﻤﻴﻨﺎن ،ﻛﺎرﻫﺎ
ﻓﻮاﺻﻞ ﻳﺎ زﻳﺮﻣﺠﻤﻮﻋﻪﻫﺎﻳﻲ از ﻓﻀﺎي ﭘﺎراﻣﺘﺮ ﻫﺴﺘﻨﺪ و ﺑﻨﺎﺑﺮاﻳﻦ . A ⊂ Θ ﺗﺎﺑﻊ زﻳﺎن :اﮔﺮ θ ∈ Θﻣﻘﺪار واﻗﻌﻲ وﺿﻊ ﻃﺒﻴﻌﺖ ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت ﻛﺎر a ∈ Aﻣﻤﻜﻦ اﺳﺖ درﺳﺖ ﻳﺎ ﺗﺎ اﻧﺪازهاي ﻧﺎدرﺳﺖ و ﻳﺎ ﻛﻼ ﻧﺎدرﺳﺖ ﺑﺎﺷﺪ .ﻣﻴﺰان اﻳﻦ ﻧﺎدرﺳﺘﻲ را ﺑﺎ ﻛﻤﻴﺖ ﺗﺎﺑﻊ زﻳﺎن ) L (θ , aاﻧﺪازهﮔﻴﺮي ﻣﻲﻛﻨﻴﻢ ﻛﻪ ﻣﻘﺪار زﻳﺎن ﺑﻜﺎر ﺑﺮدن ﻛﺎر aﻣﻮﻗﻌﻲ ﻛﻪ θﻣﻘﺪار وﺿﻊ ﻃﺒﻴﻌﺖ واﻗﻌﻲ ﺑﺎﺷﺪ را اﻧﺪازه ﻣﻲﮔﻴﺮد .ﺑﻨﺎﺑﺮاﻳﻦ )∞→ [0, +
L : Θ × Aو L (θ , a ) = 0ﺑﻪ ﻣﻌﻨﺎي اﻳﻦ اﺳﺖ
ﻛﻪ اﮔﺮ θوﺿﻊ ﻃﺒﻴﻌﺖ واﻗﻌﻲ اﺳﺖ آﻧﮕﺎه aﺗﺼﻤﻴﻢ درﺳﺘﻲ ﻣﻲﺑﺎﺷﺪ. ﺗﺎﺑﻊ ﺗﺼﻤﻴﻢ :1ﺗﺎﺑﻊ ﺗﺼﻤﻴﻢ )ﻳﺎ ﻗﺎﻋﺪه ﺗﺼﻤﻴﻢ( ﻗﺎﻋﺪهاي اﺳﺖ ﻛﻪ ﺑﺎ ﻣﺸﺎﻫﺪه X = xﻣﻌﻴﻦ ﻣﻲﻛﻨﺪ ﻛﻪ ﭼﻪ ﻛﺎر
a ∈ Aرا ﺑﺎﻳﺴﺘﻲ ﺑﻜﺎر ﺑﺒﺮﻳﻢ و ﻣﻌﻤﻮﻻ آﻧﺮا ﺑﺎ ) δ (xﻧﻤﺎﻳﺶ ﻣﻲدﻫﻨﺪ .ﺑﻨﺎﺑﺮاﻳﻦ
δ (x ) : χ → A
)در ﻣﺴﺌﻠﻪ ﺑﺮآورد ﻧﻘﻄﻪاي ،ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ ﻫﻤﺎن ﺑﺮآوردﮔﺮﻫﺎ ﻣﻲﺑﺎﺷﻨﺪ( ﻓﻀﺎي ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ :ﻣﺠﻤﻮﻋﻪ ﻛﻠﻴﻪ ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ ﻣﻤﻜﻦ را ﺑﺎ Dﻧﻤﺎﻳﺶ ﻣﻲدﻫﻴﻢ .در ﻧﻈﺮﻳﻪ ﺗﺼﻤﻴﻢ ﻫﺪف اﻳﻦ اﺳﺖ ﻛﻪ ﻣﻌﻴﻦ ﻛﻨﻴﻢ ﻛﻪ ﻛﺪاﻣﻴﻚ از ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ δ (x ) ∈ Dﻳﻚ ﻗﺎﻋﺪه ﺗﺼﻤﻴﻢ ﺧﻮب ﻣﻲﺑﺎﺷﺪ. ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ) 2رﻳﺴﻚ( :در ﻣﺴﺌﻠﻪ ﺗﺼﻤﻴﻢ روي ﭘﺎراﻣﺘﺮ θﺑﺮاﺳﺎس ﺗﺎﺑﻊ ﺗﺼﻤﻴﻢ ) δ (xﻣﻴﺰان دﻗﺖ ﺗﺎﺑﻊ ﺗﺼﻤﻴﻢ ﺑﻮﺳﻴﻠﻪ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﻳﻌﻨﻲ ⎤⎦ ) ) R (θ , δ ) = E θ ⎡⎣ L (θ , δ (Xاﻧﺪازه ﮔﺮﻓﺘﻪ ﻣﻲﺷﻮد .ﭼﻮن ﻣﻘﺪار θﻧﺎﻣﻌﻠﻮم اﺳﺖ ﻋﻼﻗﻪﻣﻨﺪ ﻫﺴﺘﻴﻢ ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻤﻲ را ﺑﻜﺎر ﺑﺒﺮﻳﻢ ﻛﻪ ) R (θ , δرا ﺑﻪ ازاي ﻫﺮ θ ∈ Θﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ .اﻣﺎ در ﺣﺎﻟﺖ ﻛﻠﻲ ﭼﻨﻴﻦ ﻛﺎري ﻣﻤﻜﻦ ﻧﻴﺴﺖ و ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺎﻳﺴﺘﻲ ﻣﺤﺪودﻳﺖﻫﺎﻳﻲ روي ﻓﻀﺎي ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ )ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎ( ﺑﺮاي دﺳﺘﻴﺎﺑﻲ ﺑﻪ ﺗﺼﻤﻴﻢ ﺑﻬﻴﻨﻪ اﻋﻤﺎل ﻛﻨﻴﻢ .ﻳﻚ روش Decision Rule Risk Function
١ ٢
www.riazisara.ir
ﻓﺼﻞ ﭼﻬﺎرم :ﺗﺼﻤﻴﻢ ﺑﻴﺰي
105
ﺑﺮاي ﭘﻴﺪا ﻛﺮدن ﺗﺼﻤﻴﻢ ﺑﻬﻴﻨﻪ ،ﺑﺮﻗﺮاري ﻳﻚ راﺑﻄﻪ ﺗﺮﺗﻴﺐ ﺑﻴﻦ ﺗﺼﻤﻴﻢﻫﺎ ﻣﻲﺑﺎﺷﺪ .دو روش اﺳﺎﺳﻲ در ﺑﺮﻗﺮاري راﺑﻄﻪاي ﺗﺮﺗﻴﺒﻲ ﺑﻴﻦ ﺗﺼﻤﻴﻤﺎت ،اﺻﻞ ﻛﻤﻴﻦ ﺑﻴﺸﻴﻨﻪ ) 1ﻣﻴﻨﻴﻤﺎﻛﺲ( و اﺻﻞ ﺑﻴﺰ 2ﻣﻲﺑﺎﺷﺪ.
در اﻳﻦ ﻓﺼﻞ و ﻓﺼﻞ ﺑﻌﺪ اﻳﻦ دو روش را ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺑﺮآورد ﻧﻘﻄﻪاي ﺑﺮاي ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل θ ﺑﺮرﺳﻲ ﻣﻲ ﻛﻨﻴﻢ.
ﺑﺨﺶ -2ﺗﺼﻤﻴﻢ ﺑﻴﺰي
3
در روشﻫﺎﺋﻲ ﻛﻪ ﻗﺒﻼ ﻣﻄﺎﻟﻌﻪ ﻛﺮدﻳﻢ )روشﻫﺎي ﻛﻼﺳﻴﻚ( ﭘﺎراﻣﺘﺮ θرا ﻳﻚ ﻣﻘﺪار ﺛﺎﺑﺖ ﻧﺎﻣﻌﻠﻮم در ﻧﻈﺮ ﮔﺮﻓﺘﻴﻢ و ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ X 1, X 2 ,… , X nاز ﺟﻤﻌﻴﺖ ﻛﻪ داراي ﺗﻮزﻳﻊ ) f θ (xﺑﻮد ﺟﻤﻊ آوري ﻛﺮده و ﺑﺮاﺳﺎس آن در ﻣﻮرد θﺗﺼﻤﻴﻢﮔﻴﺮي ﻣﻲﻛﺮدﻳﻢ .در روش ﺑﻴﺰي θرا ﻛﻤﻴﺘﻲ در ﻧﻈﺮ ﻣﻲﮔﻴﺮﻳﻢ ﻛﻪ ﺧﻮد ﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ اﺳﺖ و ﺗﻐﻴﻴﺮات آن ﺗﻮﺳﻂ ﻳﻚ ﺗﻮزﻳﻊ اﺣﺘﻤﺎل )ﻛﻪ آﻧﺮا ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﻣﻲﻧﺎﻣﻴﻢ( ﺑﻴﺎن ﻣﻲﮔﺮدد .اﻳﻦ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺑﺮاﺳﺎس اﻋﺘﻘﺎدات و ﺗﺠﺮﺑﻴﺎت ﻗﺒﻠﻲ آزﻣﺎﻳﺸﮕﺮ و ﻗﺒﻞ از ﻣﺸﺎﻫﺪه دادهﻫﺎ ﺗﻌﻴﻴﻦ ﻣﻲﮔﺮدد .ﺳﭙﺲ از ﺟﻤﻌﻴﺖ ﻳﻚ ﻧﻤﻮﻧﻪ ﺟﻤﻊ آوري ﻣﻲﺷﻮد و ﺑﺮ اﺳﺎس آن ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺗﺼﺤﻴﺢ ﻣﻲﮔﺮدد .ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺗﺼﺤﻴﺢ ﺷﺪه را ﺗﻮزﻳﻊ ﭘﺴﻴﻦ ﻣﻲﻧﺎﻣﻨﺪ و ﺑﺮاﺳﺎس اﻳﻦ ﺗﻮزﻳﻊ ﭘﺴﻴﻦ ﺗﺼﻤﻴﻢﮔﻴﺮي
اﻧﺠﺎم ﻣﻲﮔﻴﺮد .ﺑﺮاي ﻣﺜﺎل ﻓﺮض ﻛﻨﻴﺪ ﻗﻄﻌﺎت ﺗﻮﻟﻴﺪي ﻳﻚ ﻛﺎرﺧﺎﻧﻪ داراي ﺗﻮزﻳﻊ ﻧﻤﺎﻳﻲ ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ θ ﺳﺎﻋﺖ ﻣﻲﺑﺎﺷﻨﺪ و ﺑﻪ ﻋﻠﺖ ﻓﺮﺳﻮدﮔﻲ دﺳﺘﮕﺎهﻫﺎ اﻳﻦ ﻣﻴﺎﻧﮕﻴﻦ θﻧﻴﺰ در ﺳﺎل ﺗﻐﻴﻴﺮ ﻣﻲﻛﻨﺪ و ﺗﻐﻴﻴﺮات آن ﻃﺒﻖ ﻳﻚ ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ) π (θﺑﺎﺷﺪ.
ﻣﺨﺎﻃﺮه و ﺗﺼﻤﻴﻢ ﺑﻴﺰي: ﻓﺮض ﻛﻨﻴﺪ ) π (θﺗﻮزﻳﻊ اﺣﺘﻤﺎل روي ﻓﻀﺎي ﭘﺎراﻣﺘﺮي Θﺑﺎﺷﺪ ﻛﻪ ﺑﻪ آن ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ θ 4ﮔﻮﻳﻨﺪ ﭼﻮن ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ])) R (θ , δ ) = E θ [L (θ , δ (Xﺗﺎﺑﻌﻲ از θاﺳﺖ و θﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ اﺳﺖ ﭘﺲ ) R (θ , δﻧﻴﺰ ﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ اﺳﺖ و ﺗﺎﺑﻌﻲ از θاﺳﺖ .اﻣﻴﺪ رﻳﺎﺿﻲ )ﻣﺘﻮﺳﻂ( ) R (θ , δرا ﻧﺴﺒﺖ ﺑﻪ ﭼﮕﺎﻟﻲ ﭘﻴﺸﻴﻦ θﻣﺨﺎﻃﺮه ﺑﻴﺰ ﻣﻲﻧﺎﻣﻨﺪ ﻳﻌﻨﻲ ١
Minimax Bayes ٣ Bayesian Decision ٢
Prior Distribution
٤
www.riazisara.ir
ﻓﺼﻞ ﭼﻬﺎرم :ﺗﺼﻤﻴﻢ ﺑﻴﺰي
اﮔﺮ ) π (θﭘﻴﻮﺳﺘﻪ ﺑﺎﺷﺪ اﮔﺮ ) π (θﮔﺴﺴﺘﻪ ﺑﺎﺷﺪ
106
⎧ R (θ , δ )π (θ )d θ ∫⎪ r (π , δ ) = E [R (θ , δ )] = ∫ R (θ , δ )d Π (θ ) = ⎨Θ ) ⎪ ∑ R (θ , δ )π (θ Θ ⎩ Θ
ﺗﺼﻤﻴﻢ ﺑﻴﺰي ﻧﺴﺒﺖ ﺑﻪ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ πآن ﺗﺼﻤﻴﻢ ) δ π (xاﺳﺖ ﻛﻪ ﻣﺨﺎﻃﺮه ﺑﻴﺰي را در ﺑﻴﻦ ﺗﻤﺎم ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ ،ﻳﻌﻨﻲ ﺗﺼﻤﻴﻢ ﺑﻴﺰي آن ﺗﺎﺑﻊ ﺗﺼﻤﻴﻤﻲ اﺳﺖ ﻛﻪ در راﺑﻄﻪ زﻳﺮ ﺻﺪق ﻛﻨﺪ. ) r (π , δ π ) = inf r (π , δ
δ ∈D
روش ﺑﺪﺳﺖ آوردن ﺗﺼﻤﻴﻢ ﺑﻴﺰي: ﻓﺮض ﻛﻨﻴﺪ θداراي ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ) π (θﺑﺎﺷﺪ )در اﻳﻨﺠﺎ θﻫﻢ ﺑﻌﻨﻮان ﭘﺎراﻣﺘﺮ و ﻫﻢ ﺑﻪ ﻋﻨﻮان ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﻲﺷﻮد( و ) X = (X 1,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ ﺟﻤﻊآوري ﺷﺪه از ﺟﻤﻌﻴﺘﻲ ﺑﺎﺷﺪ ﻛﻪ ﺗﻮزﻳﻊ آن ﺑﻪ θﺑﺴﺘﮕﻲ دارد .ﺑﺮاﺳﺎس اﻳﻦ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ در ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ) π (θ
ﺗﺠﺪﻳﺪ ﻧﻈﺮ ﻣﻲﻛﻨﻴﻢ و ﭼﮕﺎﻟﻲ ﭘﺴﻴﻦ θرا ﺑﻪ ﺻﻮرت زﻳﺮ ﺑﺪﺳﺖ ﻣﻲآورﻳﻢ ) f ( x ,θ ) m (x
= ) π (θ | x
ﻛﻪ در آن ) f (x ,θﭼﮕﺎﻟﻲ ﺗﻮام Xو θو ) m (xﭼﮕﺎﻟﻲ ﻛﻨﺎري Xاﺳﺖ ﺑﻨﺎﺑﺮاﻳﻦ ) m (x ) = ∫ f (x ,θ )d Π (θ
ﭘﺲ
,
) f (x ,θ ) = π (θ )f (x | θ
) = c (x )π (θ )f ( x | θ ) ∝ π (θ )f ( x | θ ) = π (θ ) L (θ
) π (θ )f (x ,θ ) m (x
= ) π (θ | x
ﻳﻌﻨﻲ ﺑﺮاي ﻣﺤﺎﺳﺒﻪ ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ﭘﺴﻴﻦ θﻛﺎﻓﻴﺴﺖ ﺣﺎﺻﻠﻀﺮب ) π (θدر ) ) L (θﺗﺎﺑﻊ درﺳﺖ ﻧﻤﺎﻳﻲ( را ﺑﺪﺳﺖ آورده و آﻧﺮا ﺑﻪ ﻳﻚ ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ﺗﺒﺪﻳﻞ ﻛﻨﻴﻢ. ﻣﺜﺎل :1-2ﻓﺮض ﻛﻨﻴﺪ X 1,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ) B (1,θﺑﺎﺷﻨﺪ و θداراي ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ) Be (α , βﺑﺎﺷﺪ ﻛﻪ در آن αو βﻣﻌﻠﻮم ﻫﺴﺘﻨﺪ .ﭼﮕﺎﻟﻲ ﭘﺴﻴﻦ θرا ﺑﺪﺳﺖ آورﻳﺪ.
www.riazisara.ir
ﻓﺼﻞ ﭼﻬﺎرم :ﺗﺼﻤﻴﻢ ﺑﻴﺰي
107
ﺣﻞ: ⎤ ⎤ θ α −1(1 − θ ) β −1 ⎥ ⎡θ ∑ x i (1 − θ ) n −∑ x i ⎣⎦
⎦
n + β −∑ x i −1
1
⎡
⎢ = ) π (θ | x ) ∝ π (θ )L (θ
) ⎣ Be (α , β
) (1 − θ
α + ∑ x i −1
∝ θ
) ⇒ θ | x ~ Be (α + ∑ x i , n + β − ∑ x i
■
ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺗﺼﻤﻴﻢ ﺑﻴﺰي از ﻗﻀﻴﻪ زﻳﺮ اﺳﺘﻔﺎده ﻣﻲﻛﻨﻴﻢ. ﻗﻀﻴﻪ :1-2ﻓﺮض ﻛﻨﻴﺪ θداراي ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ) π (θﺑﺎﺷﺪ و ﺑﻪ ﺷﺮط X ، θداراي ﺗﻮزﻳﻌﻲ از ﺧﺎﻧﻮاده } {f (x | θ ) | θ ∈ Θﺑﺎﺷﺪ .ﻓﺮض ﻛﻨﻴﺪ در ﻣﺴﺌﻠﻪ ﺗﺼﻤﻴﻢ ﺑﺎ ﺗﺎﺑﻊ زﻳﺎن ﻏﻴﺮﻣﻨﻔﻲ ) L (θ , δ
ﺷﺮاﻳﻂ زﻳﺮ ﺑﺮﻗﺮار ﺑﺎﺷﺪ. اﻟﻒ -ﻳﻚ ﺗﺎﺑﻊ ﺗﺼﻤﻴﻢ δ0ﺑﺎ ﻣﺤﺎﻃﺮه ﻣﺘﻨﺎﻫﻲ ﻣﻮﺟﻮد ﺑﺎﺷﺪ. ب -ﺑﺮاي ﻫﺮ x ∈ χﻳﻚ ﺗﺎﺑﻊ ﺗﺼﻤﻴﻢ ) δ π (xﻣﻮﺟﻮد ﺑﺎﺷﺪ ﻛﻪ ) r ( x , δ ( x )) = E [L (θ , δ (x )) | X = x ] = ∫ L (θ ,δ (x ))d π (θ | x Θ
را ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ )ﻳﻌﻨﻲ ) .( r (x , δ π ) = inf r (x , δ
δ ∈ Dδ ∈ D
در اﻳﻦ ﺻﻮرت ) δ π (xﻳﻚ ﺗﺼﻤﻴﻢ ﺑﻴﺰ اﺳﺖ ) ) r (x , δرا ﻣﺨﺎﻃﺮه ﭘﺴﻴﻦ ﮔﻮﻳﻨﺪ(. اﺛﺒﺎت :ﻓﺮض ﻛﻨﻴﺪ δﻫﺮ ﺗﺼﻤﻴﻤﻲ ﺑﺎ ﻣﺨﺎﻃﺮه ﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ .در اﻳﻦ ﺻﻮرت ﭼﻮن ﺗﺎﺑﻊ زﻳﺎن ﻧﺎﻣﻨﻔﻲ اﺳﺖ. ﭘﺲ
a.e .
∞ < } E {L (θ , δ (x )) | X = x
و در ﻧﺘﻴﺠﻪ ﻃﺒﻖ ﺷﺮط )ب( دارﻳﻢ ﻛﻪ a.e .
} E {L (θ , δ (x )) | X = x } ≥ E {L (θ , δ π ( x ) | X = x
⎤⎦} ⇒ E [ E {L (θ , δ (x )) | X = x }] ≥ E ⎣⎡ E {L (θ , δ π (x )) | X = x ])) ⇒ E [L (θ , δ (x ))] ≥ E [L (θ , δ π (x
ﻛﻪ اﻣﻴﺪ رﻳﺎﺿﻲ ﻧﺴﺒﺖ ﺑﻪ ﺗﻮزﻳﻊ ﺗﻮام θو Xاﺳﺖ ﭘﺲ ) r (π , δ ) ≥ r (π , δ πﻳﻌﻨﻲ ) δ π (Xﻳﻚ ﺗﺼﻤﻴﻢ ﺑﻴﺰ اﺳﺖ زﻳﺮا ﻣﺨﺎﻃﺮه ﺑﻴﺰ را ﻣﻴﻨﻴﻤﻢ ﻣﻲﻛﻨﺪ.
■
www.riazisara.ir
ﻓﺼﻞ ﭼﻬﺎرم :ﺗﺼﻤﻴﻢ ﺑﻴﺰي
108
ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻗﻀﻴﻪ ﺑﺎﻻ ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺗﺼﻤﻴﻢ ﺑﻴﺰي ﺑﺎﻳﺴﺘﻲ ﻣﺨﺎﻃﺮه ﭘﺴﻴﻦ را ﻣﻴﻨﻴﻤﻢ ﻛﻨﻴﻢ .در ﺑﺮآورد ﻧﻘﻄﻪاي ،ﺗﺼﻤﻴﻢ ﺑﻴﺰي ﺑﺪﺳﺖ آﻣﺪه را ﺑﺮآوردﮔﺮ ﺑﻴﺰ 1ﻣﻲﻧﺎﻣﻴﻢ و در ﻗﻀﻴﻪ زﻳﺮ ﺗﺤﺖ ﺗﻮاﺑﻊ زﻳﺎن ﻣﺨﺘﻠﻒ اﻳﻦ ﺑﺮآوردﮔﺮ را ﺑﺪﺳﺖ ﻣﻲآورﻳﻢ. ﻗﻀﻴﻪ :2-2ﺗﺤﺖ ﻓﺮﺿﻴﺎت ﻗﻀﻴﻪ 1-2در ﺑﺮآورد ﻧﻘﻄﻪاي ﭘﺎراﻣﺘﺮ ) γ (θدارﻳﻢ ﻛﻪ اﻟﻒ -ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم L ( γ (θ ), δ (X ) ) = [δ (X ) − γ (θ )]2ﺑﺮآورد ﺑﻴﺰ ﻋﺒﺎرت اﺳﺖ از: ] δ π (x ) = E [γ (θ ) | x
ب -ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﻗﺪر ﻣﻄﻠﻖ ) L ( γ (θ ), δ (X ) ) = δ (X ) − γ (θﺑﺮآورد ﺑﻴﺰ ،ﻣﻴﺎﻧﻪ ﺗﻮزﻳﻊ γ (θ ) | xاﺳﺖ. ج -ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم وزﻧﻲ L ( γ (θ ), δ (X ) ) = w (θ )[δ (X ) − γ (θ )]2ﺑﺮآورد ﺑﻴﺰ ﻋﺒﺎرت ] E [w (θ )γ (θ ) | x ] E [w (θ ) | x
اﺳﺖ از:
= ) δ π (x
اﺛﺒﺎت )ج(: r ( x , δ (x ) ) = ∫ w (θ )[δ (x ) − γ (θ )]2π (θ | x )d θ Θ
] = δ 2 (x )E [w (θ ) | x ] − 2δ (x )E [w (θ )γ (θ ) | x ] + E [w (θ )γ 2 (θ ) | x )) ∂r (x , δ (x = 0 ⇒ δπ (x ) = ....... ) ∂δ (x
■
ﻣﺜﺎل :2-2در ﻣﺜﺎل 1-2ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﭘﺎراﻣﺘﺮ θرا ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺪﺳﺖ آورﻳﺪ. ) θ ~ Be (α , β ) ⇒ θ | x ~ Be (α + ∑ x i , β + n − ∑ x i
α + ∑xi ⎛ α + β ⎞ α ⎛ ⎞ n x ⎜= ⎜+ ⎟ ⎠⎟ α + β + n ⎝ α + β + n ⎠ α + β ⎝ α + β + n
ﭼﻮن
α α +β
α α +β
) X 1,… , X n ~ B (1,θ
= ] δ π (x ) = E [θ | x
= ) E (θﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺑﺼﻮرت ﻳﻚ ﻣﻴﺎﻧﮕﻴﻦ وزﻧﻲ از ﻣﻴﺎﻧﮕﻴﻦ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ
)ﺑﺮآورد θﻗﺒﻞ از ﻣﺸﺎﻫﺪه دادهﻫﺎ( و ﻣﻴﺎﻧﮕﻴﻦ ﻧﻤﻮﻧﻪ ) xﺑﺮآورد θﺑﻮﺳﻴﻠﻪ ﻣﺸﺎﻫﺪات( ﻣﻲﺑﺎﺷﺪ.
Bayes Estimator
١
www.riazisara.ir
ﻓﺼﻞ ﭼﻬﺎرم :ﺗﺼﻤﻴﻢ ﺑﻴﺰي
109
ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ اﻳﻦ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﻧﻴﺴﺖ و در ﺻﻮرﺗﻲ ﻛﻪ ∞ → nو ﻳﺎ α = β = 0اﻧﮕﺎه ﺑﺮآوردﮔﺮ ) δ π (xﺑﺎ ﺑﺮآوردﮔﺮ UMVUﻳﻜﻲ ﻣﻲﺷﻮد. اﻟﺒﺘﻪ ﺣﺎﻟﺖ α = β = 0ﻳﻚ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﻧﻤﻲﺑﺎﺷﺪ زﻳﺮا ﺑﺎﻳﺴﺘﻲ α > 0, β > 0ﺑﺎﺷﺪ)ﺣﺎﻟﺖ α →0و ﺑﺎ β → 0را ﺑﻌﺪا ﺑﺤﺚ ﺧﻮاﻫﻴﻢ ﻛﺮد(.
■
ﻣﺜﺎل :3-2ﻓﺮض ﻛﻨﻴﺪ X 1,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ nﺗﺎﻳﻲ از ﺗﻮزﻳﻊ ) N (θ ,σ 2ﺑﺎﺷﻨﺪ ﻛﻪ در آن σ 2ﻳﻚ ﻣﻘﺪار ﻣﻌﻠﻮم اﺳﺖ .اﮔﺮ ) θ ~ N ( μ ,τ 2و ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم درﺟﻪ 2ﺑﺎﺷﺪ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﭘﺎراﻣﺘﺮ θرا ﺑﺪﺳﺖ آورﻳﺪ. ﺣﻞ: 1 n
) ⎞ − 2σ 2 ∑ ( X i −θ i =1 ⎟⎟ e ⎠
2
n
⎛ 1 ⎜⎜ 2 ⎝ 2πσ
(θ − μ )2 2
θ2 1 n μ nx ) ( + ) +θ ( 2 + 2 2 τ2 σ2 τ σ
⎫⎞ ⎪⎟ ⎪⎟ ⎬⎟ ⎪⎟ ⎪⎟ ⎭⎠
1
−
=e
⎫2
⎪ ⎪⎪ ⎬ ⎪ ⎪ ⎪⎭
e
1 2
2πτ
θ nθ 2 x − 2 2∑ i 2σ eσ
⎧ ⎛ ⎞ ⎛σ2 μ ⎜ ⎟ + τ 2x ⎪ ⎜ n 1 ⎪ 1 n = exp ⎨ − ( 2 + 2 ) ⎜⎜ θ 2 − 2θ ⎝ ⎠ 2 τ σ ⎪ 2 σ ⎜ τ2 + ⎪ ⎜ n ⎝ ⎩ ⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠
2τ
−
= ) π (θ | x ) ∝ π (θ )L (θ θ2 μ + θ 2τ 2 τ 2
−
μ nx + 2 2 1 n 1 2 τ ] σ − ( 2 + 2 )[θ −2θ 1 n 2 σ τ + τ2 σ2
∝ e
= e
⎧ ⎛ ⎞ ⎛σ2 ⎪ μ ⎜ ⎟ + τ 2x ⎜ n 1 ⎪⎪ 1 n ∝ exp ⎨− ( 2 + 2 ) ⎜⎜ θ − ⎝ ⎠ 2 τ σ ⎪ 2 σ ⎜ τ2 + ⎪ ⎜ n ⎝ ⎪⎩
⎛ ⎛σ2 ⎞ 2 ⎞ ⎜ μ ⎜ ⎟ +τ x ⎟ n 1 ⎜ ⎟ , ⎠ θ |x ~ N ⎜ ⎝ 2 ⎟ 1 n σ ⎟+ 2 ⎜ +τ 2 2 ⎟ σ τ ⎜ n ⎝ ⎠
∴
www.riazisara.ir
ﻓﺼﻞ ﭼﻬﺎرم :ﺗﺼﻤﻴﻢ ﺑﻴﺰي
σ2
τ2
x 2
+τ
110
σ2
μ+
n 2
n
+τ
π
= ) ⇒ δ (x ) = E (θ | x
σ2 n
ﻳﻌﻨﻲ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺑﺼﻮرت ﻳﻚ ﻣﻴﺎﻧﮕﻴﻦ وزﻧﻲ از ﻣﻴﺎﻧﮕﻴﻦ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ) ( μو ﻣﻴﺎﻧﮕﻴﻦ ﻧﻤﻮﻧﻪ x
)ﺑﺮآورد ﻋﺎدي ( θﻣﻲﺑﺎﺷﺪ و ﺑﻪ ﺳﺎدﮔﻲ دﻳﺪه ﻣﻲﺷﻮد ﻛﻪ ﻧﺎارﻳﺐ ﻧﻴﺴﺖ.
■
ﻣﺜﺎل :4-2ﻓﺮض ﻛﻨﻴﺪ X 1,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ nﺗﺎﻳﻲ از ﺗﻮزﻳﻊ ) U (0,θﺑﺎﺷﻨﺪ اﮔﺮ ), θ ~ U (01ﺑﺎﺷﺪ و ﺗﺎﺑﻊ زﻳﺎن ﺑﺼﻮرت
(δ − θ )2
θ2
= ) L (θ , δﺑﺎﺷﺪ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﭘﺎراﻣﺘﺮ θرا ﺑﺪﺳﺖ
آورﻳﺪ. ﺣﻞ: 1
1
n
) π (θ | x ) ∝ π (θ )L (θ ) = I (01, ) (θ )∏ I (0,θ ) (x i ) = I (01, ) (θ ) n I ( x ( n ) ,+∞ ) (θ θ i =1 θ ) I ( x ( n ) ,1) (θ |1 ) n x (n
1
1
θn
−
nθ −1 |1 ) n +1 x ( n ( n + 1)θ
■
) I ( x ( n ) ,1) (θ ) ⇒ π (θ | x ) = c (x 1
=
dθ n +1 dθ
1
θ
) (n
1
θ n +2
∫x
1 ) (n
∫x
1 n
θ
=
1 )E( |x
] E [θw (θ ) | x θ = ) ⇒ δ π (x = = ) E [w (θ ) | x ] E ( 1 | x 2
θ
1 1 ] [−1 + n ⎤ ) ⎡ 1 − x (nn n ) x (n n +1 = = ⎢ ) x (n ⎥ n +1 1 1 n − x 1 ⎢ ⎦⎥ n ( ) ] [−1 + n +1 ⎣ n +1 ) x (n
ﻧﻜﺎﺗﻲ در ﻣﻮرد ﺑﺮآوردﮔﺮ ﺑﻴﺰ: ﻧﻜﺘﻪ :1در راﺑﻄﻪ ﺑﺎ ﺑﺮآوردﮔﺮﻫﺎي ﺑﻴﺰ اﻳﻦ ﺳﻮال ﻣﻄﺮح ﻣﻲﺷﻮد ﻛﻪ ﭼﻪ ﺧﺎﻧﻮاده از ﺗﻮزﻳﻊﻫﺎي ﭘﻴﺸﻴﻦ را ﺑﺮاي ﻳﻚ ﻣﺴﺌﻠﻪ اﻧﺘﺨﺎب ﻛﻨﻴﻢ .ﻳﻜﻲ از روشﻫﺎي اﻧﺘﺨﺎب ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﭘﻴﺸﻴﻦ ،اﺳﺘﻔﺎده از ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻣﺰدوج اﺳﺖ.
www.riazisara.ir
ﻓﺼﻞ ﭼﻬﺎرم :ﺗﺼﻤﻴﻢ ﺑﻴﺰي
111
ﺗﻌﺮﻳﻒ :1-2ﻓﺮض ﻛﻨﻴﺪ Fﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ) f ( x | θﺑﺎﺷﺪ ﻳﻌﻨﻲ }= {f ( x | θ ) | θ ∈ Θ
.F
ﺧﺎﻧﻮاده Πاز ﺗﻮزﻳﻌﻬﺎي ﭘﻴﺸﻴﻦ ﺑﺮاي θرا ﻳﻚ ﺧﺎﻧﻮاده ﻣﺰدوج ﺑﺮاي Fﮔﻮﺋﻴﻢ ﻫﺮﮔﺎه ﺑﺮاي ﻫﺮ f ∈ Fو ﻫﺮ π ∈ Πو ﻫﺮ x ∈ χﺗﻮزﻳﻊﻫﺎي ﭘﺴﻴﻦ ﻧﻴﺰدر ﺧﺎﻧﻮاده Πﻗﺮار ﮔﻴﺮﻧﺪ.
■
ﺑﺮاي ﻣﺜﺎل در ﻣﺜﺎل 2-2ﺧﺎﻧﻮاده ) Be (α , βﻳﻚ ﺧﺎﻧﻮاده ﻣﺰدوج ﺑﺮاي ) B (1,θﺑﻮد و در ﻣﺜﺎل3-2 ﺧﺎﻧﻮاده ) N ( μ ,τ 2ﻳﻚ ﺧﺎﻧﻮاده ﻣﺰدوج ﺑﺮاي ) N (θ ,σ 2ﺑﻮد. ﻣﺜﺎل :5-2ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ﻧﻤﺎﻳﻲ ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ زﻳﺮ ﺑﺎﺷﻨﺪ . f (x | θ ) = θe −θ x , x > 0اﮔﺮ ) θ ~ Γ(α , βﺑﺎﺷﺪ ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﻣﻴﺎﻧﮕﻴﻦ ﺗﻮزﻳﻊ ﻳﻌﻨﻲ
1
θ
= ) γ (θرا ﺑﺪﺳﺖ آورﻳﺪ.
ﺣﻞ: 1
− ( nx + )θ −θ 1 β π (θ | x ) ∝ π (θ ) L (θ ) = α θ α −1e β θ n e − nθ x ∝ θ n +α −1e ) β Γ(α
1 ) nx + β −1 )Γ( n + α − 1
) ( nx + β
−1 n +α −1
n +α
×
⇒ θ | x ~ Γ(n + α ,
) ( nx + β 1 = ] δ π (x ) = E [γ (θ ) | x ] = E [ | x −1
) Γ( n + α
θ
⎛ ⎞ 1 ⎛ ⎞ nx + β −1 ⎛ α − 1 n ⎞ ⎜= ⎜⎟ ⎜⎟+ ⎟x ⎠ n + α − 1 ⎝ n + α − 1 ⎠ ⎝ β (α − 1) ⎠ ⎝ n + α − 1 1
= 1
ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآورد ﺑﻴﺰ ،ﻳﻚ ﻣﻴﺎﻧﮕﻴﻦ وزﻧﻲ از ﻣﻴﺎﻧﮕﻴﻦ ﻧﻤﻮﻧﻪ ) xﺑﺮآوردﮔﺮ ﻣﻌﻘﻮل ( و ﻣﻴﺎﻧﮕﻴﻦ θ θ ⎞
1
⎛
⎜ ﻣﻲﺑﺎﺷﺪ. ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ⎟ − ( ) β α 1 ⎝ ⎠
در
■
ﻣﺜﺎل :6-2ﻓﺮض ﻛﻨﻴﺪ X 1,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ) P (θﺑﺎﺷﻨﺪ اﮔﺮ ) θ ~ Γ(α , β
ﺑﺎﺷﺪ ﺑﺮآورد ﺑﻴﺰ ﭘﺎراﻣﺘﺮ θﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم را ﺑﺪﺳﺖ آورﻳﺪ.
www.riazisara.ir
ﻓﺼﻞ ﭼﻬﺎرم :ﺗﺼﻤﻴﻢ ﺑﻴﺰي
112
1
) −θ ( n + − θ e − nθ θ nx 1 β ∝ θ nx +α −1e π (θ | x ) ∝ π (θ ) L (θ ) = α θ α −1e β n ) β Γ(α ! ∏x i i =1
1 nx + α = ) ) ⇒ E (θ | x −1 n +β n + β −1
⇒ θ | x ~ Γ(nx + α ,
β −1 n (αβ ) + = ) ∴ δ (X X −1 n +β n + β −1 π
ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﻳﻚ ﻣﻴﺎﻧﮕﻴﻦ وزﻧﻲ از ﻣﻴﺎﻧﮕﻴﻦ ﻧﻤﻮﻧﻪ ) Xﺑﺮآوردﮔﺮ ﻣﻌﻘﻮل ( θو ﻣﻴﺎﻧﮕﻴﻦ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ αβ ،اﺳﺖ.
■
ﻧﻜﺘﻪ :2در ﻣﺜﺎلﻫﺎي ﻗﺒﻞ دﻳﺪﻳﻢ ﻛﻪ ﺑﺮآوردﮔﺮﻫﺎي ﺑﻴﺰ ﻧﺎارﻳﺐ ﻧﻤﻲﺑﺎﺷﻨﺪ .اﻳﻦ ﻣﻮﺿﻮع در ﻗﻀﻴﻪ زﻳﺮ اﺛﺒﺎت ﻣﻲﺷﻮد.
ﻗﻀﻴﻪ :3-2ﻓﺮض ﻛﻨﻴﺪ θداراي ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ) π (θﺑﺎﺷﺪ و ) f (x | θﺗﻮزﻳﻊ ﺷﺮﻃﻲ Xﺑﻪ ﺷﺮط θ ﺑﺎﺷﺪ .در ﺑﺮآورد ﭘﺎراﻣﺘﺮ ) γ (θﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ،ﻫﻴﭻ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ) δ (Xﻧﻤﻲﺗﻮاﻧﺪ ﻳﻚ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺑﺎﺷﺪ ،ﺑﺠﺰ اﻳﻨﻜﻪ
2 r (π , δ ) = E X ,θ ⎡(δ (X ) − θ ) ⎤ = 0 ⎣ ⎦
اﻳﻦ اﻣﻴﺪ رﻳﺎﺿﻲ ﻧﺴﺒﺖ ﺑﻪ ﭼﮕﺎﻟﻲ ﺗﻮام Xو θاﺳﺖ. اﺛﺒﺎت :ﻓﺮض ﻛﻨﻴﺪ δﻳﻚ ﺑﺮآوردﮔﺮ ﺑﻴﺰ و ﻧﺎارﻳﺐ ﺑﺮاي ) γ (θﺑﺎﺷﺪ .در اﻳﻨﺼﻮرت ﭼﻮن δﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ) γ (θاﺳﺖ ﭘﺲ و ﭼﻮن δﺑﺮآوردﮔﺮ ﺑﻴﺰ ) γ (θاﺳﺖ ﭘﺲ
) E [δ (X ) | θ ] = γ (θ ) E [γ (θ ) | X ] = δ (X
ﻫﻤﭽﻨﻴﻦ ﻣﺤﺎﻃﺮه ﺑﻴﺰ ﻋﺒﺎرت اﺳﺖ از 2 )r (Π, δ ) = E ⎡(δ (X ) − γ (θ ) ) ⎤ = E [δ 2 (X )] − 2E ⎣⎡( γ (θ )δ (X ) ) ⎦⎤ + E ⎣⎡γ 2 (θ ) ⎦⎤ (1 ⎣ ⎦
از ﻃﺮﻓﻲ )E [γ (θ )δ (X )] = E ⎣⎡ E ( γ (θ )δ (X ) | X ) ⎦⎤ = E ⎡⎣δ (X )E [γ (θ ) | X ]⎤⎦ = E [δ 2 (X )] (2
)(3
]) E [γ (θ )δ (X )] = E ⎡⎣ E ( γ (θ )δ (X ) | θ ) ⎤⎦ = E ⎡⎣γ (θ )E [δ (X ) | θ ]⎤⎦ = E [γ 2 (θ
www.riazisara.ir
ﻓﺼﻞ ﭼﻬﺎرم :ﺗﺼﻤﻴﻢ ﺑﻴﺰي
و در ﻧﺘﻴﺠﻪ از رواﺑﻂ ) (1و ) (2و ) (3ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد ﻛﻪ r (π , δ ) = 0اﺳﺖ. ﻣﺜﺎل :7-2در ﻣﺜﺎل 3-2دﻳﺪﻳﻢ ﻛﻪ
X
τ2 σ 2 n +τ 2
μ+ 2
σ2 n σ 2 n +τ
113
■
= ) δ π (Xﺑﺮآوردﮔﺮ ﺑﻴﺰ θدر
ﺗﻮزﻳﻊ ) N (θ ,σ 2ﺑﻮد .ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ Xﺑﺮآوردﮔﺮ UMVUﭘﺎراﻣﺘﺮ θاﺳﺖ ﻧﻤﻲﺗﻮاﻧﺪ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺑﺎﺷﺪ.
(
)
ﺣﻞ :اﮔﺮ Xﺑﺨﻮاﻫﺪ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﺑﻴﺰ ﺑﺎﺷﺪ ﺑﺎﻳﺴﺘﻲ E X ,θ (X ,θ )2 = 0ﺑﺎﺷﺪ .اﻣﺎ ⎡σ 2 ⎤ σ 2 = ⎥ E X ,θ ( X − θ )2 = E [E (X − θ )2 | θ ] = E ⎢ | θ ≠0 n n ⎣ ⎦
)
(
ﭘﺲ Xﻧﻤﻲﺗﻮاﻧﺪ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺑﺎﺷﺪ. ﻣﺜﺎل :8-2در ﻣﺜﺎل 2-2دﻳﺪﻳﻢ ﻛﻪ در ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ) B (1,θﺗﺤﺖ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ) Be (α , βو
ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺑﺮاﺑﺮ α + nX α +β +n
= ) δ π (Xﺑﻮد .ﺗﺤﺖ ﭼﻪ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻨﻲ Xﻳﻚ
ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺑﺮاي θاﺳﺖ. ﺣﻞ X :در ﺻﻮرﺗﻲ ﺑﺮآوردﮔﺮ ﺑﻴﺰ θاﺳﺖ ﻛﻪ ⎤ ) ⎡θ (1 − θ ⎢ 0 = E X ,θ ⎡⎣(X − θ )2 ⎤⎦ = E ⎡⎣ E ( X − θ )2 | θ ⎤⎦ = E ⎡⎣V ar ( X ) | θ ⎤⎦ = E ⎥⎦ ⎣ n ⎡ θ (1 − θ ) ⎤ 0≤θ ≤1 ⎢ ⇒E = 0 ⇒ P (θ (1 − θ ) = 0) = 1 ⇒ P (θ = 0 or θ = 1) = 1 ⎦⎥ ⎣ n
⇒ P (θ = 0) + P (θ = 1) = 1
ﺑﻨﺎﺑﺮاﻳﻦ در ﺻﻮرﺗﻲ Xﺑﺮآوردﮔﺮ ﺑﻴﺰ اﺳﺖ ﻛﻪ θداراي ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺑﺮﻧﻮﻟﻲ ﺑﺎﺷﺪ و ﺑﺮاي ﭼﻨﻴﻦ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻨﻲ دارﻳﻢ ﻛﻪ )(4
δ π (1) = 1
) δ π (0) = 0ﭼﻮن 1ﻳﺎ θ = 0اﺳﺖ(.
و ﻫﺮ ﺑﺮآوردﮔﺮي ﻛﻪ در ﺷﺮط ﺑﺎﻻ ﺻﺪق ﻛﻨﺪ ﺑﺮاوردﮔﺮ ﺑﻴﺰ اﺳﺖ .ﻣﺜﻼ δ π (X ) = Xدر اﻳﻦ ﺷﺮاﻳﻂ ﺻﺪق ﻣﻲﻛﻨﺪ .اﻟﺒﺘﻪ اﻳﻦ ﭼﮕﺎﻟﻲ ﭘﻴﺸﻴﻦ ﻏﻴﺮﻣﻌﻘﻮل اﺳﺖ.
www.riazisara.ir
ﻓﺼﻞ ﭼﻬﺎرم :ﺗﺼﻤﻴﻢ ﺑﻴﺰي
114
ﻧﻜﺘﻪ :3در ﻣﺜﺎلﻫﺎي ﺑﺎﻻ اﻛﺜﺮ ﺑﺮآوردﮔﺮﻫﺎي ﺑﻴﺰ ﻳﻜﺘﺎ ﺑﻮدﻧﺪ و ﺗﻨﻬﺎ در ﻣﺜﺎل 8-2ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ﭘﻴﺸﻴﻦ ﻏﻴﺮﻣﻌﻘﻮل P (θ = 0) + P (θ = 1) = 1دﻳﺪﻳﻢ ﻛﻪ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﻳﻜﺘﺎ ﻧﺒﻮد .ﺷﺮط ﻛﻠﻲ ﺑﺮاي ﻳﻜﺘﺎ ﺑﻮدن ﺑﺮآوردﮔﺮ ﺑﻴﺰ در ﻗﻀﻴﻪ زﻳﺮ آورده ﺷﺪه اﺳﺖ. ﻗﻀﻴﻪ :4-2اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ) L (θ , δدرﺟﻪ دوم ﻳﺎ ﺑﻄﻮر ﻛﻠﻲ اﻛﻴﺪا ﻣﺤﺪب ﺑﺎﺷﺪ و
Pﻛﻼس ﻛﻠﻴﻪ
ﺗﻮزﻳﻊﻫﺎي Pθﺑﺎﺷﺪ ،آﻧﮕﺎه ﺑﺮآورد ﺑﻴﺰ δ πﻳﻜﺘﺎ ) (a.e . Pاﺳﺖ ﻫﺮﮔﺎه اﻟﻒ -ﻣﺨﺎﻃﺮه ﺑﻴﺰ آن ﻧﺴﺒﺖ ﺑﻪ πﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ ∞ < ) r (π , δ π ب -اﮔﺮ Qﺗﻮزﻳﻊ ﻛﻨﺎري Xﺑﺎﺷﺪ ﻳﻌﻨﻲ ) Q ( A ) = ∫ Pθ (X ∈ A )d Π (θ a.e .Q ⇒ a.e . P
آﻧﮕﺎه
)ﺑﻪ ﻋﺒﺎرﺗﻲ Q (N ) = 0 ⇒ P (N ) = 0و ﻳﺎ ( P (X ∈ A ) = 0 ⇒ P (X ∈ A | θ ) = 0 اﺛﺒﺎت :ﺑﺮاي ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم از ﻗﻀﻴﻪ 2-2ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد ﻛﻪ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺑﺎ ﻣﺨﺎﻃﺮه ﻣﺘﻨﺎﻫﻲ ﺑﺎﻳﺴﺘﻲ در راﺑﻄﻪ
]
δ π (X ) = E [γ (θ ) | Xﺻﺪق ﻛﻨﺪ ﺑﺠﺰ روي ﻣﺠﻤﻮﻋﻪاي از ﻧﻘﺎط xﻣﺎﻧﻨﺪ Nﻛﻪ
Q (N ) = 0و اﻳﻦ ﺑﺪان ﻣﻌﻨﻲ اﺳﺖ ﻛﻪ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﻳﻜﺘﺎ اﺳﺖ .در ﺣﺎﻟﺖ ﺗﺎﺑﻊ زﻳﺎن اﻛﻴﺪا ﻣﺤﺪب ﻧﻴﺰ ﻧﺘﻴﺠﻪ ﺑﻪ ﺻﻮرت ﻓﻮق اﺳﺖ زﻳﺮا اﻳﻦ ﻧﻮع ﺗﻮاﺑﻊ داراي ﻧﻘﻄﻪ ﻣﻴﻨﻴﻤﻢ ﻳﻜﺘﺎ ﻣﻲﺑﺎﺷﻨﺪ.
■
ﻣﺜﺎل :9-2در ﻣﺜﺎل 8-2دﻳﺪﻳﻢ ﻛﻪ ﺗﺤﺖ ﭼﮕﺎﻟﻲ ﭘﻴﺸﻴﻦ P (θ = 0) + P (θ = 1) = 1ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﭘﺎراﻣﺘﺮ θدر ﺧﺎﻧﻮاده ) B (1,θدر ﺷﺮط δ π (0) = 0و δ π (1) = 1ﺻﺪق ﻣﻲﻛﺮد و ﻳﻜﺘﺎ ﻧﺒﻮد .ﻋﻠﺖ ﻳﻜﺘﺎ ﻧﺒﻮدن آن ﺑﺮﻗﺮارﻧﺒﻮدن ﺷﺮط)ب(ﻗﻀﻴﻪ 4-2اﺳﺖ زﻳﺮا n
P (X 1 = 1,… , X n = 1 | θ ) = ∏ θ = θ n ≠ 0 i =1
1
) P (X 1 = 1,… , X n = 1) = ∑ P (X 1 = 1,… , X n = 1 | θ = t )P (θ = t t =0
)
=0× P (θ = 0) + 0× P (θ = 1) = 0
n− x (1 − θ ) ∑ i = 0 if θ = 1
ﺑﻨﺎﺑﺮاﻳﻦ
xi
∑ ( f (x | θ ) = θ
P (X 1 = 1,… , X n = 1) = 0 ⇒ P (X 1 = 1,… , X n = 1 | θ ) = 0
■
www.riazisara.ir
ﻓﺼﻞ ﭼﻬﺎرم :ﺗﺼﻤﻴﻢ ﺑﻴﺰي
115
ﻧﻜﺘﻪ :4در ﺑﻌﻀﻲ از ﻣﺴﺎﻳﻞ ﻣﻤﻜﻦ اﺳﺖ ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺑﺮآوردﮔﺮ ﺑﻴﺰ ،ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ﭘﺴﻴﻦ را ﺑﻄﻮر ﻛﺎﻣﻞ ﻣﺤﺎﺳﺒﻪ ﻛﻨﻴﻢ .ﺑﻪ ﻣﺜﺎل زﻳﺮ ﺗﻮﺟﻪ ﻛﻨﻴﺪ. ﻣﺜﺎل :10-2ﻓﺮض ﻛﻨﻴﺪ Xداراي ﺗﻮزﻳﻊ ) U (0,θﺑﺎﺷﺪ و θداراي ﭼﮕﺎﻟﻲ ﭘﻴﺸﻴﻦ ﺑﺼﻮرت ⎧⎪θ e −θ θ > 0 ⎨ = ) π (θﺑﺎﺷﺪ .ﺗﺤﺖ ﻫﺮ ﻳﻚ از ﺗﺎﺑﻊ زﻳﺎنﻫﺎي درﺟﻪ دوم O .W . ⎪⎩ 0
و ﻗﺪرﻣﻄﻠﻖ ﺧﻄﺎ
ﺑﺮآوردﮔﺮﻫﺎي ﺑﻴﺰ را ﺑﺪﺳﺖ آورﻳﺪ. ﺣﻞ: ) I ( x ,+∞ ) (θ
1
θ
) π (θ )f (x | θ
= c (x )π (θ )f (x | θ ) = c (x )θ e −θ
c (x )e −θ d θ = c (x )[−e −θ ]x+∞ = c (x )e − x
) m (x
∞+
∫ = 1 = ∫ π (θ | x )d θ ⇒ 1
x
) ∴π (θ | x ) = e − (θ − x ) I ( x , +∞ ) (θ
اﻟﻒ(
= ) π (θ | x
⇒ c (x ) = e x
L (θ , δ ) = (δ − θ )2 ⇒ δ π (x ) = E (θ | x ) = x + 1 ⇒ δ π (X ) = X + 1
ب( m m 1 = L (θ , δ ) =| δ − θ |⇒ ∫ π (θ | x )d θ = 1 ⇒ ∫ e − (θ − x )d θ 2 x x 2 1 1 ) − ( m −x ⇒ −e − (θ − x ) |m = ⇒ m − x = log 2 ⇒ m = x + log 2 x = ⇒ 1− e 2 2
⇒ δ π (X ) = X + log 2
■
ﻧﻜﺘﻪ :5اﮔﺮ در ﻣﺴﺌﻠﻪاي ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه Tﻣﻮﺟﻮد ﺑﺎﺷﺪ آﻧﮕﺎه ﺗﻮزﻳﻊ ﭘﺴﻴﻦ ﺑﻪ آﻣﺎره Tواﺑﺴﺘﻪ اﺳﺖ و در ﺣﻘﻴﻘﺖ ) . π (θ | x ) = π (θ | tﺑﺮاي اﺛﺒﺎت اﻳﻦ ﻣﻄﻠﺐ ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ از ﻗﻀﻴﻪ ﺗﺠﺰﻳﻪ ﺑﻪ ﻋﻮاﻣﻞ دارﻳﻢ ﻛﻪ ﭘﺲ
) L (θ ) = f (x | θ ) = g (t | θ ) h (x
) f ( x | θ )π (θ ) g (t | θ )π (θ = ) = π (θ | t ′ ′ ′ ′ ( | θ ) π ( θ ) ( | θ ) π ( θ ) f x d g t d ∫ ∫
= ) π (θ | x
ﻳﻌﻨﻲ ﺗﻮزﻳﻊ ﭘﺴﻴﻦ ) π (θ | tﺑﺴﺘﮕﻲ ﺑﻪ xاز ﻃﺮﻳﻖ tدارد و ﺑﻨﺎﺑﺮاﻳﻦ ﻣﺤﺎﺳﺒﻪ ﺗﻮزﻳﻊ ﭘﺴﻴﻦ ﺑﺮاﺳﺎس x
ﻳﺎ tﻳﻜﺴﺎن اﺳﺖ .ﺑﺮاي ﻣﺜﺎل ،در ﻣﺜﺎل 3-2دارﻳﻢ ﻛﻪ
www.riazisara.ir
ﻓﺼﻞ ﭼﻬﺎرم :ﺗﺼﻤﻴﻢ ﺑﻴﺰي
) , θ ~ N ( μ ,τ 2
)
θ2 1 n μ nx ) ( + ) +θ ( 2 + 2 2 τ2 σ2 τ σ
σ2
−
n
,T = X ~ N (θ ,
∝e
(θ − μ )2
1 2
2τ
( x −θ )2 −
e
116
) X 1,… , X n i .i .d N ( μ ,σ 2
n 2
2σ
−
π (θ | t ) ∝ f (t | θ )π (θ ) ∝ e
ﻛﻪ ﻫﻤﺎن ﺗﺎﺑﻊ ﺑﻪ دﺳﺖ آﻣﺪه در ﻣﺜﺎل 3-2اﺳﺖ ﺑﻨﺎﺑﺮاﻳﻦ
■
⎛ ⎛σ2 ⎞ 2 ⎞ ⎜ μ ⎜ ⎟ +τ x ⎟ ⎠ n 1 ⎜ ⎟ ⎝ , ⎜ θ |T = t ~ N 2 n ⎟ 1 σ + ⎜ ⎟ +τ 2 ⎟ σ2 τ2 ⎜ n ⎝ ⎠
ﺗﻮزﻳﻊﻫﺎي ﭘﻴﺸﻴﻦ ﻧﺎآﮔﺎﻫﻲ ﺑﺨﺶ : 1 ﻫﻤﺎﻧﮕﻮﻧﻪ ﻛﻪ ﻗﺒﻼ ﮔﻔﺘﻪ ﺷﺪ ،ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ) π (θﺑﺮاﺳﺎس اﻋﺘﻘﺎدات و ﺗﺠﺮﺑﻴﺎت ﻗﺒﻠﻲ ﭘﮋوﻫﺸﮕﺮ ﺗﺸﻜﻴﻞ ﻣﻲﮔﺮدد .ﺣﺎل اﮔﺮ ﻫﻴﭻ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻨﻲ در دﺳﺘﺮس ﻧﺒﺎﺷﺪ ،ﻣﻲﺗﻮان از ﺗﻮزﻳﻊﻫﺎي ﭘﻴﺸﻦ ﻧﺎآﮔﺎﻫﻲ ﺑﺨﺶ 1 اﺳﺘﻔﺎده ﻛﺮد .ﺑﺮاي ﻣﺜﺎل اﮔﺮ در ﻳﻚ ﻣﺴﺌﻠﻪ آزﻣﻮن ﻓﺮض ﺳﺎده در ﻣﻘﺎﺑﻞ ﺳﺎده اﺣﺘﻤﺎﻻت ﻳﻜﺴﺎن 2
را ﺑﻪ
ﻓﺮض ﺻﻔﺮ و ﻣﻘﺎﺑﻞ ﻧﺴﺒﺖ دﻫﻴﻢ آﻧﮕﺎه اﻳﻦ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ،ﻧﺎآﮔﺎﻫﻲ ﺑﺨﺶ اﺳﺖ. ﻳﻜﻲ از روشﻫﺎي ﺑﺪﺳﺖ آوردن ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﻧﺎآﮔﺎﻫﻲ ﺑﺨﺶ ﺗﻮﺳﻂ ﺟﻔﺮﻳﺰ (1961) 2اراﻳﻪ ﺷﺪه اﺳﺖ، ﻛﻪ در اﻳﻦ روش ﭼﮕﺎﻟﻲ ﭘﻴﺸﻴﻦ را ﺑﻪ ﺻﻮرت | ) π (θ ) ∝ | I (θدر ﻧﻈﺮ ﻣﻲﮔﻴﺮد ﻛﻪ در آن | ) | I (θ
دﺗﺮﻣﻴﻨﺎن ﻣﺎﺗﺮﻳﺲ اﻃﻼع ﻓﻴﺸﺮ ﻣﻲﺑﺎﺷﺪ. ﻣﺜﺎل :11-2اﮔﺮ ) X ~ N (θ ,1آﻧﮕﺎه ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺟﻔﺮﻳﺰ را ﺑﺮاي θﺑﺪﺳﺖ آورﻳﺪ. 1
) 1 − 2( x −θ = ) f (x | θ e ∞⇒ I (θ ) = 1 ⇒ π (θ ) = 1 − ∞ < θ < + 2π 2
■
ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺑﻪ دﺳﺖ آﻣﺪه در ﻣﺜﺎل 11-2ﻳﻚ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ﻧﻴﺴﺖ .اﮔﺮ در ﻣﺴﺌﻠﻪاي اﻧﺪازه ﭘﻴﺸﻴﻦ در ﺷﺮط ∞ = ) ∫ d Π (θﺻﺪق ﻛﻨﺪ آﻧﮕﺎه ﭘﻴﺸﻴﻦ ﺣﺎﺻﻞ را ﻧﺎﺳﺮه 3ﮔﻮﻳﻨﺪ و ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ١
Noninformative Priors Jeffreys ٣ Improper Prior ٢
www.riazisara.ir
ﻓﺼﻞ ﭼﻬﺎرم :ﺗﺼﻤﻴﻢ ﺑﻴﺰي
117
ﻛﻪ در ﺷﺮط ∫ d Π (θ ) = 1ﺻﺪق ﻛﻨﺪ را ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺳﺮه 1ﮔﻮﻳﻨﺪ .ﺑﻨﺎﺑﺮاﻳﻦ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺑﺪﺳﺖ آﻣﺪه در ﻣﺜﺎل 11-2ﻧﺎﺳﺮه اﺳﺖ. ﺑﺎﻳﺴﺘﻲ ﺗﻮﺟﻪ ﻛﺮد ﻛﻪ اﮔﺮ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻨﻲ ﻧﺎﺳﺮه ﺑﺎﺷﺪ آﻧﮕﺎه ﻣﻤﻜﻦ اﺳﺖ ﻣﺨﺎﻃﺮه ﺑﺮاﺳﺎس اﻳﻦ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ و ﺑﺮآوردﮔﺮ ﺑﻴﺰ آن ﻗﺎﺑﻞ ﻣﺤﺎﺳﺒﻪ ﺑﺎﺷﺪ .ﺑﺮاي ﻣﺜﺎل ،در ﻣﺜﺎل 11-2دارﻳﻢ ﻛﻪ 2
1
) 1 − 2 ( x −θ e 2π
= ) π (θ | x ) ∝ f ( x | θ )π (θ ) = f ( x | θ
ﭘﺲ ﺗﻮزﻳﻊ ﭘﺴﻴﻦ ﺳﺮه اﺳﺖ و ) θ | x ~ N ( x ,1در ﻧﺘﻴﺠﻪ . δ π (X ) = E (θ | X ) = Xﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺣﺎﺻﻞ را ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ ﮔﻮﻳﻨﺪ. ﺗﻌﺮﻳﻒ :2-2ﻳﻚ ﺑﺮآوردﮔﺮ ) δGπ (xرا ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ 2ﻧﺴﺒﺖ ﺑﻪ اﻧﺪازه ) π (θﮔﻮﻳﻨﺪ اﮔﺮ ﻣﺨﺎﻃﺮه ﭘﺴﻴﻦ ⎦⎤ E ⎡⎣ L (θ , δ (x ) ) | X = xدر δ = δGπﺑﺮاي ﻫﺮ xﻣﻴﻨﻴﻤﻢ ﺷﻮد■ . ﻣﺜﺎل :12-2در ﻣﺜﺎل 2-2ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺟﻔﺮﻳﺰ را ﺑﺪﺳﺖ آورده وﺳﭙﺲ ﺑﺮاﺳﺎس ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ 1 ) θ (1 − θ
= ) ، π (θﺑﺮآوردﮔﺮ ﺑﻴﺰ)ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ( θﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم را ﺑﺪﺳﺖ آورﻳﺪ.
ﺣﻞ: n ) θ (1 − θ
= ) f P (x ) = θ x (1 − θ )1− x ⇒ I (θ
ﺗﻮزﻳﻊ ﺳﺮه اﺳﺖ
1 θ (1 − θ )1 2 12
1 ﺑﺮاﺳﺎس ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﻧﺎﺳﺮه ) θ (1 − θ 0< θ <1
i = 1, 2,..., n
) X i ~ B (1,θ
∝ ) π (θ ) ∝ | I (θ ) | ⇒ Π (θ
= ) π (θدارﻳﻢ
1 = θ nx −1 (1 − θ ) n − nx −1 ) θ (1 − θ
π (θ | x ) ∝ θ nx (1 − θ ) n − nx
ﺑﻨﺎﺑﺮاﻳﻦ اﮔﺮ x ≠ 0ﻳﺎ x ≠ 1آﻧﮕﺎه ﺗﻮزﻳﻊ ﭘﺴﻴﻦ ﺳﺮه اﺳﺖ و ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ θﻋﺒﺎرت اﺳﺖ از
nx =x n
)
θ | x ~ Be ( nx , n − nxو
= ) δGπ (x ) = E (θ | x
Proper
١
Generalized Bayes
٢
www.riazisara.ir
ﻓﺼﻞ ﭼﻬﺎرم :ﺗﺼﻤﻴﻢ ﺑﻴﺰي
118
ﺣﺎل اﮔﺮ x = 0ﺑﺎﺷﺪ آﻧﮕﺎه ﻃﺒﻖ ﻗﻀﻴﻪ 1-2ﺑﺮآوردﮔﺮ ﺑﻴﺰ آن ﻣﻘﺪاري از aاﺳﺖ ﻛﻪ اﻧﺘﮕﺮال زﻳﺮ را 1
ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ
E [(θ − a )2 | x ] = c (x ) ∫ (θ − a )2θ −1(1 − θ ) n −1d θ 0
اﻧﺘﮕﺮال ﻓﻮق در ﺻﻮرﺗﻲ ﻫﻤﮕﺮا اﺳﺖ ﻛﻪ a = 0ﺑﺎﺷﺪ)ﺑﺨﺎﻃﺮ وﺟﻮد ( θ −1ﭘﺲ در اﻳﻦ ﺣﺎﻟﺖ ﺑﺮآورد ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ ﻋﺒﺎرت اﺳﺖ از . δGπ ( x ) = a = 0 = xﺑﻪ ﻫﻤﻴﻦ ﺗﺮﺗﻴﺐ ﺑﺮاي x = 1ﻣﻲﺗﻮان ﻧﺸﺎن داد ﻛﻪ ﺑﺮآورد ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ ﻋﺒﺎرت اﺳﺖ از . δGπ ( x ) = a = 1 = xﺑﻨﺎﺑﺮاﻳﻦ در ﻫﺮ ﺣﺎﻟﺖ ﺑﺮآورد ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ ﺑﺮاﺑﺮ δGπ (x ) = xاﺳﺖ. ﻫﻤﭽﻨﻴﻦ ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ در ﻣﺜﺎل 2-2ﺗﺤﺖ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺳﺮه ) Be (α , βﺑﺮآورد ﺑﻴﺰ θﻋﺒﺎرت ﺑﻮد از α + nx α +β +n
= ) δ π (x
ﺣﺎل اﮔﺮ α → 0و β → 0آﻧﮕﺎه δ π (x ) → xﻳﻌﻨﻲ ) δ π (xﺑﻪ ﺳﻤﺖ ﺑﺮآورد ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ θﺗﺤﺖ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺟﻔﺮﻳﺰ ﻣﻴﻞ ﻣﻲﻛﻨﺪ.
■
ﺗﻌﺮﻳﻒ :3-2ﻳﻚ ﺑﺮآوردﮔﺮ ) δ L (xرا ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺣﺪي 1ﮔﻮﻳﻨﺪ اﮔﺮ دﻧﺒﺎﻟﻪاي از ﺗﻮزﻳﻊﻫﺎي ﭘﻴﺸﻴﻦ π mو ﺑﺮآوردﮔﺮﻫﺎي ﺑﻴﺰ ) δ π m (Xﻣﻮﺟﻮد ﺑﺎﺷﺪ ﺑﻄﻮري ﻛﻪ ∞ → δ π m (x ) → δ (x ) (a.e .) as m
■
ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ δ L (X ) = Xدر ﺗﻮزﻳﻊ ) B (1,θﻳﻚ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺣﺪي ﺑﺮاي θاﺳﺖ. ﻣﺜﺎل :13-2اﮔﺮ X 1, X 2 ,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) N (θ ,σ 2ﺑﺎﺷﻨﺪ ﻛﻪ σ 2ﻣﻌﻠﻮم اﺳﺖ ،آﻧﮕﺎه ﺗﺤﺖ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﻧﺎﺳﺮه ) π (θ ) =1ﺟﻔﺮﻳﺰ( ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ θﺑﺮاﺑﺮ δGπ ( x ) = xاﺳﺖ و
ﺗﺤﺖ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺳﺮه ) N ( μ ,τ 2ﺑﺮآوردﮔﺮ ﺑﻴﺰ
⎛σ2 ⎞ 2 μ ⎜ ⎟ +τ x n π ⎠ δ (x ) = ⎝ 2اﺳﺖ و در ﻧﺘﻴﺠﻪ σ +τ 2 n
ﺑﺮآوردﮔﺮ δ L (x ) = xﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺣﺪي θﻣﻮﻗﻌﻲ ﻛﻪ ∞ → τﻣﻲﺑﺎﺷﺪ.
■
Limit of Bayes Estimator
١
www.riazisara.ir
ﻓﺼﻞ ﭼﻬﺎرم :ﺗﺼﻤﻴﻢ ﺑﻴﺰي
119
ﺗﻮﺟﻪ :از دﻳﺪﮔﺎه ﺑﻴﺰ ،ﺑﺮآوردﮔﺮﻫﺎي ﺑﻴﺰ ﺣﺪي ﻣﻄﻠﻮﺑﺘﺮ از ﺑﺮآوردﮔﺮﻫﺎي ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ ﻫﺴﺘﻨﺪ .زﻳﺮا ﺣﺪ دﻧﺒﺎﻟﻪﻫﺎي ﺑﻴﺰ ﺑﺎﻳﺴﺘﻲ ﺑﻪ ﻳﻚ ﺑﺮآوردﮔﺮ ﺑﻴﺰ )ﺳﺮه( ﻧﺰدﻳﻚ ﺑﺎﺷﺪ ،اﻣﺎ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ ﻣﻤﻜﻦ اﺳﺖ ﺑﻪ ﻫﻴﭻ ﺑﺮاوردﮔﺮ ﺑﻴﺰي )ﺳﺮه( ﻧﺰدﻳﻚ ﻧﺒﺎﺷﺪ )ﻣﺴﺌﻠﻪ 15-2را ﺑﺒﻴﻨﻴﺪ(. ﻣﺜﺎل :14-2ﻓﺮض ﻛﻨﻴﺪ ) X ~ N ( μ ,σ 2ﻛﻪ μو σ 2ﻧﺎﻣﻌﻠﻮم ﻫﺴﺘﻨﺪ .ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺟﻔﺮﻳﺰ را ﺑﺮاي ) θ = ( μ ,σﺑﻪ دﺳﺖ آورﻳﺪ. ⎡ ∂2 ⎤ ⎢ I ij (θ ) = −E θ ⎥ ) logf (x | θ ⎢⎣ ∂θi ∂θ j ⎦⎥ (X − μ )2 1 logf (x | θ ) = − log(2π ) − log σ − 2 2σ 2 ) 2( μ − X
1 ⎡ ⎢ −σ2 ⎢ I (θ ) = − E θ ) ⎢ 2( μ − X ⎢ ⎣ σ3
⎤ ⎡ 1 ⎤ ⎥0 ⎥ 2 ⎢ σ ⎥ = ⎢σ ⎥ 2 ⎥ 2 ⎢ ⎥ ) 1 3( X − μ − 2− ⎦⎥ ⎥ ⎢⎣0 σ 2 4 σ σ ⎦ 3
1
σ2
ﻛﻪ ﺗﻮزﻳﻌﻲ ﻧﺎﺳﺮه اﺳﺖ.
∝ ) ⇒ π (θ
2
σ2
1 = |2
2
σ4
1 |= (θ ) |2
π (θ ) ∝| I
■
ﻣﺜﺎل :15-2ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) N (0, σ 2ﺑﺎﺷﻨﺪ .ﺑﺮآوردﮔﺮ ﺑﻴﺰ σ 2
را ﺑﺮاﺳﺎس ﺗﻮاﺑﻊ زﻳﺎن
(δ − σ 2 )2
σ4
= ) A ) L (σ , δ ) = (δ − σ ) B ) L (σ , δﺑﺪﺳﺖ آورﻳﺪ .اﮔﺮ 2
2
2
ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺟﻔﺮﻳﺰ را ﺑﻜﺎر ﺑﺒﺮﻳﻢ ،ﺑﺮآوردﮔﺮ ﺑﻴﺰ σ 2را ﺗﺤﺖ ﺗﻮاﺑﻊ زﻳﺎن ﻓﻮق ﺑﻪ دﺳﺖ آورﻳﺪ. ﺣﻞ: n 2 e −τ y
اﻟﻒ- ﻛﻪ در آن
1 2σ 2
n
= τو y = ∑ x i2ﻗﺮار ﻣﻲدﻫﻴﻢ i =1
n
+
= cτ
n − 1 ∑ x i2 2 2 e 2σ i =1
−
) f (x | σ ) = (2πσ 2
1 ) = τ ~ Γ( g ,
α
2
1 2σ 2
www.riazisara.ir
120
E(
1
τ
)= 2
ﺗﺼﻤﻴﻢ ﺑﻴﺰي:ﻓﺼﻞ ﭼﻬﺎرم
α2
g ( g + 1) 1 α g وE( )= ، E (τ 2 ) = ، E ( τ ) = ( g − 1)( g − 2) g −1 α τ α2
π (τ | x ) ∝ τ
n 2 e −τ y τ g −1e −ατ
⇒ τ | x ~ Γ( g +
n g + −1 = τ 2 e − (α + y )τ
ﭘﺲ ﺑﻨﺎﺑﺮاﻳﻦ
n 1 ) , 2 α+y
A ) ⇒ δ π (x ) = E (σ 2 | x ) = E (
1
1 1 α+y α+y = |x)= 2τ 2 g + n − 1 n + 2g − 2 2
n ( g + ) (α + y ) 2 1 ( τ | ) E x 2 σ = = B ) ⇒ δ π (x ) = 2 1 E (4τ | x ) 2 ( g + n )( g + n + 1) (α + y )2 E( 4 |x) 2 2 σ E (σ 2
=
4
|x)
α+y n + 2g − 2
⎡ ∂2 n ⎤ I (τ ) = − E ⎢ 2 ( ln τ − τ y ) ⎥ = −E ⎣ ∂τ 2 ⎦
π (τ ) ∝ | I (τ ) | ∝
1
τ
⇒
π (τ ) =
⎡ n ⎤ n ⎢⎣ − 2τ 2 ⎥⎦ = 2τ 2
1
τ
-ب
τ >0
.ﻛﻪ ﻳﻚ ﭘﻴﺸﻴﻦ ﻧﺎﺳﺮه اﺳﺖ n −1 2 e −τ y
n 1 ⇒τ | x ~ Γ ( , ) 2 y y 1 1 y A ) ⇒ δGπ (x ) = E (σ 2 | x ) = E ( | x ) = = 2τ 2 n −1 n − 2 2 1 E (σ 2 4 | x ) y E (2τ | x ) 1 (n 2) / y σ = = = B ) ⇒ δGπ (x ) = 2 1 E (4τ | x ) 2 ( n )( n + 1) / y 2 n + 2 E( 4 |x) 2 2 σ
π (τ | x ) ∝ τ
وα →0 ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ ﺑﺮآوردﮔﺮﻫﺎي ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ در اﻳﻦ ﺣﺎﻟﺖ ﻫﻤﺎن ﺑﺮاوردﮔﺮﻫﺎي ﺑﻴﺰ ﺣﺪي ﺑﺎ ■
. ﻣﻲ ﺑﺎﺷﻨﺪg →0
121
www.riazisara.ir
ﺗﺼﻤﻴﻢ ﺑﻴﺰي:ﻓﺼﻞ ﭼﻬﺎرم
وθ ﺑﺎﺷﻨﺪ ﻛﻪ در آنN (θ ,σ 2 ) ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ ازX 1, X 2 ,… , X n ﻓﺮض ﻛﻨﻴﺪ:16-2 ﻣﺜﺎل را ﺗﺤﺖσ 2 ﺑﺮآوردﮔﺮ ﺑﻴﺰ، π (θ ) = 1;θ ∈ R وτ =
1 2σ
2
~ Γ(α , g ) اﮔﺮ. ﻫﺮ دو ﻧﺎﻣﻌﻠﻮم ﻫﺴﺘﻨﺪσ 2
. را ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﻪ دﺳﺖ آورﻳﺪθ ﻣﺜﺎل ﻗﺒﻞ و ﺑﺮآوردﮔﺮ ﺑﻴﺰB وA ﺗﻮاﺑﻊ زﻳﺎن
f (x | θ ,σ ) = 2
n n − 1 ∑ ( x i −θ )2 − 2 (2πσ 2 ) 2 e i =1
∝τ
n −τ ⎡ ( x − x )2 + n ( x −θ )2 ⎤ ⎦ 2 e ⎣∑ i
:ﺣﻞ n
آﻧﮕﺎهZ = ∑ (x i − x )2 اﮔﺮ
π (θ ,τ ) ∝ τ g −1e −ατ
i =1
∴π (θ ,τ | x ) ∝ τ
n 2 2 e −τ ( Z + n ( x −θ ) )τ g −1e −ατ
⇒ π (θ ,τ | x ) = C τ
π (τ | x ) = ∫
+∞
−∞
=τ
n + g −1 −τ ⎡α + Z + n ( x −θ )2 ⎤ ⎦ 2 e ⎣
n + g −1 −τ ⎡α + Z + n ( x −θ )2 ⎤ ⎦ 2 e ⎣ *
π (θ ,τ | x )d θ = C τ
n −1 + g −1 2 e −τ (α + Z )
1 ⎞ ⎛ n −1 ⇒τ | x ~ Γ⎜ + g, α + Z ⎠⎟ ⎝ 2
α +Z ⎛ 1 ⎞ 1 α +Z = (A ) ⇒ δGπ (x ) = E ⎡⎣σ 2 | x ⎤⎦ = E ⎜ | x ⎟ = ⎝ 2τ ⎠ 2 n − 1 + g − 1 n + 2g − 3 2 ⎛ n −1 ⎞ + g ⎟ (α + Z ) ⎜ E (2τ | x ) 1 α +Z ⎝ 2 ⎠ (B ) ⇒ δGπ (x ) = = = E (4τ 2 | x ) 2 ⎛ n − 1 + g ⎞⎛ n − 1 + g + 1⎞ (α + Z )2 n + 2g + 1 ⎜ ⎟⎜ ⎟ ⎝ 2 ⎠⎝ 2 ⎠
π (θ | x ) = ∫
+∞
0
■
⎛n ⎞ Γ⎜ + g ⎟ ⎝2 ⎠
π (θ ,τ | x )d τ = C
n 2 ⎤ 2 +g
⎡α + Z + n (x − θ ) ⎣ ⎦
δGπ (x ) = E (θ | x ) = x
ﻣﺘﻘﺎرن اﺳﺖ ﭘﺲx اﻳﻦ ﺗﻮزﻳﻊ ﺣﻮل
١٢٢
داﻧﻠﻮد از ﺳﺎﻳﺖ رﻳﺎﺿﻲ ﺳﺮا
www.riazisara.ir
ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن و ﻣﺠﺎز ﺑﻮدن
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
ﺑﺨﺶ :1ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ
123
1
در ﻓﺼﻞ ﻗﺒﻞ ﺗﺼﻤﻴﻢ ﺑﻴﺰ را از ﻃﺮﻳﻖ ﻣﻴﻨﻴﻤﻢ ﻛﺮدن ﻣﺨﺎﻃﺮه ﺑﻴﺰ )ﻛﻪ ﻫﻤﺎن ﻣﻴﺎﻧﮕﻴﻦ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﻧﺴﺒﺖ ﺑﻪ ﻳﻚ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ θﻳﻌﻨﻲ ) ∫ R (θ , δ )d Π (θﺑﻮد( ﺑﺪﺳﺖ آوردﻳﻢ. Θ
ﻣﺰﻳﺘﻲ ﻛﻪ روش ﺑﻴﺰ داﺷﺖ اﻳﻦ ﺑﻮد ﻛﻪ اﻃﻼﻋﺎت ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه در ﻳﻚ ﻋﺪد)ﻣﺨﺎﻃﺮه ﺑﻴﺰ( ﺧﻼﺻﻪ ﻣﻲﺷﺪ و دو ﺗﺼﻤﻴﻢ ﺑﻮﺳﻴﻠﻪ ﻣﻘﺎﻳﺴﻪ اﻳﻦ ﻣﺨﺎﻃﺮه ﺑﻴﺰﺷﺎن ﺑﺎ ﻳﻜﺪﻳﮕﺮ ﻣﻘﺎﻳﺴﻪ ﻣﻲﺷﺪﻧﺪ .در اﻳﻦ ﻓﺼﻞ روش دﻳﮕﺮي ﺑﺮاي ﺑﺪﺳﺖ آوردن ﻳﻚ ﺗﺼﻤﻴﻢ ﺑﻬﻴﻨﻪ در ﻧﻈﺮ ﻣﻲﮔﻴﺮﻳﻢ ﻛﻪ در اﻳﻦ روش آن ﺗﺼﻤﻴﻤﻲ را اﻧﺘﺨﺎب ﻣﻲﻛﻨﻴﻢ ﻛﻪ ﻣﺎﻛﺴﻴﻤﻢ )ﺳﻮﭘﺮﻳﻤﻢ( ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﻧﺴﺒﺖ ﺑﻪ ﻛﻠﻴﻪ ﻣﻘﺎدﻳﺮ ﻓﻀﺎي ﭘﺎراﻣﺘﺮي Θرا در ﺑﻴﻦ ﻛﻠﻴﻪ ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ. ﺗﻌﺮﻳﻒ :1-1ﻓﺮض ﻛﻨﻴﺪ ﻛﻪ Dﻣﺠﻤﻮﻋﻪ ﻛﻠﻴﻪ ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ و ) R (θ , δﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﺑﺎﺷﺪ .ﺗﺼﻤﻴﻢ δ m ∈ Dرا ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ ﮔﻮﻳﻨﺪ ﻫﺮﮔﺎه ﺑﺮاي ﻫﺮ δ ∈ Dداﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ ) Sup R (θ , δ m ) ≤ Sup R (θ , δ θ ∈Θ
θ ∈Θ
و ﻳﺎ ﺑﻪ ﻋﺒﺎرﺗﻲ δ m ∈ Dرا ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ ﮔﻮﻳﻨﺪ ﻫﺮﮔﺎه
) ﺑﻪ ﺷﻜﻞﻫﺎي زﻳﺮ ﺗﻮﺟﻪ ﻛﻨﻴﺪ.
) Sup R (θ , δ m ) = inf Sup R (θ , δ θ ∈Θ δ ∈ D θ ∈Θ ) = min max R (θ , δ θ ∈Θ δ ∈D
δ 2و δ 3ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ
)m
( max R (θ ,δ θ ∈Θ
δ 3ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ Minimax Decision
١
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
124
ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺷﻜﻞﻫﺎي ﺑﺎﻻ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻣﻤﻜﻦ اﺳﺖ ﻳﻜﺘﺎ ﻧﺒﺎﺷﺪ .ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ آن ﺗﺼﻤﻴﻤﻲ اﺳﺖ ﻛﻪ در ﺑﺪﺗﺮﻳﻦ ﺣﺎﻟﺖ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ) R (θ , δﻧﺴﺒﺖ ﺑﻪ ، θﺑﻬﺘﺮﻳﻦ ﺣﺎﻟﺖ را اﻧﺘﺨﺎب ﻣﻲﻛﻨﺪ و در ﺣﻘﻴﻘﺖ ﻳﻚ ﺣﺎﻟﺖ ﻣﺤﺎﻓﻈﻪ ﻛﺎراﻧﻪ را ﺑﺮاي اﻧﺘﺨﺎب ﺑﻬﺘﺮﻳﻦ ﺗﺼﻤﻴﻢ در ﭘﻴﺶ ﻣﻲﮔﻴﺮد .ﺑﺎ اﻳﻦ وﺟﻮد در ﺑﻴﺸﺘﺮ ﻣﻮارد ﺗﺼﻤﻴﻢﻫﺎي ﻣﻌﻘﻮﻻﻧﻪاي را ﺑﺪﺳﺖ ﻣﻲدﻫﺪ .ﻣﺜﻼ در ﺑﻌﻀﻲ از ﻣﺴﺎﺋﻞ ﺑﺮآورد ﻧﻘﻄﻪاي ﺑﺮآورد ﻣﻴﻨﻴﻤﺎﻛﺲ ﻫﻤﺎن ﺑﺮآورد ﭘﺎﻳﺎ و UMVUﻧﻴﺰ ﻣﻲﺑﺎﺷﺪ. ﺗﺼﻤﻴﻢﻫﺎي ﻣﻴﻨﻴﻤﺎﻛﺲ واﺑﺴﺘﮕﻲ زﻳﺎدي ﺑﻪ ﺗﺼﻤﻴﻢﻫﺎي ﺑﻴﺰ دارﻧﺪ .ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮﺳﻴﻠﻪ ﻣﻴﻨﻴﻤﻢ ﻛﺮدن ،ﻣﺎﻛﺴﻴﻤﻢ ﻣﺨﺎﻃﺮه ﻣﻲﺧﻮاﻫﺪ ﺑﻬﺘﺮﻳﻦ ﺗﺼﻤﻴﻢ را در ﺑﺪﺗﺮﻳﻦ ﺣﺎﻟﺖ اﻧﺘﺨﺎب ﻛﻨﺪ .ﺑﻨﺎﺑﺮاﻳﻦ اﻧﺘﻈﺎر ﻣﻲرود ﻛﻪ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻫﻤﺎن ﺗﺼﻤﻴﻢ ﺑﻴﺰ ﺑﺎ ﺑﺪﺗﺮﻳﻦ ﺣﺎﻟﺖ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺑﺎﺷﺪ .ﭼﻨﻴﻦ ﺗﻮزﻳﻌﻲ را ﻧﺎﻣﺴﺎﻋﺪﺗﺮﻳﻦ ﺗﻮزﻳﻊ 1ﮔﻮﻳﻨﺪ .ﺑﻪ ﻋﺒﺎرت دﻗﻴﻘﺘﺮ اﻳﻨﻜﻪ اﮔﺮ πﻳﻚ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ و δ πﺗﺼﻤﻴﻢ ﺑﻴﺰ ﻧﺴﺒﺖ ﺑﻪ اﻳﻦ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ و ) r (π , δ πﻣﺨﺎﻃﺮه ﺑﻴﺰ آن ﺑﺎﺷﺪ ،در اﻳﻦ ﺻﻮرت ﺗﻮزﻳﻊ πرا ﻧﺎﻣﺴﺎﻋﺪﺗﺮﻳﻦ ﮔﻮﻳﻨﺪ اﮔﺮ ﺑﺮاي ﻫﺮ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ دﻳﮕﺮ π ′ﺑﺎ ﺗﺼﻤﻴﻢ ﺑﻴﺰ δ π ′داﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ
) . r (π , δ π ) ≥ r (π ′, δ π ′
در ﻗﻀﻴﻪ زﻳﺮ ﺷﺮط ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن ﻳﻚ ﺗﺼﻤﻴﻢ ﺑﻴﺰ را ﻣﻲآورﻳﻢ. ﻗﻀﻴﻪ :1-1ﻓﺮض ﻛﻨﻴﺪ πﻳﻚ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ روي Θﺑﺎﺷﺪ و δ0πﺗﺼﻤﻴﻢ ﺑﻴﺰ ﻧﺴﺒﺖ ﺑﻪ اﻳﻦ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺑﺎﺷﺪ .اﮔﺮ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﺗﺼﻤﻴﻢ δ πدر ﺷﺮط ) r (π , δ π ) = ∫ R (θ , δ π )d Π (θ ) = Sup R (θ , δ π
)(1
θ ∈Θ
ﺻﺪق ﻛﻨﺪ آﻧﮕﺎه اﻟﻒ δ π -ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ ب -اﮔﺮ δ πﺗﺼﻤﻴﻢ ﺑﻴﺰ ﻳﻜﺘﺎ ﻧﺴﺒﺖ ﺑﻪ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ πﺑﺎﺷﺪ ،آﻧﮕﺎه δ0πﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻳﻜﺘﺎ اﺳﺖ. ج -ﺗﻮزﻳﻊ πﻧﺎﻣﺴﺎﻋﺪﺗﺮﻳﻦ ﺗﻮزﻳﻊ اﺳﺖ اﺛﺒﺎت :اﻟﻒ- )(1
) Sup R (θ , δ π ) = ∫ R (θ , δ π )d Π (θ ) = r (π , δ π ) ≤ r (π , δ ) = ∫ R (θ , δ )d Π (θ θ ∈Θ
Least Favorable Distribution
١
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
125
⎡ ⎤ ) ≤ ∫ ⎢Sup R (θ , δ ) ⎥ d Π (θ ) = Sup R (θ , δ θ ∈Θ ⎣ θ∈Θ ⎦
ﺑﻨﺎﺑﺮاﻳﻦ δ πﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ ب -ﭼﻮن δ πﺗﺼﻤﻴﻢ ﺑﻴﺰ ﻳﻜﺘﺎ اﺳﺖ ﭘﺲ r (π , δ π ) < r (π , δ ) ، ∀δ ∈ Dو ﺑﺎ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ < ﺑﺠﺎي ≤ در اﺛﺒﺎت )اﻟﻒ( ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد ﻛﻪ ﺗﺼﻤﻴﻢ δ πﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻳﻜﺘﺎ اﺳﺖ. ج -ﻓﺮض ﻛﻨﻴﺪ π ′ﻫﺮ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ دﻳﮕﺮ ﺑﺎ ﺗﺼﻤﻴﻢ ﺑﻴﺰ δ π ′ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت *
) r (π ′, δ π ′ ) = ∫ R (θ , δ π ′ )d Π′(θ ) ≤ ∫ R (θ , δ π )d Π′(θ ) ≤ SupR (θ , δ π )(1
) = ∫ R (θ , δ π )d Π (θ ) = r (π , δ π
ﻛﻪ در آن * از اﻳﻦ واﻗﻌﻴﺖ ﻧﺎﺷﻲ ﻣﻲﮔﺮدد ﻛﻪ δ π ′ﺗﺼﻤﻴﻢ ﺑﻴﺰ ﻧﺴﺒﺖ ﺑﻪ π ′اﺳﺖ .ﭘﺲ ﺗﻮزﻳﻊ δ π
■
ﻧﺎﻣﺴﺎﻋﺪﺗﺮﻳﻦ ﺗﻮزﻳﻊ اﺳﺖ.
ﺷﺮط) (1ﺑﻴﺎن ﻣﻲﻛﻨﺪ ﻛﻪ ﻣﻴﺎﻧﮕﻴﻦ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ) R (θ , δ πﺑﺎ ﻣﺎﻛﺴﻴﻤﻢ اﻳﻦ ﺗﺎﺑﻊ ﺑﺮاﺑﺮ ﺑﺎﺷﺪ ﻳﻜﻲ از ﺣﺎﻟﺖﻫﺎﻳﻲ ﻛﻪ اﻳﻦ ﺷﺮط ﺑﺮﻗﺮار ﻣﻲﺷﻮد ،اﻳﻦ اﺳﺖ ﻛﻪ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﺛﺎﺑﺖ ﺑﺎﺷﺪ ،ﺑﻨﺎﺑﺮاﻳﻦ: ﻧﺘﻴﺠﻪ :1-1اﮔﺮ ﺗﺼﻤﻴﻢ ﺑﻴﺰ δ πﻧﺴﺒﺖ ﺑﻪ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ πداراي ﻣﺨﺎﻃﺮه ﺛﺎﺑﺖ ﺑﺎﺷﺪ ،آﻧﮕﺎه δ πﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ. اﺛﺒﺎت: ⎧ Sup R (θ , δ π ) = C ⎫ ⎪ θ ∈Θ ⎪ ⎨ ⇒ ∀θ ∈ Θ ⎬ ⎪ ⎪ ∫ R (θ , δ π )d Π (θ ) = C ∫ d Π (θ ) = C ⎩ ⎭
ﺑﻨﺎﺑﺮاﻳﻦ ﺷﺮط) (1ﺑﺮﻗﺮار اﺳﺖ.
R (θ , δ π ) = C
■
ﻧﺘﻴﺠﻪ :2-1ﻓﺮض ﻛﻨﻴﺪ w πﻣﺠﻤﻮﻋﻪ ﻧﻘﺎﻃﻲ از ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ﺑﺎﺷﺪ ﻛﻪ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه δ πدر روي آن ﻣﺎﻛﺴﻴﻤﻢ ﺧﻮد را ﺑﻪ دﺳﺖ ﻣﻲآورد ،ﻳﻌﻨﻲ ⎧ ⎫ ⎬ ) w π = ⎨θ : R (θ , δ π ) = Sup R (θ ′, δ π θ′ ⎩ ⎭
در اﻳﻦ ﺻﻮرت ﺗﺼﻤﻴﻢ ﺑﻴﺰ δ πﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ اﮔﺮ . Π (w π ) = 1
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
126
)ﺑﻪ ﻋﺒﺎرت دﻳﮕﺮ ﻳﻚ ﺷﺮط ﻛﺎﻓﻲ ﺑﺮاي آﻧﻜﻪ ﺑﺮآوردﮔﺮ δ πﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺎﺷﺪ آن اﺳﺖ ﻛﻪ ﻳﻚ ﻣﺠﻤﻮﻋﻪ w
وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﻛﻪ Π(w ) =1و ) R (θ , δ πﻣﺎﻛﺴﻴﻤﻢ ﺧﻮد را در ﺗﻤﺎم ﻧﻘﺎط wﺑﺪﺳﺖ آورد(. اﺛﺒﺎت :ﻓﺮض ﻛﻨﻴﺪ δﻫﺮ ﺗﺼﻤﻴﻢ دﻳﮕﺮ ﺑﻪ ﻏﻴﺮ از δ πﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت )**(
) R (θ , δ π )d Π (θ ) = ∫ R (θ , δ π )d Π (θ
)*(
∫ = ) Sup R (θ , δ π
wπ
Θ
) ≤ ∫ R (θ , δ )d Π (θ ) ≤ Sup R (θ , δ Θ
ﻛﻪ در آن ﺗﺴﺎوي )*( ﺑﻪ اﻳﻦ ﻋﻠﺖ اﺳﺖ ﻛﻪ روي w πﻣﺨﺎﻃﺮه ﺑﺎ ﺳﻮﭘﺮﻳﻤﻢ ﺑﺮاﺑﺮ ﻣﻲﺷﻮد و ﺗﺴﺎوي )**( ﻧﻴﺰ از اﻳﻦ ﻣﻄﻠﺐ ﻧﺎﺷﻲ ﻣﻲﮔﺮدد ﻛﻪ . Π (w πc ) = 0ﭘﺲ δ πﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ.
■
در ﺣﺎﻟﺖ ﺑﺮآورد ﻧﻘﻄﻪاي ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ را ﺑﺮآورد ﻧﻘﻄﻪاي ﻣﻴﻨﻴﻤﺎﻛﺲ ﮔﻮﻳﻨﺪ. ﻣﺜﺎل :1-1ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ) B (1,θﺑﺎﺷﻨﺪ ،ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ θرا ﺑﺪﺳﺖ آورﻳﺪ. ﺣﻞ :در ﻣﺜﺎل 2-2ﻓﺼﻞ ﻗﺒﻞ ﺗﺤﺖ ﭼﮕﺎﻟﻲ ﭘﻴﺸﻴﻦ ) Be (α , βﺑﺮآوردﮔﺮ ﻳﻜﺘﺎي ﺑﻴﺰ ﻋﺒﺎرت ﺑﻮد از α + ∑x i α +β +n
= ) δ π (xﻛﻪ ﻣﺨﺎﻃﺮه آن ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ
}
2
{
2
] R (θ , δ π ) = E θ ⎣⎡δ π ( x ) − θ ⎦⎤ =V θ (δ π (X )) + E [δ π (X ) − θ ⎡α + ∑ X i ⎫⎪ ⎤ − θ ⎢ ⎬⎥ ⎣α +β +n ⎭⎪ ⎦
2
⎧⎪ ⎞ ⎟ + ⎨E ⎪⎩ ⎠
⎛α + ∑X i ⎜ =V θ ⎝ α +β +n
2
⎞ ⎛ α + nθ − αθ − βθ − nθ ) nθ (1 − θ = + ⎟ ⎜ 2 α +β +n ⎝ ) (α + β + n ⎠ 1 ⎤ ⎡ nθ (1 − θ ) + (α − (α + β )θ )2 = ⎣2 ⎦ ) (α + β + n 1
⎤ ⎡ nθ − nθ 2 + α 2 + (α + β )2θ 2 − 2α (α + β )θ ⎦ ⎣ ) (α + β + n 2
1
⎤ ⎡{(α + β )2 − n }θ 2 + {n − 2α (α + β )}θ + α 2 ⎦ ⎣ ) (α + β + n 2
= =
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
127
در ﺻﻮرﺗﻲ ) R (θ , δ πﺑﻪ ﭘﺎراﻣﺘﺮ θﺑﺴﺘﮕﻲ ﻧﺪارد ﻛﻪ 2α ⎧⎪ (α + β )2 − n = 0 ⇒ (α + β )n − 2α n = 0 ⇒ β − α = 0 ⇒ α = β ⎨ (α + β ) ⎪⎩n − 2α (α + β ) = 0 n =β 2
ﻛﻪ ﺑﺎ ﺟﺎﻳﮕﺬاري در ﻣﻌﺎدﻟﻪ اول ﺑﺪﺳﺖ ﻣﻲدﻫﺪ:
= ⇒ (2α )2 − n = 0 ⇒ α
n + ∑X i δ m (X ) = 2ﺑﺮآوردﮔﺮ ﻳﻜﺘﺎي ﺑﻴﺰ ﺑﺎ ﻣﺨﺎﻃﺮه ﺛﺎﺑﺖ اﺳﺖ و در ﻧﺘﻴﺠﻪ ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ n+ n
ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻳﻜﺘﺎ اﺳﺖ. ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ ﺑﺮآوردﮔﺮ UMVUﭘﺎراﻣﺘﺮ θﺑﺮاﺑﺮ δ * (X ) = Xاﺳﺖ و ﺑﻪ راﺣﺘﻲ ﻣﻲﺗﻮان ﻧﺸﺎن داد ﻛﻪ ) θ (1 − θ n
= ) * R (θ , δ
,
1 ) 4(1 + n
2
= ) R (θ , δ m
اﻳﻦ دو ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه در زﻳﺮ رﺳﻢ ﺷﺪهاﻧﺪ. دﻳﺪه ﻣﻲﺷﻮد ﻛﻪ در ﺑﻴﺸﺘﺮ ﻓﺎﺻﻠﻪ ) , θ ∈ (01ﺑﺮآوردﮔﺮ
ﻣﻴﻨﻴﻤﺎﻛﺲ از ﺑﺮآوردﮔﺮ UMVUﺑﻬﺘﺮ ﻋﻤﻞ ﻣﻲﻛﻨﺪ وﻟﻲ ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻫﻤﻮاره از ﺑﺮآوردﮔﺮﻫﺎي دﻳﮕﺮ ﺑﻬﺘﺮ ﻧﻴﺴﺖ .ﭼﻮن 1 1 > ) = Sup R (θ , δ m ) 4n 4(1 + n )2 θ ∈(01,
=
) θ (1 − θ n
ﺑﻨﺎﺑﺮاﻳﻦ ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم Xﻧﻤﻲﺗﻮاﻧﺪ ﺑﺮاوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺎﺷﺪ.
Sup R (θ , X ) = Sup
θ ∈(01 ),
θ ∈(01 ),
■
ﻣﺜﺎل :2-1ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) B (1,θﺑﺎﺷﻨﺪ ،ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن (δ − θ )2 ) θ (1 − θ
= ) L (θ , δو ﭼﮕﺎﻟﻲ ﭘﻴﺸﻴﻦ ) Be (1,1) = U (0,1ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﭘﺎراﻣﺘﺮ θرا ﺑﺪﺳﺖ اورده و
ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ ﻳﻚ ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ.
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
128
ﺣﻞ :اﺑﺘﺪا ﺑﺮآوردﮔﺮ ﺑﻴﺰ را ﺑﺪﺳﺖ ﻣﻲآورﻳﻢ π (θ | x ) ∝ π (θ )L (θ ) = I (01, ) (θ )θ ∑ x i (1 − θ ) n −∑ x i )⇒ θ | x ~ Be (nx + 1, n − nx + 1 1 nx θ (1 − θ ) n −nx −1d θ 0 1 nx −1 (1 − θ ) n −nx −1d θ θ 0
∫ ∫
⎡ θ ⎤ ⎢E ⎥ |x ⎦ ) θ (1 − θ ⎣ = ) δ π (x = ⎡ 1 ⎤ ⎥ |x ⎢E ( ) θ θ − 1 ⎣ ⎦
n
ﻗﺮار ﻣﻲ دﻫﻴﻢ y = nx = ∑ x iدر اﻳﻦ ﺻﻮرت اﮔﺮ y ≠ 0و y ≠ nآﻧﮕﺎه i =1
) Be (nx + 1, n − nx ) Γ(nx + 1)Γ(n − nx nx ) Γ( n = × = =x )Γ(n + 1 Γ(nx )Γ(n − nx ) n ) Be (nx , n − nx
= ) δ π (x
اﮔﺮ y = 0ﺑﺎﺷﺪ اﻧﮕﺎه ﻃﺒﻖ ﻗﻀﻴﻪ 1-2ﻓﺼﻞ ﻗﺒﻞ ﺑﺮآوردﮔﺮ ﺑﻴﺰ آن ﻣﻘﺪاري از aاﺳﺖ ﻛﻪ اﻧﺘﮕﺮال زﻳﺮ را ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ ⎤ ⎡ (θ − a )2 1 (θ − a )2 1 ⎢E ∫= ⎥ |x (1 − θ ) n d θ = ∫ (θ − a )2θ −1(1 − θ ) n −1d θ ) 0 θ (1 − θ 0 ⎦ ) ⎣ θ (1 − θ
و اﻳﻦ اﻧﺘﮕﺮال ﺑﺨﺎﻃﺮ وﺟﻮد θ −1ﻧﺎﻣﺘﻨﺎﻫﻲ ﻣﻲﺷﻮد ﺑﺠﺰ اﻳﻨﻜﻪ a = 0ﺑﺎﺷﺪ .ﺑﻨﺎﺑﺮاﻳﻦ در اﻳﻦ ﺣﺎﻟﺖ ﺑﺮآورد 0 y ﺑﻴﺰ ﻋﺒﺎرت اﺳﺖ از = = x n n
= . δ π (x ) = a = 0ﺑﻪ ﻫﻤﻴﻦ ﺗﺮﺗﻴﺐ ﺑﺮاي y = nﻣﻲﺗﻮان ﻧﺸﺎن داد
n y ﻛﻪ ﺑﺮآورد ﺑﻴﺰ ﻋﺒﺎرت اﺳﺖ از = = x n n
= δ π (x ) = a = 1ﺑﻨﺎﺑﺮاﻳﻦ در ﻫﺮ ﺣﺎﻟﺖ δ π ( x ) = x
ﺑﺮآورد ﺑﻴﺰ اﺳﺖ .ﻫﻤﭽﻨﻴﻦ ⎤ ⎡ ( X − θ )2 1 1 θ (1 − θ ) 1 =⎥ ⎢ R (θ , δ ) = E = ) V θ (X = ) ⎢ θ (1 − θ ) ⎥ θ (1 − θ n θ (1 − θ ) n ⎣ ⎦ π
ﺑﻨﺎﺑﺮاﻳﻦ δ π (X ) = Xﻳﻚ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺑﺎ ﻣﺨﺎﻃﺮه ﺛﺎﺑﺖ اﺳﺖ و در ﻧﺘﻴﺠﻪ ﻳﻚ ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ.
■
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
129
ﻟﻢ :1-1ﻓﺮض ﻛﻨﻴﺪ δﻳﻚ ﺑﺮآوردﮔﺮ ﺑﻴﺰ )ﻳﺎ UMVUﻳﺎ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻳﺎ ﻣﺠﺎز( ﺑﺮاي ) g (θﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺎﺷﺪ .در اﻳﻦﺻﻮرت aδ + bﻳﻚ ﺑﺮآوردﮔﺮ ﺑﻴﺰ )ﻳﺎ UMVUﻳﺎ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻳﺎ ﻣﺠﺎز( ﺑﺮاي ag (θ ) + bاﺳﺖ ) R (ag (θ ) + b , aδ + b ) = a2R ( g (θ ), δ
اﺛﺒﺎت :ﭼﻮن
■
ﺑﻨﺎﺑﺮاﻳﻦ ﻧﺘﻴﺠﻪ ﺑﻪ راﺣﺘﻲ ﺣﺎﺻﻞ ﻣﻲﮔﺮدد.
ﻣﺜﺎل :3-1ﻓﺮض ﻛﻨﻴﺪ ) Y ~ B ( n , p2 ) ، X ~ B (n , p1و Xو Yاز ﻳﻜﺪﻳﮕﺮ ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ .ﺑﺎ اﺳﺘﻔﺎده از ﻧﺘﻴﺠﻪ 2-1ﻳﮓ ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺮاي p2 − p1ﺑﻪ دﺳﺖ آورﻳﺪ. ﺣﻞ :ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﺜﺎل 1-1ﺑﻪ دﻧﺒﺎل ﺑﺮآوردﮔﺮﻫﺎﻳﻲ ﺑﻪ ﻓﺮم ) ) C (Y − Xاﻳﻦ ﺑﺮآوردﮔﺮ ﺗﺤﺖ ﻳﻚ ﺗﺒﺪﻳﻞ ﺧﺎص ﭘﺎﻳﺎ اﺳﺖ( ﻫﺴﺘﻴﻢ ﻛﻪ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺎﺷﻨﺪ .ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮهي اﻳﻦ ﺑﺮآوردﮔﺮﻫﺎ ﻋﺒﺎرﺗﻨﺪ از ] )R (C (Y − X ), p1, p2 ) = E [C (Y − X ) − ( p2 − p1
2 2
⎤⎦ )=V (C (Y − X ) ) + ⎣⎡ E (C (Y − X ) ) − ( p2 − p1
= C 2n ( p1(1 − p1) + p2 (1 − p2 ) ) + (Cn − 1)2 ( p2 − p1)2
ﻣﻲﺧﻮاﻫﻴﻢ ﻣﺠﻤﻮﻋﻪاي از ﻧﻘﺎط wرا ﭘﻴﺪا ﻛﻨﻴﻢ ﻛﻪ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﻓﻮق در اﻳﻦ ﻧﻘﺎط ﻣﺎﻛﺴﻴﻤﻢ ﺑﺎﺷﺪ. ﺑﻨﺎﺑﺮاﻳﻦ از ﺗﺎﺑﻊ ﻓﻮق ﻧﺴﺒﺖ ﺑﻪ p1و p 2ﻣﺸﺘﻖ ﺟﺰﺋﻲ ﻣﻲ ﮔﻴﺮﻳﻢ.
)(1
∂R = 0 ⇒ ⎡⎣2(Cn − 1)2 − 2C 2n ⎤⎦ p1 − 2(Cn − 1)2 p2 = −C 2n ∂P1 ∂R = 0 ⇒ −2(Cn − 1)2 p1 + [2(Cn − 1)2 − 2C 2n ] p2 = −C 2n ∂P2
اﮔﺮ اﻳﻦ دﺳﺘﮕﺎه 2ﻣﻌﺎدﻟﻪ و 2ﻣﺠﻬﻮل ﺗﺮﻛﻴﺐ ﺧﻄﻲ از ﻳﻜﺪﻳﮕﺮ ﻧﺒﺎﺷﻨﺪ آﻧﮕﺎه اﻳﻦ دﺳﺘﮕﺎه ﺗﻨﻬﺎ داراي ﻳﻚ ﺟﻮاب ) ( p1o , p2oاﺳﺖ و ﺑﻨﺎﺑﺮاﻳﻦ πاﺣﺘﻤﺎل 1را ﺑﻪ ﻧﻘﻄﻪ ) ( p1o , p2oﺑﺎﻳﺴﺘﻲ ﻧﺴﺒﺖ دﻫﺪ و ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﻧﺴﺒﺖ ﺑﻪ اﻳﻦ ﭘﻴﺸﻴﻦ ﺑﺮآوردﮔﺮ δ ( X ,Y ) = p2o − p1oاﺳﺖ ﻛﻪ داراي ﻣﺎﻛﺴﻴﻤﻢ ﻣﺨﺎﻃﺮه در ﻧﻘﻄﻪ ) ( p1o , p2oﻧﻴﺴﺖ .ﺑﻨﺎﺑﺮاﻳﻦ در اﻳﻦ ﺣﺎﻟﺖ ﻧﻤﻲﺗﻮان از ﻧﺘﻴﺠﻪ 2-1اﺳﺘﻔﺎده ﻛﺮد. ﺣﺎل اﮔﺮ دو ﻣﻌﺎدﻟﻪي دﺳﺘﮕﺎه ﻓﻮق ﻳﻚ ﺗﺮﻛﻴﺐ ﺧﻄﻲ از ﻳﻜﺪﻳﮕﺮ ﺑﺎﺷﻨﺪ آﻧﮕﺎه 2n ]n [ 2n ± 1
= 2(Cn − 1)2 − 2C 2n = 2(Cn − 1)2 ⇒ C 2n = 2(Cn − 1)2 ⇒ C
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
130
ﭼﻮن −1 < p2 − p1 < 1ﻣﻲﺑﺎﺷﺪ ﭘﺲ ﺣﺎﻟﺖ ﻣﻨﻔﻲ در ﻣﺨﺮج ﻛﻪ ﺑﺮآوردﮔﺮ ﺧﺎرج از ﻓﻀﺎي ﭘﺎراﻣﺘﺮي را ﻣﻲدﻫﺪ ﻗﺎﺑﻞ ﻗﺒﻮل ﻧﻴﺴﺖ .ﺑﺎ ﻗﺮار دادن اﻳﻦ ﻣﻘﺪار Cدر ﻣﻌﺎدﻟﻪ ) (1ﺑﻪ ﻣﻌﺎدﻟﻪ p1 + p2 = 1ﻣﻲرﺳﻴﻢ و ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ
2n ) (Y − X )n ( 2n + 1
= ) δ (X ,Y
روي ﻣﺠﻤﻮﻋﻪ }w = {( p1, p2 ) | p1 + p2 = 1داراي ﻣﺨﺎﻃﺮه ﻣﺎﻛﺴﻴﻤﻢ اﺳﺖ .ﺣﺎل اﮔﺮ ﻧﺸﺎن دﻫﻴﻢ ﻛﻪ ) δ (x , yﺑﺮآوردﮔﺮ ﺑﻴﺰ p2 − p1ﻧﺴﺒﺖ ﺑﻪ ﭘﻴﺸﻴﻨﻲ اﺳﺖ ﻛﻪ اﺣﺘﻤﺎل 1ﺑﻪ ﻣﺠﻤﻮﻋﻪ wﻧﺴﺒﺖ ﻣﻲدﻫﺪ آﻧﮕﺎه ﻃﺒﻖ ﻧﺘﻴﺠﻪ δ (x , y ) ،2-1ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ .اﻣﺎ p1 + p2 = 1ﻧﺘﻴﺠﻪ ﻣﻲ دﻫﺪ ﻛﻪ p2 − p1 = 2 p2 − 1ﭘﺲ ﻃﺒﻖ ﻟﻢ 1-1ﻛﺎﻓﻲ اﺳﺖ ﺑﺮآوردﮔﺮ ﺑﻴﺰ p 2را ﻧﺴﺒﺖ ﺑﻪ اﻳﻦ ﭘﻴﺸﻴﻦ ﺑﻪ دﺳﺖ آورﻳﻢ .ﺣﺎل ﭼﻮن p2 = 1 − p1ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮاي ﺑﺮآورد p 2ﺑﺮ اﺳﺎس nآزﻣﺎﻳﺶ ﺑﺎ اﺣﺘﻤﺎل ﻣﻮﻓﻘﻴﺖ ) p 2ﺑﺮ اﺳﺎس (Yو nآزﻣﺎﻳﺶ ﺑﺎ اﺣﺘﻤﺎل ﻣﻮﻓﻘﻴﺖ ) p2 = 1 − p1ﺑﺮ اﺳﺎس ( n − Xﺑﺮآوردﮔﺮ ﻳﻜﺘﺎي ﺑﻴﺰ ﻃﺒﻖ ﻣﺜﺎل 1-1ﻋﺒﺎرت اﺳﺖ از: 2n 2
[Y + (n − X )] + 2n + 2n
ﭘﺲ ﺑﺮآوردﮔﺮ ﻳﻜﺘﺎي ﺑﻴﺰ p2 − p1 = 2 p2 − 1ﻃﺒﻖ ﻟﻢ 1-1ﻋﺒﺎرت اﺳﺖ از ⎧ ⎫ 2n ( ) + − + Y n X ⎪⎪ ⎪ ] 2 ⎪ − 1 = [2(Y − X ) + 2n + 2n ] − [2n + 2n ⎨2 ⎬ 2n + 2n )2n ( 2n + 1 ⎪ ⎪ ⎩⎪ ⎭⎪ 2n ) (Y − X ) = δ (X ,Y )n ( 2n + 1
ﭘﺲ ) δ (X ,Yﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻳﻜﺘﺎي p2 − p1اﺳﺖ.
=
■
ﻧﻜﺎت (1 :ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ ﻗﻀﻴﻪ 1-1ﻣﻲﮔﻮﻳﺪ ﻛﻪ اﮔﺮ ﺑﺮاي ﻳﻚ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺷﺮط ) ∫ R (θ , δ π )d Π (θ ) = Sup R (θ , δ πﺑﺮﻗﺮار ﺑﺎﺷﺪ آﻧﮕﺎه آن ﺑﺮآوردﮔﺮ ﺑﻴﺰ ،ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ .ﻳﻜﻲ از θ ∈Θ
راهﻫﺎي ﺑﺮﻗﺮاري ﺷﺮط ﻓﻮق ﺛﺎﺑﺖ ﺑﻮدن ﻣﺨﺎﻃﺮه δ πاﺳﺖ ﻛﻪ در ﻧﺘﻴﺠﻪ 1-1و ﻣﺜﺎلﻫﺎي ﻗﺒﻞ ﻣﻮرد
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
131
ﺑﺮرﺳﻲ ﻗﺮار ﮔﺮﻓﺖ .اﻣﺎ ﻣﺜﺎلﻫﺎﻳﻲ ﻧﻴﺰ وﺟﻮد دارد ﻛﻪ در آﻧﻬﺎ ﻣﺨﺎﻃﺮه ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺛﺎﺑﺖ ﻧﻴﺴﺖ اﻣﺎ ﺷﺮط ﺑﺎﻻ ﺑﺮﻗﺮار ﻣﻲﺑﺎﺷﺪ و در ﻧﺘﻴﺠﻪ ﺑﺮآودرﮔﺮ ﺑﻴﺰ ﺣﺎﺻﻠﻪ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺧﻮاﻫﺪ ﺑﻮد .ﺑﻪ ﺗﻤﺮﻳﻦ زﻳﺮ ﺗﻮﺟﻪ ﻛﻨﻴﺪ. ﺗﻤﺮﻳﻦ :ﻓﺮض ﻛﻨﻴﺪ ) X ~ N (θ ,1ﻛﻪ ] θ ∈ [ − m , mو mﻋﺪدي ﺛﺎﺑﺖ و 0 < m < 1اﮔﺮ e mx − e − mx δ (x ) = mtgh (mx ) = m mx e + e − mx m
اﻟﻒ -ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ ) δ m (xﺑﺮآورد ﺑﻴﺰ ﭘﺎراﻣﺘﺮ θﺗﺤﺖ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ زﻳﺮ اﺳﺖ. θ =m θ = −m
⎧1 ⎪⎪ . π (θ ) = ⎨ 2 ⎪1 ⎪⎩ 2
ب -ﻣﺨﺎﻃﺮه ي ﺑﻴﺰ δ mرا ﻣﺤﺎﺳﺒﻪ ﻛﻨﻴﺪ و ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ ) r (π , δ m ) = R (m , δ m ج -ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ ) Sup R (θ , δ m ) = R (m , δ m
− m ≤θ ≤ m
و ﺑﻨﺎﺑﺮاﻳﻦ ﻃﺒﻖ ﺷﺮط ﻗﻀﻴﻪ δ m 1-1
ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ θاﺳﺖ. 2
ﺣﻞ ﺗﻤﺮﻳﻦ:
1
) 1 − 2 ( x −θ e ) π (θ 2π ) m (x
=
) π (θ )L (θ ) m (x
= ) π (θ | x
)اﻟﻒ 1 1 2 ⎫ − ( x + m )2 ) 1 1 ⎧⎪ − 2 ( x −m ⎪ +e 2 = ) m (x ) = ∑ π (θ )L (θ ⎨e ⎬ ⎩⎪ 2θ 2 θ =− m ,m ⎭⎪ 1 ⎧ − ( x − m )2 e 2 ⎪ θ =m ⎧ e mx ⎪ − 1 ( x −m )2 1 2 θ =m ) − (x +m ⎪ ⎪⎪e 2 ⎪e mx + e − mx +e 2 ⎨ = ) ∴ π (θ | x ⎨= 1 − mx 2 ( ) − x + m ⎪ ⎪ e 2 θ = −m e ⎪ ⎪⎩e mx + e − mx m = − θ 1 ⎪ − 1 ( x −m )2 − ( x + m )2 ⎪⎩e 2 +e 2 e mx e − mx δ m (x ) = E [θ | x ] = m mx − ) = mtgh (mx m e + e − mx e mx + e − mx
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
1 1 1 ) R (θ , δ m ) = R (m , δ m ) + R (−m , δ m ∑ 2 θ =− m ,m 2 2
132
= ) ) r (π , δ mب
1 1 ⎤⎦ = E θ =m ⎣⎡(mtgh (mX ) − m )2 ⎦⎤ + E θ =− m ⎣⎡(mtgh (mX ) − m )2 2 2 2 2 − mX ⎡ 4m e ⎤ 1 ⎤ ⎡ 4m 2e +2mX 1 = E θ =m ⎢ mX + E θ =− m ⎢ mX ⎥ ⎥ − mX 2 2 + ⎦ + e − mX )2 e e ( ) ⎣ ⎦ 2 ⎣ (e ]) , γ = E θ =n [ g n (x
e −2nx = nx ), X ∼ N (n ,1 (e + e − nx )2
) (x
gn
}]) ∴ r (π , δ m ) = 2m 2 {E θ =m [ g m (X )] + E θ =− m [ g − m (X ⎡ ⎤ e −2mX = 4m 2E θ =m [ g m (X )] = 4m 2E ⎢ mX ) = R (m , δ m ⎥ − mX 2 ⎦ ) +e ⎣ (e m
) ) R (θ , δ ) = E θ ⎡⎣(mtgh (mX ) − θ )2 ⎤⎦ ≤ R (m , δ mج ﻛﻪ ﻧﺎﻣﺴﺎوي آﺧﺮ از اﻳﻦ واﻗﻌﻴﺖ ﻧﺎﺷﻲ ﻣﻲﮔﺮدد ﻛﻪ اﻳﻦ ﻧﺎﻣﻌﺎدﻟﻪي درﺟﻪ دوم ﺑﺮ ﺣﺴﺐ θدر ﻓﺎﺻﻠﻪي ] ، [ − m , mﻣﻴﻨﻴﻤﻢ ﺧﻮد را در ]) θ = E [ mtgh (mXاﺧﺘﻴﺎر ﻣﻲﻛﻨﺪ. (2از ﻗﻀﻴﻪ 1-1ﻣﻮﻗﻌﻲ ﻣﻲﺗﻮان اﺳﺘﻔﺎده ﻛﺮد ﻛﻪ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺳﺮه ﺑﺎﺷﺪ .ﺣﺎل اﮔﺮ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﻧﺎﺳﺮه ﺑﺎﺷﺪ ﺑﻪ دو ﺻﻮرت زﻳﺮ ﻣﻲﺗﻮان ﻗﻀﻴﻪ 1-1را ﺗﻌﻤﻴﻢ داد. اﻟﻒ -اﮔﺮ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﻧﺎﺳﺮه ﺑﺎﺷﺪ آﻧﮕﺎه ﻣﻤﻜﻦ اﺳﺖ ﺗﻮزﻳﻊ ﭘﺴﻴﻦ ﺳﺮه ﺑﺎﺷﺪ و ﺑﺘﻮان ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ را ﺑﻪ دﺳﺖ آورد و اﻣﻴﺪوار ﺑﻮد ﻛﻪ اﻳﻦ ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺎﺷﺪ )ﻳﻌﻨﻲ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن آن ﻣﻮرد ﺑﺮرﺳﻲ ﻗﺮار ﮔﻴﺮد(. ب -دﻧﺒﺎﻟﻪاي از ﺗﻮزﻳﻊﻫﺎي ﭘﻴﺸﻴﻦ ﻧﺎﺳﺮه را ﻳﺎﻓﺖ ﻛﻪ ﺑﻪ ﺳﻤﺖ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺳﺮه ﻣﻮرد ﻧﻈﺮ ﻣﻴﻞ ﻛﻨﻨﺪ و از روش ﺑﻴﺰ ﺣﺪي ﻛﻪ در زﻳﺮآورد ﻣﻲﺷﻮد ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ را ﺑﻪ دﺳﺖ آورد.
ﺗﻌﺮﻳﻒ :2-1دﻧﺒﺎﻟﻪاي از ﺗﻮزﻳﻊﻫﺎي ﭘﻴﺸﻴﻦ } {π nرا ﻧﺎﻣﺴﺎﻋﺪﺗﺮﻳﻦ ﮔﻮﻳﻨﺪ اﮔﺮ ﺑﺮاي ﻫﺮ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ π داﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ )(1
rπ ≤ r = lim rπ n ∞→ n
ﻛﻪ در آن ) rn = rπ n = r (π n , δ π n ) = ∫ R (θ , δ π n )d Π n (θﻣﺨﺎﻃﺮهي ﺑﻴﺰ ﻧﺴﺒﺖ ﺑﻪ π nاﺳﺖ.
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
133
ﻗﻀﻴﻪ ) 2-1روش ﺑﻴﺰ ﺣﺪي( :ﻓﺮض ﻛﻨﻴﺪ π1, π 2 , π 3 ,...دﻧﺒﺎﻟﻪاي از ﺗﻮزﻳﻊﻫﺎي ﭘﻴﺸﻴﻦ ﺑﺎﺷﻨﺪ و δ π n ﺗﺼﻤﻴﻢ ﺑﻴﺰ ﻧﺴﺒﺖ ﺑﻪ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ π nﺑﺎ ﻣﺨﺎﻃﺮه ﺑﻴﺰ ) rn = r (π n , δ π n ) = ∫ R (θ , δ π n )d Π n (θ
ﺑﺎﺷﺪ .اﮔﺮ lim rn = rو δ mﺗﺼﻤﻴﻤﻲﺑﺎﺷﺪ ﻛﻪ Sup R (θ , δ m ) = rآﻧﮕﺎه ∞→ n
θ ∈Θ
اﻟﻒ( δ mﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ. ب( دﻧﺒﺎﻟﻪي } {π nﻧﺎﻣﺴﺎﻋﺪﺗﺮﻳﻦ اﺳﺖ. اﺛﺒﺎت :اﻟﻒ( ﺑﺮاي ﻫﺮ ﺗﺼﻤﻴﻢ δدارﻳﻢ ﻛﻪ ) rn = r (π n , δ π n ) = ∫ R (θ , δ π n )d Π n (θ ) ≤ ∫ R (θ , δ )d Π n (θ ) ≤ Sup R (θ , δ )*(
θ ∈Θ
) ⇒ lim rn ≤ Sup R (θ , δ ∞→ n
θ ∈Θ
ﻛﻪ ﻧﺎﻣﺴﺎوي )*( از اﻳﻦ ﻣﻄﻠﺐ ﺑﺪﺳﺖ ﻣﻲآﻳﺪ ﻛﻪ δ π nﺗﺼﻤﻴﻢ ﺑﻴﺰ ﻧﺴﺒﺖ ﺑﻪ π nاﺳﺖ. ∀δ
ﺑﻨﺎﺑﺮاﻳﻦ:
) Sup R (θ , δ m ) = r = lim rn ≤ Sup R (θ , δ θ ∈Θ
∞→ n
θ ∈Θ
ﻳﻌﻨﻲ δ mﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ. ب( ﻓﺮض ﻛﻨﻴﺪ πﻫﺮ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺑﺎﺷﺪ. rn = ∫ R (θ , δ π )d Π (θ ) ≤ ∫ R (θ , δ )d Π (θ ) ≤ Sup R (θ , δ ) = r = lim rn ∞→ n
θ ∈Θ
Θ
ﭘﺲ دﻧﺒﺎﻟﻪي } {π nﻧﺎﻣﺴﺎﻋﺪﺗﺮﻳﻦ اﺳﺖ.
Θ
■
ﻧﻜﺎت (1 :در ﻗﺴﻤﺖ اﻟﻒ ﻗﻀﻴﻪ ﻓﻮق ﻛﺎﻓﻲ اﺳﺖ داﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ )(1
Sup R (θ , δ ) = r ≤ lim rn ∞→ n
Θ
(2ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ اﮔﺮ δ π n → δآﻧﮕﺎه دﻟﻴﻠﻲ ﻧﺪارد ﻛﻪ rπ n → rﻣﻮﻗﻌﻲ ﻛﻪ ∞ → . nﺑﺮاي ﻣﺸﺎﻫﺪه ﻳﻚ ﻣﺜﺎل ﻣﺸﺨﺺ ﺑﻪ ﺗﻤﺮﻳﻦ زﻳﺮ ﺗﻮﺟﻪ ﻛﻨﻴﺪ. ﺗﻤﺮﻳﻦ :ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,...., X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) N (θ ,1ﺑﺎﺷﻨﺪ و ) θ ∼ N (bσ 2 , σ 2
ﻛﻪ . b ≠ 0ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ،ﺑﺮآوردﮔﺮ ﺑﻴﺰ δ π σو ﻣﺨﺎﻃﺮهي ﺑﻴﺰ آن ﻳﻌﻨﻲ rπσ = rσرا ﺑﻪ دﺳﺖ آورﻳﺪ و ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ اﮔﺮ ∞ → σآﻧﮕﺎه δσ → δﻛﻪ δﺑﺮآوردﮔﺮي ﺑﺎ ﻣﺨﺎﻃﺮه ﺛﺎﺑﺖ rاﺳﺖ، → . rσ اﻣﺎ / r
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
1 b2 nx +b b b →x + =r , R ( X + ,θ ) = + 1 n n n n n+ 2
134
= δσ
σ
1 1 b2 ≠ + n n n
→
1 1
n+
= rσ
■
σ2 (3ﻗﻀﻴﻪ 2-1داراي ﻣﻄﻠﻮﺑﻴﺖ ﻛﻤﺘﺮي ﻧﺴﺒﺖ ﺑﻪ ﻗﻀﻴﻪ 1-1اﺳﺖ زﻳﺮا
اﻟﻒ -در ﻗﻀﻴﻪ 2-1اﮔﺮ δ π nﺑﺮآوردﮔﺮ ﺑﻴﺰ ﻳﻜﺘﺎ ﺑﺎﺷﺪ آﻧﮕﺎه دﻟﻴﻠﻲ ﻧﺪارد ﻛﻪ δ mﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻳﻜﺘﺎ ﺑﺎﺷﺪ. ب -ﺑﺮاي اﺳﺘﻔﺎده از ﻗﻀﻴﻪ 2-1ﻧﺎﮔﺰﻳﺮ ﻫﺴﺘﻴﻢ ﻛﻪ rو ﻣﺨﺎﻃﺮه ي ﺑﻴﺰ rπ nرا ﻣﺤﺎﺳﺒﻪ ﻛﻨﻴﻢ ﻛﻪ در ﺑﻌﻀﻲ ﻣﻮارد ﻣﺸﻜﻞ اﺳﺖ .در ﺑﻌﻀﻲ ﻣﻮارد ﻣﻲﺗﻮان ﺑﺮاي ﻣﺤﺎﺳﺒﻪ rπ nاز ﻟﻢ زﻳﺮ اﺳﺘﻔﺎده ﻛﺮد. ﺑﺎ وﺟﻮد ﻣﺸﻜﻼت ﻓﻮق در ﺑﺴﻴﺎري ﻣﻮارد ﻧﺎﮔﺰﻳﺮ ﻫﺴﺘﻴﻢ ﻛﻪ از اﻳﻦ ﻗﻀﻴﻪ ﻳﻌﻨﻲ روش ﺑﻴﺰ ﺣﺪي اﺳﺘﻔﺎده ﻛﻨﻴﻢ. ﻟﻢ :2-1اﮔﺮ δ πﺑﺮآوردﮔﺮ ﺑﻴﺰ ﭘﺎراﻣﺘﺮ ) γ (θﻧﺴﺒﺖ ﺑﻪ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ πﺑﺎﺷﺪ و اﮔﺮ
(
⎦)
2 ⎥⎤ ) rπ = E ⎡⎢ δ π (X ) − γ (θﻣﺨﺎﻃﺮهﺑﻴﺰ آن ﺑﺎﺷﺪ ،آﻧﮕﺎه ) rπ = ∫V ar [γ (θ ) | x ]dP (xو اﮔﺮ
⎣
وارﻳﺎﻧﺲ ﭘﺴﻴﻦ ﺑﻪ xﺑﺴﺘﮕﻲ ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ آﻧﮕﺎه ] . rπ =V a r[γ (θ ) | x
(
)
2 ⎧ ⎫ ) rπ = E [(δ π (x ) − γ (θ ))2 ] = ∫ ⎨ E ⎡⎢ γ (θ ) − δ π ( x ) | x ⎤⎥ ⎬ dP (x ⎭⎦ ⎣ ⎩
اﺛﺒﺎت:
) = ∫V ar (γ (θ ) | x )dP (x
■
ﻣﺜﺎل :4-1ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,...., X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) N (θ ,σ 2ﺑﺎﺷﺪ ﻛﻪ در آن σ 2ﻣﻌﻠﻮم اﺳﺖ .ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ Xﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﭘﺎراﻣﺘﺮ θاﺳﺖ. ﺣﻞ :دﻧﺒﺎﻟﻪ ﺗﻮزﻳﻊﻫﺎي ﭘﻴﺸﻴﻦ N (0, m 2 ), m = 1, 2, 3,...را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﺪ ،در اﻳﻦﺻﻮرت ∞→ m
→ x
m 2x
σ2 n
m + 2
= ) (x
πm
δ
)
1 n
1 + 2 2 m σ
,
m 2x
σ2 n
m + 2
( θ |x ∼N
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
135
ﻣﺨﺎﻃﺮه ﺑﻴﺰ δ π mﻋﺒﺎرت اﺳﺖ از 1 1 m2
+
n 2
= ) dP (x
σ
1 1 m2
+
∫ = ) rm = r (π m , δ π m ) = ∫V (θ | x )dP (x
n 2
σ
) = R (θ , x ) = Sup R (θ , x
σ2 n
Θ
=
1 n
1 + 2 2 σ m
lim rm = lim
∞→ m
∞→ m
ﺑﻨﺎﺑﺮاﻳﻦ ﻃﺒﻖ ﻗﻀﻴﻪ X ،2-1ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﭘﺎراﻣﺘﺮ θاﺳﺖ.
■
ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﺜﺎل ﻗﺒﻞ ﺑﺮاي ﻫﺮ σ 2ﻣﻌﻠﻮم دارﻳﻢ ﻛﻪ ∀δ ∀δ
) Sup R (θ , σ 2 , X ) ≤ Sup R (θ , σ 2 , δ θ
θ
) ⇒ Sup Sup R (θ , σ 2 , X ) ≤ Sup Sup R (θ , σ 2 , δ θ
2
θ
σ
2
σ
ﺣﺎل اﮔﺮ σ 2ﻧﺎﻣﻌﻠﻮم ﺑﺎﺷﺪ از راﺑﻄﻪ ﻓﻮق ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد ﻛﻪ ∀δ
) = Sup [Sup R (θ , σ 2 , X )] ≤ Sup Sup R (θ , σ 2 , δ θ
θ
σ2
σ2
σ2 n
∞ = Sup σ2
ﻳﻌﻨﻲ ﻣﺨﺎﻃﺮه ﺗﻤﺎم ﺑﺮآوردﮔﺮﻫﺎ ﻧﺎﻣﺘﻨﺎﻫﻲ اﺳﺖ ﺑﺠﺰ اﻳﻨﻜﻪ σ 2ﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ .ﺑﻨﺎﺑﺮاﻳﻦ ﻓﺮض ﻣﻲﻛﻨﻴﻢ σ 2 M ﻧﺎﻣﻌﻠﻮم و σ 2 ≤ Mﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت n
= ) . Sup Sup R (θ , σ 2 , Xدر اﻳﻦ ﺣﺎﻟﺖ ﻣﻴﻨﻴﻤﺎﻛﺲ θ
σ2
ﺑﻮدن ﺑﺮآوردﮔﺮ Xاز ﻗﻀﻴﻪ زﻳﺮ ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد. ﻗﻀﻴﻪ :3-1ﻓﺮض ﻛﻨﻴﺪ Xﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﺑﺎ ﺗﻮزﻳﻊ Fاز ﺑﺎﺷﺪ و
1
. F o ⊂ Fاﮔﺮ δoﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ) g (Fدر
ﺧﺎﻧﻮاده 1 o
Fو ) g (Fﭘﺎراﻣﺘﺮ ﻣﻮرد ﻧﻈﺮ
Fﺑﺎﺷﺪ و
)Sup R (F , δ0) = Sup R (F , δ0
آﻧﮕﺎه δoﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ) g (Fدر
1
1
F∈ F
Fاﺳﺖ.
o
F ∈F
اﺛﺒﺎت :ﺑﺮاي ﻫﺮ ﺑﺮآوردﮔﺮ δدارﻳﻢ ﻛﻪ
) Sup R (F , δ ) ≥ Sup R (F , δ ) ≥ Sup R (F , δo ) = Sup R (F , δo ∈ (*) F (**) F ∈F F ∈F F∈F Fo 1 1 o
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
ﻛﻪ در آن ﻧﺎﻣﺴﺎوي )*( از ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن δoدر ﭘﺲ δoدر F 1ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ.
o
136
Fو ﺗﺴﺎوي )**( از ﻓﺮض ﺣﺎﺻﻞ ﻣﻲﮔﺮدد.
■
اﮔﺮ ﻗﺮار دﻫﻴﻢ }∞〈 = {N (θ ,σ 2 ) : θ ∈ R ,σ 2 ≤ M
1
Fو }∞ < = {N (θ , M ) : θ ∈ R , M
o
F
M
= ) . SupR (θ , σ 2 , Xﺑﻨﺎﺑﺮاﻳﻦ ﻃﺒﻖ ﻗﻀﻴﻪ 3-1 آﻧﮕﺎه F o ⊂ F 1و ) = SupR (θ , σ 2 , X nF Fo F1 Fo 1 ﻛﺎﻓﻲاﺳﺖ ﻧﺸﺎندﻫﻴﻢ ﻛﻪ Xدر F oﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ و در ﻧﺘﻴﺠﻪ Xدر F 1ﻣﻴﻨﻴﻤﺎﻛﺲ ﺧﻮاﻫﺪ ﺑﻮد. اﻣﺎ ﺗﺤﺖ
o
F M ) = R (θ , X ) = Sup R (θ , X n θ
ﭘﺲ ﻃﺒﻖ ﻗﻀﻴﻪ X 2-1در
o
Fﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ.
∞→ m
1
→
n 1 + 2 M m
= rm
■
ﻣﺜﺎل ) 5-1ﻧﺎﭘﺎراﻣﺘﺮي( :ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,..., X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ ﺑﺎ ﺗﻮزﻳﻊ ﻳﻜﺴﺎن Fﻛﻪ داراي ﻣﻴﺎﻧﮕﻴﻦ ﻣﺘﻨﺎﻫﻲ θاﺳﺖ ،ﺑﺎﺷﺪ .ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﭘﺎراﻣﺘﺮ θﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم را در ﻫﺮ ﻳﻚ از ﺣﺎﻻت زﻳﺮ ﺑﻪ دﺳﺖ آورﻳﺪ. اﻟﻒ -وارﻳﺎﻧﺲ ﻛﺮاﻧﺪار ∞ < V F ( X i ) ≤ M ب -ﺣﺪود ﻛﺮاﻧﺪار ∞−∞ < a < X i < b < +
)ﺗﻮﺟﻪ ﻛﻨﻴﺪ اﮔﺮ ﻣﺎﻛﺴﻴﻤﻢ ﻣﺨﺎﻃﺮه ﻫﺮ ﺑﺮآوردﮔﺮ ﺑﻲﻧﻬﺎﻳﺖ ﺷﻮد آﻧﮕﺎه ﻣﺴﺌﻠﻪ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻣﻨﺘﻔﻲ اﺳﺖ ﭘﺲ ﺷﺮاﻳﻂ ﻓﻮق را ﺑﺮاي ﮔﺮﻳﺰ از اﻳﻦ ﻣﻮﺿﻮع در ﻣﺴﺌﻠﻪ اﻋﻤﺎل ﻛﺮده اﻳﻢ( ﺣﻞ :اﻟﻒ -اﮔﺮ ﻗﺮار دﻫﻴﻢ
}
{
∞ < = N (θ ,σ 2 ) | σ 2 ≤ M
o
F
}∞ < F 1 = {F | E F (X i ) = θ , V F (X i ) ≤ M
در اﻳﻦ ﺻﻮرت F o ⊂ F 1و ﻃﺒﻖ ﺑﺤﺚ ﻗﺒﻞ از اﻳﻦ ﻣﺜﺎل Xدر
o
Fﺑﺮآوردﮔﺮي ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ و
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
137
M ⎧ 2 ⎪Sup R (θ ,σ , X ) = n ⎪ Fo ⎨ 2 ⎪Sup R (θ , σ 2 , X ) = Sup V (X ) = Sup σ = M ⎪ F1 n F1 F1 n ⎩
ﭘﺲ ﺷﺮاﻳﻂ ﻗﻀﻴﻪ 3-1ﺑﺮﻗﺮار اﺳﺖ ،ﻳﻌﻨﻲ Xدر F 1ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ. ب -ﺑﺪون از دﺳﺖ دادن ﻛﻠﻴﺖ ﻣﺴﺌﻠﻪ ﻓﺮض ﻣﻲ ﻛﻨﻴﻢ b = 1و ، a = 0ﻗﺮار ﻣﻲ دﻫﻴﻢ }o = {B (1, θ ) | 0 < θ < 1
F
}F 1 = {F | F (1) − F (0) = 1
ﭘﺲ F o ⊂ F 1و در ﻣﺜﺎل 1-1دﻳﺪﻳﻢ ﻛﻪ 1 ) 2(1 + n
ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ در
o
X +
n 1+ n
=
n n + ∑X i 2 i =1
= ) δo ( X
n+ n
Fﻣﻲﺑﺎﺷﺪ .ﺣﺎل ﻃﺒﻖ ﻗﻀﻴﻪ 3-1ﻛﺎﻓﻲ اﺳﺖ ﻧﺸﺎن دﻫﻴﻢ ﻛﻪ ﻣﺎﻛﺴﻴﻤﻢ
ﻣﺨﺎﻃﺮه δoدر F oو F 1ﻳﻜﻲ اﺳﺖ. 1 4(1 + n )2 2
= ) ⇒ Sup R (θ , δo o
F
1 2
) 4(1 + n
= ) : R (θ , δoﺗﺤﺖ
⎡ n ⎤ 1 ⎢ : R (θ , δo ) = Eﺗﺤﺖ ⎥ −θ X + ) 2(1 + n ⎣1 + n ⎦ n
o
F
F1
n 1 ( V (X ) + θ+ − θ )2 1+ n ) 2(1 + n ) (1 + n 1 1 = ] [V F ( X 1) + ( − θ )2 2 2 ) (1 + n 2
=
V F (X 1) = E (X − θ )2 = E (X 2 ) − θ 2 ≤ E (X ) − θ 2 = θ − θ 2 زﻳﺮا 0 ≤ X ≤ 1 ⇒ X 2 ≤ X 1
1 1 = ] [(θ − θ 2 ) + ( − θ )2 2 ) (1 + n 4(1 + n )2 2
) = Sup R (θ , δo
1 4(1 + n )2
Fo ﭘﺲ ﻃﺒﻖ ﻗﻀﻴﻪ δo (X ) ، 3-1در F 1ﺑﺮاي θﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ.
■
≤ ) ∴ R (δo ,θ
= ) ⇒ Sup R (θ , δo 1
F
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
138
ﺑﺨﺶ : 2ﺗﺼﻤﻴﻢﻫﺎي ﻣﺠﺎز ) 1ﭘﺬﻳﺮﻓﺘﻨﻲ( در ﻳﻚ ﻣﺴﺌﻠﻪ ﺗﺼﻤﻴﻢ ﻛﻼس ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ Dﻣﻌﻤﻮﻻً ﻛﻼس ﺑﺰرﮔﻲ اﺳﺖ و اﻧﺘﺨﺎب اﻳﻨﻜﻪ ﻛﺪام ﺗﺼﻤﻴﻢ δ ∈ Dرا ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار دﻫﻴﻢ ﻛﺎر ﻣﺸﻜﻠﻲ ﻣﻲ ﺑﺎﺷﺪ .ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺎﻳﺴﺘﻲ ﻳﻚ زﻳﺮ ﻛﻼس Cاز Dﭘﻴﺪا ﻛﻨﻴﻢ ﻛﻪ در اﻳﻦ ﻛﻼس ﻛﻠﻴﻪ ﺗﺼﻤﻴﻢﻫﺎي ﺧﻮب ﻗﺮار داﺷﺘﻪ ﺑﺎﺷﻨﺪ .ﺣﺎل ﭼﻮن اﻳﻦ ﻛﻼس Cﻳﻚ ﻛﻼس ﻛﻮﭼﻜﺘﺮ اﺳﺖ ،ﭘﻴﺪا ﻛﺮدن ﻳﻚ ﺗﺼﻤﻴﻢ ﺧﻮب در آن راﺣﺖﺗﺮ ﻣﻲ ﺑﺎﺷﺪ .در اﻳﻦ ﻗﺴﻤﺖ ﻛﻼﺳﻲ از ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ ﺧﻮب را ﺑﺎ اﺳﺘﻔﺎده از ﻣﺤﻚ ﻣﺠﺎز ﺑﻮدن 2ﺗﻌﺮﻳﻒ ﻣﻲﻛﻨﻴﻢ و ﻧﺤﻮهي ﺑﺪﺳﺖ آوردن اﻳﻦ ﺗﺼﻤﻴﻢﻫﺎ را اراﺋﻪ ﻣﻲدﻫﻴﻢ.
ﻣﻘﺎﻳﺴﻪ ﺗﺼﻤﻴﻢﻫﺎ: ﺗﻌﺮﻳﻒ : 1-2ﻓﺮض ﻛﻨﻴﺪ δ1و δ 2دو ﺗﺼﻤﻴﻢ ﺑﺎ ﺗﻮاﺑﻊ ﻣﺨﺎﻃﺮه ) R (θ , δ1و ) R (θ , δ2ﺑﺎﺷﻨﺪ. اﻟﻒ -ﺗﺼﻤﻴﻢ δ1را ﺑﻪ ﺧﻮﺑﻲ δ 2 3ﮔﻮﻳﻨﺪ اﮔﺮ:
R (θ , δ1) ≤ R (θ , δ 2 ) ∀θ ∈ Θ
ب -ﺗﺼﻤﻴﻢ δ1را ﺑﻬﺘﺮ از δ 2 4ﮔﻮﻳﻨﺪ اﮔﺮ :
R (θ , δ1) ≤ R (θ , δ 2 ) ∀θ ∈ Θ
و ﺑﺮاي ﺑﻌﻀﻲ θ ∈ Θداﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ:
) . R (θ , δ1) < R (θ , δ 2 R (θ , δ1) = R (θ , δ 2 ) ∀θ ∈ Θ
ج – ﺗﺼﻤﻴﻢ δ1را ﻫﻢ ارز δ 2 5ﮔﻮﻳﻨﺪ اﮔﺮ:
د -ﺗﺼﻤﻴﻢﻫﺎي δ1و δ 2را ﻏﻴﺮﻗﺎﺑﻞ ﻣﻘﺎﻳﺴﻪ ﮔﻮﻳﻨﺪ ﻫﺮﮔﺎه ﻫﻴﭽﻜﺪام از ﺳﻪ ﺣﺎﻟﺖ ﺑﺎﻻ ﺑﺮﻗﺮار ﻧﺒﺎﺷﺪ. ﻣﺜﺎل :1-2ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,..., X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) N ( μ ,σ 2ﺑﺎﺷﺪ .ﻣﻲ داﻧﻴﻢ ﻛﻪ S 2
ﺑﺮآوردﮔﺮ UMVUﺑﺮاي ﭘﺎراﻣﺘﺮ σ 2اﺳﺖ .ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ در ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي cS 2ﺑﺮآوردﮔﺮي ﺑﻬﺘﺮ از S 2وﺟﻮد دارد. ﺣﻞ:
در
ﻓﺼﻞ
ﻣﺮﺑﻮط
ﺑﺮآوردﮔﺮﻫﺎي
ﺑﻪ
ﻧﺎارﻳﺐ
ﻧﺸﺎن
دادﻳﻢ
ﻛﻪ
ﺑﺮآوردﮔﺮ
n −1 2 1 n = Sﻛﻪ ﻳﻚ ﺑﺮآوردﮔﺮ MREاﺳﺖ داراي ﻣﺨﺎﻃﺮه ﻛﻤﺘﺮي = S ( X i − X )2 ∑ n +1 n + 1 i =1 2
١
Admissible Decisions Admissibility ٣ As Good As ٤ Better Than ٥ Equivalent ٢
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
ﻧﺴﺒﺖ ﺑﻪ S 2اﺳﺖ ﻳﻌﻨﻲ ∀σ 2
139
R (σ 2 , S 2 ) < R (σ 2 , S 2 ),ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ S 2در ﻛﻼس cS 2
■
ﺑﻬﺘﺮﻳﻦ ﺑﺮآوردﮔﺮ اﺳﺖ.
ﻣﺜﺎل :2-2ﻓﺮض ﻛﻨﻴﺪ X 1, X 2ﻧﻤﻮﻧﻪ اي ﺗﺼﺎدﻓﻲ از ) N ( μ ,σ 2ﺑﺎﺷﻨﺪ ﺑﺮآوردﮔﺮﻫﺎي زﻳﺮ را ﺑﺮاي ﭘﺎراﻣﺘﺮ μدر ﻧﻈﺮ ﺑﮕﻴﺮﻳﺪ. 1 2
1 2
3 4
1 4
3 4
1 2
1 4
1 2
δ1 = X 1 + X 2 , δ 2 = X 1 + X 2 , δ 3 = X 1 + X 2 , δ 4 = X 1 + X 2 + 1
اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺎﺷﺪ اﻳﻦ 4ﺑﺮآوردﮔﺮ را ﺑﺎ ﻳﻜﺪﻳﮕﺮ ﻣﻘﺎﻳﺴﻪ ﻛﻨﻴﺪ. ﺣﻞ: 1 1 9 5 R ( μ , δ1) =V (δ1) = σ 2 R ( μ , δ 2 ) =V (δ 2 ) = ( + )σ 2 = σ 2 2 16 16 8 9 1 5 1 R ( μ , δ 3 ) =V (δ 3 ) = ( + )σ 2 = σ 2 R ( μ , δ 4 ) =V (δ 4 ) = σ 2 + 1 16 16 8 2
ﺑﻨﺎﺑﺮاﻳﻦ δ1ﺑﻬﺘﺮ از δ 2و δ 3و δ 4اﺳﺖ و δ 2ﻫﻢ ارز δ 3اﺳﺖ و δ 4ﺑﺎ δ 2و δ 3ﻗﺎﺑﻞ ﻣﻘﺎﻳﺴﻪ ﻧﻴﺴﺖ
زﻳﺮا
اﮔﺮ
σ2 ≥ 8
) . R (μ ,δ 4 ) > R (μ ,δ2
) R (μ ,δ 4 ) ≤ R (μ , δ2
آﻧﮕﺎه
و
اﮔﺮ
σ2 < 8
آﻧﮕﺎه
■
ﺗﻌﺮﻳﻒ 1-2ﻣﻘﺎﻳﺴﻪاي را ﺑﻴﻦ ﺗﻤﺎم ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ ﺑﻮﺟﻮد ﻧﻤﻲآورد و ﺗﻨﻬﺎ ﻳﻚ ﺗﺮﺗﻴﺐ را روي ﻛﻼس ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ Dﺗﻌﺮﻳﻒ ﻣﻲ ﻛﻨﺪ. ﺗﻌﺮﻳﻒ :2-2ﻳﻚ ﺗﺼﻤﻴﻢ δرا ﻣﺠﺎز 1ﮔﻮﻳﻨﺪ ﻫﺮﮔﺎه ﺗﺼﻤﻴﻢ دﻳﮕﺮي ﻣﺎﻧﻨﺪ δ ′ ∈ Dوﺟﻮد ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ ﻛﻪ از δﺑﻬﺘﺮ ﺑﺎﺷﺪ .ﻳﻚ ﺗﺼﻤﻴﻢ δرا ﻏﻴﺮ ﻣﺠﺎز 2ﮔﻮﻳﻨﺪ اﮔﺮ ﺗﺼﻤﻴﻢ دﻳﮕﺮي ﻣﺎﻧﻨﺪ δ ′ ∈ Dوﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﻛﻪ از δﺑﻬﺘﺮ ﺑﺎﺷﺪ.
■
ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﺜﺎل 1-2در ﺧﺎﻧﻮاده ) N ( μ ,σ 2ﺑﺮآوردﮔﺮ S 2ﺑﺮاي σ 2ﻏﻴﺮ ﻣﺠﺎز اﺳﺖ زﻳﺮا n −1 2 ﺑﺮآوردﮔﺮ S n +1
= S 2از آن ﺑﻬﺘﺮ اﺳﺖ .اﻣﺎ ﺧﻮد ﺑﺮآوردﮔﺮ S 2ﻧﻴﺰ ﻣﺠﺎز ﻧﻴﺴﺖ و ﺗﻮﺳﻂ
) Brewster and Zidek (1974ﺑﺮآوردﮔﺮ ﺑﻬﺘﺮ از آن ﭘﻴﺪا ﺷﺪه اﺳﺖ. admissible inadmissible
١ ٢
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
140
ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺗﻌﺮﻳﻒ 3-2ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز ﺗﺼﻤﻴﻢ ﺧﻮﺑﻲ اﺳﺖ زﻳﺮا ﻫﻴﭻ ﺗﺼﻤﻴﻢ دﻳﮕﺮي ﺑﺮ آن ارﺟﺤﻴﺖ ﻧﺪارد و ﻳﻚ ﺗﺼﻤﻴﻢ ﻏﻴﺮﻣﺠﺎز ﺗﺼﻤﻴﻢ ﺑﺪي اﺳﺖ زﻳﺮا ﺗﺼﻤﻴﻢ دﻳﮕﺮي وﺟﻮد دارد ﻛﻪ ﺑﺮ آن ارﺟﺤﻴﺖ دارد .ﺑﺎ اﻳﻦ وﺟﻮد ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ ﻣﺠﺎز ﺑﻮدن واﻗﻌﺎً ﻳﻚ ﺧﺎﺻﻴﺖ ﻣﺜﺒﺖ ﻧﻴﺴﺖ و ﻫﻤﭽﻨﻴﻦ ﺧﺎﺻﻴﺖ ﻣﻨﻔﻲ ﻧﻴﺰ ﻧﻴﺴﺖ ،ﻳﻌﻨﻲ ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز ﻟﺰوﻣﺎً ﺑﻪ ﻃﻮر ﻳﻜﻨﻮاﺧﺖ ﺧﻮب ﻧﻴﺴﺖ و ﻫﻤﭽﻨﻴﻦ ﺑﻪ ﻃﻮر ﻳﻜﻨﻮاﺧﺖ ﻧﻴﺰ ﺑﺪ ﻧﻤﻲ ﺑﺎﺷﺪ .اﮔﺮ ﺑﺪاﻧﻴﻢ ﻛﻪ ﻳﻚ ﺗﺼﻤﻴﻢ ﻏﻴﺮ ﻣﺠﺎز اﺳﺖ ،در اﻳﻦ ﺻﻮرت ﺑﺎﻳﺴﺘﻲ دﻧﻴﺎل ﺗﺼﻤﻴﻤﻲ ﺑﮕﺮدﻳﻢ ﻛﻪ از آن ﺑﻬﺘﺮ ﺑﺎﺷﺪ .اﻣﺎ اﮔﺮ ﺑﺪاﻧﻴﻢ ﻛﻪ ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز اﺳﺖ دﻟﻴﻞ ﺑﺮ آن ﻧﻴﺴﺖ ﻛﻪ ﺣﺘﻤﺎً از اﻳﻦ ﺗﺼﻤﻴﻢ اﺳﺘﻔﺎده ﻛﻨﻴﻢ زﻳﺮا در ﺧﻴﻠﻲ از ﻣﻮارد ﺗﺼﻤﻴﻢﻫﺎي ﻣﺠﺎز زﻳﺎدي وﺟﻮد دارد )ﻣﺜﺎل 4-2را ﻣﻼﺣﻈﻪ ﻛﻨﻴﺪ( ﻛﻪ ﺑﻌﻀﻲ ﻣﻌﻘﻮل و ﺑﻌﻀﻲ ﻏﻴﺮﻣﻌﻘﻮل ﻫﺴﺘﻨﺪ و ﺑﻌﻀﻲ ﺑﻪ ﺳﺨﺘﻲ ﻗﺎﺑﻞ ﻣﺤﺎﺳﺒﻪ ﻫﺴﺘﻨﺪ .ﺑﻪ ﻣﺜﺎل زﻳﺮ ﺗﻮﺟﻪ ﻛﻨﻴﺪ. 1 ﻣﺜﺎل :3-2ﻓﺮض ﻛﻨﻴﺪ ) X ~ B (10,θﻧﺸﺎن دﻫﻴﺪ ﻛﻪ 3
= ) δ (Xﺑﺮآوردﮔﺮي ﻣﺠﺎز ﺑﺮاي θﺗﺤﺖ
X ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم اﺳﺖ و آن را ﺑﺎ ﺑﺮآوردﮔﺮ UMVUﭘﺎراﻣﺘﺮ θﻳﻌﻨﻲ 10 1 ﺣﻞ :ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﺑﺮآورد δدر = pﻋﺒﺎرت اﺳﺖ از 3 1 1 ] R ( , δ ) = E [(δ (x ) − )2 3 3
= ) δ ∗ (Xﻣﻘﺎﻳﺴﻪ ﻛﻨﻴﺪ.
10
10 1 2 1 1 = ∑ (δ ( x ) − ) P 1 ( X = x ) = ∑ ( − )2 P 1 ( X = x ) = 0 =P =P 3 3 x =0 x =0 3 3 3
ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ ) δ ′(xﺑﺮآوردﮔﺮ دﻳﮕﺮ ﺑﻪ ﺧﻮﺑﻲ ) δ (xﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت 1
R ( ,δ ′)≥0 1 1 1 1 3 → R ( , δ ′) = 0 ⇒ E [(δ ′(x ) − )2 ] = 0 ⎯⎯⎯⎯ R ( , δ ′) ≤ R ( , δ ) = 0 3 3 3 3
1 1 ⎛ ⎞ ⇒ P ⎜ (δ ′(x ) − )2 = 0⎟ = 1 ⇒ P (δ ′(x ) = ) = 1 3 3 ⎝ ⎠
ﺑﻨﺎﺑﺮاﻳﻦ اﮔﺮ δ ′ﺑﺨﻮاﻫﺪ ﺑﻪ ﺧﻮﺑﻲ δﺑﺎﺷﺪ ﺑﺎﻳﺴﺘﻲ ﺑﺎ اﺣﺘﻤﺎل ﻳﻚ ﺑﺎ δﺑﺮاﺑﺮ ﺑﺎﺷﺪ .ﺣﺎل اﮔﺮ δ ′ﺑﻬﺘﺮ از δﺑﺎﺷﺪ آﻧﮕﺎه ﺑﻪ ﺧﻮﺑﻲ δاﺳﺖ و در ﻧﺘﻴﺠﻪ ﺑﺎز ﻫﻢ ﺑﺎﻳﺴﺘﻲ δ ′و δﺑﺎ اﺣﺘﻤﺎل ﻳﻚ ﺑﺎ ﻫﻢ ﺑﺮاﺑﺮ ﺑﺎﺷﻨﺪ و در ﻧﺘﻴﺠﻪ ﻫﻴﭻ ﺑﺮآوردﮔﺮي ﺑﻬﺘﺮ از δوﺟﻮد ﻧﺪارد و در ﻧﺘﻴﺠﻪ δﻳﻚ ﺑﺮآوردﮔﺮ ﻣﺠﺎز اﺳﺖ.
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
141
1 1 ﺗﻨﻬﺎ ﻣﺰﻳﺖ ﺑﺮآوردﮔﺮ ﻣﺠﺎز = ) δ (Xاﻳﻦ اﺳﺖ ﻛﻪ در 3 3 X اﺳﺖ و در ﻣﻘﺎﻳﺴﻪ ﺑﺎ ﺑﺮآوردﮔﺮ UMVUي = ) δ * (Xﻳﻚ ﺑﺮآوردﮔﺮ ﻏﻴﺮﻣﻌﻘﻮل اﺳﺖ .ﻣﻘﺎﻳﺴﻪ 10
= θﻣﺨﺎﻃﺮه آن از ﻫﺮ ﺑﺮآوردﮔﺮي ﻛﻤﺘﺮ
ﻣﺨﺎﻃﺮه اﻳﻦ دو ﺑﺮآوردﮔﺮ ﻧﺸﺎن ﻣﻲ دﻫﺪ ﻛﻪ در ﺑﻴﺸﺘﺮ ﻧﻘﺎط 1 ﻓﺎﺻﻠﻪ ) , θ ∈ (01ﺑﺮآوردﮔﺮ UMVUﺑﻬﺘﺮ از 3
= ) δ (X
1 ﻋﻤﻞ ﻣﻲ ﻛﻨﺪ و ﺑﺮآوردﮔﺮ δﺗﻨﻬﺎ در ﻧﻘﻄﻪ ي 3
ﺧﻮب ﻋﻤﻞ ﻣﻲ ﻛﻨﺪ.
=θ
) R (θ , δ
1 R (θ , δ ) = ( − θ )2 3 ) θ (1 − θ = ) * R (θ , δ 10
■ ﺑﺎ اﺳﺘﻔﺎده از ﺗﻌﺮﻳﻒ 1-2در زﻳﺮ ﻛﻼﺳﻲ از ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ را ﻣﻌﺮﻓﻲ ﻣﻲ ﻛﻨﻴﻢ ﻛﻪ ﺷﺎﻣﻞ ﺗﻤﺎم ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ ﺧﻮب اﺳﺖ. ﺗﻌﺮﻳﻒ :3-2ﻓﺮض ﻛﻨﻴﺪ Dﻛﻼﺳﻲ ﻛﻠﻴﻪ ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ ﺑﺎﺷﺪ و Cﻛﻼﺳﻲ از ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ و زﻳﺮ ﻛﻼﺳﻲ از Dﺑﺎﺷﺪ . C ⊂ D اﻟﻒ -ﻛﻼس Cرا ﻳﻚ ﻛﻼس ﻛﺎﻣﻞ 1ﮔﻮﻳﻨﺪ اﮔﺮ ﺑﺮاي ﻫﺮ ﺗﺼﻤﻴﻢ δ ′ ∉ Cﻳﻚ ﺗﺼﻤﻴﻢ δ ∈ Cوﺟﻮد داﺷﺘﻪ ﻛﻪ δﺑﻬﺘﺮ از δ ′ﺑﺎﺷﺪ.
ب -ﻛﻼس Cرا ﻳﻚ ﻛﻼس اﺳﺎﺳﺎ ﻛﺎﻣﻞ 2ﮔﻮﻳﻨﺪ اﮔﺮ ﺑﺮاي ﻫﺮ ﺗﺼﻤﻴﻢ δ ′ ∉ Cﻳﻚ ﺗﺼﻤﻴﻢ δ ∈ C وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﻛﻪ δﺑﻪ ﺧﻮﺑﻲ δ ′ﺑﺎﺷﺪ.
■
ﻗﻀﻴﻪﻫﺎي زﻳﺮ راﺑﻄﻪ ﺗﺼﻤﻴﻢﻫﺎي ﻣﺠﺎز و ﻛﻼسﻫﺎي ﻛﺎﻣﻞ و اﺳﺎﺳﺎ ﻛﺎﻣﻞ را ﻧﺸﺎن ﻣﻲدﻫﺪ. ﻗﻀﻴﻪ :1-2اﮔﺮ Cﻳﻚ ﻛﻼس ﻛﺎﻣﻞ ﺑﺎﺷﺪ آﻧﮕﺎه ﻛﻼس ﻛﻠﻴﻪ ﺗﺼﻤﻴﻢﻫﺎي ﻣﺠﺎز Aدرون Cﻗﺮار دارد ) .(A ⊂ C complete essentially complete
١ ٢
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
142
اﺛﺒﺎت :ﻓﺮض ﻛﻨﻴﺪ δ ′ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز ﺑﺎﺷﺪ) (δ ′ ∈Aوﻟﻲ . δ ′ ∉ Cدر اﻳﻦﺻﻮرت ﻃﺒﻖ ﺗﻌﺮﻳﻒ ﺑﺎﻳﺴﺘﻲ ﻳﻚ δ ∈ Cوﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﻛﻪ δاز δ ′ﺑﻬﺘﺮ ﺑﺎﺷﺪ و ﭼﻮن δ ′ﻣﺠﺎز اﺳﺖ اﻳﻦ اﻣﻜﺎن ﻧﺪارد ﭘﺲ ﺑﺎﻳﺴﺘﻲ δ ′ ∈ Cﺑﺎﺷﺪ و در ﻧﺘﻴﺠﻪ δ ′ ∈ A ⇒ δ ′ ∈Cﭘﺲ .A ⊂ C ﻗﻀﻴﻪ :2-2ﻓﺮض ﻛﻨﻴﺪ Cﻳﻚ ﻛﻼس اﺳﺎﺳﺎ ﻛﺎﻣﻞ ﺑﺎﺷﺪ .اﮔﺮ δ ′ ∉ Cﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز ﺑﺎﺷﺪ آﻧﮕﺎه ﻳﻚ ﺗﺼﻤﻴﻢ δ ∈ Cوﺟﻮد دارد ﺑﻄﻮري ﻛﻪ ﻫﻢ ارز δ ′اﺳﺖ. اﺛﺒﺎت :ﭼﻮن Cاﺳﺎﺳﺎ ﻛﺎﻣﻞ اﺳﺖ و δ ′ ∉ Cﭘﺲ ﻳﻚ ﺗﺼﻤﻴﻢ ∀θ ∈ Θ
R (θ , δ ) ≤ R (θ , δ ′),وﭼﻮن δ ′ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز اﺳﺖ ﭘﺲ ﻧﺎﻣﺴﺎوي ﻓﻮق ﺑﻄﻮر اﻛﻴﺪ
ﺑﺮاي ﻫﻴﭻ θ ∈ Θﺑﺮﻗﺮار ﻧﻴﺴﺖ ﭘﺲ ∀θ ∈ Θ
ﻫﺴﺘﻨﺪ.
δ ∈ Cوﺟﻮد دارد ﺑﻄﻮري ﻛﻪ
R (θ , δ ) = R (θ , δ ′),ﻳﻌﻨﻲ δو δ ′ﻫﻢ ارز
■
ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺗﻌﺮﻳﻒ و ﻗﻀﺎﻳﺎي ﺑﺎﻻ ﺑﺎﻳﺴﺘﻲ ﺗﻮﺟﻪ ﺧﻮد را ﺑﻪ ﻛﻼس ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ ﻛﺎﻣﻞ ﻣﻌﻄﻮف ﻛﻨﻴﻢ و در اﻳﻦ ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ﻣﺠﺎز را ﭘﻴﺪا ﻛﻨﻴﻢ.
روشﻫﺎي ﺑﺪﺳﺖ آوردن ﺑﺮآوردﮔﺮﻫﺎ و ﺗﺼﻤﻴﻢﻫﺎي ﻣﺠﺎز در زﻳﺮ ﻗﻀﺎﻳﺎﻳﻲ را ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺗﺼﻤﻴﻢﻫﺎي ﻣﺠﺎز و ﻏﻴﺮﻣﺠﺎز ﻣﻲآورﻳﻢ ﻛﻪ ﻋﻤﺪه اﻧﻬﺎ در ﻣﻮرد ﺑﺮآوردﮔﺮﻫﺎي ﻣﺠﺎز اﺳﺖ. ﻗﻀﻴﻪ :3-2اﮔﺮ δ πﻳﻚ ﺗﺼﻤﻴﻢ ﺑﻴﺰ ﻳﻜﺘﺎ ﻧﺴﺒﺖ ﺑﻪ ﭼﮕﺎﻟﻲ ﭘﻴﺸﻴﻦ ) π (θو ﺗﺎﺑﻊ زﻳﺎن ) L (θ , δﺑﺎﺷﺪ آﻧﮕﺎه δ πﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز اﺳﺖ. اﺛﺒﺎت :ﻓﺮض ﻛﻨﻴﺪ δ πﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز ﻧﺒﺎﺷﺪ در اﻳﻦ ﺻﻮرت ﻳﻚ ﺗﺼﻤﻴﻢ δوﺟﻮد دارد ﺑﻄﻮري ﻛﻪ : )R (θ , δ ) ≤ R (θ , δ π ) ∀θ ∈ Θ, R (θ ′, δ ) < R (θ ′, δ π ) for some θ ′ ∈ Θ (1
ﺑﻨﺎﺑﺮاﻳﻦ )(2
) r (π , δ ) = ∫ R (θ , δ )d Π (θ ) ≤ ∫ R (θ , δ π )d Π (θ ) = r (π , δ π )(1
از ﻃﺮﻓﻲ ﭼﻮن δ πﺑﺮآوردﮔﺮ ﺑﻴﺰ اﺳﺖ ﭘﺲ )(3
) r (π , δ π ) ≤ r (π , δ
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
143
) (2),(3) ⇒ r (π , δ π ) = r (π , δ
ﺑﻨﺎﺑﺮاﻳﻦ
ﻳﻌﻨﻲ δﻧﻴﺰ ﻳﻚ ﺗﺼﻤﻴﻢ ﺑﻴﺰ اﺳﺖ ﻛﻪ اﻳﻦ ﺑﺎ ﻳﻜﺘﺎ ﺑﻮدن ﺗﺼﻤﻴﻢ ﺑﻴﺰ ﻣﺘﻨﺎﻗﺾ اﺳﺖ .ﭘﺲ δ πﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز اﺳﺖ.
■
ﻗﻀﻴﻪ :4-2ﻓﺮض ﻛﻨﻴﺪ ) γ (θﭘﺎراﻣﺘﺮ ﻣﻮرد ﻧﻈﺮ ﻣﺎ ﺑﺎﺷﺪ و ] γ (θ ) ∈ [a,bو ﺗﺎﺑﻊ زﻳﺎن ) L (θ , δﺑﺮاي ) δ ≠ γ (θﻣﺜﺒﺖ و ﺑﺮاي ) δ = γ (θﺻﻔﺮ ﺑﺎﺷﺪ و ﺗﺎﺑﻊ زﻳﺎن ) L (θ , δﺑﺎ دور ﺷﺪن δاز ) γ (θﻳﻚ ﺗﺎﺑﻊ ﺻﻌﻮدي ﺑﺎﺷﺪ .در اﻳﻦ ﺻﻮرت ﻫﺮ ﺑﺮآوردﮔﺮ δﻛﻪ ﻣﻘﺎدﻳﺮي را در ﺧﺎرج از ﻓﺎﺻﻠﻪي ] [a,bﺑﺎ اﺣﺘﻤﺎل ﻣﺜﺒﺖ ﺑﮕﻴﺮﻳﺪ ﻏﻴﺮﻣﺠﺎز اﺳﺖ. اﺛﺒﺎت :ﺑﺮآوردﮔﺮ δ ′را ﺑﻪ ﺻﻮرت زﻳﺮ ﺗﻌﺮﻳﻒ ﻣﻲ ﻛﻨﻴﻢ. δ
b
⎧a ⎪ δ ′ = ⎨δ ⎪b ⎩
در اﻳﻦ ﺻﻮرت ﺑﻨﺎﺑﺮ ﻓﺮض ﻗﻀﻴﻪ اﮔﺮ δ < aآﻧﮕﺎه ) L (θ , a ) < L (θ , δو اﮔﺮ δ > bآﻧﮕﺎه ) L (θ ,b ) < L (θ , δﺑﻨﺎﺑﺮاﻳﻦ ] R (θ , δ ′) = E [L (θ , a )I δ b ] ≤ E [L (θ , δ )I δ b
) = E [L (θ , δ )] = R (θ , δ
ﭘﺲ δﺑﺮآوردﮔﺮي ﻏﻴﺮﻣﺠﺎز اﺳﺖ.
■
ﻗﻀﻴﻪ :5-2ﻓﺮض ﻛﻨﻴﺪ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺎﺷﺪ و Xﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ θو وارﻳﺎﻧﺲ σ 2ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت aX + bﻳﻚ ﺑﺮآوردﮔﺮ ﻏﻴﺮﻣﺠﺎز ﺑﺮاي θاﺳﺖ وﻗﺘﻲ ﻛﻪ (iii ) a = 1, b ≠ 0
ﻳﺎ
(ii ) a < 0
ﻳﺎ
(i ) a > 1
اﺛﺒﺎتf (a, b) = R(θ , aX + b) = E[(aX + b − θ )2 ] = Var (aX + b) + [ E (aX + b) − θ ]2 : = a 2V ar (x ) + (aθ + b − θ )2 = a 2σ 2 + [(a − 1)θ + b ]2 ) f (a , b ) ≥ a 2σ 2 > σ 2 = f (1,0) = R (θ , X
⇒
a >1
) (i
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
144
ﭘﺲ aX + bﺑﻪ وﺳﻴﻠﻪ Xﻣﻐﻠﻮب 1ﻣﻲﺷﻮد )ﻳﻌﻨﻲ ) ( (R (θ , X ) < R (θ , aX + b b 2 ] a −1 b 2 −b −b > [θ + ] = f (0, ) = R (θ , ) a −1 a −1 a −1 −b = δﻣﻐﻠﻮب ﻣﻲﺷﻮد. ﺑﻨﺎﺑﺮاﻳﻦ aX + bﺑﻪ وﺳﻴﻠﻪ ﺑﺮآوردﮔﺮ ﺛﺎﺑﺖ a −1
a < 0⇒ (a − 1)2 > 1 ⇒ f (a , b ) ≥ [(a − 1)θ + b ]2 = (a − 1)2[θ +
) (ii
a = 1, b ≠ 0
) (iii
) ⇒ f (a , b ) = f (1, b ) = σ 2 + b 2 > σ 2 = f (1,0) = R (θ , X
ﭘﺲ aX + bﺑﻪ وﺳﻴﻠﻪ Xﻣﻐﻠﻮب ﻣﻲﺷﻮد.
■
ﻣﺜﺎل :4-2ﻓﺮضﻛﻨﻴﺪ X 1, X 2 ,..., X nﻳﻚ ﻧﻤﻮﻧﻪﺗﺼﺎدﻓﻲ از ) N (θ ,σ 2ﺑﺎﺷﻨﺪ ﻛﻪ در آن σ 2ﻣﻌﻠﻮم اﺳﺖ .ﺑﺮاي ﭼﻪ ﻣﻘﺎدﻳﺮ از aو bﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ﺧﻄﻲ aX + bﻣﺠﺎز ﻣﻲﺑﺎﺷﺪ. ﺣﻞ :در ﻓﺼﻞ ﻗﺒﻞ دﻳﺪﻳﻢ ﻛﻪ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﻳﻜﺘﺎي θﺗﺤﺖ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ) N ( μ ,τ 2ﻋﺒﺎرت اﺳﺖ از: nτ 2 σ2 μ X + σ 2 + nτ 2 σ 2 + nτ 2
= ) δ π (X
ﻛﻪ ﻣﺨﺎﻃﺮه ﺑﻴﺰ اﻳﻦ ﺑﺮآوردﮔﺮ ﻣﺘﻨﺎﻫﻲ اﺳﺖ زﻳﺮا 2
⎤ nτ 2 2 σ 2 ⎡ nτ 2θ + μσ 2 π π + − θ R (θ , δ ) = ( 2 ) ⎢ ∞ < ) ⎥ ⇒ r (π , δ ) = ∫Θ R (θ , δ )d Π (θ 2 2 2 n ⎣ σ + nτ σ + nτ ⎦
μσ 2 nτ 2 و 0 < ∞+ < ﺣﺎل ﭼﻮن < 1 σ 2 + nτ 2 σ 2 + nτ 2
π
< ∞ −ﭘﺲ
ﺑﺮآوردﮔﺮ aX + bﺑﺮاي b ∈ R ,0 < a < 1ﻳﻚ ﺑﺮآوردﮔﺮ ﻣﺠﺎز اﺳﺖ. ﭼﻮن E (X ) = θﭘﺲ ﻃﺒﻖ ﻗﻀﻴﻪ 5-2ﺑﺮآوردﮔﺮ aX + bﺑﺮاي ) a > 1ﺣﺎﻟﺖ ) ((iو ) a <0ﺣﺎﻟﺖ ) ((iiو ) a = 1,b ≠ 0ﺣﺎﻟﺖ ) ((iiiﻣﺠﺎز ﻧﻴﺴﺖ.
Dominate
١
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
145
ﺑﺮاي ﺣﺎﻟﺖ a = 0ﺑﺮآوردﮔﺮ δ (X ) = bﻣﺠﺎز اﺳﺖ زﻳﺮا اﻳﻦ ﺑﺮآوردﮔﺮ ﺗﻨﻬﺎ ﺑﺮآوردﮔﺮي اﺳﺖ ﻛﻪ در θ = bداراي ﻣﺨﺎﻃﺮه ﺻﻔﺮ اﺳﺖ) R (b , δ ) = 0 ،ﻣﺜﺎل 3-2را ﻣﻼﺣﻈﻪ ﻛﻨﻴﺪ(. ﺗﻨﻬﺎ ﻧﻘﻄﻪاي از ﺻﻔﺤﻪ ﻣﺨﺘﺼﺎت ) (a, bﻛﻪ ﺑﺎﻗﻲ ﻣﺎﻧﺪه اﺳﺖ ﻧﻘﻄﻪ ) (a,b ) = (0,1ﻣﺮﺑﻮط ﺑﻪ ﺑﺮآوردﮔﺮ MRE ,UMV U , MLو ﻣﻲﻧﻴﻤﺎﻛﺲ Xاﺳﺖ .ﻛﻪ از دو روش ،ﻳﻜﻲ روش ﺑﻠﻴﺖ (1951) 1ﻳﺎ روش ﺑﻴﺰي ﺣﺪي 2و دﻳﮕﺮي روش ﻧﺎﻣﺴﺎوي اﻃﻼع ﻣﺠﺎز ﺑﻮدن آن را ﺛﺎﺑﺖ ﻣﻲ ﻛﻨﻴﻢ.
اﻟﻒ -روش ﺑﻴﺰ ﺣﺪي ﻗﻀﻴﻪ :6-2ﻓﺮض ﻛﻨﻴﺪ θ ∈ Θ ⊂ Rو δ0ﻳﻚ ﺗﺎﺑﻊ ﺗﺼﻤﻴﻢ ﺑﺎﺷﺪ .ﻓﺮض ﻛﻨﻴﺪ ﻛﻪ ) R (θ , δﺑﺮاي ﻫﺮ δ ﺛﺎﺑﺖ ﻳﻚ ﺗﺎﺑﻊ ﭘﻴﻮﺳﺘﻪ از θﺑﺎﺷﺪ .ﻓﺮض ﻛﻨﻴﺪ دﻧﺒﺎﻟﻪاي از ﺗﻮزﻳﻊﻫﺎي ﭘﻴﺸﻴﻦ π mﺑﺎ ﺗﺼﻤﻴﻢﻫﺎي ﺑﻴﺰ ﻣﺘﻨﺎﻇﺮ δ m = δ π mو ﻣﺨﺎﻃﺮهﻫﺎي ﺑﻴﺰ ﻣﺘﻨﺎﻇﺮ ) rm = r (π m , δ mﻣﻮﺟﻮد ﺑﺎﺷﻨﺪ .ﻫﻤﭽﻨﻴﻦ ﻓﺮض ﻛﻨﻴﺪ * rmﻣﺨﺎﻃﺮه ﺑﻴﺰ ﺗﺼﻤﻴﻢ δ0ﻧﺴﺒﺖ ﺑﻪ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ π mﺑﺎﺷﺪ .اﮔﺮ ﺑﺮاي ﻫﺮ η > 0و θ ∈ Θداﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ: ∞→ m
as
) Π m (θ + η ) − Π m (θ − η ∞→ rm* − rm
)ﻛﻪ Π mﺗﺎﺑﻊ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺑﺎ ﭼﮕﺎﻟﻲ ﭘﻴﺸﻴﻦ π mاﺳﺖ( آﻧﮕﺎه δ0ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز اﺳﺖ. اﺛﺒﺎت :ﻓﺮض ﻛﻨﻴﺪ δ0ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز ﻧﺒﺎﺷﺪ در اﻳﻦ ﺻﻮرت ﻳﻚ ﺗﺼﻤﻴﻢ * δوﺟﻮد دارد ﺑﻪ ﻃﻮري ﻛﻪ ∀θ ∈ Θ
)R (θ , δ * ) ≤ R (θ , δ0
R (θ0, δ * ) < R (θ0, δ0) for some θ0 ∈ Θ
ﻗﺮار ﻣﻲدﻫﻴﻢ
ε = R (θ0, δ0) − R (θ0, δ * ) > 0
ﭼﻮن ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ) R (θ , δﺑﺮاي δﺛﺎﺑﺖ ﻳﻚ ﺗﺎﺑﻊ ﭘﻴﻮﺳﺘﻪ از θاﺳﺖ ﭘﺲ ⎧ R (θ , δ * ) − R (θ0, δ * ) < ε ⎪ 4 ⎨ ⇒ ∀ε > 0 ∃η > 0 ∋| θ − θ0 |≤ η ⎪⎩ R (θ , δ0) − R (θ0, δ0) < ε 4
Blyth Limiting Bayes Method
١ ٢
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
146
⎛ ⎞ε ⎞ε ⎛ ⎟ ⇒ R (θ , δ0) − R (θ , δ * ) > ⎜ R (θ0, δ0) − ⎟ − ⎜ R (θ0, δ * ) + ⎝ ⎠4 ⎠4 ⎝ ε 2
در ﻧﺘﻴﺠﻪ
=
ε 2
=ε −
ε 2
= R (θ0, δ0) − R (θ0, δ * ) −
ε
] ∀θ ∈ [θ0 − η ,θ0 + η
> ) * R (θ , δ0) − R (θ , δ
2
ﺑﻨﺎﺑﺮاﻳﻦ اﮔﺮ ** rmﻣﺨﺎﻃﺮه ﺑﻴﺰ ﺗﺼﻤﻴﻢ * δﺑﺎﺷﺪ ﻳﻌﻨﻲ ) rm** = ∫ R (θ , δ * )d Π m (θدر اﻳﻦ ﺻﻮرت ) ⎡ R (θ , δ0) − R (θ , δ * ) ⎤ d Π m (θ ⎣ ⎦ ) ⎡ R (θ , δ0) − R (θ , δ * ) ⎤ d Π m (θ ⎣ ⎦
ε
∞+
∫ = **rm* − rm
∞−
θ0+η
∫≥
θ0−η
θ0+η
ε
]) d Π m (θ ) = [Π m (θ0 + η ) − Π m (θ0 − η 2 ∫θ0−η 2 ∞ → as m ﺑﻨﺎﺑﺮاﻳﻦ m0ي وﺟﻮد دارد ﻛﻪ > 1
∞→
rm*0 − rm**0 rm*0 − rm0
]) [Π m (θ0 + η ) − Π m (θ0 − η rm* − rm
و ﻳﺎ ﻣﻌﺎدﻻً
rm**0
ε
≥ 2
≥
**− rm − rm
*rm *rm
> rm0ﻛﻪ اﻳﻦ ﺑﺎ ﺗﺼﻤﻴﻢ ﺑﻴﺰ ﺑﻮدن
ﻧﺴﺒﺖ ﺑﻪ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ π m0ﻣﺘﻨﺎﻗﺾ اﺳﺖ .ﺑﻨﺎﺑﺮاﻳﻦ δ0ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز اﺳﺖ.
⇒
m0
δ
■
ﻣﺜﺎل :5-2ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) N (θ ,σ 2ﺑﺎﺷﻨﺪ ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ X
ﻳﻚ ﺑﺮآوردﮔﺮ ﻣﺠﺎز ﺑﺮاي θاﺳﺖ. ﺣﻞ :اﮔﺮ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ) N (0, m 2را ﺑﺮاي θدر ﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ آﻧﮕﺎه nm 2 X = 2 σ + nm 2
πm
=δ
m
δ
1 1 m2
+
n 2
σ
⎛ ⎞ ⎜ nm 2x ⎟ 1 , θ |x ~ N ⎜ 2 ⎟ 2 ⎟⎟ ⎜⎜ σ + nm n + 1 ⎠ σ2 m2 ⎝ = ]) rm = r (π m , δ π m ) = E X [V (θ | X
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
147
ﻫﻤﭽﻨﻴﻦ ﻣﺨﺎﻃﺮه ﺑﻴﺰ ﺑﺮآوردﮔﺮ δ0(X ) = Xﻋﺒﺎرت اﺳﺖ از ⎛σ2 ⎞ σ2 = ⎟⎟ ⎜⎜ rm* = r (π m , δ0) = E [E ( X − θ ) | θ ] = E ⎝ n ⎠ n
ﺑﻨﺎﺑﺮاﻳﻦ t2
dt
1 2m 2
−
e
θ +η
1
∫θ −η
2π m −1 ⎤ 1 σ ⎡n ⎥−⎢ 2 + 2 n ⎣σ ⎦ m 2
2
t2 1
n (nm 2 + σ 2 ) θ +η − 2m 2 t e dt = m 2πσ 4 ∫θ −η 2
dt
1 2m 2
θ +η −
∫θ −η e σ4
) Π m (θ + η ) − Π m (θ − η = rm* − rm
1 = m 2π
) n (nm 2 + σ 2
dt =(θ + η ) − (θ − η ) = 2η
t2
1 2
∞as m → +
2m
−
lim e
θ +η
∫ = dt
∞θ −η m →+
t2
1 2
2m
θ +η −
e
∫
= 1 ⇒ lim
m →+∞ θ −η
) Π m (θ + η ) − Π m (θ − η ∞→ + rm* − rm
ﺑﻨﺎﺑﺮاﻳﻦ ﻃﺒﻖ ﻗﻀﻴﻪ ) 6-2روش ﺑﻠﻴﺖ( δ0(X ) = Xﻳﻚ ﺑﺮآوردﮔﺮ ﻣﺠﺎز اﺳﺖ.
t2
1 2
2m
−
lim e
∞m →+
∴
■
ﻧﺘﻴﺠﻪ :از ﻣﺜﺎل ﻫﺎي 4-2و 5-2ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد ﻛﻪ در ﺗﻮزﻳﻊ ) N (θ ,σ 2ﺑﺮآوردﮔﺮ aX + bﺑﺮاي θ ﻣﺠﺎز اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ a = 1, b = 0
) (iiﻳﺎ 0 ≤ a < 1
) . (i
■
ب -روش ﻧﺎﻣﺴﺎوي اﻃﻼع :1 از اﻳﻦ روش ﻣﻲﺗﻮان ﺑﺮاي اﺛﺒﺎت ﻣﺠﺎز ﺑﻮدن ﻳﺎ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن ﺑﺮآوردﮔﺮ اﺳﺘﻔﺎده ﻛﺮد ) & Hodges )(Lehmann (1951 ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﻳﻨﻜﻪ
) R (θ , δ ) = E [(δ − θ )2 ] =V θ (δ ) + b 2 (θ
ﻛﻪ در آن ) b (θ ) = Bias (δﺑﻨﺎﺑﺮاﻳﻦ از ﻧﺎﻣﺴﺎوي اﻃﻼع ﺑﺎ γ (θ ) = θدارﻳﻢ ﻛﻪ The Information Inequality Method
١
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
[1 + b ′(θ )]2 ) + b 2 (θ ) nI (θ
)(1 1
148
≥ ) R (θ , δ
= ) I (θﻣﻲﺑﺎﺷﺪ .ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ Xﺑﺮآوردﮔﺮي ﻣﺠﺎز ﻧﺒﺎﺷﺪ در اﻳﻦ ﺻﻮرت
ﻛﻪ در آن σ2 ﺑﺮآوردﮔﺮي ﻣﺎﻧﻨﺪ δوﺟﻮد دارد ﻛﻪ
∀θ ∈ Θ
)(2
σ2 n
= ) R (θ , δ ) ≤ R (θ , X
و ﺑﻨﺎﺑﺮاﻳﻦ )(3
∀θ
σ2 n
≤ ) + b (θ ) ≤ R (θ , δ 2
σ 2[1 + b ′(θ )]2 n
ﻣﻲﺧﻮاﻫﻴﻢ ﻧﺸﺎن دﻫﻴﻢ ﻛﻪ b (θ ) ≡ 0ﻳﻌﻨﻲ δﻳﻚ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ اﺳﺖ. ﺗﺎﺑﻊ bﻛﺮاﻧﺪار اﺳﺖ ⇒
σ n
≤| ) ⇒| b (θ
⇒ [1 + b ′(θ )]2 ≤ 1 ⇒ b ′(θ ) ≤ 0
σ2 n
σ2
≤
n
≤ ) b 2 (θ
⇒ ) (3
σ 2[1 + b ′(θ )]2 n
⇒ ) (3
ﭘﺲ bﻳﻚ ﺗﺎﺑﻊ ﻏﻴﺮﺻﻌﻮدي اﺳﺖ. ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ . b (θ ) ≡ 0در اﻳﻦ ﺻﻮرت دو ﺣﺎﻟﺖ زﻳﺮ را دارﻳﻢ: ) (iﻓﺮض ﻛﻨﻴﺪ θ0ي وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﻛﻪ b (θ0) < 0در اﻳﻦ ﺻﻮرت ∀θ ≥ θ0 ∀θ ≥ θ0
b (θ ) < 0
(3) ⇒ nb 2 (θ ) + σ 2b ′2 (θ ) + 2σ 2b ′(θ ) ≤ 0 ) −b ′(θ n ⇒ nb 2 (θ ) + 2σ 2b ′(θ ) ≤ 0 ⇒ 2 ≥ 2 b (θ ) 2σ θ
) −b ′(t n θ 1 n ⇒ ⇒ ∫ 2 dt ≥ 2 ∫ dt )≥ 2 (θ − θ0 ) θ0 b (t b (t ) θ 2σ 2σ θ0 0 θ
n 1 1 − )≥ 2 (θ − θ0 b (θ ) b (θ0) 2σ
⇒ b (θ )<0
1 1 1 n > − )≥ 2 (θ − θ0 b (θ0) b (θ ) b (θ0) 2σ 1 → ∞ # ⇒ b (θ0) = 0 θ →∞⇒− )b (θ0 ⇒ −
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
149
) (iiﻓﺮض ﻛﻨﻴﺪ θ0ي وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﻛﻪ b (θ0) > 0در اﻳﻦ ﺻﻮرت b (θ ) > 0 ، ∀θ ≤ θ0
و ﻫﻤﺎﻧﻨﺪ ﻗﺴﻤﺖ ) (iﻣﻲﺗﻮان ﺑﻪ ﻳﻚ ﺗﻨﺎﻗﺾ رﺳﻴﺪ ﭘﺲ b (θ0) = 0اﺳﺖ. ﺑﻨﺎﺑﺮاﻳﻦ b (θ ) = b ′(θ ) = 0 ∀θ ) = R (θ , X
σ2 n
)(1
و
ﻧﺘﻴﺠﻪ
ﻛﻪ
ﻣﻲدﻫﺪ
σ2 n
≥ ) R (θ , δ
و
ﺑﻨﺎﺑﺮاﻳﻦ
= ) R (θ , δﻳﻌﻨﻲ Xﻳﻚ ﺑﺮآوردﮔﺮ ﻣﺠﺎز و ﻫﻤﭽﻨﻴﻦ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺮاي θاﺳﺖ.
)ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن ﺑﻪ اﻳﻦ دﻟﻴﻞ اﺳﺖ ﻛﻪ اﮔﺮ ﺑﺮآوردﮔﺮي ﻣﺎﻧﻨﺪ δﻣﻮﺟﻮد ﺑﺎﺷﺪ ﻛﻪ σ2 n
= ) Sup R (θ , δ ) ≤ Sup R (θ , Xآﻧﮕﺎه Θ
Θ
, ∀θ
σ2 n
≤ ) R (θ , δ
و ﻃﺒﻖ ﻣﺮاﺣﻞ ﺑﺎﻻ
) R (θ , δ ) = R (θ , Xﭘﺲ Xﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ(. ﻫﻤﭽﻨﻴﻦ Xﺗﻨﻬﺎ ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺮاي θاﺳﺖ ﻛﻪ اﻳﻦ ﻣﻮﺿﻮع از ﻟﻢ زﻳﺮ ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد. ﻟِﻢ :1-2اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ) L (θ , δاﻛﻴﺪاً ﻣﺤﺪب ﺑﺎﺷﺪ و δﺑﺮآوردﮔﺮي ﻣﺠﺎز ﺑﺮاي ) γ (θﺑﺎﺷﺪ و δ ′ﻫﺮ ﺑﺮآوردﮔﺮ دﻳﮕﺮي ﺑﺎﺷﺪ ﻛﻪ R (θ , δ ) = R (θ , δ ′) ∀θآﻧﮕﺎه . P (δ ′ = δ ) = 1 اﺛﺒﺎت :اﮔﺮ
δ +δ′ 2
= * δآﻧﮕﺎه ) [ R (θ , δ ) + R (θ , δ ′)] = R (θ , δ
(*) 1
2
< ) * R (θ , δ
ﺑﺠﺰ اﻳﻨﻜﻪ ﺑﺎ اﺣﺘﻤﺎل ﻳﻚ δ = δ ′ﺑﺎﺷﺪ).ﻧﺎﻣﺴﺎوي )*( از اﻛﻴﺪا ﻣﺤﺪب ﺑﻮدن ﺗﺎﺑﻊ زﻳﺎن ﻧﺘﻴﺠﻪ ﻣﻲﮔﺮدد(. ﺑﻨﺎﺑﺮاﻳﻦ راﺑﻄﻪ ﻓﻮق ﻣﺘﻨﺎﻗﺾ ﺑﺎ ﻣﺠﺎز ﺑﻮدن δاﺳﺖ ﺑﺠﺰ اﻳﻨﻜﻪ P (δ = δ ′) = 1
ﻣﺜﺎل :6-2ﻣﻴﺎﻧﮕﻴﻦ ﻧﺮﻣﺎل ﺑﺮﻳﺪه ﺷﺪه
■
1
ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) N (θ ,σ 2ﺑﺎﺷﻨﺪ ﻛﻪ σ 2ﻣﻌﻠﻮم و ﺣﺎﻻت زﻳﺮ را ﺑﺮاي θدر ﻧﻈﺮ ﺑﮕﻴﺮﻳﺪ. اﻟﻒ -اﮔﺮ θ > θ0ﺑﺎﺷﺪ آﻧﮕﺎه ﻃﺒﻖ ﻗﻀﻴﻪ X ،4-2ﻏﻴﺮﻣﺠﺎز اﺳﺖ و ﺑﻪ وﺳﻴﻠﻪ ﺑﺮآوردﮔﺮ X < θ0 ) = max(θ0, X X ≥ θ0
⎧ θ0
⎨ = ) δ (Xﻣﻐﻠﻮب ﻣﻲﺷﻮد .اﻣﺎ در زﻳﺮ ﺑﻪ وﺳﻴﻠﻪ روش ﻧﺎﻣﺴﺎوي
⎩X
اﻃﻼع ﻧﺸﺎن ﻣﻲ دﻫﻴﻢ ﻛﻪ Xﺑﺮآوردﮔﺮي ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺮاي θاﺳﺖ.
Truncated Normal mean
١
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
150
اﮔﺮ Xﻣﻴﻨﻴﻤﺎﻛﺲ ﻧﺒﺎﺷﺪ آﻧﮕﺎه ﺑﺮآوردﮔﺮي ﻣﺎﻧﻨﺪ δو ε > 0وﺟﻮد دارﻧﺪ ﺑﻪ ﻃﻮري ﻛﻪ ∀θ > θ0
n
n
ﺑﻨﺎﺑﺮاﻳﻦ
(3) σ 2
⇒
n
⇒ −ε
bﻛﺮاﻧﺪار اﺳﺖ εn σ2
= R (θ , δ ) ≤ R (θ , X ) − ε
[1 + b ′(θ )]2 + b 2 (θ ) ≤ σ 2 − ε
∀θ > θ0
)(4
−ε
σ2
σ2
− ε ⇒ [1 + b ′(θ ) ] ≤ 1 − 2
εn εn ⇒ 2b ′(θ ) ≤ − 2 2 σ σ
n
σ2 n
≤ ) (4) ⇒ b 2 (θ
] ) σ 2 [1 + b ′(θ
2
≤
n
⇒ )(4
⇒ 1 + b ′2 (θ ) + 2b ′(θ ) ≤ 1 −
∀θ > θ0
−ε n <0 2σ 2
≤ ) ⇒ b ′(θ
ﻛﺮاﻧﺪار ﺑﻮدن bو اﻛﻴﺪاً ﻧﺰوﻟﻲ ﺑﻮدن bدر ﺗﻨﺎﻗﺾ ﻣﻲﺑﺎﺷﺪ ،ﭘﺲ Xﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ .ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﺑﺮآوردﮔﺮ ) δ (X ) = max(θ0, Xﺑﺮآوردﮔﺮي ﺑﻬﺘﺮ از Xاﺳﺖ و ﻣﻲﺗﻮان ﻧﺸﺎن داد ﻛﻪ ) δ (Xﻧﻴﺰ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ)اﺛﺒﺎت :ﺗﻤﺮﻳﻦ( و ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻳﻜﺘﺎ ﻧﻴﺴﺖ. ⎛ σ2 ⎞ σ2 = ) , X > θ0 ⇒ R (θ , δ ) = R (θ , X = ) ⎜ R (θ , δ ) ≤ R (θ , X ⎟ n ⎟ n ⎜ ⎜ ⎟ σ2 ⇒ = θ δ ( , ) Sup R ⎜⎜ ⎟⎟ n θ >θ0 ⎝ ⎠
ب-
اﮔﺮ
X b
a ≤θ ≤b
ﺑﺎﺷﺪ
آﻧﮕﺎه X
ﻗﻀﻴﻪ
ﻃﺒﻖ
4-2
ﺑﻪ
وﺳﻴﻠﻪ
ﺑﺮآوردﮔﺮ
⎧a ⎪⎪ δ * (X ) = ⎨Xﻣﻐﻠﻮب ﻣﻲﺷﻮد ﭘﺲ ﻏﻴﺮﻣﺠﺎز اﺳﺖ .ﺣﺎل اﮔﺮ Xﺑﺨﻮاﻫﺪ ﺑﺮآوردﮔﺮ ⎪ ⎪⎩ b
ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺎﺷﺪ آﻧﮕﺎه ﺑﺎﻳﺴﺘﻲ ﻣﻐﻠﻮب ﻛﻨﻨﺪه آن ﻧﻴﺰ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺎﺷﺪ ﻳﻌﻨﻲ σ2 n
*
= ) Sup R (θ , δ ) = Sup R (θ , X a ≤θ ≤b
a ≤θ ≤b
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
اﻣﺎ ] , ∀θ ∈ [a , b
σ2 n
151
= ) . R (θ , δ * ) < R (θ , Xﺑﻪ ﻋﻼوه ) * R (θ , δﻳﻚ ﺗﺎﺑﻊ ﭘﻴﻮﺳﺘﻪ از θاﺳﺖ،
ﺑﻨﺎﺑﺮاﻳﻦ ) * R (θ , δﻣﺎﻛﺴﻴﻤﻢ ﺧﻮد را در ﻳﻚ ﻧﻘﻄﻪ a ≤ θ0 ≤ bاﺧﺘﻴﺎر ﻣﻲﻛﻨﺪ .در ﻧﺘﻴﺠﻪ σ2 n
< ) * Sup R (θ , δ * ) = R (θ0, δﻛﻪ ﺑﺎ راﺑﻄﻪ ﻗﺒﻞ در ﺗﻨﺎﻗﺾ اﺳﺖ ﭘﺲ Xﻧﻤﻲﺗﻮاﻧﺪ ﻣﻴﻨﻴﻤﺎﻛﺲ a ≤θ ≤b
ﺑﺎﺷﺪ. ج-
اﮔﺮ −m ≤ θ ≤ m
e + mx − e − mx = mtghmx e mx + e − mx
آﻧﮕﺎه
در
ﺑﺨﺶ
ﻗﺒﻞ
ﻧﺸﺎن
δ m ( x ) = mﺑﺮاي θﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ.
ﻛﻪ
دادﻳﻢ
ﺑﺮآوردﮔﺮ
■
ﻣﺜﺎل ) :7-2وارﻳﺎﻧﺲ ﺗﻮزﻳﻊ ﻧﺮﻣﺎل( ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,… , X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) N (0,σ 2 n
1 1 n 1 ﺑﺎﺷﻨﺪ .اﮔﺮ ) τ = 2 ~ Γ( g ,آﻧﮕﺎه ) 2 α+y α 2σ
τ | x ~ Γ( g + ,ﻛﻪ . Y = ∑ X i2اﮔﺮ ﻗﺮار
n دﻫﻴﻢ 2
i =1
= rو ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺎﺷﺪ آﻧﮕﺎه ﺑﺮآوردﮔﺮ ﺑﻴﺰ = 2σ 2
1
τ
ﻋﺒﺎرت اﺳﺖ از
1 α+y = ) δ π (x ) = E ( | x τ r + g −1
ﻣﻲﺧﻮاﻫﻴﻢ ﺑﺮآوردﮔﺮﻫﺎي ﻣﺠﺎز و ﻏﻴﺮﻣﺠﺎز ﺧﻄﻲ 1 α ﭼﻮن Y + r + g −1 r + g −1
1 2σ 2
= τﺑﻪ ﻓﺮم aY + bرا ﺗﻌﻴﻴﻦ ﻛﻨﻴﻢ.
= ) δ π (Xﭘﺲ ﻃﺒﻖ ﻗﻀﻴﻪ 3-2ﺑﻪ ﻧﻈﺮ ﻣﻲرﺳﺪ ﻛﻪ aY + bﺑﺮاي
1 ﻣﻘﺎدﻳﺮ b > 0و r −1 1 1 1 r ﻣﺠﺎز Y + bﻣﻲﺑﺎﺷﺪ .از ﻃﺮﻓﻲ = E (Y ) = nσ 2ﭘﺲ Yﻳﻚ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﺑﺮاي اﺳﺖ. τ τ r r 1 ﺑﻨﺎﺑﺮاﻳﻦ ﭼﻮن Y + bﻛﻪ ﺑﺮآوردﮔﺮي ارﻳﺐدار اﺳﺖ در راﺑﻄﻪ r 1 1 1 ) R (2σ 2 , Y + b ) = R (2σ 2 , Y ) + b 2 > R (2σ 2 , Y r r r
< ( g > 0) ،0 < aﻣﺠﺎز ﺑﺎﺷﺪ .ﻳﻜﻲ از ﺣﺎﻟﺖﻫﺎي اﻳﻦ ﺑﺮآوردﮔﺮﻫﺎي
ﺻﺪق ﻣﻲﻛﻨﺪ ﭘﺲ ﺑﺮآوردﮔﺮي ﻏﻴﺮﻣﺠﺎز اﺳﺖ .ﺑﻪ ﻧﻈﺮ ﻣﻲرﺳﺪ ﻛﻪ اﺷﻜﺎﻟﻲ در اﻳﻦ ﺧﺼﻮص وﺟﻮد دارد. ﻗﻀﻴﻪ 3-2ﺑﻴﺎن ﻣﻲﻛﺮد ﻛﻪ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﻳﻜﺘﺎ ،ﺑﺮآوردﮔﺮي ﻣﺠﺎز اﺳﺖ .و دو ﺷﺮط ﺑﺮاي ﻳﻜﺘﺎ ﺑﻮدن
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
152
ﺑﺮآوردﮔﺮ ﺑﻴﺰ وﺟﻮد داﺷﺖ ﻛﻪ در اﻳﻦ ﺟﺎ ﺷﺮط اول ﻳﻌﻨﻲ ﻣﺘﻨﺎﻫﻲ ﺑﻮدن ﻣﺨﺎﻃﺮه ﺑﻴﺰ ﺑﻪ ازاي ﻫﺮ b > 0و 1 r −1
< 0 < aﺑﺮﻗﺮار ﻧﻴﺴﺖ زﻳﺮا 2
⎡ 1 ⎤1 Y +α Y +α Y +α Y +α R (2σ , ()=E ( ) − ⎢E ⎥ )− ( − )2 = V r + g −1 r + g −1 τ ⎦ r + g −1 ⎣ r + g −1 τ 2
2
⎡ r ⎤ + ( ) α 1 ⎥1 1 ⎫ g −1 2 ⎡r ⎤ ⎢ τ ⎧r = − = ⎥ − − (α − ⎬ ) ⎢ ⎥2 ⎢ 2 2⎨ 2 τ ⎥ (r + g − 1) ⎣τ ⎦ ⎢ r + g − 1 τ (r + g − 1) ⎩τ ⎭ ⎣ ⎦
1
ﺑﻨﺎﺑﺮاﻳﻦ ﻣﺨﺎﻃﺮه ﺑﻴﺰ ﻣﺘﻨﺎﻫﻲ ﺧﻮاﻫﺪ ﺑﻮد اﮔﺮ ∞ < ) E ( 2و اﻳﻦ اﻣﻴﺪ رﻳﺎﺿﻲ ﻣﻮﻗﻌﻲ ﻣﺘﻨﺎﻫﻲ اﺳﺖ ﻛﻪ τ ⎛ ⎞ α2 1 = ) . ⎜⎜ E ( 2ﺑﺎ اﻋﻤﺎل اﻳﻦ ﺷﺮط روي ﺑﺮآوردﮔﺮ ﺑﻴﺰ ) δ (Xدﻳﺪه g > 2ﺑﺎﺷﺪ ⎟⎟ 1 2 − − ( g () g ) τ ⎝ ⎠ π
ﻣﻲﺷﻮد ﻛﻪ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﻳﻜﺘﺎ در ﺷﺮط زﻳﺮ ﺻﺪق ﻣﻲﻛﻨﺪ. 1 b >0و r +1
< 0< a
و ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮاي اﻳﻦ ﻣﻘﺎدﻳﺮ ) (a,bﺑﺮآوردﮔﺮ aY + bﺑﺮاي = 2σ 2
ﻫﻤﭽﻨﻴﻦ ﺑﺮاي b < 0ﺗﻮﺳﻂ ﻗﻀﻴﻪ 4-2ﺑﺮآوردﮔﺮ aY + bﻏﻴﺮﻣﺠﺎز اﺳﺖ) (B) .زﻳﺮا ﻣﻘﺎدﻳﺮي ﺧﺎرج از داﻣﻨﻪ ﭘﺎراﻣﺘﺮ )∞ (0, +را ﻣﻲﮔﻴﺮد (.ﺣﺎﻟﺖa = 0
ﺑﺮ آوردﮔﺮ δ (X ) = b , b > 0ﻣﺠﺎز اﺳﺖ زﻳﺮا 1
اﻳﻦ ﺑﺮآوردﮔﺮ ﺗﻨﻬﺎ ﺑﺮآوردﮔﺮي اﺳﺖ ﻛﻪ در = b τ داراي ﻣﺨﺎﻃﺮه ﺻﻔﺮ اﺳﺖ ) . R (b , δ ) = 0ﻣﺜﺎل 3-2
را ﻣﻼﺣﻈﻪ ﻛﻨﻴﺪ((C) . 1 ﺑﺮاي ﺣﺎﻟﺖ r +1
> ) aﻣﺴﺌﻠﻪ (2,12ﻣﻲﺗﻮان ﻧﺸﺎن
داد ﻛﻪ ﺑﺮآوردﮔﺮ ﻓﻮق ﻏﻴﺮﻣﺠﺎز اﺳﺖ (D) .ﻫﻤﭽﻨﻴﻦ
1
τ
ﻣﺠﺎز اﺳﺖ (A) .ﺑﺮاي a < 0و
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن 2
153
⎤1 ⎡ ⎥ R (2σ , aY + b ) = E [(aY + b − ) ] = a V (Y ) + ⎢aE (Y ) + b − τ ⎦τ ⎣ 2
2
ﭘﺲ ﺑﺮاي b = 0دارﻳﻢ ﻛﻪ a ≠ 0
2
⎤1 1 1 ⎡ ar ⎡ ⎤ ⎥ + ⎢ + b − ⎥ = a 2r ( 2 ) + ⎢(ar − 1) + b ⎦τ τ τ ⎣τ ⎣ ⎦
= f (a ),
1 r +1
2
1
2
1
τ2
a 2r
τ2
=
] R (2σ 2 , aY ) = [a 2r + (ar − 1)2
= = 0 ⇒ a ( r + 1) − 1 = 0 ⇒ a
1 2
τ
])f ′(a ) = [2ar + 2r (ar − 1 >0
1
τ2
) f ′′(a ) = (2r + 2r 2
1 1 1 1 R ( ,ﺑﺮاي ﻫﺮ a ≠ 0ﻳﻌﻨﻲ aY + bﺑﺮاي b = 0و ﭘﺲ ) Y ) < R ( , aY r +1 τ r +1 τ
≠ aو
a ≠ 0ﺑﺮآوردﮔﺮي ﻏﻴﺮﻣﺠﺎز اﺳﺖ (E).ﺑﺮاي b = 0و a = 0دارﻳﻢ ﻛﻪ 1 1 R ( , aY ) < R ( ,0) ⇔ a 2r + (ar − 1)2 < 1 ⇔ a 2r (1 + r ) − 2ar < 0
τ
2 1+ r
τ
< ⇔ a (1 + r ) − 2 < 0 ⇔ a
ﭘﺲ ﺑﺮآوردﮔﺮ δ = 0ﺑﻪ وﺳﻴﻠﻪ ﺑﺮآوردﮔﺮ
2 δ * = aYﻛﻪ 1+ r
1 اﺳﺖ) .(Fﺗﻨﻬﺎ ﺣﺎﻟﺖ b ≥ 0و Y + b r +1
ﺑﺎﻗﻲ ﻣﺎﻧﺪه اﺳﺖ ﻛﻪ در زﻳﺮ ﺗﻮﺳﻂ ﻗﻀﻴﻪ ﻛﺎرﻟﻴﻦ 1ﻣﺠﺎز
< aﻣﻐﻠﻮب ﻣﻲﺷﻮد ﭘﺲ ﻏﻴﺮﻣﺠﺎز
■
ﺑﻮدن آن را ﺛﺎﺑﺖ ﻣﻲ ﻛﻨﻴﻢ. ﻓﺮض ﻛﻨﻴﺪ Xداراي ﺗﻮزﻳﻌﻲ از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ )(1
) pθ (x ) = β (θ )e θT ( x
ﻧﺴﺒﺖ ﺑﻪ اﻧﺪازه μﺑﺎﺷﺪ و Θﻓﻀﺎي ﭘﺎراﻣﺘﺮي ﻃﺒﻴﻌﻲ ﺑﺎﺷﺪ .در اﻳﻦ ﺻﻮرت Θداراي ﻧﻘﺎط اﻧﺘﻬﺎﻳﻲ ﻣﺎﻧﻨﺪ θو θاﺳﺖ )∞ . (−∞ ≤ θ ≤ θ ≤ +ﺑﺮاي ﺑﺮآورد ) E θ (Tﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم، ﺑﺮآوردﮔﺮ aT + bﺑﺮاي a < 0ﻳﺎ a > 1ﻏﻴﺮ ﻣﺠﺎز اﺳﺖ و ﺑﺮاي a = 0ﻣﻘﺪاري ﺛﺎﺑﺖ دارد ﭘﺲ ﻣﺠﺎز
)Karlin (1958
١
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
154
اﺳﺖ .ﺑﺮاي اﻳﻨﻜﻪ ﺑﺘﻮاﻧﻴﻢ ﺷﺮط ﻗﻀﻴﻪ ﻛﺎرﻟﻴﻦ را ﺑﻴﺎن ﻛﻨﻴﻢ راﺣﺖﺗﺮ اﺳﺖ ﻛﻪ اﻳﻦ ﺑﺮآوردﮔﺮ را ﺑﻪ ﺻﻮرت زﻳﺮ ﺑﻨﻮﻳﺴﻴﻢ. γλ 1 T + 1+ λ 1+ λ
)(2
= ) δ λ ,γ (x
ﻛﻪ در آن ∞ < 0 ≤ λﻣﻌﺎدل 0 < a ≤ 1اﺳﺖ. ﻗﻀﻴﻪ) :7-2ﻗﻀﻴﻪ ﻛﺎرﻟﻴﻦ( ﺗﺤﺖ ﻓﺮﺿﻴﺎت ﺑﺎﻻ ،ﺷﺮط ﻛﺎﻓﻲ ﺑﺮاي آﻧﻜﻪ ﺑﺮآوردﮔﺮ ) (2ﺑﺮاي ) g (θ ) = E θ (Tﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﻣﺠﺎز ﺑﺎﺷﺪ اﻳﻦ اﺳﺖ ﻛﻪ اﻧﺘﮕﺮال ﺗﺎﺑﻊ
−λ
] ) e −γλθ [ β (θ
در θو θواﮔﺮا ﺑﺎﺷﺪ .ﻳﻌﻨﻲ ﺑﺮاي ﻳﻚ θ < θ0 < θاﻧﺘﮕﺮالﻫﺎي e −γλθ
θ
∫θ [ β (θ )]−λ d θ *
e −γλθ
*θ
∫θ [ β (θ )]−λ d θ
and
0
ﻣﻮﻗﻌﻲ ﻛﻪ ﺑﻪ ﺗﺮﺗﻴﺐ θ * → θو θ * → θﺑﻪ ﺳﻤﺖ ﺑﻲﻧﻬﺎﻳﺖ ﻣﻴﻞ ﻛﻨﻨﺪ. اﺛﺒﺎت :از روش ﻧﺎﻣﺴﺎوي اﻃﻼع ﻗﻀﻴﻪ را ﺛﺎﺑﺖ ﻣﻲﻛﻨﻴﻢ .ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﻳﻨﻜﻪ در ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ) (1دارﻳﻢ ﻛﻪ ) g ′(θ ) =V θ (T ) = I (θ
,
) β ′(θ ) β (θ
g (θ ) = E θ (T ) = −
ﺑﻨﺎﺑﺮاﻳﻦ ﻃﺒﻖ ﻧﺎﻣﺴﺎوي اﻃﻼع ﺑﺮاي ﻫﺮ ﺑﺮآوردﮔﺮ δدارﻳﻢ ﻛﻪ ]) [ g ′(θ ) + b ′(θ 2 ≥ ) E θ ⎡(δ (X ) − g (θ ) ) ⎤ =V θ (δ (X )) + b 2 (θ ) + b 2 (θ ⎣ ⎦ ) I (θ 2
)(3
[I (θ ) + b ′(θ )]2 = ) + b 2 (θ ) I (θ
ﻛﻪ در آن ) . b (θ ) = E θ [δ (X )] − γ (θﭼﻮن در ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﻳﻚ ﭘﺎراﻣﺘﺮي ﻫﺴﺘﻴﻢ ﭘﺲ ﺑﺮاي ﺑﺮآوردﮔﺮ δ = δ λ ,γﻧﺎﻣﺴﺎوي ﻓﻮق ﺑﻪ ﺗﺴﺎوي ﺗﺒﺪﻳﻞ ﻣﻲﺷﻮد و اﮔﺮ ) bλ ,γ (θارﻳﺒﻲ ﺑﺮآوردﮔﺮ δ λ ,γ
ﺑﺎﺷﺪ آﻧﮕﺎه λ ⎧ ]) ⎪⎪bλ ,γ (θ ) = 1 + λ [γ − g (θ ⎨ ) ⎪ b ′ (θ ) = − λ g ′(θ λ ,γ 1+ λ ⎪⎩
www.riazisara.ir
155
ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن:ﻓﺼﻞ ﭘﻨﺠﻢ
[I (θ ) + bλ′ ,γ (θ )] 2 E θ ⎡ bλ ,γ ( X ) − g (θ ) ⎤ = + [bλ ,γ (θ )]2 ⎢⎣ ⎥⎦ I (θ )
(
2
)
(4)
ﺑﺮآوردﮔﺮي ﺑﺎﺷﺪ ﻛﻪδ0 ﺣﺎل اﮔﺮ
(
)
2 2 E ⎡(δ0(X ) − g (θ ) ) ⎤ ≤ E θ ⎡ δ λ ,γ (X ) − g (θ ) ⎤ ⎢⎣ ⎣ ⎦ ⎦⎥
(5)
( دارﻳﻢ ﻛﻪ4) ( و3) ارﻳﺒﻲ آن ﺑﺎﺷﺪ آن ﮔﺎه از رواﺑﻂb0(θ ) و
[ I (θ ) + b0′(θ )]2 + b 2 (θ ) ≤ E ⎡ δ (X ) − g (θ ) 2 ⎤ ≤ E ⎡ δ (X ) − g (θ ) 2 ⎤ ( ) ⎦ θ ⎢( λ ,γ ) ⎥⎦ 0 ⎣ 0 ⎣ I (θ )
2
⎡ I (θ ) + bλ′ ,γ (θ ) ⎤⎦ =⎣ + [bλ ,γ (θ )]2 I (θ )
از ﻧﺎﻣﺴﺎوي ﻓﻮق دارﻳﻢ ﻛﻪh (θ ) = b0(θ ) − bλ ,γ (θ ) اﮔﺮ ﻗﺮار دﻫﻴﻢ
{
}
b02 (θ ) − bλ2 ,γ (θ ) +
(b0′(θ ) − bλ′ ,γ (θ ) )(2I (θ ) + b0′(θ ) − bλ′ ,γ (θ ) ) ≤ 0 I (θ )
⇒ [h (θ )] + 2bλ ,γ (θ ) ⎡⎣b0(θ ) − bλ ,γ (θ ) ⎤⎦ + 2
(
)
h ′(θ ) ⎣⎡ h ′(θ ) + 2 I (θ ) + bλ′ ,γ (θ ) ⎦⎤ ≤0 I (θ )
[h ′(θ )]2 2λ 2 ′ h (θ ) + ⇒ h (θ ) − ≤0 (γ − g (θ ) ) h (θ ) + I (θ ) 1+ λ 1+ λ 2
⇒ h 2 (θ ) −
2λ 2 h ′(θ ) ≤ 0 (γ − g (θ ) ) h (θ ) + 1+ λ 1+ λ
(6) ﻗﺮار ﻣﻲدﻫﻴﻢ
k (θ ) = h (θ ) β + λ (θ )e γλθ
(7) در اﻳﻦ ﺻﻮرت
k ′(θ ) = h ′(θ ) β λ (θ )e γλθ + λ h (θ ) β λ −1(θ ) β ′(θ )e γλθ + γλ h (θ ) β λ (θ )e γλ −θ ⎧ h ′(θ ) ⎫ β ′(θ ) = k (θ ) ⎨ +λ + γλ ⎬ β (θ ) ⎩ h (θ ) ⎭ ⎧ h ′(θ ) ⎫ k (θ ) = k (θ ) ⎨ + λ ( g (θ ) − γ ) ⎬ = {h ′(θ ) − λ h (θ )( g (θ ) − γ )} ⎩ h (θ ) ⎭ h (θ ) 2 h (θ )k ′(θ ) 2 h (θ ) ≤0⇒ (6) ⇒ h 2 (θ ) + [ h (θ )k (θ ) + k ′(θ )] ≤ 0 1 + λ k (θ ) 1+ λ k (θ )
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
2 k ′(θ ) ≤ 0 1+ λ
)(8
k 2 (θ ) β − λ (θ )e −γλθ +
156
h (θ ) − λ = β (θ )e − γλθ >0 ) k (θ
⇒
از اﻳﻦ راﺑﻄﻪ ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد ﻛﻪ k ′(θ ) < 0ﻳﻌﻨﻲ kﻳﻚ ﺗﺎﺑﻊ ﻧﺰوﻟﻲ از θاﺳﺖ .ﺣﺎل ﻧﺸﺎن ﻣﻲدﻫﻴﻢ ﻛﻪ . k (θ ) = 0 ∀θ ﻓﺮض ﻛﻨﻴﺪ ﻛﻪ ﻣﻘﺪاري از θوﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﻛﻪ k (θ ) ≠ 0ﺑﺎﺷﺪ .ﻳﻌﻨﻲ ﻳﻚ ﻣﻘﺪار θ0وﺟﻮد دارد ﻛﻪ ) k (θ0) < 0(iﻳﺎ ) k (θ0) > 0(iiاﺳﺖ. ﺣﺎﻟﺖ ) :(iاﮔﺮ k (θ0) < 0آﻧﮕﺎه k (θ ) < 0, ∀θ ≥ θ0ﺣﺎل از راﺑﻄﻪ ) (8دارﻳﻢ ﻛﻪ 1 d − k ′(θ ) 1 + λ − λ [ ]= 2 β (θ )e −γλθ ≥ ) d θ k (θ 2 ) k (θ d 1 1 + λ θ * −λ β (t )e −γλt dt [ ≥ ]dt ∫ θ 0 ) d θ k (t 2
*θ
θ0
1 1 1 1 + λ θ * −1 > − ≥ β (t )e γλθ dt ∫ * θ 2 0 )k (θ0) k (θ ) k (θ0 1 ﺣﺎل اﮔﺮ ∞ → * θآﻧﮕﺎه ﺳﻤﺖ راﺳﺖ ﺑﻪ ∞ ﻣﻴﻞ ﻣﻲﻛﻨﺪ ﻛﻪ ﺑﺎ ﻛﻤﺘﺮ ﺑﻮدن آن از )k (θ0
∫⇒
⇒−
−در ﺗﻨﺎﻗﺾ
اﺳﺖ ﺑﺠﺰ اﻳﻨﻜﻪ . k (θ0) = 0 ) (iiﺑﻪ ﻃﻮر ﻣﺸﺎﺑﻪ ﻣﻲﺗﻮان ﻧﺸﺎن داد ﻛﻪ ﻧﻤﻲﺗﻮاﻧﺪ k (θ0) > 0ﺑﺎﺷﺪ. ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮاي ﻫﺮ k (θ ) = 0 ، θو ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮاي ﻫﺮ h (θ ) = 0 ، θﺧﻮاﻫﺪ ﺑﻮد ،ﻳﻌﻨﻲ در ﻧﺎﻣﺴﺎوي )(6 ﺣﺎﻟﺖ ﺗﺴﺎوي ﺑﺮﻗﺮار ﻣﻲﺷﻮد و در ﻧﺘﻴﺠﻪ در ﻧﺎﻣﺴﺎوي ) (5ﻧﻴﺰ ﺣﺎﻟﺖ ﺗﺴﺎوي ﺧﻮاﻫﻴﻢ داﺷﺖ و اﻳﻦ ﻧﺸﺎن T + γλ ﻣﻲدﻫﺪ ﻛﻪ ﺑﺮآوردﮔﺮ 1+ λ
= ) δ λ ,γ (Xﺑﺮآوردﮔﺮي ﻣﺠﺎز اﺳﺖ.
■
ﻣﺜﺎل) 7-2اداﻣﻪ( :ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﻳﻨﻜﻪ در ﺗﻮزﻳﻊ ) N (0,σ 2دارﻳﻢ ﻛﻪ 1 2σ 2
= y = ∑ x i2 ,τ
n 2 τ r e −τ y
−
=π
n − 1 ∑ x i2 2 e 2σ 2
−
) f σ 2 (x ) = (2πσ 2
ﭘﺲ اﻳﻦ ﺗﻮزﻳﻊ ﺑﻪ ﻓﺮم ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ) (1ﺑﺎ ﻣﻘﺎدﻳﺮ زﻳﺮ اﺳﺖ −θ Y , θ = − rτ , β (θ ) = ( ) r , θ = −∞, θ = 0 r r
= ) T (X
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
)ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ ﭘﺎراﻣﺘﺮﻫﺎي ﺑﮕﻮﻧﻪاي اﻧﺘﺨﺎب ﺷﺪهاﻧﺪ ﻛﻪ 1 Y γλ ﺑﺮآوردﮔﺮ + 1+ λ r 1+ λ
ﺑﺮاي
1
τ
∞
1
τ
157
= )) E (T (Xﺑﺎﺷﺪ( .ﺣﺎل ﻃﺒﻖ ﻗﻀﻴﻪ ﻛﺎرﻟﻴﻦ
ﻣﺠﺎز اﺳﺖ اﮔﺮ اﻧﺘﮕﺮالﻫﺎي
−θ − r λ ) d θ = k ∫ e γλθ θ − r λ d θ r c
−c
c
−γλθ ( ∫e
−γλθ − r λ ∫e θ d θ
و
∞−
0
ﻫﺮ دو واﮔﺮا ﺑﺎﺷﻨﺪ .اﻧﺘﮕﺮال اوﻟﻲ ﻣﻮﻗﻌﻲ واﮔﺮا اﺳﺖ ﻛﻪ r λ ≤ 1و γ = 0ﻳﺎ γλ > 0ﺑﺎﺷﺪ .و در اﻧﺘﮕﺮال دوم ﻋﺎﻣﻞ e γλθﻧﻘﺸﻲ در اﻧﺘﮕﺮال ﻧﺪارد و ﻣﻮﻗﻌﻲ واﮔﺮا اﺳﺖ ﻛﻪ r λ ≥ 1ﺑﺎﺷﺪ .اﮔﺮ اﻳﻦ ﺷﺮاﻳﻂ را ﺑﺎ 1 Y γλ ﻫﻢ ادﻏﺎم ﻛﻨﻴﻢ آﻧﮕﺎه ﺑﺮآوردﮔﺮ + 1+ λ r 1+ λ 1 1 (ii ) λ ≥ , γ > 0ﻳﺎ = (i ) γ = 0, λ r r 1 1 γλ اﮔﺮ ﻗﺮار دﻫﻴﻢ = bآﻧﮕﺎه ﺑﺮآوردﮔﺮ aY + bﺑﺮاي ﻣﺠﺎز اﺳﺖ اﮔﺮ = aو τ 1+ λ (1 + λ )r
ﻣﺠﺎز اﺳﺖ اﮔﺮ
1 1 ≤ (ii ) 0 < aﻳﺎ , b = 0 , b >0 1+ r 1+ r 1 1 ﺑﺮاي ﻣﺠﺎز اﺳﺖ .ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻧﻮاﺣﻲ ﺑﺪﺳﺖ آﻣﺪه در اﻳﻦ ﻣﺜﺎل ﻳﻌﻨﻲ ﺑﺮآوردﮔﺮY + b , b ≥ 0 1+ r τ 1 ﻣﻲﺗﻮان ﮔﻔﺖ ﻛﻪ ﺑﺮآوردﮔﺮ aY + bﺑﺮاي = 2σ 2ﻣﺠﺎز اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ = (i ) a
τ
1 , b =0 r +1
=a
1 ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ cY + dﺑﺮاي 2τ
) (ii
1 , b >0 r +1
≤ 0≤ a
) (i
= σ 2ﻣﺠﺎز اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ
1 n a b ) = , d = 0 (r = ) (c = , d 2 2 2 n +2 1 = ) δ * ( Xﺑﺮاي σ 2ﻣﺠﺎز اﺳﺖ. ﻳﻌﻨﻲ ﺑﺮآوردﮔﺮ X i2 ، MRE ∑ n +2 =c
) (ii
1 , d >0 n +2
≤ 0≤ c
■
) (i
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
158
ﻣﺜﺎل ) :8-2وارﻳﺎﻧﺲ ﻧﺮﻣﺎل ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ ﻣﺠﻬﻮل( ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,..., X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) N ( μ ,σ 2ﺑﺎﺷﻨﺪ .در ﻣﺜﺎل ) (7دﻳﺪﻳﻢ ﻛﻪ 1 n 2 اﮔﺮ μ = 0ﺑﺎﺷﺪ ،آﻧﮕﺎه ﺑﺮآوردﮔﺮ ∑ X i ،MRE n + 2 i =1
ﺑﺮاي σ 2ﻣﺠﺎز اﺳﺖ .ﺣﺎل اﮔﺮ μﻧﺎﻣﻌﻠﻮم
1 n ﺑﺎﺷﺪ آﻳﺎ ﺑﺮآوردﮔﺮ MREﭘﺎراﻣﺘﺮ σ 2ﻳﻌﻨﻲ (X i − X )2 ∑ n + 1 i =1
ﺑﺮاي σ 2ﻣﺠﺎز اﺳﺖ.
1 n 1 ﺣﻞ :اﺷﺘﺎﻳﻦ ) (1964ﻧﺸﺎن داد ﻛﻪ ﺑﺮآوردﮔﺮ (X i − X )2 ∑ n + 1 i =1
Xi2 ∑ , )
− X )2
n +2
n
∑ (X i
n +1
ﻣﺠﺎز ﻧﻴﺴﺖ و ﺑﻮﺳﻴﻠﻪ ﺑﺮآوردﮔﺮ
i =1
*
( δ = minﻣﻐﻠﻮب ﻣﻲﺷﻮد )اﺛﺒﺎت ﺗﻤﺮﻳﻦ( دﻟﻴﻞ ﺗﻮﺟﻴﻬﻲ اﻳﻦ ﺑﺮآوردﮔﺮ
اﻳﻦ اﺳﺖ ﻛﻪ ﻓﺮض ﻛﻨﻴﺪ ﺑﺨﻮاﻫﻴﻢ آزﻣﻮن H 0 : μ0 = 0 vs H 1 : μ ≠ 0را آزﻣﻮن ﻛﻨﻴﻢ در اﻳﻦ ﺻﻮرت ﻓﺮض H 0را ﻗﺒﻮل ﻣﻲﻛﻨﻴﻢ اﮔﺮ
1 n Xi2 ∑ n + 2 i =1
| | nX 1 n (X i − X )2 ∑ n − 1 i =1
و در ﻧﺘﻴﺠﻪ σ 2را ﺑﺎ
ﺑﺮآورد ﻣﻲﻛﻨﻴﻢ و در ﻏﻴﺮ اﻳﻦ ﺻﻮرت ﻓﺮض H 1را ﻗﺒﻮل ﻣﻲﻛﻨﻴﻢ و σ 2را ﺑﺎ
n −1 1 n ﺑﺮآورد ﻣﻲﻛﻨﻴﻢ .اﮔﺮ ﻗﺮار دﻫﻴﻢ ( X i − X )2 ∑ n +1 n + 1 i =1
= Cآﻧﮕﺎه ﻧﺎﻣﺴﺎوي ﻓﻮق ﺑﻪ ﻧﺎﻣﺴﺎوي
1 n 1 n 2 ﺗﺒﺪﻳﻞ ﻣﻲﺷﻮد و ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ آزﻣﻮن ﻓﻮق < Xi ( X i − X )2 ∑ ∑ n + 2 i =1 n + 1 i =1
ﺑﺮآوردﮔﺮ * δﺣﺎﺻﻞ ﻣﻲﮔﺮدد. 2
1 n 1 n n 2 2 < nX < (X i − X ) ⇒ nX Xi2− X ∑ ∑ n + 1 i =1 n + 1 i =1 n +1 2
1 n 2 n (n + 2) 2 ⇒ < X ∑X i n +1 n + 1 i =1 n n 1 1 1 )∑ X i2 <X2 ( = X i2 − ∑ n +1 n +1 n + 2 (n + 1)(n + 2) i =1
⇒
Stein
١
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
1 n 1 1 <Xi2 = ] [∑ X i2 − nX 2 ( X i − X )2 ∑ ∑ n + 2 i =1 n +1 n +1
159
⇒
x s
ﺑﺮآوردﮔﺮ * δدر رده ﺑﺰرﮔﺘﺮي از ﻛﻼسﻫﺎ ﺑﻪ ﺻﻮرت δ ( x , s ) = ϕ ( )S 2ﻗﺮار دارد زﻳﺮا 2 S 2 ∑X i 1 S 2 + nX 2 2 (δ = min , () = min , )S n +1 n + 2 n + 1 (n + 2)S 2 *
⎛ 1 1 n X 2⎞ 2 X , ( ) ⎟ S = ϕ ( )S 2 ⎜ = min + S ⎠ ⎝ n +1 n + 2 n + 2 S 1 ﺑﺮآوردﮔﺮﻫﺎي ﺑﻪ ﻓﺮم ) δ (X , Sﻧﻴﺰ ﺑﺮ ﺑﺮآوردﮔﺮ ( X i − X )2 ∑ n +1
ﻏﻠﺒﻪ دارﻧﺪ)اﺛﺒﺎت :ﺗﻤﺮﻳﻦ( ■
ﻣﺜﺎل ) :9-2ﺗﻮزﻳﻊ دو ﺟﻤﻠﻪاي( ﻓﺮض ﻛﻨﻴﺪ ) X ∼ B (n , pﺑﺎﺷﺪ .ﺑﺮاي ﭼﻪ ﻣﻘﺎدﻳﺮاز aو bﺑﺮآوردﮔﺮ X ) +b n
( aﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﻣﺠﺎز و ﺑﺮاي ﭼﻪ ﻣﻘﺎدﻳﺮ ﻏﻴﺮﻣﺠﺎز اﺳﺖ. x
p
n ln ⎞ ⎛n ⎞ ⎛n f X (x ) = p (X = x ) = ⎜ ⎟ p x (1 − p ) n −x = ⎜ ⎟ (1 − p ) n e n 1− p ⎠ ⎝x ⎠ ⎝x
ﻗﺮار ﻣﻲدﻫﻴﻢ θ
p X θ = n ln , T (X ) = , β (θ ) = (1 − p ) n = (1 + e n ) − n n 1− p θ
X en = )= p θ n 1+ e n
( g (θ ) = E θ (T (X )) = E θ
∞0 < p < 1 ⇒ θ = −∞, θ = +
γλ X + ﻃﺒﻖ ﻗﻀﻴﻪ ﻛﺎرﻟﻴﻦ ﺑﺮآوردﮔﺮ n (1 + λ ) 1 + λ
= ) δ λ ,γ (xﺑﺮاي pﻣﺠﺎز اﺳﺖ اﮔﺮ دو اﻧﺘﮕﺮال زﻳﺮ
واﮔﺮا ﺑﺎﺷﻨﺪ λn
)(1
dθ
⎞ ⎟ ⎟⎟ ⎠
⎛ 1 ⎜ γλθ 1+ θ dθ =∫e ⎜⎜ c ⎝ en ∞
λn
⎞ ⎟ ⎟ ⎠
θ ⎛ −γλθ ∫ e ⎜⎜1 + e n ∞− ⎝ −c
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن λn
dθ
)(2 λn
اﮔﺮ λ < 0ﺑﺎﺷﺪ ،آﻧﮕﺎه ≤ e −γλθ
⎞ ⎟ ⎟ ⎠
⎞ ⎟ ⎟ ⎠
160
θ ⎛ −γλθ ∫ e ⎜⎜1 + e n c ⎝
∞
θ ⎛ −γλθ ⎜1 + e n eو ﺑﻨﺎﺑﺮاﻳﻦ ﻫﺮ دو اﻧﺘﮕﺮال ﻧﻤﻲﺗﻮاﻧﻨﺪ ﻫﻤﺰﻣﺎن واﮔﺮا ⎜ ⎝
ﺑﺎﺷﻨﺪ .اﮔﺮ λ = 0آﻧﮕﺎه ﻫﺮ دو اﻧﺘﮕﺮال واﮔﺮا ﻫﺴﺘﻨﺪ .اﮔﺮ λ > 0ﺑﺎﺷﺪ آﻧﮕﺎه λn
⎞ ⎟ ⎟ ⎠
⎛ θ > ⎜e n ⎜ ⎝
λn
⎞ ⎟ ⎟ ⎠
θ
θ ⎛ n > e ⇒ ⎜1 + e n ⎜ ⎝ λn
> e λθ e −γλθ = e (1−γ ) λθ در اﻳﻦ ﺻﻮرت اﻧﺘﮕﺮال دوم ﺑﻪ ازاي 1 − γ ≥ 0 λn
⎞ ⎟ ⎟ ⎠
⎞ ⎟ ⎟ ⎠
θ
1+ e n
θ ⎛ −γλθ ⎜1 + e n ⇒e ⎜ ⎝
ﻳﺎ γ ≤ 1واﮔﺮاﺳﺖ و در اﻧﺘﮕﺮال اول ﻋﺎﻣﻞ
θ ⎛ − ⎜1 + e nدر ﻫﻤﮕﺮاﻳﻲ ﻳﺎ واﮔﺮاﻳﻲ ﺗﺎﺛﻴﺮ ﻧﻤﻲﮔﺬارد ﭘﺲ اﻳﻦ اﻧﺘﮕﺮال ﺑﻪ ازاي γλ ≥ 0ﻳﺎ γ ≥ 0واﮔﺮا ⎜ ⎝
اﺳﺖ. 1 ﺑﻨﺎﺑﺮاﻳﻦ در اﻧﺘﮕﺮال در ﺻﻮرﺗﻲ ﻫﻤﺰﻣﺎن واﮔﺮا ﻫﺴﺘﻨﺪ ﻛﻪ ) (λ > 0,0 ≤ γ ≤ 1ﻳﺎ . λ = 0ﺑﺎ 1+ λ γλ X = bﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد ﻛﻪ ﺑﺮآوردﮔﺮ a ( ) + bﺑﺮاي pﻣﺠﺎز اﺳﺖ 1+ λ n 1 + γλ = (0 < a < 1, b ≥ 0, a + bﻳﺎ a = 1, b = 0 )≤ 1 1+ λ
= aو اﮔﺮ
ﻛﻪ ﺑﺎ ادﻏﺎم اﻳﻦ دو ﺣﺎﻟﺖ دارﻳﻢ ﻛﻪ 0 < a ≤ 1, b ≥ 0, a + b ≤ 1
ﺑﺮاي 0 ≤ b ≤ 1و a = 0ﺑﺮآوردﮔﺮ δ = bﻣﺠﺎز اﺳﺖ )زﻳﺮا اﻳﻦ ﺑﺮآوردﮔﺮ ﺗﻨﻬﺎ ﺑﺮآوردﮔﺮي اﺳﺖ ﻛﻪ در p = bداراي ﻣﺨﺎﻃﺮه ﺻﻔﺮ اﺳﺖ( .ﺑﻪ راﺣﺘﻲ ﻣﻲﺗﻮان X ﻧﺸﺎن داد ﻛﻪ ﺑﺮاي ﺳﺎﻳﺮ ﻣﻘﺎدﻳﺮ aو bﺑﺮآوردﮔﺮ ) + b n X ﺑﺮآوردﮔﺮ a ( ) + bﺑﺮاي pﻣﺠﺎز اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ ) (a,bدر ﻣﺜﻠﺚ ﺑﺴﺘﻪ زﻳﺮ ﻗﺮار ﮔﻴﺮﻧﺪ: n
( aﻏﻴﺮﻣﺠﺎز اﺳﺖ )ﻣﺴﺌﻠﻪ .(4-2ﺑﻨﺎﺑﺮاﻳﻦ
}{(a,b ) | a ≥ 0,b ≥ 0, a + b ≤ 1
■
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
161
از ﻗﻀﻴﻪ 7-2ﻧﺘﻴﺠﻪ زﻳﺮ ﺣﺎﺻﻞ ﻣﻲﺷﻮد. ﻧﺘﻴﺠﻪ :1-2اﮔﺮ ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ﻃﻴﺒﻌﻲ در ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ) β (θ )e θT ( xﺗﻤﺎم اﻋﺪاد ﺣﻘﻴﻘﻲ ﺑﺎﺷﺪ ،ﻳﻌﻨﻲ ∞ θ = +و ∞ θ = −آﻧﮕﺎه Tﺑﺮاي ﺑﺮآورد ) E θ (Tﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﻣﺠﺎز اﺳﺖ. اﺛﺒﺎت :ﺑﺎ λ = 0و γ = 1ﻫﺮ دو اﻧﺘﮕﺮال ﻗﻀﻴﻪ ﻛﺎرﻟﻴﻦ واﮔﺮا ﻣﻲﺷﻮﻧﺪ ﻣﻮﻗﻌﻲ ﻛﻪ ∞θ * → ± n μ2
ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻧﺘﻴﺠﻪ ﻓﻮق در ﺗﻮزﻳﻊ ﻧﺮﻣﺎل ) N ( μ ,σ 2ﺑﺎ σ 2ﻣﻌﻠﻮم
2σ 2
X Xﺑﺮاي μﻣﺠﺎز اﺳﺖ و در ﺗﻮزﻳﻊ دوﺟﻤﻠﻪاي )ﻣﺜﺎل(9-2 n
x+
■
nμ 2
f μ (x ) ∝ e σ
ﺑﺮاي pﻣﺠﺎز اﺳﺖ و در ﺗﻮزﻳﻊ
ﭘﻮاﺳﻮن f θ (x ) = e − μe n ln μ xﻛﻪ )∞ θ = n ln μ ∈ (−∞, +ﺑﺮآوردﮔﺮ Xﺑﺮاي μﻣﺠﺎز اﺳﺖ.
راﺑﻄﻪ ﺑﺮآوردﮔﺮﻫﺎي ﻣﺠﺎز و ﻣﻴﻨﻴﻤﺎﻛﺲ ﻗﻀﻴﻪ :8-2اﮔﺮ δﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز ﺑﺎ ﻣﺨﺎﻃﺮه ﺛﺎﺑﺖ ﺑﺎﺷﺪ اﻧﮕﺎه δﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ. اﺛﺒﺎت :ﻓﺮض ﻛﻨﻴﺪ δﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻧﺒﺎﺷﺪ در اﻳﻦ ﺻﻮرت ﺗﺼﻤﻴﻢ دﻳﮕﺮي ﻣﺎﻧﻨﺪ * δوﺟﻮد دارد Sup R (θ , δ * ) < Sup R (θ , δ ) = c
ﻛﻪ ﺑﻨﺎﺑﺮاﻳﻦ
Θ
∀θ ∈ Θ
Θ
) R (θ , δ * ) ≤ SupR (θ , δ * ) < c = R (θ , δ
و اﻳﻦ ﺑﺎ ﻣﺠﺎز ﺑﻮدن δدر ﺗﻨﺎﻗﺾ اﺳﺖ ﭘﺲ δﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ. (δ − g (θ ))2 ﻧﺘﻴﺠﻪ :2-2ﺗﺤﺖ ﻓﺮﺿﻴﺎت ﻧﺘﻴﺠﻪ 1-2و ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ) V θ (T
■ ﺑﺮآوردﮔﺮ Tﺑﺮاي
) g (θ ) = E θ (Tﺑﺮآوردﮔﺮ ﻳﻜﺘﺎي ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ. اﺛﺒﺎت :ﻃﺒﻖ ﻧﺘﻴﺠﻪ T ،1-2ﺑﺮاي ) g (θﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن (δ − g (θ ))2ﻣﺠﺎز اﺳﺖ ﭘﺲ ﺗﺤﺖ ﺗﺎﺑﻊ (δ − g (θ ))2 زﻳﺎن ﻧﻴﺰ ﻣﺠﺎز اﺳﺖ .ﺣﺎل ﭼﻮن ﺗﺤﺖ اﻳﻦ ﺗﺎﺑﻊ زﻳﺎن Tداراي ﻣﺨﺎﻃﺮه ﺛﺎﺑﺖ اﺳﺖ ﭘﺲ ) V θ (T
ﻃﺒﻖ ﻗﻀﻴﻪ T ،8-2ﺑﺮاي ) g (θﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ .ﻳﻜﺘﺎﻳﻲ اﻳﻦ ﺑﺮاورد از ﻟﻢ 1-2ﺣﺎﺻﻞ ﻣﻲﺷﻮد)ﺗﺎﺑﻊ زﻳﺎن اﻛﻴﺪا ﻣﺤﺪب اﺳﺖ(.
■
ﻗﻀﻴﻪ :9-2اﮔﺮ δ mﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻳﻜﺘﺎ ﺑﺎﺷﺪ آﻧﮕﺎه δ mﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز اﺳﺖ.
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
162
اﺛﺒﺎت :اﮔﺮ δ mﻣﺠﺎز ﻧﺒﺎﺷﺪ آﻧﮕﺎه ﺗﺼﻤﻴﻢ دﻳﮕﺮي ﻣﺎﻧﻨﺪ δوﺟﻮد دارد ﻛﻪ ﺑﺮ آن ﻏﻠﺒﻪ ﻣﻲﻛﻨﺪ و در ﻧﺘﻴﺠﻪ ) . Sup R (θ , δ ) ≤ Sup R (θ , δ mﻳﻌﻨﻲ δﻧﻴﺰ ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ و اﻳﻦ ﺑﺎ ﻳﻜﺘﺎ ﺑﻮدن Θ
Θ
ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ δ mدر ﺗﻨﺎﻗﺾ اﺳﺖ .ﭘﺲ δ mﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز اﺳﺖ■ . (δ − p )2 X ﻳﻚ ﺑﺮآوردﮔﺮ ﻣﺜﺎل :10-2اﮔﺮ ) X ∼ B (n , pآﻧﮕﺎه ﻃﺒﻖ ﻧﺘﻴﺠﻪ 2-2ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن pq n
ﺑﺮآوردﮔﺮ ﻳﻜﺘﺎي ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ ﭘﺲ ﻃﺒﻖ ﻗﻀﻴﻪ 9-2ﻳﻚ ﺑﺮآوردﮔﺮ ﻣﺠﺎز اﺳﺖ.
■
ﻣﺜﺎل :11-2ﻓﺮض ﻛﻨﻴﺪ X 1, X 2 ,..., X nﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ) N (θ ,σ 2ﺑﺎ σ 2ﻣﻌﻠﻮم ﺑﺎﺷﻨﺪ .ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم اﻟﻒ -در ﻣﺜﺎلﻫﺎي ﻗﺒﻞ دﻳﺪﻳﻢ ﻛﻪ Xﺑﺮآوردﮔﺮ ﻳﻜﺘﺎي ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺮاي θاﺳﺖ ﭘﺲ Xﺑﺮاي θﻣﺠﺎز اﺳﺖ. ب -در ﻣﺜﺎلﻫﺎي ﻗﺒﻞ دﻳﺪﻳﻢ ﻛﻪ Xﺑﺮآوردﮔﺮ ﻣﺠﺎز ﺑﺎ ﻣﺨﺎﻃﺮه ﺛﺎﺑﺖ ﺑﺮاي θﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ.
σ2 n
= ) R (θ , Xاﺳﺖ ﭘﺲ
■
ﻣﺜﺎل) :12-2دو ﺗﻮزﻳﻊ دو ﺟﻤﻠﻪاي( ﻓﺮض ﻛﻨﻴﺪ ) X ∼ B (m , pو ) Y ∼ B (n , πاز ﻳﻜﺪﻳﮕﺮ X Y ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ .ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ ﺑﺮآوردﮔﺮ + b + c m n
aﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم و ﺗﺤﺖ ﺷﺮاﻳﻂ
زﻳﺮ ﺑﺮاي pﻣﺠﺎز اﺳﺖ. ) (a = 1, b = c = 0ﻳﺎ )(0 ≤ a < 1, 0 ≤ c ≤ 1, 0 ≤ a + c ≤ 1, 0 ≤ b + c ≤ 1, 0 ≤ a + b + c ≤ 1
اﺛﺒﺎت :ﻓﺮض ﻛﻨﻴﺪ ﺑﺮآوردﮔﺮ دﻳﮕﺮي ﻣﺎﻧﻨﺪ ) δ (X ,Yﻣﻮﺟﻮد ﺑﺎﺷﺪ ﻛﻪ X Y + b + c − p )2 ≥ E [(δ (X ,Y ) − p )2 ] ∀p m n
)(1
x k ) + b + c − p )2 P (X = x ,Y = k m n n
m
) ≥ ∑∑ (δ (x , k ) − p )2 P (X = x ,Y = k x =0 k =0
ﺣﺎل اﮔﺮ π →0آﻧﮕﺎه ) (1ﻧﺘﻴﺠﻪ ﻣﻲدﻫﺪ ﻛﻪ
n
m
E (a
⇒ ∑∑ (a x =0 k =0
www.riazisara.ir
ﻓﺼﻞ ﭘﻨﺠﻢ :ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن
163
⎞ ⎛m ⎞ ⎛n ) p ( X = x ,Y = k ) = ⎜ ⎟ p x q m −x ⎜ ⎟ π k (1 − π ) n −kﻛﻪ ﺑﻪ ازاي k = 0ﺑﺮاﺑﺮ ) p (X = x ⎠ ⎝x ⎠ ⎝k
اﺳﺖ(. m
m x 2 ) ∑ (a m + c − p ) P (X = x ) ≥∑ (δ (x ,0) − p )2 P (X = x x =0 x =0
x x ﻃﺒﻖ ﻣﺜﺎل a + c ،9-2ﺗﺤﺖ ﺷﺮاﻳﻂ اﻳﻦ ﻣﺜﺎل ﻣﺠﺎز اﺳﺖ ﭘﺲ ﺑﺎﻳﺴﺘﻲ + c m m
δ ( x ,0) = aﺑﺮاي
ﻫﺮ . x = 0,1,..., mﺑﻨﺎﺑﺮاﻳﻦ ﻋﺒﺎرت k = 0در ) (1ﺣﺬف ﻣﻲﺷﻮد .ﻋﺒﺎرات دﻳﮕﺮ ﺷﺎﻣﻞ ﻳﻚ ﻋﺎﻣﻞ π ﻫﺴﺘﻨﺪ ﻛﻪ ﻣﻲﺗﻮاﻧﺪ ﺣﺬف ﺷﻮد و ﺑﻨﺎﺑﺮاﻳﻦ ) (1ﻧﺘﻴﺠﻪ ﻣﻲدﻫﺪ ﻛﻪ ⎛ m ⎞ x m −x ⎛ n ⎞ k −1 n −k ≥ ⎟p q ) ⎜ ⎟ π (1 − π k ⎠ ⎝ ⎠ ⎝ m n ⎞ ⎛m ⎞ ⎛n ∑∑ (δ (x , k ) − p )2 ⎜ x ⎟ p x q m −x ⎜ k ⎟ π k −1(1 − π )n −k ⎠ ⎝ ⎠ ⎝ x =0 k =1 k
n
x
m
∑∑ (a m + b n + c − p )2 ⎜ x
)(2
x =0 k =1
دو ﻣﺮﺗﺒﻪ ﺑﺎ π →0راﺑﻄﻪ ) (2ﻧﺘﻴﺠﻪ ﻣﻲدﻫﺪ ﻛﻪ m x b ) + + c − p )2 P (X = x ) ≥∑ (δ (x ,1) − p )2 P (X = x m n x =0
m
∑ (a x =0
x b b و ﭼﻮن ﺗﺤﺖ ﺷﺮاﻳﻂ اﻳﻦ ﻣﺴﺌﻠﻪ 0 ≤ a + + c ≤ 1ﭘﺲ ﻃﺒﻖ ﻣﺜﺎل 9-2ﺑﺮآوردﮔﺮ + + c m n n x b pﻣﺠﺎز اﺳﺖ .ﺑﻨﺎﺑﺮاﻳﻦ ) (2ﻧﺘﻴﺠﻪ ﻣﻲدﻫﺪ ﻛﻪ ﺑﺮاي ﻫﺮ . δ (x ,1) = a + + c ، x = 0,1,...., mﺑﻪ m n
aﺑﺮاي
ﻫﻤﻴﻦ ∀x =0,...,m k =01 , ,....,n
ﺗﺮﺗﻴﺐ
اﮔﺮ
ﺑﺎ
اﺳﺘﻘﺮاء
روي
k
ﭘﻴﺶ
ﺑﺮوﻳﻢ
ﻧﺘﻴﺠﻪ
x k X Y . δ ( x , k ) = a + b + cﭘﺲ ﺑﺮآوردﮔﺮ + b + c m n m n
ﻣﻲﺷﻮد
ﻛﻪ
δ ( X ,Y ) = aﺗﺤﺖ
ﺷﺮاﻳﻂ ﻣﺴﺌﻠﻪ ﺑﺮآوردﮔﺮي ﻣﺠﺎز ﺑﺮاي pاﺳﺖ. در ﺧﺎرج از ﻧﺎﺣﻴﻪ داده ﺷﺪه در اﻳﻦ ﻣﺜﺎل ﻣﻲﺗﻮان ﻧﺸﺎن داد ﻛﻪ ﺑﺮآوردﮔﺮ ) δ (X ,Yﻏﻴﺮﻣﺠﺎز اﺳﺖ)ﻣﺴﺌﻠﻪ .(2,21ﭘﺲ ) δ (X ,Yﻣﺠﺎز اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ در ﺷﺮاﻳﻂ اﻳﻦ ﻣﺴﺌﻠﻪ ﺻﺪق ﻛﻨﺪ.
■
164
www.riazisara.ir
ﻣﺮاﺟﻊ
1- Berger, J. O. (1985). Statistical Decision Theory and Bayesian Analysis, Second Edition, Springer-Verlag, New York. 2- Lehman E. L. and Casella G. (1998). Theory of Point Estimation, Second Edition, Springer, New York. 3- Casella, G. and Berger, R. L. (1990). Statistical Inference, Wodsworth & Brooks, California. . اﻧﺘﺸﺎرات داﻧﺸﮕﺎه ﺷﻴﺮاز، ﺗﺼﻤﻴﻢ آﻣﺎري.(1374) ﺟﻮاد، ﺑﻬﺒﻮدﻳﺎن-4
ﺩﺭﺳﻨﺎﻣﻪ ﻫﺎ ﻭ ﺟﺰﻭﻩ ﻫﺎﻱ ﺩﺭﻭﺱ ﺭﻳﺎﺿﻴﺎﺕ ﺩﺍﻧﻠﻮﺩ ﻧﻤﻮﻧﻪ ﺳﻮﺍﻻﺕ ﺍﻣﺘﺤﺎﻧﺎﺕ ﺭﻳﺎﺿﻲ ﻧﻤﻮﻧﻪ ﺳﻮﺍﻻﺕ ﻭ ﭘﺎﺳﺨﻨﺎﻣﻪ ﻛﻨﻜﻮﺭ ﺩﺍﻧﻠﻮﺩ ﻧﺮﻡ ﺍﻓﺰﺍﺭﻫﺎﻱ ﺭﻳﺎﺿﻴﺎﺕ ﻭ... ﺳﺎﻳﺖ ﻭﻳﮋﻩ ﺭﻳﺎﺿﻴﺎﺕ
www.riazisara.ir