Estenbat-amari-pishrafte1-nemattollahi[www.riazisara.ir].pdf

  • December 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Estenbat-amari-pishrafte1-nemattollahi[www.riazisara.ir].pdf as PDF for free.

More details

  • Words: 58,548
  • Pages: 167
‫ﻧﺎدر ﻧﻌﻤﺖ اﻟﻬﻲ‬ ‫ﮔﺮوه آﻣﺎر‬ ‫داﻧﺸﮕﺎه ﻋﻼﻣﻪ ﻃﺒﺎﻃﺒﺎﻳﻲ‬ ‫داﻧﻠﻮد از ﺳﺎﻳﺖ رﻳﺎﺿﻲ ﺳﺮا‬

‫‪www.riazisara.ir‬‬

‫ﻓﻬﺮﺳﺖ ﻣﻄﺎﻟﺐ‬ ‫ﻋﻨﻮان‬

‫ﺻﻔﺤﻪ‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪1‬‬

‫‪ -1‬ﺧﻼﺻﻪاي از ﻧﻈﺮﻳﻪ اﻧﺪازه ‪..........................................................................................................‬‬

‫‪2‬‬

‫‪ -2‬ﺧﺎﻧﻮاده ﮔﺮوﻫﻲ از ﺗﻮزﻳﻊﻫﺎ ‪8 ........................................................................................................‬‬ ‫‪ -3‬ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ از ﺗﻮزﻳﻊﻫﺎ ‪..........................................................................................................‬‬

‫‪12‬‬

‫‪ -4‬آﻣﺎرهﻫﺎي ﺑﺴﻨﺪه ‪19 .........................................................................................................................‬‬ ‫‪ -5‬ﻛﺎﻣﻞ ﺑﻮدن ‪................................................................................................................................‬‬

‫‪29‬‬

‫‪ -6‬ﺗﻮاﺑﻊ زﻳﺎن ﻣﺤﺪب‪......................................................................................................................‬‬

‫‪33‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫‪38‬‬

‫‪ -1‬ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳﺐ ‪39 .................................................................................................................‬‬ ‫‪ -5‬ﻧﺎﻣﺴﺎوي اﻃﻼع )ﻧﺎﻣﺴﺎوي ﻛﺮاﻣﺮ ‪ -‬راﺋﻮ( ‪....................................................................................‬‬

‫‪51‬‬

‫‪ -6‬ﻧﺎﻣﺴﺎوي اﻃﻼع )ﻛﺮاﻣﺮ‪ -‬راﺋﻮ( در ﺣﺎﻟﺖ ﭼﻨﺪ ﭘﺎراﻣﺘﺮي ‪58 ...............................................................‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬ ‫‪ -1‬ﻣﻔﻬﻮم ﭘﺎﻳﺎﺋﻲ و ﻛﻠﻴﺎت ‪...............................................................................................................‬‬

‫‪63‬‬ ‫‪64‬‬

‫‪ -2‬ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ﻣﻜﺎن ‪78 ....................................................................................................‬‬ ‫‪ -3‬ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ﻣﻘﻴﺎس‪86 ...................................................................................................‬‬ ‫‪ -4‬ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮﻫﺎي ﻣﻜﺎن‪-‬ﻣﻘﻴﺎس ‪93 ...............................................................................‬‬

‫ﻓﺼﻞ ﭼﻬﺎرم‪ :‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬

‫‪102‬‬

‫‪ -1‬ﻣﻘﺪﻣﻪ ‪103 ........................................................................................................................................‬‬ ‫‪ -2‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي ‪105 ..............................................................................................................................‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪122‬‬

‫‪ -1‬ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ ‪......................................................................................................................‬‬

‫‪123‬‬

‫‪ -2‬ﺗﺼﻤﻴﻢﻫﺎي ﻣﺠﺎز )ﭘﺬﻳﺮﻓﺘﻨﻲ( ‪.....................................................................................................‬‬

‫‪138‬‬

‫ﻣﺮاﺟﻊ‬

‫‪164‬‬

‫‪١‬‬

‫داﻧﻠﻮد از ﺳﺎﻳﺖ رﻳﺎﺿﻲ ﺳﺮا‬

‫‪www.riazisara.ir‬‬

‫ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫ﺑﺨﺶ ‪ :1‬ﺧﻼﺻﻪاي از ﻧﻈﺮﻳﻪ اﻧﺪازه‬

‫‪2‬‬

‫‪1‬‬

‫در اﺑﺘﺪا ﺧﻼﺻﻪاي از ﻧﻈﺮﻳﻪ اﻧﺪازه ﻛﻪ ﻣﻮرد ﻟﺰوم ﻣﺒﺎﺣﺚ اﻳﻦ درس ﻣﻲﺑﺎﺷﺪ را ﻣﺮور ﻣﻲﻛﻨﻴﻢ‪.‬‬ ‫ﺗﻌﺮﻳﻒ ‪ : 1-1‬ﺳﻴﮕﻤﺎ ﻣﻴﺪان ) ‪(σ − field‬‬

‫ﻓﺮض ﻛﻨﻴﺪ ‪ Ω‬ﻳﻚ ﻣﺠﻤﻮﻋﻪ ﺑﺎﺷﺪ و ‪ A‬ﻣﺠﻤﻮﻋﻪاي ﻏﻴﺮ ﺗﻬﻲ از زﻳﺮ ﻣﺠﻤﻮﻋﻪﻫﺎي ‪ Ω‬ﺑﺎﺷﺪ‪ A .‬را ﻳﻚ‬ ‫ﺳﻴﮕﻤﺎ ﻣﻴﺪان ﮔﻮﻳﻨﺪ ﺑﻪ ﺷﺮط آن ﻛﻪ ﺷﺮاﻳﻂ زﻳﺮ ﺑﺮاي آن ﺑﺮﻗﺮار ﺑﺎﺷﺪ‬ ‫اﻟﻒ( اﮔﺮ ‪ A ∈ A‬آﻧﮕﺎه ‪A C ∈ A‬‬

‫ب( اﮔﺮ ‪ A1, A2 ,....‬ﻣﺠﻤﻮﻋﻪﻫﺎﻳﻲ در‪A‬‬

‫∞‬

‫ﺑﺎﺷﻨﺪ آﻧﮕﺎه ‪∪ A n ∈ A‬‬

‫■‬

‫‪n =1‬‬

‫از ﺗﻌﺮﻳﻒ ﻓﻮق ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد ﻛﻪ اﮔﺮ ‪ A‬ﻳﻚ ﺳﻴﮕﻤﺎ ﻣﻴﺪان ﺑﺎﺷﺪ آﻧﮕﺎه ‪ ∅ ∈ A ، Ω ∈ A‬و‬ ‫∞‬

‫‪∩ An ∈ A‬‬

‫‪n =1‬‬

‫ﺧﻮاﻫﺪ ﺑﻮد‪.‬‬

‫ﺗﻌﺮﻳﻒ ‪ : 2-1‬ﻳﻚ اﻧﺪازه ‪ μ‬ﻳﻚ ﺗﺎﺑﻊ ﻣﺠﻤﻮﻋﻪاي روي ﺳﻴﮕﻤﺎ ﻣﻴﺪان ‪ A‬از زﻳﺮ ﻣﺠﻤﻮﻋﻪﻫﺎي ‪ Ω‬اﺳﺖ‬ ‫)∞ ‪μ : A → [0,‬‬

‫ﻫﺮ ﮔﺎه در ﺷﺮاﻳﻂ زﻳﺮ ﺻﺪق ﻛﻨﺪ‬ ‫اﻟﻒ( اﮔﺮ ‪ A ∈ A‬آﻧﮕﺎه ‪μ (A ) ≥ 0‬‬ ‫ب( اﮔﺮ ‪ A1, A2 ,... ∈ A‬و ‪ A i‬ﻫﺎ ﻣﺠﺰا ﺑﺎﺷﻨﺪ‪ ،‬ﻳﻌﻨﻲ ‪∀i ≠ j‬‬ ‫∞⎛‬ ‫∞ ⎞‬ ‫) ‪μ ⎜ ∪ Ai ⎟ = ∑ μ (A n‬‬ ‫‪⎝ n =1 ⎠ n =1‬‬

‫‪ ، Ai ∩ A j = φ‬آﻧﮕﺎه‬ ‫■‬

‫اﮔﺮ ‪ A‬ﻳﻚ ﺳﻴﮕﻤﺎ ﻣﻴﺪان از زﻳﺮ ﻣﺠﻤﻮﻋﻪﻫﺎي ‪ Ω‬ﺑﺎﺷﺪ آﻧﮕﺎه ) ‪ ( Ω, A‬را ﻳﻚ ﻓﻀﺎي اﻧﺪازهﭘﺬﻳﺮ‬

‫‪2‬‬

‫ﮔﻮﻳﻨﺪ و ﻣﺠﻤﻮﻋﻪي ‪ A ∈ A‬را اﻧﺪازهﭘﺬﻳﺮ ﮔﻮﻳﻨﺪ‪ .‬ﻫﻤﭽﻨﻴﻦ اﮔﺮ ‪ μ‬ﻳﻚ اﻧﺪازه ﺑﺎﺷﺪ ﻛﻪ روي ) ‪( Ω, A‬‬ ‫ﺗﻌﺮﻳﻒ ﺷﺪه ﺑﺎﺷﺪ آﻧﮕﺎه ﺳﻪ ﺗﺎﻳﻲ ) ‪ ( Ω, A , μ‬را ﻳﻚ ﻓﻀﺎي اﻧﺪازه ‪ 3‬ﻣﻲﻧﺎﻣﻨﺪ‪ .‬ﻳﻚ اﻧﺪازه ‪ μ‬ﺳﻴﮕﻤﺎ‬

‫‪١‬‬

‫‪Measure Theory‬‬ ‫‪Measurable Space‬‬ ‫‪٣‬‬ ‫‪Measure Space‬‬ ‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪3‬‬

‫ﻣﺘﻨﺎﻫﻲ ) ‪ (σ − finite‬ﻧﺎﻣﻴﺪه ﻣﻲﺷﻮد‪ .‬ﻫﺮ ﮔﺎه ﻣﺠﻤﻮﻋﻪﻫﺎي ‪ A i ∈ A‬ﻣﻮﺟﻮد ﺑﺎﺷﻨﺪ ﻛﻪ ‪Ω = ∪ A i‬‬ ‫‪i‬‬

‫و ∞ < ) ‪ . μ (Ai‬ﺗﻤﺎم اﻧﺪازهﻫﺎﻳﻲ ﻛﻪ در اﻳﻦ درس ﺑﺮرﺳﻲ ﻣﻲ ﺷﻮﻧﺪ‪ ،‬ﺳﻴﮕﻤﺎ ﻣﺘﻨﺎﻫﻲ ﻫﺴﺘﻨﺪ و ﺑﻪ ﻫﻤﻴﻦ‬ ‫دﻟﻴﻞ آن ﻫﺎ را ﺗﻨﻬﺎ اﻧﺪازه ﻣﻲ ﻧﺎﻣﻴﻢ‪.‬‬ ‫ﻣﺜﺎل‪ :1-1‬اﻧﺪازهﺷﻤﺎرﻧﺪه ‪ .1‬ﻓﺮضﻛﻨﻴﺪ }‪ Ω = {w 1,w 2 ,w 3 ,...‬و‬ ‫اﮔﺮ ‪ A‬ﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ‬ ‫اﮔﺮ ‪ A‬ﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ‬ ‫ﻧﺎﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ‬ ‫‪ A‬ﻧﺎﻣﺘﻨﺎﻫﻲ‬ ‫اﮔﺮ ‪A‬‬ ‫ﺑﺎﺷﺪ‬

‫ﺗﻤﺎم زﻳﺮﻣﺠﻤﻮﻋﻪﻫﺎي ‪A = Ω‬‬

‫ﺗﻌﺪاداﻋﻀﺎي ﻣﺠﻤﻮﻋﻪ ‪⎧ A‬‬ ‫⎨ = ) ‪⇒ μ (A‬‬ ‫ﺗﻌﺪاد اﻋﻀﺎي ﻣﺠﻤﻮﻋﻪ‬ ‫∞⎩‬

‫اﻳﻦ اﻧﺪازه را اﻧﺪازه ﺷﻤﺎرﻧﺪه ﮔﻮﻳﻨﺪ‪.‬‬

‫‪if A ∈ A‬‬

‫■‬

‫ﻣﺜﺎل‪ :2-1‬اﻧﺪازه ﻟﺒﮓ ‪ .2‬ﻓﺮض ﻛﻨﻴﺪ ‪ Ω‬ﻓﻀﺎ اﻗﻠﻴﺪﺳﻲ ‪ n‬ﺑﻌﺪي ﺑﺎﺷﺪ‪،‬‬

‫}‬

‫{‬

‫‪ Ω = (w 1,...,w n ) | w i ∈ ℜ, ∀i‬و ‪ A‬ﻛﻮﭼﻜﺘﺮﻳﻦ ﺳﻴﮕﻤﺎ ﻣﻴﺪاﻧﻲ ﺑﺎﺷﺪ ﻛﻪ ﺷﺎﻣﻞ ﺗﻤﺎم‬

‫ﻣﺴﺘﻄﻴﻞﻫﺎي ﺑﺎز زﻳﺮ ﺑﺎﺷﺪ‪:‬‬

‫{‬

‫}‬

‫∞‪A = (w 1,w 2 ,....,w n ) | ai < w i < bi , −∞ < ai < bi < +‬‬

‫‪ A‬ﺷﺎﻣﻞ ﺗﻤﺎم زﻳﺮﻣﺠﻤﻮﻋﻪﻫﺎي ﺑﺎز و ﺑﺴﺘﻪ ‪ Ω‬ﻣﻲﺑﺎﺷﺪ و ﺑﻪ اﻋﻀﺎي آن ﻣﺠﻤﻮﻋﻪﻫﺎي ﺑﺮل ‪ 3‬ﮔﻮﻳﻨﺪ‪ .‬ﺗﻨﻬﺎ‬ ‫ﻳﻚ اﻧﺪازه ‪ μ‬ﻣﻲﺗﻮان روي اﻳﻦ ‪ A‬ﻣﻌﺮﻓﻲ ﻛﺮد ﻛﻪ ﺑﻪ ﻣﺠﻤﻮﻋﻪ ‪ A‬ﻓﻮق اﻧﺪازه‬ ‫) ‪μ (A ) = (b1 − a1)(b2 − a2 )....(b n − an‬‬

‫را ﻧﺴﺒﺖ ﻣﻲدﻫﺪ ) ﻛﻪ ﺣﺠﻢ ﻣﺠﻤﻮﻋﻪ ‪ A‬اﺳﺖ( و ﺑﻪ آن اﻧﺪازه ﻟﺒﮓ ﮔﻮﻳﻨﺪ‪.‬‬

‫■‬

‫ﺗﻮاﺑﻊ اﻧﺪازهﭘﺬﻳﺮ ‪:4‬‬ ‫ﻳﻚ ﺗﺎﺑﻊ ﺣﻘﻴﻘﻲ ‪ f : Ω → R‬ﻳﻚ ﺗﺎﺑﻊ اﻧﺪازهﭘﺬﻳﺮ اﺳﺖ اﮔﺮ ﺑﺮاي ﻫﺮ ﻣﺠﻤﻮﻋﻪ ﺑﺮل ‪ B‬داﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ‬ ‫‪(B ) ∈ A‬‬

‫‪−1‬‬

‫‪ . f‬ﺑﺮاي ﻣﺜﺎل‬ ‫‪x ∈A‬‬ ‫‪x ∉A‬‬

‫⎧‬ ‫‪⎪1‬‬ ‫⎨ = ) ‪A ∈ A , I A (x‬‬ ‫‪⎪0‬‬ ‫⎩‬ ‫‪١‬‬

‫‪Counting Measure‬‬ ‫‪Lebesgue Measure‬‬ ‫‪٣‬‬ ‫‪Borel Sets‬‬ ‫‪٤‬‬ ‫‪Measurable Functions‬‬ ‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪4‬‬

‫‪ I A‬ﻳﻚ ﺗﺎﺑﻊ اﻧﺪازهﭘﺬﻳﺮ اﺳﺖ‪ .‬اﮔﺮ ‪ A1, A2 ,...., A K ∈ A‬و ‪ Ai ∩ A j = φ‬آﻧﮕﺎه‬ ‫‪AA‬‬ ‫) ‪f s (x ) = a1I A1 (x ) + a2I A2 (x ) + .... + ak I Ak (x‬‬

‫ﻳﻚ ﺗﺎﺑﻊ اﻧﺪازهﭘﺬﻳﺮ اﺳﺖ ﻛﻪ ﺑﻪ آن ﺗﺎﺑﻊ ﺳﺎده ﮔﻮﻳﻨﺪ‪ .‬ﺣﺎل اﮔﺮ ﻳﻚ دﻧﺒﺎﻟﻪ از ﺗﻮاﺑﻊ ﺳﺎده ﻏﻴﺮﻧﺰوﻟﻲ‬ ‫‪ f s1 , f s2 ,....‬را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ و ﻗﺮار دﻫﻴﻢ ) ∞ ‪f + (x ) = lim f s n (x ) ∈ [0,‬‬ ‫∞→ ‪n‬‬

‫آﻧﮕﺎه‬

‫‪+‬‬

‫‪ f‬ﻳﻚ ﺗﺎﺑﻊ اﻧﺪازهﭘﺬﻳﺮ اﺳﺖ‪ .‬ﻫﻤﭽﻨﻴﻦ ﻳﻚ ﺗﺎﺑﻊ دﻟﺨﻮاه ‪ f‬را ﻣﻲﺗﻮان ﺑﺼﻮرت‬

‫‪−‬‬

‫‪−f‬‬

‫‪+‬‬

‫‪f =f‬‬

‫ﻧﻮﺷﺖ ﻛﻪ در آن‬ ‫)‪f + (x ) = max(f (x ),0‬‬ ‫)‪f − (x ) = − min(f (x ),0‬‬

‫ﻳﻚ ﺗﺎﺑﻊ ‪ f : Ω → R‬اﻧﺪازهﭘﺬﻳﺮ ﺧﻮاﻫﺪ ﺑﻮد اﮔﺮ ﻗﺴﻤﺖ ﻫﺎي ﻣﺜﺒﺖ و ﻣﻨﻔﻲ آن ﻳﻌﻨﻲ ‪ f +‬و‬ ‫اﻧﺪازهﭘﺬﻳﺮ ﺑﺎﺷﻨﺪ و ﻫﻤﭽﻨﻴﻦ‬

‫‪+‬‬

‫‪−‬‬

‫‪f‬‬

‫‪ f‬و ‪ f −‬در ﺻﻮرﺗﻲ اﻧﺪازهﭘﺬﻳﺮ ﻫﺴﺘﻨﺪ ﻛﻪ ﺑﺼﻮرت ﺣﺪ دﻧﺒﺎﻟﻪاي از ﺗﻮاﺑﻊ‬

‫ﺳﺎده ﻏﻴﺮﻧﺰوﻟﻲ ﺑﺎﺷﻨﺪ‪.‬‬

‫اﻧﺘﮕﺮال ﻳﻚ ﺗﺎﺑﻊ ﻧﺴﺒﺖ ﺑﻪ اﻧﺪازه ‪: μ‬‬ ‫) ‪⇒ ∫ I A d μ = μ (A‬‬

‫⎧‬ ‫‪⎪1‬‬ ‫⎨ = ) ‪I A (x‬‬ ‫‪⎪0‬‬ ‫⎩‬

‫‪x ∈A‬‬ ‫‪x ∉A‬‬

‫‪k‬‬

‫) ‪f s (x ) = a1I A1 (x ) + ... + ak I A k ( x ) ⇒ ∫ f s d μ = ∑ ai μ ( Ai‬‬ ‫‪i =1‬‬

‫‪f (x ) = lim f s n (x ) ⇒ ∫ fd μ = lim ∫ f s n d μ‬‬ ‫∞→ ‪n‬‬

‫∞→ ‪n‬‬

‫‪⇒ ∫ fd μ = ∫ f +d μ − ∫ f −d μ‬‬

‫‪−‬‬

‫‪−f‬‬

‫‪+‬‬

‫‪f =f‬‬

‫ﻣﺜﺎل‪ :3-1‬اﮔﺮ }‪ Ω = {x 1, x 2 ,...‬و ‪ μ‬اﻧﺪازه ﺷﻤﺎرﻧﺪه ﺑﺎﺷﺪ اﻧﮕﺎه ﺑﺮاي ﻳﻚ ﺗﺎﺑﻊ ) ∞ ‪ f : Ω → [0,‬دارﻳﻢ‬ ‫ﻛﻪ‬ ‫‪i = 1, 2,..., n‬‬

‫⎧‬ ‫) ‪⎪f ( x i‬‬ ‫⎨ = ) ‪f s n (x‬‬ ‫‪⎪ 0‬‬ ‫⎩‬

‫‪x = xi‬‬

‫‪o .w .‬‬

‫) ‪= f ( x 1) I {x } ( x ) + f ( x 2 ) I {x } ( x ) + ... + f ( x n ) I {x } ( x‬‬ ‫‪n‬‬

‫‪2‬‬

‫‪1‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪5‬‬

‫‪f (x ) = lim f s n (x ) = f (x 1) I {x } (x ) + f (x 2 )I {x } (x ) + ...‬‬ ‫‪2‬‬

‫∞→ ‪n‬‬

‫‪1‬‬

‫⎧‬ ‫) ‪⎪f ( x i‬‬ ‫⎨=‬ ‫‪⎪0‬‬ ‫⎩‬

‫‪x = xi‬‬ ‫‪o .w .‬‬ ‫∞‪+‬‬

‫‪n‬‬

‫‪i =1‬‬

‫‪i =1‬‬

‫) ‪∫ f (x )d μ = lim ∫ f s n (x )d μ = lim ∑ f (x i ) =∑ f (x i‬‬ ‫ﭘﺲ در ﺻﻮرﺗﻲ ‪ f‬ﻧﺴﺒﺖ ﺑﻪ ‪ μ‬اﻧﺘﮕﺮالﭘﺬﻳﺮ اﺳﺖ ﻛﻪ‬

‫واژه ﺗﻘﺮﻳﺒﺎ ﻫﻤﻪ ﺟﺎ‬

‫∞→ ‪n‬‬

‫∞→ ‪n‬‬

‫∞‪+‬‬

‫) ‪∑ f (x i‬‬ ‫‪i =1‬‬

‫ﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ‪■ .‬‬

‫‪1‬‬

‫ﻓﺮض ﻛﻨﻴﺪ ﻳﻚ ﮔﺰاره ‪ P‬ﺑﺮاي ﺗﻤﺎم ﻧﻘﺎط ‪ Ω‬درﺳﺖ ﺑﺎﺷﺪ ﺑﺠﺰ ﻧﻘﺎط ‪ A‬ﻛﻪ در آن ‪) μ (A ) =0‬ﻳﻌﻨﻲ ‪P‬‬ ‫ﺑﺮاي ﺗﻤﺎم ‪ Ω − A‬درﺳﺖ اﺳﺖ و ‪ μ (A ) = 0‬ﻣﻲ ﺑﺎﺷﺪ( در اﻳﻦ ﺻﻮرت ﮔﻮﺋﻴﻢ اﻳﻦ ﮔﺰاره ﺗﻘﺮﻳﺒﺎ ﻫﻤﻪ‬ ‫ﺟﺎ ‪ μ‬درﺳﺖ اﺳﺖ‪( a0e0μ ) .‬‬

‫ﻗﻀﻴﻪ ﻫﻤﮕﺮاﻳﻲ ﻣﻐﻠﻮب ‪: 2‬‬ ‫اﮔﺮ ‪ f n‬دﻧﺒﺎﻟﻪاي از ﺗﻮاﺑﻊ اﻧﺪازهﭘﺬﻳﺮ ﺑﺎﺷﻨﺪ و‬ ‫و ﻳﻚ ﺗﺎﺑﻊ اﻧﺘﮕﺮالﭘﺬﻳﺮ ‪ g‬ﭼﻨﺎن ﻣﻮﺟﻮد ﺑﺎﺷﺪ ﻛﻪ‬ ‫آﻧﮕﺎه ‪ f n‬و ‪ f‬اﻧﺘﮕﺮالﭘﺬﻳﺮ ﻫﺴﺘﻨﺪ و‬

‫ﻟﻢ ﻓﺎﺗﻮ‬

‫) ‪(a.e .μ‬‬

‫‪∀x‬‬

‫) ‪lim f n ( x ) = f (x‬‬

‫∞→ ‪n‬‬

‫) ‪f n (x ) ≤ g (x‬‬

‫‪f nd μ‬‬ ‫‪∫ fd μ = nlim‬‬ ‫∫ ∞→‬

‫■‬

‫‪3‬‬

‫اﮔﺮ } ‪ {f n‬دﻧﺒﺎﻟﻪاي از ﺗﻮاﺑﻊ ﻧﺎﻣﻨﻔﻲ اﻧﺪازهﭘﺬﻳﺮ ﺑﺎﺷﻨﺪ‪ ،‬آﻧﮕﺎه‬ ‫‪inf f n )d μ ≤ lim inf ∫ f n d μ‬‬ ‫‪∫ ( nlim‬‬ ‫∞→ ‪n‬‬ ‫∞→‬

‫■‬

‫‪١‬‬

‫‪almost every where‬‬ ‫‪Dominated Convergence Theorem‬‬ ‫‪٣‬‬ ‫‪Fatou’s Lemma‬‬ ‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫ﻗﻀﻴﻪ رادون ﻧﻴﻜﻮدﻳﻢ‬

‫‪6‬‬

‫‪1‬‬

‫ﻓﺮض ﻛﻨﻴﺪ ‪ f‬ﻳﻚ ﺗﺎﺑﻊ ﻧﺎﻣﻨﻔﻲ اﻧﺘﮕﺮالﭘﺬﻳﺮ و ‪ A ∈ A‬ﺑﺎﺷﺪ‪ .‬ﻗﺮار ﻣﻲدﻫﻴﻢ‪:‬‬ ‫‪ν (A ) = ∫ fd μ‬‬

‫)‪(1‬‬

‫‪A‬‬

‫در اﻳﻦ ﺻﻮرت ) ‪ ν (A‬ﻳﻚ اﻧﺪازه روي )‪ ( Ω , A‬اﺳﺖ و واﺿﺢ اﺳﺖ ﻛﻪ‬ ‫‪μ (A ) = 0 ⇒ ν (A ) = 0‬‬

‫)‪(2‬‬

‫اﮔﺮ راﺑﻄﻪ )‪ (2‬ﺑﺮﻗﺮار ﺑﺎﺷﺪ ﮔﻮﻳﻴﻢ ﻛﻪ ‪ ν‬ﻧﺴﺒﺖ ﺑﻪ ‪ μ‬ﻣﻄﻠﻘﺎً ﭘﻴﻮﺳﺘﻪ ‪ 2‬اﺳﺖ‪.‬‬

‫■‬

‫ﻗﻀﻴﻪ رادون ﻧﻴﻜﻮدﻳﻢ ﻣﻲ ﮔﻮﻳﺪ ﻛﻪ راﺑﻄﻪ )‪ (2‬ﺷﺮط ﻻزم و ﻛﺎﻓﻲ ﺑﺮاي آن اﺳﺖ ﻛﻪ ﻳﻚ ﺗﺎﺑﻊ ‪ f‬ﻣﻮﺟﻮد‬ ‫‪∂ν‬‬ ‫ﺑﺎﺷﺪ ﻛﻪ در راﺑﻄﻪ )‪ (1‬ﺻﺪق ﻛﻨﺪ‪ .‬ﺗﺎﺑﻊ ‪ f‬را ﻣﺸﺘﻖ رادون ﻧﻴﻜﻮدﻳﻢ ‪ ν‬ﻧﺴﺒﺖ ﺑﻪ ‪ μ‬ﮔﻮﻳﻨﺪ‬ ‫‪∂μ‬‬

‫= ‪.f‬‬

‫اﻳﻦ ﻣﺸﺘﻖ ﺑﻪ ﺻﻮرت ‪ a.e .‬ﻳﻜﺘﺎ اﺳﺖ ﻳﻌﻨﻲ اﮔﺮ ‪ g‬ﻧﻴﺰ در راﺑﻄﻪ )‪ (1‬ﺻﺪق ﻛﻨﺪ آﻧﮕﺎه‪:‬‬ ‫‪a.e .μ‬‬

‫‪. f =g‬‬

‫ﻗﻀﻴﻪ ﻓﻮﺑﻴﻨﻲ‬

‫‪3‬‬

‫ﻓﺮض ﻛﻨﻴﺪ ) ‪ (Ω1, A , μ‬و ) ‪ (Ω2 , B ,ν‬دو ﻓﻀﺎي اﻧﺪازه و ‪ f‬ﻳﻚ ﺗﺎﺑﻊ ﻏﻴﺮﻣﻨﻔﻲ اﻧﺪازهﭘﺬﻳﺮ روي‬ ‫‪ Ω1 × Ω2‬ﺑﺎﺷﺪ ‪ .‬در اﻳﻦ ﺻﻮرت‪:‬‬ ‫⎡‬

‫⎤‬

‫⎡‬

‫⎤‬

‫) ‪∫ ⎢⎣ ∫Ω f (x , y )dν ( y ) ⎥⎦ d μ (x ) = ∫ ⎢⎣ ∫Ω f (x , y )d μ (x ) ⎥⎦ d μ ( y‬‬ ‫‪1‬‬

‫■ ) ‪f d ( μ ×ν‬‬

‫اﻧﺪازه اﺣﺘﻤﺎل‬

‫‪Ω2‬‬

‫‪2‬‬

‫‪Ω1‬‬

‫∫=‬

‫‪Ω1×Ω2‬‬

‫‪4‬‬

‫ﻓﺮض ﻛﻨﻴﺪ ‪ Ω‬ﻓﻀﺎي ﻧﻤﻮﻧﻪ ﻳﻚ آزﻣﺎﻳﺶ ﺗﺼﺎدﻓﻲ ﺑﺎﺷﺪ‪ .‬ﻳﻚ اﻧﺪازهي ‪ P‬روي ﻓﻀﺎي اﻧﺪازهﭘﺬﻳﺮ‬ ‫) ‪ (Ω, A‬ﻛﻪ در ﺷﺮط ‪ P (Ω) = 1‬ﺻﺪق ﻛﻨﺪ را اﻧﺪازهي اﺣﺘﻤﺎل ﮔﻮﻳﻨﺪ و ﺑﻪ ﻣﻘﺪار ) ‪ P (A‬اﺣﺘﻤﺎل‬ ‫‪ A‬ﮔﻮﻳﻨﺪ و ﺑﻪ ) ‪ (Ω, A , P‬ﻓﻀﺎي اﺣﺘﻤﺎل ﮔﻮﻳﻨﺪ‪.‬‬ ‫‪١‬‬

‫‪Radon Nikodym‬‬ ‫‪Absolutely Continuous‬‬ ‫‪٣‬‬ ‫‪Fubini’s Theorem‬‬ ‫‪٤‬‬ ‫‪Probability Measure‬‬ ‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪7‬‬

‫اﮔﺮ ‪ P‬ﻧﺴﺒﺖ ﺑﻪ اﻧﺪازه ‪ μ‬ﻣﻄﻠﻘﺎً ﭘﻴﻮﺳﺘﻪ ﺑﺎﺷﺪ و ‪ p‬ﻣﺸﺘﻖ رادون ﻧﻴﻜﻮدﻳﻢ آن ﺑﺎﺷﺪ آﻧﮕﺎه‬ ‫‪P ( A ) = ∫ pd μ‬‬ ‫‪A‬‬

‫‪ p‬را ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ اﺣﺘﻤﺎل ‪ P‬ﻧﺴﺒﺖ ﺑﻪ ‪ μ‬ﮔﻮﻳﻨﺪ‪.‬‬ ‫در اﻳﻦ درس ﻣﻌﻤﻮﻻً ‪ Ω‬را ﻓﻀﺎي اﻗﻠﻴﺪﺳﻲ در ﻧﻈﺮ ﻣﻲ ﮔﻴﺮﻳﻢ‪ .‬اﮔﺮ اﻧﺪازهي اﺣﺘﻤﺎل ‪ P‬ﻧﺴﺒﺖ ﺑﻪ‬ ‫اﻧﺪازهي ﻟﺒﮓ ﻣﻄﻠﻘﺎً ﭘﻴﻮﺳﺘﻪ ﺑﺎ ﭼﮕﺎﻟﻲ ‪ p‬ﺑﺎﺷﺪ آﻧﮕﺎه ﺗﻮزﻳﻊ ﻣﺮﺑﻮﻃﻪ را ﻳﻚ ﺗﻮزﻳﻊ ﭘﻴﻮﺳﺘﻪ و اﮔﺮ ‪P‬‬

‫ﻧﺴﺒﺖ ﺑﻪ اﻧﺪازه ﺷﻤﺎرﻧﺪه ﻣﻄﻠﻘﺎً ﭘﻴﻮﺳﺘﻪ ﺑﺎ ﭼﮕﺎﻟﻲ ‪ p‬ﺑﺎﺷﺪ آﻧﮕﺎه ﺗﻮزﻳﻊ ﻣﺮﺑﻮﻃﻪ را ﻳﻚ ﺗﻮزﻳﻊ ﮔﺴﺴﺘﻪ‬ ‫ﮔﻮﻳﻨﺪ‪ .‬در ﻛﺎرﺑﺮدﻫﺎي ﻣﻌﻤﻮﻟﻲ اﻳﻦ درس دارﻳﻢ ﻛﻪ ‪:‬‬

‫) ‪ p‬ﭘﻴﻮﺳﺘﻪ( اﻧﺪازه ﻟﺒﮓ‬ ‫) ‪ p‬ﮔﺴﺴﺘﻪ( اﻧﺪازه ﺷﻤﺎرﻧﺪه‬

‫‪⎧⎪ f ( x ) p (x )dx‬‬ ‫∫‬ ‫‪μ‬‬ ‫‪fdP‬‬ ‫‪fpd‬‬ ‫=‬ ‫=‬ ‫⎨‬ ‫∫‬ ‫∫‬ ‫) ‪⎪⎩∑ f ( x ) p (x‬‬

‫در اﺳﺘﻨﺒﺎط آﻣﺎري ﻣﻌﻤﻮﻻً ﺑﺎ ﻳﻚ ﺧﺎﻧﻮاده از ﺗﻮزﻳﻊﻫﺎ ﺑﻪ ﺻﻮرت }‪ P = {Pθ : θ ∈ Θ‬ﺳﺮ و ﻛﺎر دارﻳﻢ‪.‬‬ ‫اﮔﺮ ﺑﻪ ازاي ﻫﺮ ‪ Pθ ، θ‬ﻧﺴﺒﺖ ﺑﻪ اﻧﺪازه ‪ μ‬ﻣﻄﻠﻘﺎً ﭘﻴﻮﺳﺘﻪ ﺑﺎﺷﺪ ﮔﻮﻳﻴﻢ ﻛﻪ ﺧﺎﻧﻮاده ‪ P‬ﺗﺤﺖ ﺗﺴﻠﻂ ‪μ‬‬ ‫ﻗﺮار دارد ‪ .1‬اﮔﺮ ‪ Pθ (N ) = 0‬ﮔﻮﺋﻴﻢ ‪ N = Pθ − null set‬و اﮔﺮ ‪∀θ ∈ Θ‬‬

‫‪ Pθ (N ) = 0‬ﮔﻮﻳﻴﻢ‬

‫‪. N = P – null set‬‬

‫ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ‪:‬‬ ‫در ﻳﻚ ﻓﻀﺎي اﺣﺘﻤﺎل ) ‪ (Ω, A , P‬ﺗﺎﺑﻊ ‪ X : Ω → R‬را اﮔﺮ اﻧﺪازهﭘﺬﻳﺮ ﺑﺎﺷﺪ ﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ‬ ‫ﮔﻮﻳﻨﺪ ﻳﻌﻨﻲ اﮔﺮ ﺑﺮاي ﻫﺮ ﻣﺠﻤﻮﻋﻪ ﺑ‪‬ﺮل ‪(B ) ∈ A ، B‬‬

‫‪−1‬‬

‫‪ X‬ﺑﺎﺷﺪ آﻧﮕﺎه ‪ X‬را ﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ‬

‫ﮔﻮﻳﻨﺪ‬ ‫) ‪PX (B ) = P (X ∈ B ) = P (A‬‬

‫‪,‬‬

‫) ‪(B‬‬

‫‪−1‬‬

‫‪A =X‬‬

‫‪ PX‬را ﺗﻮزﻳﻊ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ‪ X‬ﻧﺎﻣﻴﻢ‪.‬‬ ‫اﮔﺮ ‪ PX‬ﻧﺴﺒﺖ ﺑﻪ اﻧﺪازه ﻟﺒﮓ ﻣﻄﻠﻘﺎً ﭘﻴﻮﺳﺘﻪ ﺑﺎﺷﺪ آﻧﮕﺎه ‪ X‬را ﻳﻚ ﻣﺘﻐﻴﺮ ﭘﻴﻮﺳﺘﻪ ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ‪p X‬‬ ‫‪PX ( A ) = ∫ p x d μ‬‬

‫ﮔﻮﻳﻴﻢ ﻫﺮ ﮔﺎه‬

‫‪A‬‬

‫و ‪ X‬را ﮔﺴﺴﺘﻪ ﮔﻮﺋﻴﻢ ﻫﺮ ﮔﺎه‬

‫‪Counting Measure‬‬

‫∼ ‪PX ( A ) = ∫ p x d μ‬‬ ‫‪A‬‬

‫‪μ‬‬

‫‪Dominated by‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪8‬‬

‫در ﻫﺮ ﺻﻮرت ‪ p X‬را ﻣﻲﺗﻮان ﭼﮕﺎﻟﻲ ‪ PX‬ﻧﺎﻣﻴﺪ‪ .‬ﮔﺮﭼﻪ در ﺣﺎﻟﺖ ﮔﺴﺴﺘﻪ آن را ﺗﺎﺑﻊ اﺣﺘﻤﺎل ﻧﻴﺰ‬ ‫ﮔﻮﻳﻨﺪ‪.‬‬ ‫اﮔﺮ ] ‪A = ( −∞, x‬‬

‫‪ FX ( x ) = PX ( A ),‬آﻧﮕﺎه ‪ FX‬را ﺗﺎﺑﻊ ﺗﻮزﻳﻊ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ‪ X‬ﻧﺎﻣﻴﻢ ‪ .‬اﮔﺮ ‪X‬‬

‫ﭘﻴﻮﺳﺘﻪ ﺑﺎﺷﺪ ) ‪ PX‬ﻣﻄﻠﻘﺎً ﭘﻴﻮﺳﺘﻪ اﺳﺖ( آﻧﮕﺎه ﺛﺎﺑﺖ ﻣﻲﺷﻮد ﻛﻪ ﺗﺎﺑﻊ ) ‪ FX (x‬ﻧﻴﺰ ) ﺑﺎ ﺗﻌﺮﻳﻒ ﺗﻮاﺑﻊ ﻣﻄﻠﻘﺎً‬ ‫ﭘﻴﻮﺳﺘﻪ در آﻧﺎﻟﻴﺰ( ﻣﻄﻠﻘﺎً ﭘﻴﻮﺳﺘﻪ اﺳﺖ‪.‬‬ ‫در آﻧﺎﻟﻴﺰ‪ ،‬ﺗﺎﺑﻊ ‪ g‬را ﻣﻄﻠﻘﺎً ﭘﻴﻮﺳﺘﻪ ﻧﺎﻣﻴﻢ اﮔﺮ ﺑﻪ ازاي ﻫﺮ ‪ ε > 0‬ﻳﻚ ‪ δ >0‬وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﻛﻪ ﺑﻪ‬ ‫‪n‬‬

‫‪n‬‬

‫‪i =1‬‬

‫‪i =1‬‬

‫‪∑ (bi − ai ) < δ ⇒ ∑ f (bi ) − f (ai ) < ε‬‬

‫ازاي ﻫﺮ ‪، n‬‬

‫ﺑﺨﺶ ‪ :2‬ﺧﺎﻧﻮاده ﮔﺮوﻫﻲ از ﺗﻮزﻳﻊﻫﺎ‬

‫‪1‬‬

‫در اﻳﻦ درس ﺑﺎ دو ﺧﺎﻧﻮاده از ﺗﻮزﻳﻊﻫﺎ ﺳﺮ و ﻛﺎر دارﻳﻢ ﻛﻪ ﻳﻜﻲ ﺧﺎﻧﻮاده ﮔﺮوﻫﻲ و دﻳﮕﺮي ﺧﺎﻧﻮاده‬ ‫ﻧﻤﺎﻳﻲ از ﺗﻮزﻳﻊﻫﺎ ﻣﻲ ﺑﺎﺷﺪ‪.‬‬ ‫ﺗﻌﺮﻳﻒ ‪ :1-2‬ﻳﻚ ﺧﺎﻧﻮاده ﮔﺮوﻫﻲ از ﺗﻮزﻳﻊﻫﺎ ﺑﻪ وﺳﻴﻠﻪ اﻧﺠﺎم ﻳﻚ ﺧﺎﻧﻮاده از ﺗﺒﺪﻳﻼت روي ﻳﻚ ﻣﺘﻐﻴﺮ‬ ‫ﺗﺼﺎدﻓﻲ ﺑﺎ ﻳﻚ ﺗﻮزﻳﻊ ﺧﺎص ﺣﺎﺻﻞ ﻣﻲﺷﻮد‪.‬‬ ‫در زﻳﺮ ﺳﻪ ﺧﺎﻧﻮادهي ﻣﻬﻢ از ﺧﺎﻧﻮادهي ﮔﺮوهﻫﺎ را ﻣﻌﺮﻓﻲ ﻣﻲ ﻛﻨﻴﻢ‪.‬‬

‫‪ -1‬ﺧﺎﻧﻮادهي ﻣﻜﺎﻧﻲ‬

‫‪2‬‬

‫ﻓﺮض ﻛﻨﻴﺪ ‪ U‬ﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﺑﺎ ﻳﻚ ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ﺛﺎﺑﺖ ) ‪ f (u‬ﺑﺎﺷﺪ‪ .‬اﮔﺮ ‪ μ‬ﻣﻘﺪاري ﺛﺎﺑﺖ ﺑﺎﺷﺪ‬ ‫آﻧﮕﺎه ﺗﻮزﻳﻊ ‪ X = U + μ‬ﻋﺒﺎرت اﺳﺖ از‬

‫) ‪f X (x ) = f (x − μ‬‬

‫ﺗﻮزﻳﻊ ﺣﺎﺻﻞ ﺑﺮاي ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ﺛﺎﺑﺖ ‪ f‬و ∞‪ −∞ < μ < +‬را ﻳﻚ ﺧﺎﻧﻮاده ﻣﻜﺎﻧﻲ از ﺗﻮزﻳﻊﻫﺎ ﮔﻮﻳﻨﺪ‪.‬‬ ‫ﺑﺮاي ﻣﺜﺎل ﺗﻮزﻳﻊ )‪ N ( μ ,1‬ﻛﻪ از ﺗﻮزﻳﻊ ﺛﺎﺑﺖ )‪ N (0,1‬ﺑﺎ ﺟﻤﻊ ﺑﺎ ﻣﻘﺪار ﺛﺎﺑﺖ ‪ μ‬ﺣﺎﺻﻞ ﻣﻲﺷﻮد‪.‬‬ ‫‪1‬‬

‫) ‪1 −2(x −μ‬‬ ‫= ) ‪f x (x‬‬ ‫‪e‬‬ ‫) ‪= f (x − μ‬‬ ‫‪2π‬‬ ‫‪2‬‬

‫‪Z ∼ N (0,1) ⇒ X = Z + μ ~ N ( μ ,1),‬‬ ‫‪Group Families‬‬

‫‪١‬‬

‫‪Location Family‬‬

‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪ -2‬ﺧﺎﻧﻮاده ﻣﻘﻴﺎﺳﻲ‬

‫‪9‬‬

‫‪1‬‬

‫ﻓﺮض ﻛﻨﻴﺪ ‪ U‬ﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﺑﺎ ﻳﻚ ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ﺛﺎﺑﺖ ) ‪ f (u‬ﺑﺎﺷﺪ‪ .‬اﮔﺮ ‪ σ‬ﻣﻘﺪاري ﺛﺎﺑﺖ ﺑﺎﺷﺪ‬ ‫‪x‬‬ ‫آﻧﮕﺎه ﺗﻮزﻳﻊ ‪ X = σU‬ﻋﺒﺎرت اﺳﺖ از ) ( ‪f‬‬

‫‪1‬‬

‫= ) ‪f X (x‬‬

‫‪σ σ‬‬ ‫ﺗﻮزﻳﻊ ﺣﺎﺻﻞ ﺑﺮاي ‪ σ > 0‬را ﻳﻚ ﺧﺎﻧﻮاده ﻣﻘﻴﺎﺳﻲ از ﺗﻮزﻳﻊﻫﺎ ﮔﻮﻳﻨﺪ‪.‬‬

‫ﺑﺮاي ﻣﺜﺎل ﺗﻮزﻳﻊ ) ‪ E (θ‬ﻛﻪ از ﺗﻮزﻳﻊ ﺛﺎﺑﺖ )‪ E (1‬ﺑﺎ ﺿﺮب در ﻣﻘﺪار ﺛﺎﺑﺖ ‪ θ‬ﺣﺎﺻﻞ ﻣﻲﮔﺮدد‪.‬‬ ‫‪x‬‬ ‫) ( ‪f‬‬

‫‪θ‬‬

‫‪1‬‬

‫‪θ‬‬

‫‪x‬‬

‫‪θ‬‬

‫=‬

‫‪−‬‬

‫‪1‬‬

‫‪U ~ E (1) ⇒ X = θU ~ E (θ ),‬‬

‫‪f X (x ) = e‬‬

‫‪θ‬‬

‫‪ -3‬ﺧﺎﻧﻮادهي ﻣﻜﺎﻧﻲ – ﻣﻘﻴﺎﺳﻲ‬

‫‪2‬‬

‫ﻓﺮض ﻛﻨﻴﺪ ‪ U‬ﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﺑﺎ ﻳﻚ ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ﺛﺎﺑﺖ ) ‪ f (u‬ﺑﺎﺷﺪ‪ .‬اﮔﺮ ‪ μ‬و ‪ σ‬ﻣﻘﺎدﻳﺮ ﺛﺎﺑﺘﻲ‬ ‫‪x −μ‬‬

‫‪1‬‬

‫ﺑﺎﺷﻨﺪ‪ .‬آﻧﮕﺎه ﺗﻮزﻳﻊ ‪ X = μ + σU‬ﻋﺒﺎرتاﺳﺖ از‬ ‫)‬ ‫‪σ‬‬ ‫‪σ‬‬ ‫ﺗﻮزﻳﻊ ﺣﺎﺻﻞ ﺑﺮاي ∞‪ −∞ < μ < +‬و ‪ σ > 0‬را ﻳﻚ ﺧﺎﻧﻮاده ﻣﻜﺎﻧﻲ – ﻣﻘﻴﺎﺳﻲ از ﺗﻮزﻳﻊﻫﺎ ﮔﻮﻳﻨﺪ‪.‬‬ ‫( ‪f‬‬

‫= ) ‪f X (x‬‬

‫ﺑﺮاي ﻣﺜﺎل ﺗﻮزﻳﻊ ) ‪ N ( μ ,σ 2‬از ﺗﻮزﻳﻊ )‪ N (0,1‬ﺑﻪ ﺻﻮرت زﻳﺮ ﺣﺎﺻﻞ ﻣﻲﮔﺮدد‪.‬‬ ‫‪U ~ N (0,1) ⇒ X = μ + σU ~ N ( μ , σ 2 ),‬‬ ‫)‬

‫‪x −μ‬‬

‫‪σ‬‬

‫( ‪f‬‬

‫‪1‬‬

‫‪σ‬‬

‫=‬

‫‪1 x −μ 2‬‬ ‫)‬

‫‪σ‬‬

‫(‪1 −2‬‬ ‫‪e‬‬ ‫‪2π‬‬

‫‪1‬‬

‫‪σ‬‬

‫= ) ‪f X (x‬‬

‫در زﻳﺮ ﺗﻌﺪادي از ﺧﺎﻧﻮاده ﻫﺎي ﻣﻜﺎﻧﻲ ﻣﻘﻴﺎﺳﻲ آورده ﺷﺪه اﺳﺖ‪.‬‬ ‫) ‪I (α +∞ ) (x‬‬

‫‪1‬‬ ‫) ‪− ( x −α‬‬

‫‪β‬‬

‫‪e‬‬

‫‪1‬‬

‫‪β‬‬

‫= ) ‪f X (x‬‬

‫) ‪E (α , β‬‬

‫) ‪(i‬‬

‫‪1‬‬

‫| ‪1 − β |x −α‬‬ ‫= ) ‪f X (x‬‬ ‫‪e‬‬ ‫‪2β‬‬ ‫‪1‬‬ ‫= ) ‪f X (x‬‬ ‫‪x −α 2‬‬ ‫( ‪π {1 +‬‬ ‫})‬

‫) ‪DE (α , β‬‬

‫) ‪(ii‬‬

‫) ‪C (α , β‬‬

‫) ‪(iii‬‬

‫‪β‬‬

‫‪scale family‬‬ ‫‪location – scale family‬‬

‫‪١‬‬ ‫‪٢‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪www.riazisara.ir‬‬

‫‪10‬‬

‫) ‪U (θ − ,θ +‬‬ ‫‪2‬‬ ‫‪2‬‬

‫) ‪(iv‬‬

‫‪τ‬‬

‫‪τ‬‬

‫در ﻫﺮ ﻳﻚ از ﺣﺎﻻت ﻓﻮق ﻣﺎ ﻳﻚ ﻛﻼس از ﺗﺒﺪﻳﻼت ‪ G‬و ﻳﻚ ﻋﻤﻞ * دارﻳﻢ ﻛﻪ داراي دو ﺧﺎﺻﻴﺖ زﻳﺮ‬ ‫اﺳﺖ‪.‬‬ ‫اﻟﻒ‪ -‬ﻛﻼس ‪ G‬ﺗﺤﺖ ﻋﻤﻞ ﺗﺮﻛﻴﺐ ﺑﺴﺘﻪ اﺳﺖ ﻳﻌﻨﻲ‬ ‫‪g1 ∗ g 2 ∈ G‬‬

‫‪g 1, g 2 ∈ G‬‬

‫‪then‬‬

‫‪if‬‬

‫ب‪ -‬ﻛﻼس ‪ G‬ﺗﺤﺖ ﻋﻤﻞ وارون ﺑﺴﺘﻪ اﺳﺖ ﻳﻌﻨﻲ‬ ‫‪∋ g * g −1 = e ∈ G‬‬

‫‪then ∃g −1 ∈ G‬‬

‫‪g∈G‬‬

‫‪if‬‬

‫ﻛﻪ ‪ e‬ﺗﺒﺪﻳﻞ ﻫﻤﺎﻧﻲ ﻧﺎم دارد‪.‬‬ ‫ﻳﻚ ﻛﻼس از ﺗﺒﺪﻳﻼت ﻛﻪ ﺗﺤﺖ ﻋﻤﻞ ﺗﺮﻛﻴﺐ و وارون ﺑﺴﺘﻪ ﺑﺎﺷﺪ‪ ،‬ﻳﻚ ﮔﺮوه ﺗﺒﺪﻳﻼت ﻧﺎﻣﻴﺪه ﻣﻲﺷﻮد‪.‬‬ ‫ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ ‪ P‬ﻳﻚ ﺗﻮزﻳﻊ ﺧﺎص و ﻣﻌﻠﻮم ﻣﺮﺑﻮط ﺑﻪ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ‪ X‬ﺑﺎﺷﺪ‪ .‬در اﻳﻦ ﺻﻮرت‬ ‫ﻣﺠﻤﻮﻋﻪي }) ‪ G = {g |Y g = g (X‬را ﻳﻚ ﺧﺎﻧﻮاده ﮔﺮوﻫﻲ از ﺗﻮزﻳﻊﻫﺎ ﮔﻮﻳﻨﺪ‪.‬‬ ‫ﺑﺮاي ﻣﺜﺎل ﺧﺎﻧﻮادهي ﻣﻜﺎﻧﻲ‪ -‬ﻣﻘﻴﺎﺳﻲ ﻳﻚ ﺧﺎﻧﻮاده ﮔﺮوﻫﻲ از ﺗﻮزﻳﻊﻫﺎ ﻣﻲ ﺑﺎﺷﺪ‪.‬‬ ‫}‪G = {g | g (U ) = μ + σU , μ ∈ℜ,σ > 0‬‬ ‫‪) X 1 = g 1(U ) = μ1 + σ1U‬اﻟﻒ‬ ‫) ‪X 2 = g 2 ( X 1 ) = g 2 ( g 1 (U )) = μ2 + σ1 ( g 1 (U )) = μ2 + σ1 ( μ1 + σ1U‬‬

‫‪= ( μ1σ1 + μ2 ) + σ1σ 2U ⇒ g 2 * g 1 ∈ G‬‬ ‫‪U −μ‬‬

‫‪σ‬‬ ‫‪⇒ g * g −1 = e ∈ G‬‬

‫= ) ‪⇒ g −1(U‬‬

‫‪X = g (U ) = μ + σU‬‬

‫‪U −μ‬‬ ‫( ‪Y = g ( g −1(U )) = μ + σ‬‬ ‫‪) =U‬‬

‫‪σ‬‬

‫ﻳﻚ ﺧﺎﻧﻮاده از ﺗﺒﺪﻳﻼت ﻛﻪ در ﺷﺮط ‪ g1 * g 2 = g 2 * g1 ∀g1, g 2 ∈ G‬ﺻﺪق ﻛﻨﺪ‪ ،‬ﻳﻚ ﮔﺮوه‬ ‫ﺗﺒﺪﻳﻼت ﺟﺎﺑﺠﺎﻳﻲ ‪ 1‬ﻧﺎﻣﻴﺪه ﻣﻲﺷﻮد‪ .‬ﺑﺮاي ﻣﺜﺎل ﺧﺎﻧﻮادهي ﻣﻜﺎﻧﻲ و ﺧﺎﻧﻮادهي ﻣﻘﻴﺎﺳﻲ ﻳﻚ ﮔﺮوه ﺗﺒﺪﻳﻼت‬ ‫ﺟﺎﺑﺠﺎﻳﻲ ﻫﺴﺘﻨﺪ‪ ،‬اﻣﺎ ﺧﺎﻧﻮاده ﻣﻜﺎﻧﻲ – ﻣﻘﻴﺎﺳﻲ ﭼﻨﻴﻦ ﻧﻴﺴﺖ‪.‬‬ ‫‪Commutative‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪11‬‬

‫ﻣﺜﺎل ‪ :1-2‬ﻓﺮض ﻛﻨﻴﺪ ) ‪ U = (U 1,...,U n‬ﻳﻚ ﺑﺮدار ﺗﺼﺎدﻓﻲ ‪ n‬ﺑﻌﺪي ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت ﻣﻲﺗﻮان‬ ‫ﮔﺮوه ﺗﺒﺪﻳﻼت زﻳﺮ را روي اﻳﻦ ﺑﺮدار ﺗﺼﺎدﻓﻲ اﻧﺠﺎم داد‪.‬‬ ‫) ‪U + a = (U 1 + a ,U 2 + a ,...,U n + a‬‬

‫‪a∈R‬‬

‫) ‪bU = (bU 1,bU 2 ,..., bU n‬‬

‫■‬

‫‪a ∈ R ,b > 0‬‬

‫) ‪a + bU = (a + bU 1, a + bU 2 ,..., a + bU n‬‬

‫ﻣﺜﺎل‪ :2 -2‬ﺗﻮزﻳﻊ ﭼﻨﺪ ﻣﺘﻐﻴﺮه ﻧﺮﻣﺎل‬ ‫ﻓﺮض ﻛﻨﻴﺪ ) ‪ U = (U 1,...,U p‬و ‪ U i ~ N (0,1) , i = 1,..., p ,‬و ‪ U 1,...,U p‬از ﻳﻜﺪﻳﮕﺮ ﻣﺴﺘﻘﻞ‬ ‫ﺑﺎﺷﻨﺪ و ﺗﺒﺪﻳﻞ زﻳﺮ را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﺪ‬ ‫⎞ ‪⎛U 1‬‬ ‫⎜‬ ‫⎟‬ ‫⎞ ‪⎛ X 1 ⎞ ⎛ a1‬‬ ‫⎟ ‪⎜U 2‬‬ ‫⎜‬ ‫⎟ ⎜ ⎟‬ ‫⎜‬ ‫⎟‬ ‫⎜‬ ‫‪⎟ = ⎜ ⎟ + B ⎜ . ⎟ ⇔ X = a + BU‬‬ ‫⎟ ‪⎜ X p ⎟ ⎜ ap‬‬ ‫⎟ ‪⎜.‬‬ ‫⎝‬ ‫⎠ ⎝ ⎠‬ ‫⎟ ‪⎜U‬‬ ‫⎠‪⎝ p‬‬

‫ﻛﻪ در آن ‪ B‬ﻳﻚ ﻣﺎﺗﺮﻳﺲ وارون ﭘﺬﻳﺮ ‪ p × p‬اﺳﺖ‪ .‬ﺗﻮزﻳﻊ ‪ X‬را ﺗﻮزﻳﻊ ﻧﺮﻣﺎل ﭼﻨﺪ ﻣﺘﻐﻴﺮه ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ و‬ ‫وارﻳﺎﻧﺲ زﻳﺮ ﮔﻮﻳﻨﺪ‬ ‫‪E (X ) = a + BE (U ) = a‬‬ ‫‪∑ =V (X ) = BV (U )B ′ = BB ′‬‬

‫ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺗﻮزﻳﻊ ‪ X‬ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ‬ ‫‪1‬‬ ‫‪p‬‬ ‫‪− u ′u‬‬ ‫‪2e 2‬‬

‫‪−‬‬

‫) ‪= (2π‬‬

‫‪p‬‬ ‫‪p − 1 ∑ u i2‬‬ ‫‪2 e 2 i =1‬‬

‫‪−‬‬

‫) ‪f (u ) = (2π‬‬

‫| ‪X = a + BU ⇒ U = B −1( X − a ) ⇒| J |=| B −1‬‬

‫⎪⎫ ) ‪⎧⎪ − 1 ( x −a )′( B −1)′B −1( x −a‬‬ ‫‪−p‬‬ ‫‪| ⎨e 2‬‬ ‫‪⎬ (2π ) 2‬‬ ‫⎪⎩‬ ‫⎪⎭‬

‫■‬

‫‪−1‬‬

‫‪−1‬‬

‫‪| f U (B (x − a )) =| B‬‬ ‫‪1‬‬ ‫) ‪− ( x −a )′ ∑ −1 ( x −a‬‬ ‫‪e 2‬‬

‫‪−1‬‬

‫‪f X (x ) =| B‬‬

‫‪−1‬‬ ‫‪|∑| 2‬‬

‫‪2‬‬

‫‪−p‬‬

‫) ‪= (2π‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪12‬‬

‫ﺑﺨﺶ ‪ :3‬ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ از ﺗﻮزﻳﻊﻫﺎ‬ ‫ﺗﻌﺮﻳﻒ ‪ :1-3‬ﻳﻚ ﺧﺎﻧﻮاده }‪ {Pθ : θ ∈ Θ‬از ﺗﻮزﻳﻊﻫﺎ را ﻳﻚ ﺧﺎﻧﻮادهي ﻧﻤﺎﻳﻲ ‪ k‬ﭘﺎراﻣﺘﺮي ﮔﻮﻳﻨﺪ اﮔﺮ‬ ‫ﺗﻮزﻳﻊ ‪ Pθ‬ﺑﺮاي ﻫﺮ ‪ θ ∈ Θ‬و ﻫﺮ *‪) x ∈ S X‬ﺗﻜﻴﻪﮔﺎه ‪ ( X‬داراي ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ﺑﻔﺮم زﻳﺮ ﻧﺴﺒﺖ ﺑﻪ اﻧﺪازهي‬ ‫‪ μ‬ﺑﺎﺷﺪ‬ ‫‪k‬‬ ‫∑ ⎧‬ ‫⎫ ) ‪c (θ )T j ( x ) − B (θ‬‬ ‫‪⎪ j =1 j‬‬ ‫⎪‬ ‫‪pθ (x ) = ⎨e‬‬ ‫) ‪⎬ h (x‬‬ ‫⎪‬ ‫⎪‬ ‫⎩‬ ‫⎭‬

‫)‪(1‬‬ ‫ﻛﻪ در آن ﺑﺎﻳﺴﺘﻲ‬

‫‪ S X* -1‬ﺑﺴﺘﮕﻲ ﺑﻪ ﻣﻘﺎدﻳﺮ ) ‪ θ = (θ1,θ2 ,...,θ k‬ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ‪.‬‬ ‫‪ j = 1,..., k ,c j (θ ) -2‬ﺗﻮاﺑﻌﻲ ﻏﻴﺮﺻﻔﺮ و ﭘﻴﻮﺳﺘﻪ از ) ‪ θ = (θ1,...,θ k‬ﺑﺎﺷﻨﺪ‪.‬‬ ‫‪ -3‬در ﺣﺎﻟﺖ ﭘﻴﻮﺳﺘﻪ ) ‪، j = 1, 2,..., k ،T j′ (x‬‬

‫ﺗﻮاﺑﻌﻲ ﭘﻴﻮﺳﺘﻪ روي *‪ S X‬و در ﺣﺎﻟﺖ ﮔﺴﺴﺘﻪ‬

‫) ‪ ، j = 1, 2,..., k ،T j (x‬ﺗﻮاﺑﻌﻲ ﻏﻴﺮ ﺻﻔﺮ روي *‪ S X‬ﺑﺎﺷﻨﺪ‪.‬‬ ‫‪ -4‬در ﺣﺎﻟﺖ ﭘﻴﻮﺳﺘﻪ ) ‪ h (x‬ﺗﺎﺑﻌﻲ ﭘﻴﻮﺳﺘﻪ روي *‪ S X‬ﺑﺎﺷﺪ‪.‬‬ ‫ﺧﺎﻧﻮاده ‪ pθ‬در )‪ (1‬را ﻳﻚ ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﭘﺮ رﺗﺒﻪ ‪ 1‬ﺑﺎ ﺑ‪‬ﻌﺪ ‪ k‬ﮔﻮﻳﻨﺪ ﻫﺮﮔﺎه ﺷﺮاﻳﻂ ‪ 1‬ﺗﺎ ‪ 4‬ﺑﺎﻻ ﺑﺮﻗﺮار‬ ‫ﺑﺎﺷﺪ و ﻋﻼوه ﺑﺮ آن‬ ‫اﻟﻒ‪ -‬ﺗﻮاﺑﻊ ) ‪ ، j = 1, 2,..., k ، c j (θ‬ﺑﻪ ﻃﻮر ﺗﺎﺑﻌﻲ از ﻳﻜﺪﻳﮕﺮ ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ‪.‬‬ ‫ب‪ -‬ﺗﻮاﺑﻊ ) ‪ ، j = 1, 2,..., k ،T j (x‬ﺑﻪ ﻃﻮر ﺧﻄﻲ از ﻳﻜﺪﻳﮕﺮ ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ‪.‬‬ ‫ج – ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ‪ Θ‬ﻳﻚ ﺷﺎﻣﻞ ﻳﻚ ﻣﺴﺘﻄﻴﻞ ‪ K‬ﺑﻌﺪي ﺑﺎﺷﺪ‪.‬‬

‫■‬

‫ﻣﺜﺎل ‪ :1-3‬ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي زﻳﺮ ﺑﻪ ﻳﻚ ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﻳﻚ ﭘﺎراﻣﺘﺮي ﻣﺘﻌﻠﻖ ﻣﻲﺑﺎﺷﻨﺪ‪.‬‬ ‫‪σ >0‬‬ ‫‪θ >0‬‬

‫) ‪N (0, σ 2‬‬ ‫) ‪N (θ ,θ‬‬

‫) ‪(g‬‬ ‫) ‪(h‬‬

‫‪(i ) Γ(α , β ) β > 0, α known‬‬

‫‪n is known‬‬

‫)‪B (1,θ ) θ ∈ (0,1‬‬ ‫)‪B (n ,θ ) θ ∈ (0,1‬‬

‫) ‪(a‬‬ ‫) ‪(b‬‬

‫‪(c ) NB ( n ,θ ) θ ∈ (0,1) n is known‬‬ ‫‪Full Rank‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪α > 0, β known‬‬

‫■‬

‫) ‪( j ) Γ(α , β‬‬

‫)‪θ ∈ (0,1‬‬

‫‪α > 0, β known‬‬

‫) ‪(k ) Be (α , β‬‬

‫)∞‪θ ∈ (0, +‬‬

‫‪β > 0, α known‬‬

‫) ‪(l ) Be (α , β‬‬

‫‪13‬‬

‫) ‪(d ) Ge (θ‬‬

‫) ‪(e ) P (θ‬‬ ‫)‪(f ) N ( μ ,1‬‬

‫‪μ ∈R‬‬

‫ﻣﺜﺎل‪ :2-3‬ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي زﻳﺮ ﺑﻪ ﻳﻚ ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ دو ﭘﺎراﻣﺘﺮي ﭘﺮ رﺗﺒﻪ ﻣﺘﻌﻠﻖ اﺳﺖ‪.‬‬ ‫‪α > 0, β > 0‬‬

‫) ‪Γ(α , β‬‬

‫‪μ ∈ R ,σ > 0‬‬

‫) ‪(b‬‬

‫■‬

‫) ‪N ( μ ,σ 2‬‬

‫) ‪(a‬‬

‫‪Be (α , β ), α > 0, β > 0‬‬

‫) ‪(c‬‬

‫ﻣﺜﺎل‪ :3-3‬ﺧﺎﻧﻮادهي ‪ N (θ ,θ 2 ),θ > 0‬ﺑﻪ ﻳﻚ ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﻣﺘﻌﻠﻖ اﺳﺖ اﻣﺎ ﭘﺮرﺗﺒﻪ ﻧﻴﺴﺖ زﻳﺮا‬ ‫‪⎧⎪ − 12 x 2 + 1 x − 1 ln(2πθ 2 ) ⎫⎪ − 1‬‬ ‫‪θ 2‬‬ ‫‪= ⎨e 2θ‬‬ ‫‪⎬e 2‬‬ ‫⎩⎪‬ ‫⎭⎪‬ ‫‪1‬‬ ‫‪2‬‬

‫‪−‬‬

‫‪x 1‬‬ ‫‪x 2+ −‬‬ ‫‪θ 2‬‬

‫‪1‬‬ ‫‪2θ 2‬‬

‫‪h (x ) = e‬‬

‫‪2‬‬

‫‪−‬‬

‫‪e‬‬

‫‪1‬‬ ‫‪2‬‬

‫‪2πθ‬‬

‫=‬

‫‪T1 ( x ) = x‬‬

‫‪1‬‬ ‫) ‪B (θ ) = + ln(2πθ 2‬‬ ‫‪2‬‬ ‫‪1 1‬‬ ‫ﭘﺎراﻣﺘﺮ دوﺑ‪‬ﻌﺪي ) ‪ (− 2 ,‬روي ﻳﻚ ﻣﻨﺤﻨﻲ در ﻓﻀﺎي‬ ‫‪2θ θ‬‬

‫‪( x −θ )2‬‬

‫‪1‬‬ ‫‪2θ 2‬‬

‫‪−‬‬

‫‪e‬‬

‫‪1‬‬ ‫‪2‬‬

‫‪2πθ‬‬ ‫‪1‬‬ ‫‪2θ 2‬‬

‫‪c1(θ ) = −‬‬

‫‪1‬‬

‫‪T 2 (x ) = x‬‬

‫ﺧﺎﻧﻮاده را ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﻣﻨﺤﻨﻲ ‪ 1‬ﮔﻮﻳﻨﺪ‪.‬‬

‫= ) ‪pθ ( x‬‬

‫‪θ‬‬

‫= ) ‪c2 (θ‬‬

‫‪ R 2‬ﻗﺮار ﻣﻲ ﮔﻴﺮد و ﺑﻪ ﻫﻤﻴﻦ دﻟﻴﻞ اﻳﻦ‬

‫■‬

‫ﻣﺜﺎل‪ :4-3‬ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي زﻳﺮ ﺑﻪ ﻳﻚ ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﻣﺘﻌﻠﻖ ﻧﻴﺴﺘﻨﺪ‪.‬‬ ‫■‬

‫‪E (α , β ), α ∈ ℜ, β > 0‬‬

‫) ‪(b‬‬

‫‪U (0,θ ), θ > 0‬‬

‫) ‪(a‬‬

‫ﺧﺎﻧﻮادهي ﻧﻤﺎﻳﻲ‪:‬‬ ‫‪ -1‬اﮔﺮ ‪ X 1, X 2 ,..., X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ )‪ (i.i.d‬از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ‪ k‬ﭘﺎراﻣﺘﺮي ﺑﺎﺷﻨﺪ آﻧﮕﺎه‬ ‫ﺗﻮزﻳﻊ ﺗﻮأم ) ‪ X = (X 1,..., X n‬ﻧﻴﺰ ﺑﻪ ﻳﻚ ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ‪- k‬ﭘﺎراﻣﺘﺮي ﻣﺘﻌﻠﻖ اﺳﺖ‪ ،‬زﻳﺮا‬

‫‪Curved Exponential Family‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪14‬‬

‫‪k‬‬

‫) ‪h (x i‬‬

‫) ‪∑ c j (θ )T j ( x i )−B (θ‬‬

‫‪n‬‬

‫‪n‬‬

‫‪i =1‬‬

‫‪i =1‬‬

‫‪pθ (x 1,..., x n ) = ∏ pθ (x i ) = ∏ e j =1‬‬ ‫‪k‬‬

‫) ‪h * (x‬‬

‫) ‪∑ c j (θ )T j* ( x )−nB (θ‬‬

‫‪= ... = e j =1‬‬

‫‪n‬‬

‫‪n‬‬

‫) ‪h * (x ) = ∏ h (x i‬‬

‫ﻛﻪ در آن‬

‫‪and‬‬

‫) ‪T j* (x ) = ∑T j ( x i‬‬ ‫‪i =1‬‬

‫‪i =1‬‬

‫‪ -2‬در ﻳﻚ ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﻳﻚ ﭘﺎراﻣﺘﺮي ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ‬ ‫) ‪pθ (x ) = e c (θ )T ( x )−B (θ ) h (x‬‬ ‫) ‪B ′(θ‬‬ ‫) ‪C ′(θ‬‬

‫دارﻳﻢ ﻛﻪ‬ ‫زﻳﺮا‬

‫‪h (x )d μ (x ) = 1 ⇒ ∫ [c ′(θ )T (x ) − B ′(θ )] pθ (x )d μ (x ) = 0‬‬ ‫) ‪B ′(θ‬‬ ‫) ‪c ′(θ‬‬

‫ﻓﺮم ﻣﺘﻌﺎرف ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ‬ ‫ﺑﺎ ﺗﻐﻴﻴﺮ ﭘﺎراﻣﺘﺮ‬ ‫)‪(2‬‬

‫= )) ‪E θ (T (x‬‬ ‫) ‪c (θ )T ( x ) − B (θ‬‬

‫‪∫e‬‬

‫= )) ‪⇒ c ′(θ )E θ (T (x )) − B ′(θ ) = 0 ⇒ E θ (T (x‬‬

‫‪1‬‬

‫) ‪ j = 1, 2,..., k ،η j = c j (θ‬در ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻧﻤﺎﻳﻲ )‪ (1‬دارﻳﻢ ﻛﻪ‬ ‫‪k‬‬ ‫∑ ⎧‬ ‫⎫ ) ‪η T ( x )−A (η‬‬ ‫‪⎪ j =1 j j‬‬ ‫⎪‬ ‫‪pη (x ) = ⎨e‬‬ ‫) ‪⎬ h (x‬‬ ‫⎪‬ ‫⎪‬ ‫⎩‬ ‫⎭‬

‫ﻛﻪ اﻳﻦ ﻓﺮم را ﻓﺮم ﻣﺘﻌﺎرف ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻧﻤﺎﻳﻲ ﮔﻮﻳﻨﺪ‪ .‬در اﻳﻦ ﺣﺎﻟﺖ ﻣﺠﻤﻮﻋﻪي‬ ‫‪k‬‬

‫) ‪∑ η jT j ( x‬‬ ‫∞‪+‬‬ ‫‪{η = (η1,...,ηk ) | ∫ h (x )e j =1‬‬ ‫}∞ < ) ‪d μ (x‬‬ ‫∞‪−‬‬

‫را ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ﻃﺒﻴﻌﻲ و ‪ η‬را ﭘﺎراﻣﺘﺮ ﻃﺒﻴﻌﻲ ﮔﻮﻳﻨﺪ‪ .‬ﺧﻮاص زﻳﺮ را ﺑﺮاي اﻳﻦ ﺧﺎﻧﻮاده ﻣﻲﺗﻮان اﺛﺒﺎت‬ ‫ﻛﺮد‪.‬‬

‫‪Canonical Form‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪15‬‬

‫‪) -1‬ﻛﺘﺎب ‪ TSH‬ﻓﺼﻞ ‪ ، 2‬ﻗﻀﻴﻪ ‪ (9‬ﺑﺮاي ﻫﺮ ﺗﺎﺑﻊ اﻧﺘﮕﺮالﭘﺬﻳﺮ ‪ f‬و ﻫﺮ ‪ η‬در ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ﻃﺒﻴﻌﻲ‪،‬‬ ‫‪k‬‬

‫اﻧﺘﮕﺮال ) ‪h ( x )d μ (x‬‬

‫) ‪∑ η jT j ( x‬‬

‫‪ ∫ f (x )e j =1‬ﭘﻴﻮﺳﺘﻪ و داراي ﻣﺸﺘﻘﺎت ﺗﻤﺎم ﻣﺮاﺗﺐ ﻧﺴﺒﺖ ﺑﻪ ‪ η j‬ﻫﺎ اﺳﺖ‬

‫و اﻳﻦ ﻣﺸﺘﻘﺎت ﻣﻲ ﺗﻮاﻧﻨﺪ ﺑﻪ درون اﻧﺘﮕﺮال ﺑﺮده ﺷﻮﻧﺪ‪.‬‬ ‫‪) -2‬ﻛﺘﺎب ‪ TSH‬ﺑﺨﺶ ‪ 2 .7‬ﻟﻢ ‪ (8‬اﮔﺮ ‪ X‬داراي ﺗﻮزﻳﻌﻲ از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ﺑﻔﺮم )‪(2‬‬ ‫ﻧﺴﺒﺖ ﺑﻪ اﻧﺪازهي ‪ μ‬ﺑﺎﺷﺪ آﻧﮕﺎه ) ‪ T = (T1,...,T k‬داراي ﺗﻮزﻳﻌﻲ از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﺑﺎ ﭼﮕﺎﻟﻲ‬ ‫‪k‬‬ ‫∑ ⎧‬ ‫⎫ ) ‪η t − A (η‬‬ ‫‪⎪ j =1 j j‬‬ ‫⎪‬ ‫‪ pη (t1,...,t k ) = ⎨e‬ﻧﺴﺒﺖ ﺑﻪ ﻳﻚ اﻧﺪازه ‪ ν‬ﻣﻲﺑﺎﺷﻨﺪ )در اﺳﺘﻨﺒﺎط آﻣﺎري ‪ 2‬اﺛﺒﺎت‬ ‫) ‪⎬ k (t‬‬ ‫⎪‬ ‫⎪‬ ‫⎩‬ ‫⎭‬

‫ﻣﻲﮔﺮدد(‪.‬‬ ‫‪ -3‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,..., X n‬ﻣﺘﻐﻴﺮﻫﺎي ﺗﺼﺎدﻓﻲ ﻣﺴﺘﻘﻞ و ﻫﺮ ﻛﺪام داراي ﺗﻮزﻳﻌﻲ از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ‬ ‫ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ زﻳﺮ ﺑﺎﺷﻨﺪ‬

‫) ‪} h (x‬‬ ‫‪i‬‬

‫) ‪ηT j ( x i )−Ai (η‬‬

‫‪i‬‬

‫{‬

‫‪pη (x i ) = e‬‬

‫‪n‬‬

‫در اﻳﻦ ﺻﻮرت‬

‫) ‪∑T i (x i‬‬ ‫=‪i‬‬

‫داراي ﺗﻮزﻳﻌﻲ از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﻳﻚ ﭘﺎراﻣﺘﺮي ﻣﻲ ﺑﺎﺷﺪ‪.‬‬

‫اﮔﺮ دو ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ‪- k‬ﭘﺎراﻣﺘﺮي )ﺑﺎ ﭘﺎراﻣﺘﺮﻫﺎي ﻳﻜﺴﺎن( ﻣﺴﺘﻘﻞ داﺷﺘﻪ ﺑﺎﺷﻴﻢ آﻧﮕﺎه ) ‪ (T1,...,T k‬و‬ ‫) ‪ (U 1,...,U k‬ﻫﺮ ﻛﺪام داراي ﺗﻮزﻳﻌﻲ از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ‪ k‬ﭘﺎراﻣﺘﺮي ﻣﻲﺑﺎﺷﻨﺪ و ﻃﺒﻖ ﻗﻀﻴﻪ‬ ‫‪ (T1 + U 1,...,T k + U k ) ،2‬ﻧﻴﺰ داراي ﺗﻮزﻳﻌﻲ از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ‪ - k‬ﭘﺎراﻣﺘﺮي اﺳﺖ‪ .‬ﺑﻪ وﺳﻴﻠﻪ اﺳﺘﻘﺮا‬ ‫ﻗﻀﻴﻪ ‪ 3‬ﺛﺎﺑﺖ ﻣﻲﺷﻮد‪.‬‬ ‫‪ -4‬اﮔﺮ ‪ X‬داراي ﺗﻮزﻳﻌﻲ از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ‪ - k‬ﭘﺎراﻣﺘﺮي ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ﺑﻔﺮم )‪ (2‬ﺑﺎﺷﺪ آﻧﮕﺎه‬ ‫) ‪A (η‬‬ ‫‪∂2‬‬ ‫) ‪A (η‬‬ ‫‪∂ηi ∂η j‬‬

‫∂‬ ‫‪∂η j‬‬

‫= )) ‪Eη (T j (x‬‬

‫= )) ‪covη (T i (x ),T j (x‬‬

‫ﻣﺜﺎل ‪ :5-3‬ﻓﺮض ﻛﻨﻴﺪ ) ‪ X = (X 1,..., X k‬داراي ﺗﻮزﻳﻊ ﭼﻨﺪ ﺟﻤﻠﻪاي ﺑﺎ ﭘﺎراﻣﺘﺮﻫﺎي ‪ n‬و ‪p1,..., p k‬‬

‫ﺑﺎﺷﺪ‪ .‬در اﻳﻦ ﺻﻮرت‪:‬‬

www.riazisara.ir

16

‫ ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬:‫ﻓﺼﻞ اول‬

p (x ) = P ( X 1 = x 1,..., X k = x k ) =

n! p1x 1 ... p kx k x 1 !x 2 !...x k !

= h (x )e x 1 ln p1 +....+ x k ln p k = h (x )e = h (x )e

p p p x 1 ln 1 + x 2 ln 2 +...+ x k −1 ln k −1 pk pk pk k −1

p

∑ x i ln p i

i =1

k −1

×e

x k ln p k + ∑ x i ln p k i =1

+ n ln p k

k

‫ در اﻳﻦ ﺻﻮرت‬ηi = ln

pi ‫ﻗﺮار ﻣﻲدﻫﻴﻢ‬ pk

k −1

A (η ) = − n ln p k = n ln(1 + ∑ e ηi ) i =1

(sin ce



e ηi =

k −1 k −1 1− pk 1 pi ⇒ ∑ e ηi = = − 1 ⇒ p k = (1 + ∑ e ηi ) −1 ) pk pk pk i =1 i =1

⎧ k∑−1η x −A (η ) ⎫ i i ⎪ ⎪ pη (x ) = ⎨e i =1 ⎬ h (x ) ⎪ ⎪ ⎩ ⎭

‫ ﭘﺎراﻣﺘﺮ ﻃﺒﻴﻌﻲ اﺳﺖ و‬η = (η1,...,ηk −1) ‫ﻛﻪ‬ E (X i ) =

∂ ∂ηi

A (η ) =

ne

ηi

k

1 + ∑ e ηi i =1

pi pk = = np i 1 pk n

∂2 cov(X i , X j ) = A (η ) = ...... = −np i p j ∂ηi ∂η j

■ 1

‫ﺗﺎﺑﻊ ﻣﻮﻟﺪ ﮔﺸﺘﺎور و ﺗﺎﺑﻊ ﻣﻮﻟﺪ اﻧﺒﺎﺷﺘﻪ‬

‫ ﮔﻮﻳﻨﺪ و ﺗﺎﺑﻊ‬T1,....,T k ‫ را ﮔﺸﺘﺎور ﺗﻮأم‬α r1,...,rk = E (T1r1 ...T krk ) ‫ آﻧﮕﺎه‬T = (T1,....,T k ) ‫اﮔﺮ‬ ‫ ﺑﻪ ﺻﻮرت زﻳﺮ ﺗﻌﺮﻳﻒ ﻣﻲﺷﻮد‬T = (T1,....,T k ) ‫ﻣﻮﻟﺪ ﮔﺸﺘﺎور‬ M T (u1,...,u k ) = E (e u1T1+...+u k T k ) ١

Moment Generating fun. and Cumulant Generating fun.

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪17‬‬

‫اﮔﺮ ‪ M T‬در ﻳﻚ ﻫﻤﺴﺎﻳﮕﻲ ﺣﻮل ﻣﺒﺪأ ﻣﻮﺟﻮد ﺑﺎﺷﺪ و ﮔﺸﺘﺎورﻫﺎي ‪ α r1,...,rs‬ﻣﻮﺟﻮد ﺑﺎﺷﻨﺪ آﻧﮕﺎه ﺑﺴﻂ‬ ‫ﺗﺎﺑﻊ ‪ M T‬ﺑﻪ ﺻﻮرت زﻳﺮ ﺧﻮاﻫﺪ ﺑﻮد‬ ‫‪u1r1 ...u krk‬‬ ‫! ‪r1 !...rk‬‬

‫‪M T (u1,...,u k ) = Σ...Σα r1,...,rk‬‬ ‫‪r1...rk‬‬

‫ﻫﻤﭽﻨﻴﻦ ﺗﺎﺑﻊ ﻣﻮﻟﺪ اﻧﺒﺎﺷﺘﻪ ‪ T‬ﺑﻪ ﺻﻮرت زﻳﺮ ﺗﻌﺮﻳﻒ ﻣﻲﺷﻮد‬ ‫‪u1r1 ...u krk‬‬ ‫! ‪r1 !...rk‬‬

‫‪K T (u1,...,u k ) = log M T (u1,...,u k ) = Σ...Σk r1,...,rk‬‬ ‫‪r1...rk‬‬

‫ﻛﻪ در آن ‪ k r1,...,rk‬را اﻧﺒﺎﺷﺘﻪ ﺗﻮأم ) ‪ T = (T1,....,T k‬ﮔﻮﻳﻨﺪ‪ .‬اﮔﺮ ﺗﻨﻬﺎ ﻳﻚ ‪ T‬داﺷﺘﻪ ﺑﺎﺷﻴﻢ آﻧﮕﺎه‬ ‫‪ur‬‬ ‫!‪r‬‬ ‫‪ur‬‬ ‫!‪r‬‬

‫‪M T (u ) = E (e uT ) = ∑ α r‬‬ ‫‪r‬‬

‫‪K T (u ) = ln M T (u ) = ∑ k r‬‬ ‫‪r‬‬

‫و ﻣﻲﺗﻮان ﻧﺸﺎن داد ﻛﻪ )ﺗﻤﺮﻳﻦ(‬ ‫‪α2 = k 2 + k 12‬‬

‫‪α 3 = k 3 + 3 k 1k 2 + k 13‬‬

‫‪α1 = k 1‬‬

‫در ﺧﺎﻧﻮادهي ﻧﻤﺎﻳﻲ از ﺗﻮزﻳﻊﻫﺎ ﺗﻮاﺑﻊ ) ‪ M T (u‬و ) ‪ K T (u‬در ﻳﻚ ﻫﻤﺴﺎﻳﮕﻲ ﻧﺰدﻳﻚ ﺻﻔﺮ ﻣﻮﺟﻮد‬ ‫ﻫﺴﺘﻨﺪ و‪:‬‬ ‫) ‪A (η +u‬‬ ‫) ‪A (η‬‬

‫‪e‬‬

‫‪e‬‬

‫) ‪K T (u ) = A (η + u ) − A (η‬‬

‫= ) ‪M T (u‬‬

‫)اﺛﺒﺎت‪ :‬ﺗﻤﺮﻳﻦ(‬ ‫ﺣﺎل اﮔﺮ ‪ X 1, X 2 ,...., X n‬از ﻳﻜﺪﻳﮕﺮ ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ و ‪ X = X 1 + X 2 + .... + X n‬آﻧﮕﺎه‬ ‫‪n‬‬

‫) ‪k X (u ) = ∑ k X i (u‬‬ ‫‪i =1‬‬

‫‪n‬‬

‫) ‪] = ∏ M x i (u‬‬ ‫‪i =1‬‬

‫‪( X 1 +...+ X n )u‬‬

‫‪M X (u ) = E [e‬‬

‫ﻣﺜﺎل‪ :6-3‬ﻓﺮض ﻛﻨﻴﺪ ) ‪ X ~ B (n , p‬در اﻳﻦ ﺻﻮرت‬ ‫‪p‬‬

‫‪⎛ n ⎞ x n −x ⎛ n ⎞ x ln q + n ln q‬‬ ‫‪= ⎜ ⎟e‬‬ ‫‪p (x ) = P (X = x ) = ⎜ ⎟ p q‬‬ ‫⎠ ‪⎝x‬‬ ‫⎠ ‪⎝x‬‬

www.riazisara.ir

18

‫ ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬:‫ﻓﺼﻞ اول‬

‫ در اﻳﻦ ﺻﻮرت‬η = ln

p ‫ﻗﺮار ﻣﻲ دﻫﻴﻢ‬ q

⎛n ⎞ p (x ) = ⎜ ⎟ e x η −A (η ) ⎝x ⎠

A (η ) = − n ln q = n ln(1 + e η ) η +u

e A (η +u ) e n ln(1+e ) ⎛ 1 + e η +u M x (u ) = A (η ) = =⎜ η n ln(1+e η ) e e ⎝ 1+ e

⎛ P u n ⎜ 1+ q e ⎞ ⎟ =⎜ ⎜ 1+ P ⎠ ⎜ q ⎝

n

⎞ ⎟ ⎟ = (q + pe u ) n ⎟ ⎟ ⎠

(‫ ﻣﻌﻠﻮم‬α ) ‫ در اﻳﻦ ﺻﻮرت‬X ~ Γ(α , β ) ‫ ﻓﺮض ﻛﻨﻴﺪ‬:7-3 ‫ﻣﺜﺎل‬ x ⎡ − 1 x −α ln β ⎤ x α −1 − 1 α −1 β ⎥ p (x ) = x e = ⎢e β α ⎢ ⎥ Γ(α ) Γ(α ) β ⎣ ⎦

η=−

⎛1 A (η ) = α ln β = −α ln ⎜ ⎝β

1

β

⎞ ⎟ = −α ln(−η ) ⎠ −α

M X (u ) =

e A (η +u ) e −α ln( −η −u ) = −α ln( −η ) e A (η ) e

k X (u ) = −α ln(1 − βu )

u<

⎛1 ⎞ ⎜ β −u ⎟ ⎠ =⎝ −α ⎛1⎞ ⎜β ⎟ ⎝ ⎠

=

1

(1 − βu )α

1

β

‫ﺑﻨﺎﺑﺮاﻳﻦ‬ ∂r Γ(α + r ) r E (X ) = r M X (u ) |u =0 = α (α + 1)....(α + r − 1) β r = β Γ(α ) ∂u r



‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫ﺑﺨﺶ ‪ :4‬آﻣﺎرهﻫﺎي ﺑﺴﻨﺪه‬

‫‪19‬‬

‫‪1‬‬

‫ﺗﻌﺮﻳﻒ‪ :1-4‬ﻓﺮض ‪ X 1,..., X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﻳﻚ ﺧﺎﻧﻮاده از ﺗﻮزﻳﻊﻫﺎي }‪P = {Pθ : θ ∈ Θ‬‬ ‫ﺑﺎﺷﻨﺪ ) ‪ θ‬ﻣﻤﻜﻦ اﺳﺖ ﻳﻚ ﺑﺮدار ﺑﺎﺷﺪ( آﻣﺎره ) ‪ T (X ) = T (X 1,..., X n‬را ﻳﻚ آﻣﺎرهي ﺑﺴﻨﺪه‬ ‫ﺑﺮاي ‪ θ‬و ﻳﺎ ﺑﻪ ﻋﺒﺎرت دﻗﻴﻖﺗﺮ ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﺑﺮاي ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ‪ P‬ﮔﻮﻳﻨﺪ ﻫﺮ ﮔﺎه ﺗﻮزﻳﻊ ﺷﺮﻃﻲ‬ ‫ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ ‪ X 1,..., X n‬ﺑﻪ ﺷﺮط ‪ T ( X ) = t‬ﺑﺮاي ﻫﺮ ﻣﻘﺪار ‪ t‬ﺑﺴﺘﮕﻲ ﺑﻪ ‪ θ‬ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ‪.‬‬ ‫ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ آﻣﺎرهﻫﺎي ﺑﺴﻨﺪه دادهﻫﺎ را در ﺧﻮد ﺧﻼﺻﻪ ﻣﻲﻛﻨﻨﺪ ﺑﺪون اﻳﻦ ﻛﻪ اﻃﻼﻋﻲ در ﻣﻮرد ﭘﺎراﻣﺘﺮ‬ ‫ﻣﺠﻬﻮل را از دﺳﺖ ﺑﺪﻫﻴﻢ‪ .‬ﻳﻌﻨﻲ دادهﻫﺎ را ﻣﻲﺗﻮان در آﻣﺎرهي ﺑﺴﻨﺪه ‪ T‬ﺧﻼﺻﻪ ﻛﺮد و ﺑﺎ داﺷﺘﻦ ﻣﻘﺪار ‪T‬‬

‫ﻧﻴﺎزي ﺑﻪ داﺷﺘﻦ ﺧﻮد دادهﻫﺎ )ﺗﺎ آن ﺟﺎ ﻛﻪ ﻣﺮﺑﻮط ﺑﻪ اﺳﺘﻨﺒﺎط درﺑﺎره ﭘﺎراﻣﺘﺮﻫﺎي ﻣﺠﻬﻮل ﻣﻲﺷﻮد( ﻧﺪارﻳﻢ‪.‬‬ ‫‪D‬‬

‫‪D‬‬

‫ﻗﻀﻴﻪ ‪ :1-4‬اﮔﺮ ‪ X | T =Y | T‬آﻧﮕﺎه ‪X =Y‬‬

‫اﺛﺒﺎت‪:‬‬ ‫) ‪ = p X (x ) = ∫ p X |T (x | t )q (t )d μ (t ) = ∫ pY |T (x | t )q (t )d μ (t‬ﭼﮕﺎﻟﻲ ‪X‬‬ ‫ﭼﮕﺎﻟﻲ ‪= pY (x ) =Y‬‬

‫■‬

‫ﻋﻜﺲ اﻳﻦ ﻗﻀﻴﻪ ﺑﺮﻗﺮار ﻧﻴﺴﺖ زﻳﺮا اﮔﺮ در ﭘﺮﺗﺎب ﺳﻪ ﺳﻜﻪ‬ ‫ﺗﻌﺪاد ﺷﻴﺮﻫﺎ = ‪X‬‬

‫ﺗﻌﺪاد ﺷﻴﺮ – ﺗﻌﺪاد ﺧﻂ = ‪T‬‬

‫ﺗﻌﺪاد ﺧﻂ ﻫﺎ = ‪Y‬‬

‫‪D‬‬

‫آﻧﮕﺎه ‪ X =Y‬اﻣﺎ‬ ‫‪3‬‬ ‫⎧‬ ‫)‪P (X = 1,T = 1‬‬ ‫= )‪⎪⎪ P (X = 1 | T = 1‬‬ ‫‪= 8 =1‬‬ ‫‪3‬‬ ‫)‪P (T = 1‬‬ ‫⎨‬ ‫‪8‬‬ ‫⎪‬ ‫‪⎪⎩ P (X ≠ 1 | T = 1) = 0‬‬

‫)‪P (Y = 1,T = 1‬‬ ‫⎧‬ ‫‪=0‬‬ ‫= )‪⎪P (Y ≠ 2 | T = 1‬‬ ‫)‪P (T = 1‬‬ ‫⎨‬ ‫‪⎪P (Y = 2 | T = 1) = 1‬‬ ‫⎩‬ ‫‪D‬‬

‫‪⇒ X | T ≠Y | T‬‬ ‫‪Sufficient Statistics‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪20‬‬

‫ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ ﻛﻪ ﻣﺸﺎﻫﺪات ‪ X‬را ﻛﻨﺎر ﮔﺬاﺷﺘﻪ و ﻣﻘﺪار ) ‪ T = T (X‬را ﻧﮕﻪ دارﻳﻢ‪ .‬اﻛﻨﻮن ‪ X ′‬را‬ ‫‪D‬‬

‫از ﺗﻮزﻳﻊ ﺷﺮﻃﻲ ‪ X‬ﺑﺎ ﻓﺮض ‪ T = t‬ﻣﻲﺳﺎزﻳﻢ )ﺑﻪ وﺳﻴﻠﻪ ﺷﺒﻴﻪﺳﺎزي( ﭼﻮن ‪ X | T = X ′ | T‬ﭘﺲ ‪X‬‬ ‫و ‪ X ′‬ﻳﻚ ﺗﻮزﻳﻊ دارﻧﺪ‪ .‬در ﻧﺘﻴﺠﻪ ﺑﺎ ﻧﮕﻪ داﺷﺘﻦ ﻣﻘﺪار ‪ T‬ﻣﻲﺗﻮاﻧﻴﻢ ﻣﺸﺎﻫﺪاﺗﻲ ﻫﻤﺎﻧﻨﺪ )ﻫﻢﺗﻮزﻳﻊ( ‪X‬‬

‫ﺑﺴﺎزﻳﻢ‪ .‬اﻳﻦ ﻛﺎر را ﺑﺎ آﻣﺎرهﻫﺎي ﻏﻴﺮﺑﺴﻨﺪه ﻧﻤﻲﺗﻮان اﻧﺠﺎم داد‪ ،‬ﭼﻮن ﺗﻮزﻳﻊ ﺷﺮﻃﻲ ‪ X‬ﺑﺎ ﻓﺮض ‪ T = t‬ﺑﻪ‬ ‫ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل ﺑﺴﺘﮕﻲ دارد و ﻧﻤﻲﺗﻮان ‪ X ′‬را ﺑﺎزﻳﺎﻓﺖ ﻧﻤﻮد‪.‬‬ ‫ﻣﺜﺎل ‪ :1-4‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 2 , X 1‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ) ‪ P (θ‬ﺑﺎﺷﺪ‪ .‬ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ‬ ‫‪ T (X ) = X 1 + X 2‬ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﺑﺮاي ‪ θ‬اﺳﺖ و از روي آن ﻧﻤﻮﻧﻪي ) ‪ (X 1′, X 2′‬ﻫﻢ ﺗﻮزﻳﻊ ﺑﺎ‬ ‫) ‪ (X 1, X 2‬را ﺑﺴﺎزﻳﺪ‪.‬‬ ‫) ‪⎧ P ( X 1 = x 1, X 2 , x 2‬‬ ‫‪x1 + x 2 = t‬‬ ‫⎪‬ ‫) ‪P (T = t‬‬ ‫⎨ = ) ‪P ( X 1 = x 1, X 2 = x 2 | T ( X ) = t‬‬ ‫‪⎪0‬‬ ‫‪x1 + x 2 ≠ t‬‬ ‫⎩‬

‫‪x1 + x 2 = t‬‬ ‫‪x1 + x 2 ≠ t‬‬

‫!‪⎧ t‬‬ ‫⎪‬ ‫‪= ⎨ x 1 !x 2 !2t‬‬ ‫‪⎪0‬‬ ‫⎩‬

‫‪⎧ e −θ θ x 1 e −θ θ x 2‬‬ ‫‪.‬‬ ‫⎪‬ ‫!‬ ‫‪x‬‬ ‫!‪x 2‬‬ ‫‪⎪⎪ 1‬‬ ‫‪−2θ‬‬ ‫‪⎨ e (2θ )t‬‬ ‫⎪‬ ‫!‪t‬‬ ‫⎪‬ ‫‪⎩⎪0‬‬

‫‪x1 + x 2 = t‬‬ ‫‪x1 + x 2 ≠ t‬‬

‫=‬

‫‪⎧⎛ t ⎞ ⎛ 1 ⎞ x 1 ⎛ 1 ⎞t −x 1‬‬ ‫⎪‬ ‫⎟⎠ ‪= ⎨⎝⎜ x 1 ⎠⎟⎜⎝ 2 ⎠⎟ ⎝⎜ 2‬‬ ‫⎪‬ ‫‪⎩0‬‬

‫‪x1 + x 2 = t‬‬ ‫‪x1 + x 2 ≠ t‬‬ ‫‪1‬‬ ‫) ‪⇒ X | T = t ~ B (t ,‬‬ ‫‪2‬‬

‫ﭼﻮن ﺗﻮزﻳﻊ ﺷﺮﻃﻲ ﺑﻪ ‪ θ‬ﺑﺴﺘﮕﻲ ﻧﺪارد‪ ،‬ﭘﺲ ‪ T (X ) = X 1 + X 2‬ﻳﻚ آﻣـﺎرهي ﺑـﺴﻨﺪه ﺑـﺮاي ‪ θ‬اﺳـﺖ‪.‬‬ ‫ﺣﺎل اﮔﺮ ‪ X 1′‬و ‪ X 2′ = t − X 1′‬را ﺑﻪ ﺗﺮﺗﻴﺐ ﺗﻌﺪاد ﺷﻴﺮﻫﺎ و ﺗﻌﺪاد ﺧﻂﻫﺎ در ‪ t‬ﭘﺮﺗﺎب ﻳﻚ ﺳﻜﻪ در ﻧﻈـﺮ‬ ‫‪1‬‬ ‫‪2‬‬

‫‪D‬‬

‫ﺑﮕﻴﺮﻳﻢ آن ﮔﺎه ) ‪ X ′ | t ~ B (t ,‬ﻛﻪ ﺑﺎﺗﻮﺟﻪ ﺑﻪ ﻗﻀﻴﻪ ‪ X ′ = X ،1-4‬اﺳﺖ‪.‬‬

‫■‬

‫اﺳﺘﻔﺎده از ﺗﻌﺮﻳﻒ ‪ 1-4‬ﺑﺮاي ﺑﺮرﺳﻲ ﺑﺴﻨﺪﮔﻲ ﻳﻚ آﻣﺎره‪ ،‬ﻧﻴﺎز ﺑﻪ در دﺳﺖ داﺷﺘﻦ آﻣﺎره ﺑـﺴﻨﺪه ) ‪ T (X‬و‬ ‫ﻫﻤﭽﻨﻴﻦ ﺑﺮرﺳﻲ ﺗﻮزﻳﻊ ﺷﺮﻃﻲ ﻧﻤﻮﻧﻪ ﺑﻪ ﺷﺮط ‪ T‬دارد‪ .‬ﻳﻚ راه ﺳﺎده ﺑـﺮاي ﺑﺪﺳـﺖ آوردن ﻳـﻚ آﻣـﺎرهي‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪21‬‬

‫ﺑﺴﻨﺪه و ﺑﺮرﺳﻲ ﺑﺴﻨﺪﮔﻲ آن در ﻗﻀﻴﻪ دﺳﺘﻪﺑﻨﺪي ﻧﻴﻤﻦ ﻛﻪ ﺑﻪ ﻗﻀﻴﻪ ﺗﺠﺰﻳﻪ ﺑﻪ ﻋﻮاﻣﻞ ﻣﺸﻬﻮر اﺳـﺖ‪ ،‬آﻣـﺪه‬ ‫اﺳﺖ‪.‬‬ ‫ﻗﻀﻴﻪ ‪) :2-4‬ﻗﻀﻴﻪ ﺗﺠﺰﻳﻪ ﺑﻪ ﻋﻮاﻣﻞ ‪(1‬‬ ‫ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,...., X n‬داراي ﺗﻮزﻳﻊ ﺗـﻮأم ﻣﺘﻌﻠـﻖ ﺑـﻪ ﺧـﺎﻧﻮادهي }‪ P = {Pθ : θ ∈ Θ‬ﻛـﻪ ﺑـﻪ‬ ‫وﺳﻴﻠﻪ اﻧﺪازهي ‪ μ‬ﻣﻐﻠﻮب ﺷﺪه اﺳـﺖ‪ ،‬ﺑﺎﺷـﻨﺪ‪ .‬ﺷـﺮط ﻻزم و ﻛـﺎﻓﻲ ﺑـﺮاي آن ﻛـﻪ آﻣـﺎره ) ‪ T (X‬ﺑـﺮاي‬ ‫ﺧﺎﻧﻮادهي ‪ P‬ﺑﺴﻨﺪه ﺑﺎﺷﺪ اﻳﻦ اﺳﺖ ﻛﻪ ﺗﻮاﺑﻊ ﻧـﺎﻣﻨﻔﻲ ‪ g‬و ‪ h‬وﺟـﻮد داﺷـﺘﻪ ﺑﺎﺷـﻨﺪ ﺑﻄـﻮري ﻛـﻪ ﺗـﺎﺑﻊ‬ ‫ﭼﮕﺎﻟﻲ ‪ pθ‬ﻣﺮﺑﻮط ﺑﻪ ‪ Pθ‬در راﺑﻄﻪ زﻳﺮ ﺻﺪق ﻛﻨﺪ‪.‬‬ ‫) ‪(a.e .μ‬‬

‫) ‪pθ (x ) = g (θ ,T (x ))h (x‬‬

‫اﺛﺒﺎت‪) :‬ﻛﺘﺎب ‪ TSH‬ﺑﺨﺶ ‪ 2 .6‬ﻗﻀﻴﻪ ‪ 8‬و ﻧﺘﻴﺠﻪ ‪(1‬‬

‫■‬

‫ﻣﺜﺎل ‪ :2-4‬ﻓﺮض ﻛﻨﻴـﺪ ‪ X 1,...., X n‬ﻳـﻚ ﻧﻤﻮﻧـﻪ ﺗـﺼﺎدﻓﻲ از )‪ Be (θ ,1‬ﺑﺎﺷـﻨﺪ‪ .‬ﻳـﻚ آﻣـﺎرهي ﺑـﺴﻨﺪه‬ ‫ﺑﺮاي ‪ θ‬ﭘﻴﺪا ﻛﻨﻴﺪ‪.‬‬ ‫‪n‬‬

‫‪= g (θ , ∏ x i ) ×1‬‬ ‫‪i =1‬‬ ‫‪n‬‬

‫‪= g (θ , ∑ ln x i ) ×1‬‬ ‫‪i =1‬‬

‫‪n‬‬

‫‪n‬‬

‫‪i =1‬‬

‫‪i =1‬‬

‫‪⎧ n n‬‬ ‫‪θ −1‬‬ ‫) ‪⎪θ (∏ x i‬‬ ‫‪n‬‬ ‫‪i =1‬‬ ‫⎪‬ ‫⎨ = ‪f θ (x ) = ∏θ x i θ −1‬‬ ‫‪n‬‬ ‫‪i =1‬‬ ‫‪⎪ n (θ −1) ∑ ln x i‬‬ ‫‪i =1‬‬ ‫‪⎪θ e‬‬ ‫⎩‬

‫ﭘﺲ ‪ T (X ) = ∏ X i‬و ‪ S (X ) = ∑ ln X i‬ﺑﺮاي ‪ θ‬ﺑﺴﻨﺪه ﻣﻲﺑﺎﺷﻨﺪ‪.‬‬ ‫ﻗﻀﻴﻪ ‪ :3‬اﮔﺮ ‪ T‬ﻳﻚ آﻣﺎرهي ﺑﺴﻨﺪه ﺑﺮاي ‪ θ‬و ) ‪ T = k (U‬آﻧﮕﺎه ‪ U‬ﻧﻴﺰ ﺑﺮاي ‪ θ‬ﺑﺴﻨﺪه اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪ T :‬ﺑﺴﻨﺪه اﺳﺖ‪ ،‬ﺑﻨﺎﺑﺮاﻳﻦ‬ ‫) ‪pθ (x ) = g (θ ,T (x ))h ( x ) = g (θ , k (U ( x )) h (x ) = g * (θ ,U (x ))h ( x‬‬

‫ﭘﺲ ﻃﺒﻖ ﻗﻀﻴﻪ ﺗﺠﺰﻳﻪ ﺑﻪ ﻋﻮاﻣﻞ ) ‪ U (X‬ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﺑﺮاي ‪ θ‬اﺳﺖ‪.‬‬

‫■‬

‫ﺑﻨﺎﺑﺮاﻳﻦ در ﻣﺜﺎل ‪ T = ln(S ) 2-4‬و ‪ S = eT‬ﻫﺮ دو ﺑﺮاي ‪ θ‬ﺑﺴﻨﺪه ﻫﺴﺘﻨﺪ‪.‬‬

‫‪Factorization Theorem.‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪22‬‬

‫ﻣﺜﺎل ‪ :3-4‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1,..., X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪ N ( μ ,σ 2‬ﺑﺎﺷﻨﺪ‪ .‬ﻧﺸﺎن دﻫﻴﺪ ﻛـﻪ ) ‪(X , S 2‬‬

‫ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﺑﺮاي ‪ θ‬اﺳﺖ‪.‬‬ ‫ﻣﺜﺎل ‪ :4-4‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1,..., X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪ U (0,θ‬ﺑﺎﺷﻨﺪ‪ .‬ﻧـﺸﺎن دﻫﻴـﺪ ﻛـﻪ ) ‪ X ( n‬ﻳـﻚ‬ ‫آﻣﺎرهي ﺑﺴﻨﺪه ﺑﺮاي ‪ θ‬اﺳﺖ‪.‬‬ ‫ﻣﺜﺎل ‪ :5-4‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1,..., X n‬ﻳـﻚ ﻧﻤﻮﻧـﻪ ﺗـﺼﺎدﻓﻲ از ﻳـﻚ ﺗﻮزﻳـﻊ ‪ Pθ‬ﺑﺎﺷـﻨﺪ و ﻗـﺮار ﻣـﻲدﻫـﻴﻢ‬ ‫) ) ‪ T = (X (1) ,..., X ( n‬ﭼﻮن ﻛﻠﻴﻪ ﻣﻘﺎدﻳﺮ ‪ X‬ﺑﺮاﺑﺮ ! ‪ n‬ﺣﺎﻟﺖ ) ) ‪ (X (i1) , X (i 2 ) ,..., X (i n‬ﻣـﻲﺑﺎﺷـﺪ ﻛـﻪ‬ ‫‪1‬‬ ‫ﺗﻮزﻳﻊ ﺷﺮﻃﻲ ‪ X‬ﺑﻪ ﺷﺮط ﻫﺮ ﻛﺪام از اﻳﻦ ﻣﻘﺎدﻳﺮ ﺑﺮاﺑﺮ‬ ‫!‪n‬‬

‫اﺳﺖ و ﺑﻪ ‪ θ‬ﺑﺴﺘﮕﻲ ﻧﺪارد ﭘﺲ ) ‪ T (X‬ﻳـﻚ‬

‫آﻣﺎره ﺑﺴﻨﺪه ﺑﺮاي ‪ θ‬اﺳﺖ‪.‬‬ ‫ﻣﺜﺎل ‪ :6-4‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1,..., X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺧﺎﻧﻮاده ي ﻧﻤﺎﻳﻲ ‪ k‬ﭘﺎراﻣﺘﺮي ﺑﺎﺷـﻨﺪ در اﻳـﻦ‬ ‫ﺻﻮرت‬ ‫‪k‬‬ ‫‪n‬‬ ‫∑ ⎡‬ ‫‪C j (θ ) ∑T j ( x i ) − nB (θ ) ⎤ n‬‬ ‫‪n‬‬ ‫‪n‬‬ ‫‪⎢ j =1‬‬ ‫⎥‬ ‫‪i =1‬‬ ‫‪pθ (x ) = ⎢e‬‬ ‫)) ‪⎥ ∏ h (x i ) = g (θ , ∑T1(x i ),..., ∑T k (x i‬‬ ‫‪i =1‬‬ ‫‪i =1‬‬ ‫⎢‬ ‫‪⎥ i =1‬‬ ‫⎣‬ ‫⎦‬

‫‪n‬‬

‫‪n‬‬

‫‪i =1‬‬

‫‪i =1‬‬

‫ﭘﺲ )) ‪ T = (∑T1(X i ),...,∑T k (X i‬ﻳﻚ آﻣﺎرهي ﺑﺴﻨﺪه ﺑﺮاي ‪ θ‬اﺳﺖ‪.‬‬

‫آﻣﺎره ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل‪:‬‬ ‫ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,...., X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ )‪ N (θ ,1‬ﺑﺎﺷﻨﺪ و ﻗﺮار دﻫﻴﺪ‬ ‫‪n‬‬

‫‪T 3 (X ) = ∑ X i‬‬ ‫‪i =1‬‬

‫‪n‬‬

‫)‪Xi‬‬

‫∑‬

‫‪i = m +1‬‬

‫‪m‬‬

‫‪T 2 (X ) = (∑ X i ,‬‬ ‫‪i =1‬‬

‫) ‪T1(X ) = (X 1, X 2 ,..., X n‬‬

‫ﻃﺒﻖ ﻗﻀﻴﻪي ﺗﺠﺰﻳﻪ ﺑﻪ ﻋﻮاﻣﻞ ) ‪ T 3 (X‬ﻳﻚ آﻣﺎرهي ﺑﺴﻨﺪه ﺑﺮاي ‪ θ‬اﺳﺖ ) ‪ T 3 = k 1(T 2‬و )‪T 2 = k 2 (T1‬‬ ‫ﭘﺲ ﻃﺒﻖ ﻗﻀﻴﻪ ‪ T1 ،3-4‬و ‪ T 2‬ﻧﻴﺰ ﺑﺮاي ‪ θ‬ﺑﺴﻨﺪه ﻫﺴﺘﻨﺪ‪ .‬ﻫﻤﭽﻨـﻴﻦ ‪ T 3‬ﺑﻴـﺸﺘﺮ از ‪ T 2‬و ‪ T 2‬ﺑﻴـﺸﺘﺮ از ‪T1‬‬

‫دادهﻫﺎ را ﺧﻼﺻﻪ ﻣﻲﻛﻨﻨﺪ‪.‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪23‬‬

‫ﺣﺎل اﻳﻦ ﺳﻮال ﻣﻄﺮح اﺳﺖ ﻛﻪ دادهﻫﺎ را ﺗﺎ ﭼﻪ اﻧﺪازه ﻣﻲﺗﻮان ﺧﻼﺻـﻪ ﻛـﺮد‪ .‬در ﭘﺎﺳـﺦ ﺑـﻪ اﻳـﻦ ﺳـﻮال‬ ‫ﺑﺎﻳﺴﺘﻲ ﮔﻔﺖ ﺗﺎ ﺟﺎﻳﻲ ﻣﻲﺗﻮان دادهﻫﺎ را ﺧﻼﺻﻪ ﻛﺮد ﻛﻪ اﻃﻼﻋﺎت دادهﻫـﺎ در ﻣـﻮرد ﭘﺎراﻣﺘﺮﻫـﺎ از دﺳـﺖ‬ ‫ﻧﺮود‪ .‬آﻣﺎرهي ﺑﺴﻨﺪهاي ﻛﻪ ﺗﺎ ﺣﺪ ﻣﻤﻜﻦ دادهﻫﺎ را ﺧﻼﺻﻪ ﻛﻨﺪ آﻣﺎرهي ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل ﻧﺎﻣﻴﺪه ﻣﻲﺷﻮد‪.‬‬ ‫ﺗﻌﺮﻳﻒ ‪ :2-4‬آﻣﺎرهي ) ‪ T (X‬ﻳﻚ آﻣﺎرهي ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل اﺳﺖ اﮔﺮ اوﻻً اﻳﻦ آﻣﺎره ﺑﺴﻨﺪه ﺑﺎﺷـﺪ و ﺛﺎﻧﻴـﺎً‬ ‫ﺑﺮاي ﻫﺮ آﻣﺎرهي ﺑﺴﻨﺪهي دﻳﮕﺮ ‪ U‬آﻣﺎرهي ‪ T‬ﺗﺎﺑﻌﻲ از آن ﺑﺎﺷﺪ ﻳﻌﻨﻲ ) ‪.T = K (U‬‬ ‫ﻧﻜﺎت‪ -1 :‬آﻣﺎرهﻫﺎي ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﻳﻜﺘﺎ ﻧﻴﺴﺘﻨﺪ اﻣﺎ اﮔﺮ ‪ T1‬و ‪ T 2‬ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل ﺑﺎﺷﻨﺪ ﻳﻚ راﺑﻄـﻪ ﻳـﻚ‬ ‫ﺑﻪ ﻳﻚ ﺑﻴﻦ آﻧﻬﺎ ﺑﺮﻗﺮار اﺳﺖ‪.‬‬ ‫‪ -2‬اﮔﺮ ‪ T‬ﻳﻚ آﻣﺎرهي ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل ﺑﺎﺷﺪ و ) ‪ U = K (T‬و ‪ K‬ﻳﻚ ﺗﺎﺑﻊ ﻳﻚ ﺑﻪ ﻳﻚ ﻧﺒﺎﺷﺪ آن ﮔـﺎه‬ ‫‪ U‬ﻳﻚ آﻣﺎرهي ﺑﺴﻨﺪه ﻧﻴﺴﺖ‪.‬‬ ‫ﺑﻪ وﺳﻴﻠﻪ ﻗﻀﺎﻳﺎي زﻳﺮ روش ﺑﺪﺳﺖ آوردن آﻣﺎرهي ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل را ﺑﺮرﺳﻲ ﻣﻲﻛﻨﻴﻢ‪.‬‬ ‫)‪p (x ;θ1‬‬ ‫ﻗﻀﻴﻪ ‪ :4-4‬آﻣﺎرهي ‪ U‬ﺑﺮاي ‪ θ‬ﺑﺴﻨﺪه اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ ﺑﻪ ازاي ﻫﺮ ‪، θ1,θ2 ∈ Θ‬‬ ‫) ‪p ( x : θ2‬‬

‫ﺗﺎﺑﻌﻲ‬

‫از ‪ U‬ﺑﺎﺷﺪ‪.‬‬ ‫اﺛﺒﺎت‪) :‬ﻛﻔﺎﻳﺖ(‬ ‫)‪p ( x ;θ1‬‬ ‫) ‪= (u ;θ1,θ2 ) ⇒ p (x ;θ1) = (u ;θ1,θ2 ) p (x ;θ2‬‬ ‫) ‪p ( x ;θ 2‬‬

‫اﮔﺮ ‪ θ2‬را ﺑﺮاﺑﺮ ﻣﻘﺪار ﺧﺎص ‪θ0‬‬

‫ﺑﮕﻴﺮﻳﻢ آن ﮔﺎه‬ ‫‪∀θ1‬‬

‫)‪p ( x ;θ1) = (u ;θ1,θ0) p (x ;θ0‬‬ ‫‪∀θ1‬‬

‫) ‪= g (U ,θ1)h (x‬‬

‫ﭘﺲ ﻃﺒﻖ ﻗﻀﻴﻪ ﺗﺠﺰﻳﻪ ﺑﻪ ﻋﻮاﻣﻞ ‪ U‬ﺑﺮاي ‪ θ‬ﺑﺴﻨﺪه اﺳﺖ‪.‬‬ ‫)ﻟﺰوم(‪ :‬اﮔﺮ ‪ U‬ﺑﺮاي ‪ θ‬ﺑﺴﻨﺪه ﺑﺎﺷﺪ آن ﮔﺎه ﻃﺒﻖ ﻗﻀﻴﻪ ﺗﺠﺰﻳﻪ ﺑﻪ ﻋﻮاﻣﻞ دارﻳﻢ ﻛﻪ‬ ‫⎫ ) ‪p (x ;θ1) = g (θ1,u ) h ( x‬‬ ‫) ‪p (x ;θ1) g (θ1,u‬‬ ‫=‬ ‫) ‪= (u ;θ1,θ2‬‬ ‫⇒⎬‬ ‫⎭ ) ‪p ( x ;θ2 ) = g (θ2 ,u )h ( x‬‬ ‫) ‪p (x ;θ2 ) g (θ2 ,u‬‬

‫■‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫ﻗﻀﻴﻪ ‪ :5-4‬ﻓﺮض ﻛﻨﻴﺪ } ‪= { p0, p1,..., p k‬‬

‫‪24‬‬

‫‪ P‬ﺧﺎﻧﻮادهاي ﻣﺘﻨﺎﻫﻲ ﻣﺘﺸﻜﻞ از ‪ k +1‬ﺗﻮزﻳﻊ ﺑﺎﺷﺪ ﻛـﻪ‬

‫) ‪⎛ P1(x‬‬ ‫⎞ ) ‪P (x‬‬ ‫‪,...., k‬‬ ‫ﻫﻤﮕﻲ داراي ﺗﻜﻴﻪﮔﺎه ﻳﻜﺴﺎن ﻫـﺴﺘﻨﺪ‪ .‬در اﻳـﻦ ﺻـﻮرت ⎟‬ ‫⎠ ) ‪P0(x‬‬ ‫) ‪⎝ P0(x‬‬

‫⎜ = ) ‪ T (x‬ﻳـﻚ آﻣـﺎره‬

‫ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﺑﺮاي ‪ θ‬اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪:‬‬ ‫‪j = 1,...., k‬‬

‫) ‪p0(x ) = g (T ( x ), j )h (x‬‬

‫) ‪p j (x‬‬ ‫) ‪p0(x‬‬

‫= ) ‪p j (x‬‬

‫) ‪p0( x ) = 1× p0( x ) = 1× h ( x‬‬

‫ﻟﺬا ﻃﺒﻖ ﻗﻀﻴﻪ ﺗﺠﺰﻳﻪ ﺑﻪ ﻋﻮاﻣﻞ ) ‪ T (X‬ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه اﺳﺖ‪ .‬ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ ‪ U‬ﻳﻚ آﻣـﺎرهي ﺑـﺴﻨﺪه‬ ‫ﺑﺮاي ‪ P‬ﺑﺎﺷﺪ ‪ .‬ﻃﺒﻖ ﻗﻀﻴﻪ ‪ 4-4‬ﺑﺎﻳﺴﺘﻲ ‪ T‬ﺗﺎﺑﻌﻲ از ‪ U‬ﺑﺎﺷﺪ ﭘـﺲ ‪ T‬ﻳـﻚ آﻣـﺎرهي ﺑـﺴﻨﺪهي ﻣﻴﻨﻴﻤـﺎل‬ ‫اﺳﺖ‪■ .‬‬ ‫ﻗﻀﻴﻪ ‪ :6-4‬ﻓﺮض ﻛﻨﻴﺪ ‪ P‬ﺧﺎﻧﻮادهاي از ﺗﻮزﻳﻊﻫﺎ ﺑﺎ ﺗﻜﻴـﻪﮔـﺎه ﻳﻜـﺴﺎن و‬ ‫ﺑﺮاي‬

‫‪o‬‬

‫‪P o ⊂P‬‬

‫ﺑﺎﺷـﺪ‪ .‬اﮔـﺮ ‪T‬‬

‫‪ P‬ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل و ﺑﺮاي ‪ P‬ﺑﺴﻨﺪه ﺑﺎﺷﺪ‪ ،‬آﻧﮕﺎه ﺑﺮاي ‪ P‬ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل ﻧﻴﺰ ﻫﺴﺖ‪.‬‬ ‫‪ P‬اﺳﺖ‪ .‬ﭘﺲ ‪ U‬ﺑﺮاي ‪ P o‬ﻧﻴﺰ ﺑـﺴﻨﺪه اﺳـﺖ و ﻟـﺬا ‪T‬‬

‫اﺛﺒﺎت‪ :‬ﻓﺮض ﻛﻨﻴﺪ ‪ U‬ﻳﻚ آﻣﺎرهي ﺑﺴﻨﺪه ﺑﺮاي‬

‫ﺗﺎﺑﻌﻲ از ‪ U‬اﺳﺖ‪ ،‬ﭘﺲ ‪ T‬ﺑﺮاي ‪ P‬ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل اﺳﺖ‪.‬‬

‫■‬

‫ﻣﺜﺎل ‪ :7-4‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 …, X n‬ﻳﻚ ﻧﻤﻮﻧـﻪ ﺗـﺼﺎدﻓﻲ از ﺗﻮزﻳـﻊ )‪ N (θ ,1‬ﺑﺎﺷـﺪ‪ .‬ﻳـﻚ آﻣـﺎرهي‬ ‫ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل ﺑﺮاي ‪ θ‬ﭘﻴﺪا ﻛﻨﻴﺪ‪.‬‬ ‫})‪P 0 = {N (θ0,1), N (θ1,1‬‬ ‫‪n‬‬

‫) ‪= h (∑ X i‬‬ ‫‪i =1‬‬

‫‪n‬‬

‫ﻛﻪ ‪ h‬ﻳﻚ ﺗﺎﺑﻊ ﻳﻚ ﺑﻪ ﻳﻚ اﺳﺖ‪ .‬ﭼﻮن ‪∑ X i‬‬ ‫‪i =1‬‬

‫‪n‬‬ ‫‪1‬‬ ‫) ‪(θ1−θ2 ) ∑ X i − (θ12 −θ02‬‬ ‫‪2‬‬ ‫‪i =1‬‬

‫‪=e‬‬

‫‪1n‬‬ ‫‪∑ ( X i −θ1)2‬‬ ‫‪2 i =1‬‬ ‫‪1n‬‬ ‫‪∑ ( X i −θ0)2‬‬ ‫‪2 i =1‬‬

‫‪−‬‬

‫‪e‬‬ ‫‪−‬‬

‫=‬

‫) ‪pθ1 (x‬‬ ‫) ‪pθ0 (x‬‬

‫‪e‬‬

‫ﺑﺮاي ‪ P‬ﺑﺴﻨﺪه و ﺑﺮاي ‪ P 0‬ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل اﺳـﺖ ﭘـﺲ‬

‫ﺑﺮاي ﺧﺎﻧﻮادهي )‪ N (θ ,1‬ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل اﺳﺖ‪.‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪1‬‬ ‫‪2‬‬

‫‪25‬‬

‫‪1‬‬ ‫‪2‬‬

‫ﻣﺜﺎل ‪ :8-4‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 …, X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗـﺼﺎدﻓﻲ از ﺗﻮزﻳـﻊ ) ‪ U (θ − ,θ +‬ﺑﺎﺷـﺪ‪ .‬ﻳـﻚ‬ ‫) ) ‪T (X ) = (X (1) , X ( n‬‬

‫آﻣﺎرهي ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل ﺑﺮاي ‪ θ‬ﭘﻴﺪا ﻛﻨﻴﺪ‪.‬‬

‫ﻗــﻀﻴﻪ ‪ :7-4‬ﻓــﺮض ﻛﻨﻴــﺪ ‪ X‬داراي ﺗــﻮزﻳﻌﻲ از ﺧــﺎﻧﻮادهي ﻧﻤــﺎﻳﻲ ‪- k‬ﭘــﺎراﻣﺘﺮي ﺑﺎﺷــﺪ‪ .‬در اﻳــﻦ‬ ‫ﺻﻮرت ) ‪ T = (T1,...,T k‬ﻳﻚ آﻣﺎرهي ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل ﺑﺮاي اﻳﻦ ﺧﺎﻧﻮاده اﺳﺖ ﺑﻪ ﺷـﺮط آﻧﻜـﻪ ﻳﻜـﻲ از‬ ‫ﺷﺮاﻳﻂ زﻳﺮ ﺑﺮاي اﻳﻦ ﺧﺎﻧﻮاده ﺑﺮﻗﺮار ﺑﺎﺷﺪ‪:‬‬ ‫اﻟﻒ‪ -‬اﻳﻦ ﺧﺎﻧﻮاده ﭘﺮرﺗﺒﻪ ﺑﺎﺷﺪ‪.‬‬ ‫ب‪ -‬ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ﺷﺎﻣﻞ ‪ k +1‬ﻧﻘﻄﻪ ) ‪ η (0) ,η (1) ,...,η ( k‬ﺑﺎﺷﺪ ﻛﻪ ﻓﻀﺎي ‪ E k‬را ﭘﺪﻳﺪ ﻣـﻲآورﻧـﺪ‪ .‬ﺑـﻪ‬ ‫اﻳﻦ ﻣﻌﻨﻲ ﻛﻪ آﻧﻬﺎ ﺑﻪ ﻳﻚ زﻳﺮ ﻓﻀﺎي ﻣﺤﺾ ‪ E k‬ﺗﻌﻠﻖ ﻧﺪارﻧﺪ‪.‬‬ ‫اﺛﺒﺎت‪ :‬اﮔﺮ ﺷﺮاﻳﻂ )اﻟﻒ( ﻳﺎ )ب( ﺑﺮﻗﺮار ﺑﺎﺷﺪ آﻧﮕﺎه ﻣﻲﺗﻮان ) ‪η (1) ,...,η ( k‬‬

‫را در داﺧــــﻞ ﻓــــﻀﺎي‬

‫ﭘﺎراﻣﺘﺮي ﭼﻨﺎن ﻳﺎﻓﺖ ﻛﻪ ﻣﺴﺘﻘﻞ ﺧﻄﻲ ﺑﺎﺷﻨﺪ‪ .‬ﺣﺎل ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي } ) ‪ P 0 = { pη (0) ,..., pη ( k‬را در‬ ‫ﻧﻈﺮ ﻣﻲﮔﻴﺮﻳﻢ ﻛﻪ در آن )‪ η (0‬ﻳﻚ ﺗﺮﻛﻴﺐ ﺧﻄﻲ ﻏﻴﺮﻣﺤﺪب از ) ‪ η (1) ,...,η ( k‬اﺳﺖ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ‬ ‫⎞‬ ‫⎟‬ ‫⎟‬ ‫⎟‬ ‫⎠‬

‫‪k‬‬ ‫)‪⎛ k (1) (0‬‬ ‫‪∑ (ηr( k ) −ηr(0) )t r‬‬ ‫) )‪⎛ p (x ,η (1‬‬ ‫‪p (x ,η ( k ) ) ⎞ ⎜ ∑ (ηr −ηr )t r‬‬ ‫‪⎟ = e r =1‬‬ ‫⎜ = ) ‪T (X‬‬ ‫‪,...,‬‬ ‫‪,..., e r =1‬‬ ‫⎜ ⎟ )‪(0‬‬ ‫) )‪⎜ p (x ,η (0‬‬ ‫‪p‬‬ ‫(‬ ‫‪x‬‬ ‫‪,‬‬ ‫)‬ ‫‪η‬‬ ‫⎝‬ ‫⎝⎜ ⎠‬

‫و ﻳﺎ ﻣﻌﺎدﻻً‬ ‫‪k‬‬

‫) ‪∑ (ηr( k ) − ηr(0) )t r‬‬ ‫‪r =1‬‬

‫‪− η r(0) )t r ,...,‬‬

‫)‪(η r(1‬‬

‫‪k‬‬

‫∑( = ) ‪W (x‬‬

‫‪r =1‬‬

‫⎤ )‪⎡η1(1) − η1(0) ....η1( k ) − η1(0‬‬ ‫⎢‬ ‫⎥‬ ‫⎢ ] ‪= [t1,..., t k‬‬ ‫‪⎥ = [t1,..., t k ]B‬‬ ‫⎥ )‪⎢η (1) − η (0) ....η ( k ) − η (0‬‬ ‫‪k‬‬ ‫‪k‬‬ ‫⎦ ‪k‬‬ ‫‪⎣ k‬‬

‫ﻳﻚ آﻣﺎرهي ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل ﺑﺮاي ‪ P o‬اﺳﺖ‪ .‬ﭼـﻮن ) ‪η (i‬ﻫـﺎ ﻣـﺴﺘﻘﻞ ﺧﻄـﻲ ﻫـﺴﺘﻨﺪ ﭘـﺲ ﺳـﺘﻮنﻫـﺎي‬ ‫‪ B‬ﻣﺴﺘﻘﻞ ﺧﻄﻲ و در ﻧﺘﻴﺠﻪ ‪ B‬وارونﭘﺬﻳﺮ اﺳﺖ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ) ‪ (T1,...,T k‬ﺑﺮاي ‪ P o‬ﺑﺴﻨﺪهي ﻣﻴﻨﻴﻤﺎل اﺳﺖ‬ ‫و ﭼﻮن ﺑﺮاي ‪ P‬ﺑﺴﻨﺪه اﺳﺖ ﭘﺲ ﺑﺮاي ‪ P‬ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﻧﻴﺰ ﻫﺴﺖ‪.‬‬ ‫ﻣﺜﺎل ‪ :9-4‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪ N (θ ,θ 2‬ﺑﺎﺷﻨﺪ‪ .‬در اﻳﻦ ﺻﻮرت‬

‫■‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬ ‫‪1‬‬ ‫‪n‬‬

‫‪−‬‬

‫‪1‬‬

‫‪}e‬‬

‫) ‪∑ x i2 +θ ∑ x i − n ln(2πθ 2‬‬

‫‪1‬‬ ‫‪2θ 2‬‬

‫‪−‬‬

‫‪( x ) = {e‬‬

‫‪θ‬‬

‫‪26‬‬

‫‪P‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ آﻣﺎره ) ‪ T = (∑ X i , ∑ X i2‬ﺑﺮاي ‪ θ‬ﺑﺴﻨﺪه اﺳﺖ و اﻳﻦ آﻣﺎره ﺑﺮاي ‪ θ‬ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل اﺳﺖ‬ ‫‪1‬‬

‫‪1‬‬

‫زﻳﺮا در اﻳﻨﺠﺎ ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ﻋﺒﺎرت از ) ‪ η = ( , − 2‬اﺳﺖ و اﮔﺮ ﻧﻘﺎط‬ ‫‪θ 2θ‬‬ ‫‪1‬‬ ‫)‬ ‫‪18‬‬

‫‪1‬‬ ‫‪3‬‬

‫‪η (3) = ( , −‬‬

‫‪1‬‬ ‫‪8‬‬

‫‪1‬‬ ‫‪2‬‬

‫) ‪η (1) = ( , −‬‬

‫‪1‬‬ ‫‪2‬‬

‫) ‪η (0) = (1, −‬‬

‫‪1‬‬ ‫‪⎡ 1‬‬ ‫⎤‬ ‫⎥ ‪−1‬‬ ‫‪⎢ 2 −1‬‬ ‫‪3‬‬ ‫⎢ ﻛﻪ وارونﭘﺬﻳﺮ اﺳـﺖ‬ ‫را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ آن ﮔﺎه ﻣﺎﺗﺮﻳﺲ ‪ B‬ﻓﻮق ﻋﺒﺎرت اﺳﺖ از ⎥‬ ‫⎥ ‪⎢− 1 + 1 − 1 + 1‬‬ ‫‪⎢⎣ 8 2‬‬ ‫⎦⎥ ‪18 2‬‬

‫و ﻃﺒﻖ ﻗﻀﻴﻪ ﻗﺒﻞ ‪ T‬ﺑﺮاي ‪ θ‬ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل اﺳﺖ‪.‬‬

‫■‬

‫روش ﻟﻬﻤﻦ‪ -‬ﺷﻔﻪ ﺑﺮاي ﺑﺪﺳﺖ آوردن آﻣﺎره ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل‬ ‫ﻗﻀﻴﻪ ‪ :8-4‬ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي }‪ {Pθ : θ ∈ Θ‬ﺑﺎ ﭼﮕـﺎﻟﻲ ‪ pθ‬را در ﻧﻈـﺮ ﺑﮕﻴﺮﻳـﺪ‪ .‬اﮔـﺮ ) ‪ T (X‬آﻣـﺎرهاي‬ ‫ﺑﺎﺷﺪ ﻛﻪ ﺑﺮاي ﻫﺮ دو ﻧﻘﻄﻪ ‪ x‬و ‪ y‬در ﺗﻜﻴﻪ ﮔﺎه *‪ S X‬داﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ‬ ‫) ‪pθ (x‬‬ ‫) ‪ = K (x , y ) ⇔ T (x ) = T ( y‬ﻣﺴﺘﻘﻞ از ‪= θ‬‬ ‫) ‪pθ ( y‬‬

‫آن ﮔﺎه ‪ T‬ﺑﺮاي اﻳﻦ ﺧﺎﻧﻮاده ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪ :‬اﺑﺘﺪا ﺛﺎﺑﺖ ﻣﻲﻛﻨﻴﻢ ﻛﻪ ) ‪ T (X‬ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه اﺳﺖ‪ .‬اﻓﺮازﻫﺎي اﻳﺠﺎد ﺷﺪه ﺗﻮﺳﻂ ) ‪ T (X‬را ﺑﻪ‬ ‫ﺻﻮرت } ‪ At = {x | T (x ) = t‬ﻧﺸﺎن ﻣﻲدﻫﻴﻢ‪ .‬ﻓﺮض ﻛﻨﻴﺪ ‪ U t‬ﻳﻚ ﻧﻘﻄﻪ ﺑﻪ ﺧﺼﻮص در ‪ At‬ﺑﺎﺷﺪ‪ .‬ﺣﺎل‬ ‫اﮔﺮ ‪ x ∈ At‬ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت‬ ‫‪x ∈ At‬‬ ‫) ‪} ⇒ T (x ) = T (u t ) ⇒ pθ (x ) = K (x ,U t ) pθ (u t‬‬ ‫‪U t ∈ At‬‬

‫)) ‪⇒ pθ (x ) = K (x ,U T ( x ) )f θ (U T ( x ) ) = h (x ) g (θ ,T (x‬‬

‫ﭘﺲ ﺑﻨﺎ ﺑﻪ ﻗﻀﻴﻪ ﺗﺠﺰﻳﻪ ﺑﻪ ﻋﻮاﻣﻞ‪ T (X ) ،‬ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه اﺳﺖ‪.‬‬ ‫ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ ‪ U‬ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه دﻳﮕﺮ ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫) ‪Pθ (x ) g (θ ,U (x )) h (x‬‬ ‫=‬ ‫=‬ ‫ﻣﺴﺘﻘﻞ از ‪= K (x , y ) θ‬‬ ‫) ‪Pθ ( y ) g (θ ,U ( y )) h ( y‬‬

‫‪27‬‬

‫⇒ ) ‪U (x ) = U ( y‬‬

‫ﻟﺬا ﺑﻨﺎ ﺑﻪ ﻓﺮض ) ‪ .T (x ) = T ( y‬ﻳﻌﻨﻲ ‪ T‬ﺗﺎﺑﻌﻲ از ‪ U‬اﺳﺖ ﭘﺲ ‪ T‬ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل اﺳﺖ‪.‬‬

‫■‬

‫ﻣﺜﺎل ‪ :10-4‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳـﻊ ) ‪ Pa (α ,θ‬ﺑﺎﺷـﻨﺪ ﻳـﻚ آﻣـﺎره‬ ‫ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﺑﺮاي ) ‪ (α ,θ‬ﭘﻴﺪا ﻛﻨﻴﺪ‪.‬‬ ‫) ‪I (0,x (1) ) (α‬‬

‫‪θ n α nθ‬‬ ‫‪n‬‬

‫) ‪(∏ x i‬‬

‫‪θ +1‬‬

‫‪θα θ‬‬

‫‪I‬‬ ‫= ) ‪(x‬‬ ‫‪θ +1 (α ,+∞ ) i‬‬

‫‪n‬‬

‫∏ = ) ‪pα ,θ (x‬‬

‫‪i =1 x i‬‬

‫‪i =1‬‬

‫‪n‬‬

‫‪(∏ y i )θ +1 I‬‬ ‫‪n‬‬ ‫‪n‬‬ ‫) ‪pα ,θ (x‬‬ ‫) ‪(0,x (1) )(α‬‬ ‫‪= i n=1‬‬ ‫) )‪= 1 ⇔ (∏ x i , x (1) ) = (∏ y i , y (1‬‬ ‫‪.‬‬ ‫) ‪pα ,θ ( y‬‬ ‫‪I‬‬ ‫) ‪(α‬‬ ‫‪i =1‬‬ ‫‪i =1‬‬ ‫) )‪(∏ x i )θ +1 (0, y (1‬‬ ‫‪i =1‬‬

‫‪n‬‬

‫ﭘﺲ ) )‪ T (X ) = (∏ X i , X (1‬ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﺑﺮاي ) ‪ (α ,θ‬اﺳﺖ‪.‬‬

‫■‬

‫‪i =1‬‬

‫ﺗﻮﺟﻪ‪ :‬ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ راﺑﻄﻪ آﻣﺎرهﻫﺎي ﺑﺴﻨﺪه و آﻣﺎرهﻫﺎي ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل‪ ،‬روش ﺗﺸﺨﻴﺺ ﺑـﺴﻨﺪﮔﻲ ﻳـﺎ ﻋـﺪم‬ ‫ﺑﺴﻨﺪﮔﻲ ﻳﻚ آﻣﺎره ﺑﻪ ﺻﻮرت زﻳﺮ ﻣﻲ ﺑﺎﺷﺪ‪ .‬ﻓﺮض ﻛﻨﻴﺪ ‪ T‬ﻳـﻚ آﻣـﺎره دﻟﺨـﻮاه ﺑﺎﺷـﺪ‪ .‬ﺑـﺮاي ﺗـﺸﺨﻴﺺ‬ ‫ﺑﺴﻨﺪﮔﻲ ﻳﺎ ﻋﺪم ﺑﺴﻨﺪﮔﻲ آﻣﺎره ‪ ،T‬اﺑﺘﺪا ﺗﻮﺳﻂ روش ﻟﻬﻤﻦ – ﺷﻔﻪ ﻳـﻚ آﻣـﺎره ﺑـﺴﻨﺪه ﻣﻴﻨﻴﻤـﺎل ‪ S‬ﭘﻴـﺪا‬ ‫ﻣﻲﻛﻨﻴﻢ اﮔﺮ ‪ S‬ﺗﺎﺑﻌﻲ از آﻣﺎره ‪ T‬ﺑﺎﺷﺪ آﻧﮕﺎه ‪ T‬ﺑﺴﻨﺪه اﺳﺖ و اﮔﺮ ‪ S‬ﺗﺎﺑﻌﻲ از ‪ T‬ﻧﺒﺎﺷـﺪ‪ .‬آن ﮔـﺎه ‪T‬‬

‫ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﻧﺨﻮاﻫﺪ ﺑﻮد )اﺛﺒﺎت‪ :‬ﺑﺮﻫﺎن ﺧﻠﻒ(‪.‬‬

‫آﻣﺎرهﻫﺎي ﻓﺮﻋﻲ ‪:1‬‬ ‫ﺗﻌﺮﻳﻒ‪ :3-4‬ﻳﻚ آﻣﺎره ) ‪ T (X‬را ﻓﺮﻋﻲ ﮔﻮﺋﻴﻢ ﻫﺮﮔﺎه ﺗﻮزﻳﻊ آن ﺑﻪ ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل ﺑﺴﺘﮕﻲ ﻧﺪاﺷﺘﻪ ﺑﺎﺷـﺪ‬ ‫و ﻳﻚ آﻣﺎره ) ‪ T (X‬را ﻓﺮﻋﻲ از ﻣﺮﺗﺒﻪ اول ﮔﻮﺋﻴﻢ ﻫﺮﮔﺎه ‪ E θ [T (X )] = c‬و ﺑﻪ ‪ θ‬ﺑﺴﺘﮕﻲ ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ‪.‬‬ ‫ﻣﺜــﺎل ‪ :11-4‬اﮔــﺮ ‪ X 1,… , X n‬ﻳــﻚ ﻧﻤﻮﻧــﻪ ﺗــﺼﺎدﻓﻲ از ﻳــﻚ ﺧــﺎﻧﻮاده ﻣﻜــﺎن ) ‪ f (x − θ‬ﺑﺎﺷــﻨﺪ‬ ‫آﻧﮕﺎه )‪ S (X ) = X ( n ) − X (1‬ﻳﻚ آﻣﺎره ﻓﺮﻋﻲ اﺳﺖ زﻳﺮا‬ ‫‪Ancillary statistics‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪i = 1,..., n‬‬

‫‪28‬‬

‫‪X i = Z i +θ‬‬

‫‪ Z i‬داراي ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ) ‪ f (x‬اﺳﺖ ﻛﻪ ﺑﻪ ‪ θ‬ﺑﺴﺘﮕﻲ ﻧﺪارد‪.‬‬ ‫) ‪R = X ( n ) − X (1) ⇒ FR (r ) = P (R ≤ r ) = P (X ( n ) − X (1) ≤ r‬‬ ‫) ‪= P (max X i − min X i ≤ r ) = P (max( Z i + θ )− min( Z i + θ ) ≤ r‬‬ ‫‪1≤i ≤ n‬‬

‫‪1≤i ≤ n‬‬

‫‪1≤i ≤ n‬‬

‫‪1≤i ≤ n‬‬

‫) ‪= P (Z ( n ) − Z (1) ≤ r‬‬

‫ﻛﻪ اﻳﻦ اﺣﺘﻤﺎل ﺑﻪ ‪ θ‬ﺑﺴﺘﮕﻲ ﻧﺪارد ﭘﺲ ‪ R‬ﻳﻚ آﻣﺎره ﻓﺮﻋﻲ اﺳﺖ‪■ .‬‬ ‫‪x‬‬ ‫ﻣﺜﺎل ‪ :12-4‬اﮔﺮ ‪ X 1,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﻳﻚ ﺧﺎﻧﻮاده ﻣﻘﻴﺎس ) ( ‪f‬‬

‫‪σ‬‬

‫‪X1‬‬ ‫‪X‬‬ ‫) ‪,..., n −1‬‬ ‫‪Xn‬‬ ‫‪Xn‬‬

‫‪1‬‬

‫‪σ‬‬

‫ﺑﺎﺷﻨﺪ آﻧﮕﺎه‬

‫( = )‪S (X ) = (Y 1,… ,Y n −1‬‬

‫ﻳﻚ آﻣﺎره ﻓﺮﻋﻲ ﺑﺮاي ‪ σ‬اﺳﺖ زﻳﺮا‬ ‫‪X1‬‬ ‫‪X‬‬ ‫)‪≤ y 1,..., n −1 ≤ y n −1‬‬ ‫‪Xn‬‬ ‫‪Xn‬‬

‫‪Xi‬‬

‫( ‪FY 1,...,Y n −1 ( y 1,… , y n −1) = P‬‬

‫‪X1 σ‬‬ ‫‪X‬‬ ‫‪σ‬‬ ‫)‪≤ y 1,..., n −1 ≤ y n −1‬‬ ‫‪Xn σ‬‬ ‫‪Xn σ‬‬

‫(‪= P‬‬

‫‪Z1‬‬ ‫‪Z‬‬ ‫)‪≤ y 1,..., n −1 ≤ y n −1‬‬ ‫‪Zn‬‬ ‫‪Zn‬‬

‫(‪= P‬‬

‫= ‪ Z i‬و ) ‪ f Z i (z ) = σ f X (σ z ) = f (z‬ﺑﻨﺎﺑﺮاﻳﻦ اﺣﺘﻤـﺎل ﻓـﻮق ﺑـﻪ ‪ σ‬ﺑـﺴﺘﮕﻲ ﻧـﺪارد‬

‫ﻛﻪ در آن‬ ‫‪σ‬‬ ‫ﭘﺲ ) ‪ S (X‬ﻳﻚ آﻣﺎره ﻓﺮﻋﻲ اﺳﺖ‪.‬‬

‫■‬

‫ﺗﻮﺟﻪ‪ :‬ﻫﻤﺎﻧﮕﻮﻧﻪ ﻛﻪ ﻣﻲداﻧﻴﻢ آﻣﺎرهﻫﺎي ﺑﺴﻨﺪه ﺟﻬﺖ ﻛﺎﻫﺶ ﺑ‪‬ﻌﺪ دادهﻫﺎ ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار ﻣـﻲﮔﻴﺮﻧـﺪ‪ .‬آن‬ ‫آﻣﺎره ﺑﺴﻨﺪهاي ﻣﻲﺗﻮاﻧﺪ اﻳﻦ ﻛﺎﻫﺶ ﺑ‪‬ﻌﺪ را ﺗﺎ ﺣﺪ ﻣﻤﻜﻦ اﻧﺠﺎم دﻫﺪ ﻛﻪ ﻫﻴﭻ ﺗﺎﺑﻊ ﻏﻴﺮﺛﺎﺑﺖ آن ﻳـﻚ آﻣـﺎره‬ ‫ﻓﺮﻋﻲ ﻧﺒﺎﺷﺪ ﻳﻌﻨﻲ اﮔﺮ ‪ E [f (T )] = c‬ﻧﺘﻴﺠﻪ دﻫﺪ ﻛﻪ ‪a.e .‬‬

‫ﺗﻌﺮﻳﻒ آﻣﺎره ﻛﺎﻣﻞ ﺣﺎﺻﻞ ﻣﻲﺷﻮد‪.‬‬

‫‪ f (T ) = c‬ﻛﻪ ﺑﺎ ﻛﻢ ﻛﺮدن ‪ c‬از ﻃـﺮﻓﻴﻦ‪،‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫ﺑﺨﺶ ‪ :5‬ﻛﺎﻣﻞ ﺑﻮدن‬

‫‪29‬‬

‫‪1‬‬

‫ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫـﺎي }‪= {Pθ : θ ∈ Θ‬‬ ‫اﮔﺮ ) ‪ T ( X‬ﻳﻚ آﻣﺎره ﺑﺎﺷﺪ آﻧﮕﺎه ﮔﻮﻳﻨﺪ }‪= {PθT : θ ∈ Θ‬‬

‫‪ P‬ﺑﺎﺷـﻨﺪ‬

‫‪ P‬ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﺗﻮﻟﻴﺪ ﺷﺪه ﺗﻮﺳﻂ‬

‫‪T‬‬

‫آﻣﺎره ‪ T‬اﺳﺖ‪.‬‬ ‫ﺗﻌﺮﻳﻒ ‪ :1-5‬اﻟﻒ‪ -‬ﺧﺎﻧﻮاده‬ ‫‪T‬‬

‫)‪(1‬‬

‫‪a.e . P‬‬

‫‪T‬‬

‫‪θ‬‬

‫‪ P‬را ﻛﺎﻣﻞ ﮔﻮﻳﻨﺪ اﮔﺮ ﺑﺮاي ﻫﺮ ﺗﺎﺑﻊ ) ‪ h (T‬داﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ‬ ‫‪h(T ) = 0‬‬

‫⇒ ‪∀θ ∈ Θ‬‬

‫‪E θ [h (T )] = 0‬‬

‫و آﻣﺎره ) ‪ T (X‬را ﻛﺎﻣﻞ ﮔﻮﻳﻨﺪ اﮔﺮ ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﺑﻪ وﺟﻮد آﻣـﺪه ﺗﻮﺳـﻂ ‪ T‬ﻛﺎﻣـﻞ ﺑﺎﺷـﺪ )ﻳﻌﻨـﻲ‬ ‫ﺧﺎﻧﻮادهاي ﻛﺎﻣﻞ اﺳﺖ ﻛﻪ در آن ﺗﻨﻬﺎ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﺻﻔﺮ ﺧﻮد ﺑﺮآوردﮔﺮ ﺻﻔﺮ ﺑﺎﺷﺪ(‪.‬‬ ‫ب‪ -‬ﺧﺎﻧﻮاده‬

‫‪T‬‬

‫‪θ‬‬

‫‪ P‬را ﻛﺎﻣﻞ ﻛﺮاﻧﺪار ﮔﻮﻳﻨﺪ اﮔﺮ ﺑﺮاي ﻫﺮ ﺗﺎﺑﻊ ﺣﻘﻴﻘﻲ ﻛﺮاﻧـﺪار ) ‪ h (T‬راﺑﻄـﻪ )‪ (1‬ﺑﺮﻗـﺮار‬

‫ﺑﺎﺷﺪ‪.‬‬ ‫ﺗﻮﺟﻪ‪ :‬ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ اﮔﺮ ﻳﻚ آﻣﺎره ‪ T‬ﻛﺎﻣﻞ ﺑﺎﺷﺪ آن ﮔﺎه ﻛﺎﻣﻞ ﻛﺮاﻧﺪار ﻧﻴﺰ اﺳﺖ اﻣﺎ ﻋﻜـﺲ اﻳـﻦ ﻣﻄﻠـﺐ‬ ‫ﺑﺮﻗﺮار ﻧﻴﺴﺖ‪ .‬و ﻫﻤﭽﻨﻴﻦ اﮔﺮ ‪ T‬ﻳﻚ آﻣﺎره ﻛﺎﻣﻞ ﺑﺎﺷﺪ آﻧﮕﺎه ﻫﺮ ﺗﺎﺑﻊ ﻳﻚ ﺑﻪ ﻳﻚ آن ﻧﻴﺰ ﻛﺎﻣﻞ اﺳﺖ‪.‬‬ ‫‪1‬‬ ‫‪2‬‬

‫ﻣﺜﺎل ‪ :1‬ﻓﺮض ﻛﻨﻴﺪ ) ‪ ، X ~ B (θ ,‬ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ‬ ‫‪1‬‬ ‫اﻟﻒ‪ -‬اﮔﺮ }‪ θ ∈ Θ = {0,1, 2,....‬آﻧﮕﺎه }‪= {B (θ , ) | θ ∈ Θ‬‬ ‫‪2‬‬

‫‪ P‬ﻛﺎﻣﻞ اﺳﺖ‪.‬‬

‫‪1‬‬ ‫ب‪ -‬اﮔﺮ }‪ θ ∈ Θ* = {1, 2,....‬آﻧﮕﺎه }‪= {B (θ , ) | θ ∈ Θ‬‬ ‫‪2‬‬

‫*‬

‫‪ P‬ﻛﺎﻣﻞ ﻧﻴﺴﺖ‪.‬‬

‫ﺣﻞ‪:‬‬ ‫‪∀θ ∈ Θ‬‬

‫‪θ‬‬

‫‪θ‬‬ ‫⎞ ‪⎛θ ⎞⎛ 1‬‬ ‫⎞ ‪⎛θ‬‬ ‫‪E θ [h (X )] = 0 ⇒ ∑ h (x ) ⎜ ⎟⎜ ⎟ = 0 ⇒ ∑ h (x ) ⎜ ⎟ = 0‬‬ ‫⎠ ‪⎝ x ⎠⎝ 2‬‬ ‫⎠ ‪⎝x‬‬ ‫‪x =0‬‬ ‫‪x =0‬‬ ‫‪θ‬‬

‫اﻟﻒ‪-‬‬ ‫‪θ = 0 ⇒ h (0) = 0‬‬ ‫‪θ = 1 ⇒ h (0) + h (1) = 0 ⇒ h (1) = 0‬‬

‫ﻓﺮض‬

‫‪θ = k : h (0) = h (1) = ..... = h (k ) = 0‬‬ ‫‪Completeness‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪30‬‬

‫‪θ = k + 1: h (k + 1) = 0‬‬

‫ﺣﻜﻢ‬

‫)‪( 2‬‬ ‫⎞‪⎛ k + 1‬‬ ‫⎞‪⎛ k + 1‬‬ ‫‪1‬‬ ‫‪0‬‬ ‫⎜ )‪h (0) + h (1‬‬ ‫‪...‬‬ ‫‪h‬‬ ‫(‬ ‫‪k‬‬ ‫)‬ ‫‪h‬‬ ‫(‬ ‫‪k‬‬ ‫)‬ ‫‪h (k + 1) = 0‬‬ ‫‪+‬‬ ‫‪+‬‬ ‫‪+‬‬ ‫‪+‬‬ ‫=‬ ‫⇒‬ ‫⎟‬ ‫⎟ ‪⎜ k‬‬ ‫⎠ ‪⎝ 1‬‬ ‫⎝‬ ‫⎠‬

‫‪a.e . P‬‬

‫∴‬

‫‪h (x ) = 0‬‬

‫ﻛﻪ ﻧﺘﻴﺠﻪ )‪ (2‬از ﻓﺮض ﺣﺎﺻﻞ ﻣﻲﮔﺮدد‬ ‫ب‪-‬‬ ‫‪θ = 1 ⇒ h (0) + h (1) = 0 ⇒ h (1) = −h (0) = −a‬‬ ‫‪θ = 2 ⇒ h (0) + 2h (1) + h (2) = 0 ⇒ h (2) = −a‬‬ ‫)‪a = h (0‬‬

‫ﭘﺲ اﮔﺮ ‪ a ≠ 0‬آﻧﮕﺎه‬

‫*‬

‫‪x = 0, 2,....‬‬ ‫‪= (1) x a ,‬‬ ‫‪x = 1, 3,....‬‬

‫‪⎧a‬‬ ‫⎨ = ) ‪h (x‬‬ ‫‪⎩−a‬‬

‫‪ P‬ﻳﻚ ﺧﺎﻧﻮاده ﻛﺎﻣﻞ ﻧﻴﺴﺖ‪.‬‬

‫■‬

‫ﺗﻮﺟﻪ‪ :‬ﻣﺜﺎل ﻗﺒﻞ ﻧﺸﺎن ﻣﻲدﻫﺪ ﻛﻪ ﻛﺎﻣﻞ ﺑﻮدن ﺑﻪ ﺧﺎﻧﻮاده ﺗﻮزﻳﻊ ﻫﺎ ﺑﺴﺘﮕﻲ دارد و ﻧﻪ ﺑﻪ آﻣﺎره ) ‪.T (X‬‬ ‫ﻣﺜﺎل ‪ :2-5‬ﻓﺮض ﻛﻨﻴﺪ ‪ X‬ﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﮔﺴﺴﺘﻪ ﺑﺎ ﺗﺎﺑﻊ اﺣﺘﻤﺎل زﻳﺮ ﺑﺎﺷﺪ‪.‬‬ ‫‪0< θ <1‬‬

‫‪x = 2, 3,...‬‬

‫‪x =1‬‬ ‫‪⎧⎪θ‬‬ ‫‪pθ (x ) = ⎨ x −2‬‬ ‫‪2‬‬ ‫) ‪⎪⎩θ (1 − θ‬‬

‫ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ ‪ X‬ﻳﻚ آﻣﺎره ﻛﺎﻣﻞ ﻧﻴﺴﺖ اﻣﺎ ﻛﺎﻣﻞ ﻛﺮاﻧﺪار اﺳﺖ‪.‬‬ ‫ﺣﻞ‪:‬‬ ‫∞‪+‬‬

‫∞‪+‬‬

‫‪x =2‬‬

‫‪x =1‬‬

‫‪0 = E θ [h ( X )] = ∑ h ( x ) pθ ( x ) = θ h (1) + ∑ h ( x )θ x −2 (1 − θ )2‬‬ ‫∞‪+‬‬

‫‪⇒ ∑ h (x )θ x −2 = −θ h (1)(1 − θ ) −2‬‬ ‫‪x =2‬‬

‫∞‬ ‫‪1‬‬ ‫دارﻳﻢ‪:‬‬ ‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﻳﻨﻜﻪ ‪= ∑ (x + 1)θ x‬‬ ‫‪2‬‬ ‫) ‪(1 − θ‬‬ ‫‪x =0‬‬

‫∞‪+‬‬

‫∞‪+‬‬

‫∞‪y = x −2 +‬‬

‫‪y =1‬‬

‫‪x =0‬‬

‫‪y =0‬‬

‫‪∑ h ( y + 2)θ y = −h (1)∑ (x + 1)θ x +1 = −h (1)∑ y θ y‬‬

‫⇒‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪x = 1, 2, 3,....‬‬

‫‪www.riazisara.ir‬‬

‫‪31‬‬

‫‪⎧ h (2) = 0‬‬ ‫⎨⇒‬ ‫)‪y = 1, 2, 3,... ⇒ h ( x ) = −(x − 2)h (1‬‬ ‫)‪⎩ h ( y + 2) = − yh (1‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ‪ X‬ﻛﺎﻣﻞ ﻧﻴﺴﺖ زﻳﺮا ﺑﺮاي‪ E θ [h (X )] = 0‬ﻧﺘﻴﺠﻪ ﮔﺮﻓﺘﻴﻢ ﻛﻪ‪) h (x ) ≠ 0‬ﺑﺎ ﻗﺮار دادن‪.( h (1) ≠ 0‬‬ ‫اﻣــﺎ ‪ X‬ﻳــﻚ آﻣــﺎره ﻛﺎﻣــﻞ ﻛﺮاﻧــﺪار اﺳــﺖ زﻳــﺮا اﮔــﺮ ) ‪ h (x‬ﻳــﻚ ﺗــﺎﺑﻊ ﻛﺮاﻧــﺪار ﺑﺎﺷــﺪ و‪h (1) ≠ 0‬‬ ‫آﻧﮕﺎه ∞‪ . lim h (x ) = ±‬ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮاي اﻳﻨﻜﻪ ) ‪ h (x‬ﻳﻚ ﺗﺎﺑﻊ ﺣﻘﻴﻘﻲ ﻛﺮاﻧﺪار ﺑﺎﺷﺪ ﺑﺎﻳـﺴﺘﻲ ‪h (1) = 0‬‬ ‫∞‪x →±‬‬

‫ﺑﺎﺷﺪ ﭘﺲ ‪∀x = 1, 2,.....‬‬

‫‪ h (x ) = 0,‬ﺑﻨﺎﺑﺮاﻳﻦ ‪ X‬ﻳﻚ آﻣﺎره ﻛﺎﻣﻞ ﻛﺮاﻧﺪار اﺳﺖ‪.‬‬

‫■‬

‫ﻗـــﻀﻴﻪ ‪ :1-5‬اﮔـــﺮ ‪ X‬داراي ﺗـــﻮزﻳﻌﻲ از ﺧـــﺎﻧﻮاده ﻧﻤـ ـﺎﻳﻲ ‪- k‬ﭘـــﺎراﻣﺘﺮي ﭘﺮرﺗﺒـــﻪ ﺑﺎﺷـــﺪ آﻧﮕـــﺎه‬ ‫آﻣﺎره ) ‪ T = (T1,...,T k‬ﺑﺮاي اﻳﻦ ﺧﺎﻧﻮاده ﻛﺎﻣﻞ اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪) :‬ﻛﺘﺎب ‪ TSH‬ﺑﺨﺶ ‪ 4. 3‬ﻗﻀﻴﻪ ‪(1‬‬

‫■‬

‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻗﻀﻴﻪ ﻓﻮق ﻣﻲﺗﻮان ﻧﺘﻴﺠﻪ ﮔﺮﻓﺖ ﻛﻪ در ﺗﻮزﻳـﻊ ) ‪ N ( μ ,σ 2‬آﻣـﺎره ) ‪ T (X ) = (X , S 2‬و در‬ ‫ﺗﻮزﻳﻊ ) ‪ B (n ,θ‬آﻣﺎره ‪ T (X ) = X‬و در ﺗﻮزﻳﻊ )‪ Be (θ ,1‬آﻣﺎره ‪ T (X ) = ∑ ln X i‬آﻣﺎرهﻫﺎي ﻛﺎﻣﻞ‬ ‫)و ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل( ﻣﻲﺑﺎﺷﻨﺪ‪ .‬ﻣﺜﺎﻟﻬﺎي دﻳﮕﺮ در ﻏﻴﺮ از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ در ﻛﺘﺎب ﺧﻮاﻧﺪه ﺷﻮد‪.‬‬ ‫ﻫﻤﭽﻨﻴﻦ ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ اﮔﺮ ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﭘﺮرﺗﺒﻪ ﻧﺒﺎﺷﺪ آﻧﮕﺎه آﻣﺎره ) ‪ T = (T1,...,T k‬ﻛﺎﻣﻞ ﻧﻴﺴﺖ‪ .‬ﺑﺮاي‬ ‫ﻣﺜﺎل ) ‪. N (θ ,θ 2‬‬ ‫ﻣﺜﺎل ‪ :3-5‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از )‪ U (θ ,θ +1‬ﺑﺎﺷﺪ‪ .‬در اﻳﻦ ﺻﻮرت ﺑﻪ راﺣﺘﻲ‬ ‫دﻳﺪه ﻣﻲﺷﻮد ﻛﻪ ) ) ‪ U (X ) = (X (1) , X ( n‬و ﻳﺎ ﻣﻌﺎدﻻً )‬

‫) ‪X (1) + X ( n‬‬ ‫‪2‬‬

‫‪ T (X ) = (X ( n ) − X (1) ,‬ﻳـﻚ‬

‫آﻣﺎره ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﺗﻮأم ﺑﺮاي ‪ θ‬اﺳﺖ و )‪ S (X ) = X ( n ) − X (1‬ﻳﻚ آﻣﺎره ﻓﺮﻋـﻲ اﺳـﺖ و ﭼـﻮن ‪S‬‬

‫ﻗﺴﻤﺘﻲ از آﻣﺎره ‪ T‬اﺳﺖ ﭘﺲ ‪ S‬و ‪ T‬از ﻳﻜﺪﻳﮕﺮ ﻣﺴﺘﻘﻞ ﻧﻤﻲﺑﺎﺷﻨﺪ‪.‬‬ ‫ﺗﻮﺟﻪ‪ :‬ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ آﻣﺎره ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﺗﻤﺎم اﻃﻼﻋﺎت را در ﻣﻮرد ﭘﺎراﻣﺘﺮ ﻣﺠﻬـﻮل ‪ θ‬دارد اﻣـﺎ آﻣـﺎره‬ ‫ﻓﺮﻋﻲ ﻫﻴﭻ اﻃﻼﻋﻲ در ﻣﻮرد ‪ θ‬ﻧﺪارد و ﺑﻪ ﻧﻈﺮ ﻣﻲرﺳﺪ ﻛﻪ ﺑﺎﻳﺴﺘﻲ از ﻳﻜﺪﻳﮕﺮ ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ‪ .‬اﻣﺎ در ﻣﺜـﺎل‬ ‫ﺑﺎﻻ ﭼﻨﻴﻦ ﻧﺒﻮد‪.‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪32‬‬

‫ﻗـــﻀﻴﻪ ‪) 2-5‬ﻗـــﻀﻴﻪ ﺑﺎﺳـــﻮ ‪ :(1‬اﮔـــﺮ ‪ T‬ﻳـــﻚ آﻣـــﺎره ﺑـــﺴﻨﺪه و ﻛﺎﻣـــﻞ ﻛﺮاﻧـــﺪار ﺑـــﺮاي‬ ‫ﺧﺎﻧﻮاده }‪= { pθ : θ ∈ Θ‬‬

‫‪ P‬ﺑﺎﺷﺪ و ‪ V‬ﻳﻚ آﻣﺎره ﻓﺮﻋﻲ ﺑـﺮاي ‪ P‬ﺑﺎﺷـﺪ آﻧﮕـﺎه ‪ T‬و ‪ V‬از ﻳﻜـﺪﻳﮕﺮ‬

‫ﻣﺴﺘﻘﻞ ﻫﺴﺘﻨﺪ‪.‬‬ ‫‪w ∈E‬‬ ‫اﺛﺒﺎت‪ :‬ﻓﺮض ﻛﻨﻴﺪ ‪ E‬ﻳﻚ ﭘﻴﺸﺎﻣﺪ ﺑﺎﺷﺪ و ﻗﺮار دﻫـﻴﻢ‬ ‫‪w ∉E‬‬

‫‪⎧1‬‬ ‫⎨ = ) ‪ T E (w‬در اﻳـﻦ ﺻـﻮرت ‪I E‬‬ ‫‪⎩0‬‬

‫ﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﻛﺮاﻧﺪار اﺳﺖ و ) ‪ . E (I E ) = P (E‬ﺣﺎل ﻧﺸﺎن ﻣﻲدﻫﻴﻢ ﻛﻪ ﺑﺮاي ﻫﺮ ﻣﺠﻤﻮﻋﻪ ﺑﺮل ‪A‬‬

‫) ‪P (V ∈ A | T = t ) = P (V ∈ A‬‬

‫دارﻳﻢ ﻛﻪ‬

‫ﻗﺮار ﻣﻲ دﻫﻴﻢ ) ‪ E = (V ∈ A‬در اﻳﻦ ﺻﻮرت‬ ‫ﻣﺴﺘﻘﻞ از ‪θ‬‬

‫> ∼ ) ‪P (V ∈ A ) = P (E ) = E (I E‬‬

‫] ‪P (V ∈ A | T = t ) − P (V ∈ A ) = P ( E | T = t ) − P ( E ) = E [ I E | T = t ] − E [ I E‬‬

‫ﻣﺴﺘﻘﻞ از ‪θ‬‬

‫) ‪= h (t‬‬

‫] ‪h (T ) = E [I E | T ] − E [ I E‬‬ ‫}) ‪E θ [h (T )] = E {E [I E | T = t ]} − E {E (I E‬‬

‫) ‪ h (T‬ﺗﺎﺑﻌﻲ ﻛﺮاﻧﺪار اﺳﺖ و‬ ‫‪a.e . P‬‬

‫)‪(3‬‬

‫‪= E ( I E ) − E ( I E ) = 0⇒ h (T ) = 0‬‬

‫ﻛﻪ در آن )‪ (3‬از ﻛﺎﻣﻞ ﻛﺮاﻧﺪار ﺑﻮدن ‪ T‬ﻧﺘﻴﺠﻪ ﻣﻲﮔﺮدد‪ .‬ﭘﺲ‬ ‫‪a.e . P‬‬

‫) ‪P (V ∈ A | T = t ) = P (V ∈ A‬‬

‫■‬

‫ﻗﻀﻴﻪ ‪) 3-5‬ﻗﻀﻴﻪ ﺑﻬﺎدر ‪ :(2‬اﮔﺮ ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﻛﺎﻣﻞ ﺑﺎﺷﺪ آﻧﮕﺎه آن آﻣﺎره ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل اﺳﺖ‪.‬‬ ‫اﺛﺒــﺎت‪ :‬ﻓــﺮض ﻛﻨﻴــﺪ ‪ U‬ﻳــﻚ آﻣــﺎره ﺑــﺴﻨﺪه ﻛﺎﻣــﻞ و ‪ T‬ﻳــﻚ آﻣــﺎره ﺑــﺴﻨﺪه ﻣﻴﻨﻴﻤــﺎل ﺑﺎﺷــﺪ‪ ،‬در اﻳــﻦ‬ ‫ﺻﻮرت ) ‪ T = K (U‬و ﺑﻨﺎﺑﺮاﻳﻦ‬ ‫])) ‪E θ (U ) = E θ [E (U | T )] = E θ [h (T )] = E θ [h (K (U‬‬ ‫‪a.e . P‬‬

‫)‪( 4‬‬

‫)) ‪⇒ E θ [U − h ( k (U ))] = 0⇒U = h ( k (U‬‬

‫ﻛﻪ در آن )‪ (4‬از ﻛﺎﻣﻞ ﺑﻮدن ‪ U‬ﻧﺘﻴﺠﻪ ﻣﻲﮔﺮدد‪.‬‬ ‫‪Basu's Theorem‬‬ ‫‪Bahadour's Theorem‬‬

‫‪١‬‬ ‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪ U‬ﺑﺴﻨﺪه ﻣﻲﻧﻴﻤﺎل اﺳﺖ‪⇒ .‬‬

‫■‬

‫‪a.e . P‬‬

‫‪33‬‬

‫) ‪⇒ U = h (T‬‬

‫ﺗﻮﺟﻪ‪ :‬ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ ﻋﻜﺲ ﻗﻀﻴﻪ ﺑﺎﻻ درﺳﺖ ﻧﻴﺴﺖ ﻳﻌﻨﻲ اﮔﺮ ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﺑﺎﺷـﺪ آﻧﮕـﺎه آن‬ ‫آﻣﺎره ﻣﻤﻜﻦ اﺳﺖ ﻛﺎﻣﻞ ﻧﺒﺎﺷﺪ‪ .‬ﺑﺮاي ﻣﺜﺎل ﺗﻮزﻳﻊﻫﺎي ) ‪ N (θ ,θ 2‬و )‪. U (θ ,θ +1‬‬ ‫ﺳﻮال‪ :‬آﻳﺎ آﻣﺎره ﻛﺎﻣﻠﻲ ﺳﺮاغ دارﻳﺪ ﻛﻪ ﺑﺴﻨﺪه ﻧﺒﺎﺷﺪ‪.‬‬ ‫ﺟﻮاب‪ P (U = c ) = 1 :‬در اﻳﻦ ﺻﻮرت‬ ‫‪E [h (U )] = E [h (c )] = 0 ⇒ P (h (c ) = 0) = 1‬‬

‫■‬

‫ﭘﺲ ‪ U = c‬ﻳﻚ آﻣﺎره ﻛﺎﻣﻞ اﺳﺖ وﻟﻲ ﺑﺴﻨﺪه ﻧﻴﺴﺖ‪.‬‬

‫ﺗﻮﺟﻪ‪ :‬ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻗﻀﻴﻪ ﺑﻬﺎدر‪ ،‬اﮔﺮ ﺑﺨﻮاﻫﻴﻢ ﻳﻚ آﻣـﺎره ﻛﺎﻣـﻞ در ﺧـﺎﻧﻮاده ‪ P‬ﭘﻴـﺪا ﻛﻨـﻴﻢ اﺑﺘـﺪا در اﻳـﻦ‬ ‫ﺧﺎﻧﻮاده ﻃﺒﻖ روش ﻟﻬﻤﻦ ﺷﻔﻪ ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﭘﻴﺪا ﻣﻲﻛﻨﻴﻢ‪ .‬اﮔﺮ اﻳﻦ آﻣﺎره ﻛﺎﻣﻞ ﺑﻮد ﻛـﻪ ﻣـﺴﺌﻠﻪ‬ ‫ﺣﻞ ﺷﺪه اﺳﺖ و اﮔﺮ ﻧﺒﻮد آﻧﮕﺎه ﻃﺒﻖ ﻗﻀﻴﻪ ﺑﻬﺎدر ﻣﻲﺗﻮان ﻧﺘﻴﺠﻪ ﮔﺮﻓﺖ ﻛﻪ در اﻳﻦ ﺧﺎﻧﻮاده آﻣـﺎره ﺑـﺴﻨﺪه‬ ‫ﻛﺎﻣﻞ وﺟﻮد ﻧﺪارد‪.‬‬

‫ﺑﺨﺶ ‪ :6‬ﺗﻮاﺑﻊ زﻳﺎن ﻣﺤﺪب‬

‫‪1‬‬

‫ﻓﺮض ﻛﻨﻴﺪ در ﺑﺮآورد ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل ‪ θ ∈ Θ‬ﺑﺮآوردﮔﺮ‪ D) δ ∈ D‬ﻛﻼس ﻛﻠﻴﻪ ﺑﺮآوردﮔﺮﻫﺎ( را در ﻧﻈـﺮ‬ ‫ﺑﮕﻴﺮﻳﻢ‪ .‬ﻣﻬﻤﺘﺮﻳﻦ ﺧﺼﻮﺻﻴﺖ ﻳﻚ ﺑﺮآوردﮔﺮ ﺧﻮب آن اﺳﺖ ﻛﻪ ﺑﺮآوردي را ﺑﺮاي ‪ θ‬ﺑﺪﺳﺖ دﻫﺪ ﻛـﻪ ﺗـﺎ‬ ‫ﺣﺪ ﻣﻤﻜﻦ ﺑﻪ ﻣﻘﺪار واﻗﻌﻲ ‪ θ‬ﻧﺰدﻳﻚ ﺑﺎﺷﺪ‪ .‬ﻣﻴﺰان اﻳﻦ ﻧﺰدﻳﻜﻲ را ﺑﺎ ﺗﺎﺑﻊ زﻳﺎن اﻧﺪازهﮔﻴﺮي ﻣﻲﻛﻨﻴﻢ ﻛـﻪ ﺑـﺎ‬ ‫ﻧﻤﺎد )) ‪ L (θ , δ (X‬ﻧﻤﺎﻳﺶ داده ﻣﻲﺷﻮد و‬ ‫)∞‪L : Θ × D → [0, +‬‬ ‫‪∀θ , δ‬‬ ‫‪if‬‬ ‫‪δ =θ‬‬

‫‪L (θ , δ ) ≥ 0‬‬ ‫‪L (θ , δ ) = 0‬‬

‫ﭼﻨﺪ ﺗﺎﺑﻊ زﻳﺎن ﻣﺸﻬﻮر ﻋﺒﺎرﺗﻨﺪ از ‪:‬‬ ‫ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﻳﺎ ﻣﺮﺑﻊ ﺧﻄﺎ‬

‫‪(i ) L (θ ,T ) = (δ − θ )2‬‬

‫ﺗﺎﺑﻊ زﻳﺎن ﻗﺪر ﻣﻄﻠﻖ‬

‫| ‪(ii ) L (θ ,T ) =| δ − θ‬‬

‫‪Convex Loss Function‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪34‬‬

‫}‪(iii ) L (θ ,T ) = b {e a (δ −θ ) − a (δ − θ ) − 1‬‬

‫ﺗﺎﺑﻊ زﻳﺎن ‪LINEX‬‬

‫ﭼﻮن ﺗﺎﺑﻊ زﻳﺎن ﺑﺴﺘﮕﻲ ﺑﻪ ) ‪ δ (X‬دارد ﭘﺲ ﻣﻘﺪار آن ﺛﺎﺑﺖ ﻧﻴﺴﺖ و ﻳـﻚ ﻣﺘﻐﻴـﺮ ﺗـﺼﺎدﻓﻲ اﺳـﺖ‪ .‬ﺑـﺮاي‬ ‫ﻣﻘﺎﻳﺴﻪ دو ﺑﺮآوردﮔﺮ‪ ،‬اﻣﻴﺪ رﻳﺎﺿﻲ ﺗﺎﺑﻊ زﻳﺎن اﻳﻦ دو ﺑﺮآوردﮔﺮ را ﻛﻪ ﺗـﺎﺑﻌﻲ از ‪ θ‬ﻣـﻲﺑﺎﺷـﺪ ﺑـﺎ ﻳﻜـﺪﻳﮕﺮ‬ ‫ﻣﻘﺎﻳﺴﻪ ﻣﻲﻛﻨﻨﺪ ﻛﻪ ﺑﻪ آن ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ‪ 1‬ﮔﻮﻳﻨﺪ‪ .‬ﭘﺲ‬ ‫])) ‪R (θ , δ ) = E θ [ L (θ , δ (X‬‬

‫در ﺧﺼﻮص ﺗﻮاﺑﻊ زﻳﺎن ﻣﺤﺪب ﻗﻀﺎﻳﺎي ﻣﻬﻤﻲ وﺟﻮد دارد ﻛـﻪ در اﻳـﻦ ﺑﺨـﺶ اﺑﺘـﺪا ﺗﻮاﺑـﻊ ﻣﺤـﺪب را‬ ‫ﻣﻌﺮﻓﻲ و ﺳﭙﺲ اﻳﻦ ﻗﻀﺎﻳﺎ را ﺑﻴﺎن ﻣﻲﻛﻨﻴﻢ‪.‬‬ ‫ﺗﻌﺮﻳﻒ ‪ :1-6‬ﺗﺎﺑﻊ ﺣﻘﻴﻘﻲ ‪ ϕ‬را روي ﻓﺎﺻﻠﻪ ) ‪ I = ( a,b‬ﻛﻪ ∞ ≤ ‪ −∞ ≤ a < b‬ﻣﺤـﺪب ﮔـﻮﺋﻴﻢ ﻫﺮﮔـﺎه‬ ‫ﺑﺮاي ﻫﺮ ‪ a < x < y < b‬و ﻫﺮ‪ 0 < δ < 1‬داﺷﺘﻪ ﺑﺎﺷﻴﻢ‬ ‫) ‪ϕ (γ x + (1 − γ ) y ) ≤ γϕ (x ) + (1 − γ )ϕ ( y‬‬

‫و آن را اﻛﻴﺪاً ﻣﺤﺪب ﮔﻮﺋﻴﻢ ﻫﺮﮔﺎه ﻧﺎﻣﺴﺎوي اﻛﻴﺪ ﺑﺎﺷﺪ‪.‬‬ ‫ﻣﻲﺗﻮان ﻧﺸﺎن داد ﻛﻪ ﺗﻮاﺑﻊ ﻣﺤﺪب‪ ،‬ﺗﻮاﺑﻌﻲ ﭘﻴﻮﺳﺘﻪ روي ) ‪ ( a ,b‬ﻫﺴﺘﻨﺪ‪.‬‬ ‫ﻗﻀﻴﻪ ‪ :1-6‬اﻟﻒ – اﮔﺮ ‪ ϕ‬روي ) ‪ ( a, b‬ﻣﺸﺘﻖﭘﺬﻳﺮ ﺑﺎﺷﺪ آﻧﮕﺎه ﺷﺮط ﻻزم و ﻛﺎﻓﻲ ﺑﺮاي آﻧﻜﻪ ‪ ϕ‬ﻣﺤﺪب‬ ‫ﺑﺎﺷﺪ آن اﺳﺖ ﻛﻪ‬ ‫‪∀ a < x < y
‫) ‪ϕ ′(x ) ≤ ϕ ′( y‬‬

‫و اﻛﻴﺪاً ﻣﺤﺪب اﺳﺖ اﮔﺮ ﻧﺎﻣﺴﺎوي اﻛﻴﺪ ﺑﺎﺷﺪ‪.‬‬ ‫ب – اﮔﺮ ‪ ϕ‬روي ) ‪ ( a ,b‬دوﺑﺎر ﻣﺸﺘﻖﭘﺬﻳﺮ ﺑﺎﺷﺪ آﻧﮕﺎه ﺷﺮط ﻻزم و ﻛﺎﻓﻲ ﺑﺮاي آن ﻛﻪ ‪ ϕ‬ﻣﺤﺪب ﺑﺎﺷـﺪ‬ ‫آن اﺳﺖ ﻛﻪ‬ ‫‪∀ a < x < y
‫و اﻛﻴﺪاً ﻣﺤﺪب اﺳﺖ اﮔﺮ ﻧﺎﻣﺴﺎوي اﻛﻴﺪ ﺑﺎﺷﺪ‪.‬‬

‫‪ϕ ′′(x ) ≥ 0‬‬

‫■‬

‫‪Risk Function‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪35‬‬

‫ﻗــﻀﻴﻪ ‪ :2-6‬اﮔــﺮ ‪ ϕ‬ﻳــﻚ ﺗــﺎﺑﻊ ﻣﺤــﺪب روي ﻳــﻚ ﻓﺎﺻــﻠﻪ ﺑــﺎز ‪ I‬ﺑﺎﺷــﺪ و ‪ X‬ﻳــﻚ ﻣﺘﻐﻴــﺮ ﺗــﺼﺎدﻓﻲ‬ ‫ﺑﺎ‪ P (X ∈ I ) = 1‬و اﻣﻴﺪ رﻳﺎﺿﻲ ﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ آﻧﮕﺎه ]) ‪ ϕ (E (X )) ≤ E [ϕ (X‬و اﮔﺮ ‪ ϕ‬اﻛﻴﺪاً ﻣﺤـﺪب‬ ‫ﺑﺎﺷﺪ آﻧﮕﺎه ﻧﺎﻣﺴﺎوي اﻛﻴﺪ اﺳﺖ‪ ،‬ﺑﺠﺰ اﻳﻨﻜﻪ ‪ X‬ﺑﺎ اﺣﺘﻤﺎل ﻳﻚ روي ‪ I‬ﺛﺎﺑﺖ ﺑﺎﺷﺪ‪.‬‬ ‫■‬

‫اﺛﺒﺎت‪) :‬ﺗﻤﺮﻳﻦ(‬ ‫ﻧﺘﻴﺠﻪ‪ :‬اﮔﺮ ‪ X‬ﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﻧﺎﺛﺎﺑﺖ ﻣﺜﺒﺖ ﺑﺎ اﻣﻴﺪ ﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ آﻧﮕﺎه‬ ‫)) ‪E (log X ) < log(E (X‬‬

‫‪1‬‬ ‫‪1‬‬ ‫‪≤ ( ),‬‬ ‫) ‪E (X‬‬ ‫‪X‬‬

‫ﺑﺮاي ﺗﻮاﺑﻊ زﻳﺎن ﻣﺤﺪب ﻗﻀﺎﻳﺎي زﻳﺮ را دارﻳﻢ‪.‬‬ ‫ﻗــﻀﻴﻪ ‪) 3-6‬ﻗــﻀﻴﻪ راﺋﻮﺑﻼﻛــﻮل(‪ :‬ﻓــﺮض ﻛﻨﻴــﺪ ‪ X‬ﻳــﻚ ﻣﺘﻐﻴــﺮ ﺗــﺼﺎدﻓﻲ ﺑــﺎ ﺗــﻮزﻳﻌﻲ از ﺧــﺎﻧﻮاده‬ ‫}‪ D = { pθ : θ ∈ Θ‬ﺑﺎﺷﺪ و ‪ T‬ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﺑﺮاي ‪ D‬ﺑﺎﺷﺪ‪ .‬ﻓﺮض ﻛﻨﻴﺪ ‪ δ‬ﺑﺮآوردﮔـﺮي ﺑـﺮاي ﺗـﺎﺑﻊ‬ ‫ﭘﺎراﻣﺘﺮي ) ‪ g (θ‬ﺑﺎﺷﺪ و ﺗﺎﺑﻊ زﻳﺎن ) ‪ L (θ , d‬ﻳﻚ ﺗﺎﺑﻊ اﻛﻴﺪاً ﻣﺤﺪب ﺑﺮ ﺣﺴﺐ ‪ d‬ﺑﺎﺷﺪ‪ .‬اﮔﺮ ‪ δ‬داراي اﻣﻴﺪ‬ ‫و ﻣﺨﺎﻃﺮه ﻣﺘﻨﺎﻫﻲ‬

‫∞ < })) ‪R (θ , δ ) = E {L (θ , δ (X‬‬

‫ﺑﺎﺷﺪ و ﻗﺮار دﻫﻴﻢ ] ‪ g (T ) = E [δ (X ) | T‬آﻧﮕﺎه‬ ‫) ‪R (θ , g ) < R (θ , δ‬‬

‫ﺑﺠﺰ اﻳﻨﻜﻪ ﺑﺎ اﺣﺘﻤﺎل ﻳﻚ ) ‪ g (T ) = δ (X‬ﺑﺎﺷﺪ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﻗﺮار ﻣﻲدﻫﻴﻢ ) ‪ ϕ (d ) = L (θ , d‬و ) ‪ δ = δ (X‬و ﻓﺮض ﻛﻨﻴﺪ ‪ P x |t‬ﺗﻮزﻳﻊ ﺷﺮﻃﻲ ‪ X‬ﺑـﻪ ﺷـﺮط‬ ‫‪ T = t‬ﺑﺎﺷﺪ‪ .‬در اﻳﻦ ﺻﻮرت ﻃﺒﻖ ﻧﺎﻣﺴﺎوي ﺟﻨﺴﻦ دارﻳﻢ ﻛﻪ‬ ‫} ‪L (θ , E [δ (X ) | T ]) < E {L (θ , δ (X )) | T } ⇒ L (θ , g (T )) < E {L (θ , δ (X )) | T‬‬

‫ﺑﺠﺰ اﻳﻨﻜﻪ ﺑﺎ اﺣﺘﻤﺎل ﻳﻚ ) ‪ δ (X ) = g (T‬ﺑﺎﺷﺪ ‪ .‬ﺣﺎل اﮔﺮ از ﻃﺮﻓﻴﻦ اﻣﻴﺪ رﻳﺎﺿﻲ ﺑﮕﻴﺮﻳﻢ آﻧﮕﺎه‬ ‫) ‪E [L (θ , g (T ))] < E {E [L (θ , δ (X )) | T ]} = E [L (θ , δ (X ))] ⇒ R (θ , g ) < R (θ , δ‬‬

‫ﺑﺠﺰ اﻳﻨﻜﻪ ﺑﺎ اﺣﺘﻤﺎل ﻳﻚ ) ‪ δ (X ) = g (T‬ﺑﺎﺷﺪ‪.‬‬

‫■‬

‫ﺗﻮﺟﻪ‪ :‬ﻗﻀﻴﻪ راﺋﻮﺑﻼﻛﻮل ﻣﻲﮔﻮﻳﺪ ﻛﻪ ﺑﺎ ﺷﺮﻃﻲ ﻛﺮدن ﻳﻚ ﺑﺮآوردﮔﺮ روي ﻳﻚ آﻣﺎره ﺑـﺴﻨﺪه‪ ،‬ﺑﺮآوردﮔـﺮي‬ ‫ﺣﺎﺻﻞ ﻣﻲﮔﺮدد ﻛﻪ داراي ﻣﺨﺎﻃﺮه ﻛﻤﺘﺮي ﻧﺴﺒﺖ ﺑﻪ ﺑﺮآوردﮔﺮ اوﻟﻴﻪ اﺳﺖ و اﻳﻦ ﻳﻚ ﺗﻮﺟﻴﻪ ﻣﻨﺎﺳﺐ ﺑﺮاي‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪36‬‬

‫اﺳﺘﻔﺎده از آﻣﺎرهﻫﺎي ﺑﺴﻨﺪه در ﺑﺮآوردﻳﺎﺑﻲ ﻣﻲﺑﺎﺷﺪ‪ .‬ﻫﻤﭽﻨﻴﻦ ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ از ﺑـﺴﻨﺪﮔﻲ ﺗﻨﻬـﺎ ﺑـﺮاي اﻳـﻦ‬ ‫اﺳﺘﻔﺎده ﺷﺪ ﻛﻪ ﺑﮕﻮﺋﻴﻢ ] ‪ g (T ) = E [δ (X ) | T‬ﻳﻚ ﺑﺮآوردﮔﺮ اﺳﺖ و ﺑﻪ ﭘﺎراﻣﺘﺮ ‪ θ‬ﺑﺴﺘﮕﻲ ﻧـﺪارد‪ .‬اﮔـﺮ‬ ‫در ﻗﻀﻴﻪ ﺗﺎﺑﻊ زﻳﺎن ﺗﻨﻬﺎ ﻣﺤﺪب ﺑﺎﺷﺪ آﻧﮕﺎه ﻧﺎﻣﺴﺎوي ﺑﻪ ﺻﻮرت ) ‪ R (θ , g ) ≤ R (θ , δ‬ﺗﺒﺪﻳﻞ ﻣﻲﺷﻮد‪.‬‬ ‫ﻟﻢ ‪ :1-6‬ﻓﺮض ﻛﻨﻴﺪ ‪ ϕ‬ﻳﻚ ﺗﺎﺑﻊ ﻣﺤﺪب روي )∞‪ (−∞, +‬ﺑﺎﺷﺪ ﻛﻪ از ﭘـﺎﺋﻴﻦ ﻛﺮاﻧـﺪار و ﻫﻤﭽﻨـﻴﻦ ﻏﻴـﺮ‬ ‫ﻳﻜﻨﻮا اﺳﺖ‪ .‬در اﻳﻦ ﺻﻮرت ‪ ϕ‬داراي ﻳﻚ ﻣﻴﻨﻴﻤﻢ ﻣﻘﺪار اﺳﺖ و ﻣﺠﻤﻮﻋﻪ ﻣﻘﺎدﻳﺮ ‪ S‬ﻛﻪ ‪ ϕ‬ﻣﻘﺪار ﻣﻴﻨﻴﻤﻢ‬ ‫ﺧﻮد را ﻣﻲﮔﻴﺮد ﻳﻚ ﻓﺎﺻﻠﻪ ﺑﺴﺘﻪ اﺳﺖ و اﮔﺮ ‪ ϕ‬اﻛﻴﺪاً ﻣﺤﺪب ﺑﺎﺷﺪ اﻳﻦ ﻣﺠﻤﻮﻋﻪ ﺗﻨﻬﺎ ﻳﻚ ﻧﻘﻄﻪ اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﭼﻮن ‪ ϕ‬ﻣﺤـﺪب و ﻏﻴـﺮ ﻳﻜﻨﻮاﺳـﺖ‬ ‫ﭘﺲ ∞‪ lim ϕ (x ) = +‬و ﭼـﻮن ‪ ϕ‬ﭘﻴﻮﺳـﺘﻪ‬ ‫∞‪x →±‬‬

‫اﺳﺖ ﻣﻘﺪار ﻣﻴﻨﻴﻤﻢ ﺧﻮد را ﻣـﻲﮔﻴـﺮد‪ .‬ﭼـﻮن‬ ‫‪ ϕ‬ﻣﺤﺪب اﺳﺖ‪ ،‬ﻣﺠﻤﻮﻋـﻪ ‪ S‬ﻳـﻚ ﻓﺎﺻـﻠﻪ‬ ‫اﺳﺖ و ﭼﻮن ‪ ϕ‬ﭘﻴﻮﺳﺘﻪ اﺳﺖ‪ ،‬ﭘﺲ اﻳﻦ ﻣﺠﻤﻮﻋﻪ ﺑﺴﺘﻪ اﺳﺖ‪.‬‬

‫■‬

‫ﻗﻀﻴﻪ ‪ :4-6‬ﻓﺮض ﻛﻨﻴﺪ ‪ ρ‬ﻳﻚ ﺗﺎﺑﻊ ﻣﺤﺪب ﺑﺎﺷﺪ ﻛـﻪ روي )∞‪ (−∞, +‬ﺗﻌﺮﻳـﻒ ﺷـﺪه و ‪ X‬ﻳـﻚ ﻣﺘﻐﻴـﺮ‬ ‫ﺗﺼﺎدﻓﻲ ﺑﺎﺷﺪ ﻛﻪ ]) ‪ ϕ (a ) = E [ ρ (X − a‬ﺑﺮاي ﺑﻌﻀﻲ ﻣﻘﺎدﻳﺮ ‪ a‬ﻣﺘﻨـﺎﻫﻲ ﺑﺎﺷـﺪ‪ .‬اﮔـﺮ ‪ ρ‬ﻳﻜﻨـﻮا ﻧﺒﺎﺷـﺪ‬ ‫آﻧﮕﺎه ) ‪ ϕ (a‬ﻣﻘﺪار ﻣﻴﻨﻴﻤﻢ ﺧﻮد را روي ﻳﻚ ﻓﺎﺻﻠﻪ ﺑﺴﺘﻪ ﻣﻲﮔﻴﺮد‪ .‬اﮔﺮ ‪ ρ‬اﻛﻴﺪاً ﻣﺤﺪب ﺑﺎﺷﺪ ﻣﻘﺪار ﻣﻴﻨﻴﻤﻢ‬ ‫ﻳﻜﺘﺎ ﺧﻮاﻫﺪ ﺑﻮد‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﭼـﻮن ∞‪as a → ±‬‬

‫‪P‬‬

‫∞ ‪ lim ρ (t ) = +∞, X − a →±‬ﭘـﺲ ∞‪ lim ϕ (a ) = +‬ﭘـﺲ ‪ϕ‬‬ ‫∞‪t →±‬‬

‫∞‪a →±‬‬

‫ﻏﻴﺮ ﻳﻜﻨﻮاﺳﺖ و ﭼﻮن ‪) ρ‬اﻛﻴﺪاً( ﻣﺤﺪب اﺳﺖ ﭘﺲ ‪ ϕ‬ﻧﻴﺰ )اﻛﻴﺪاً( ﻳﻜﻨﻮاﺳﺖ‪ .‬ﺣﺎل ﻛـﻪ ﺷـﺮاﻳﻂ ﻟـﻢ ‪1-6‬‬ ‫ﺑﺮاي ‪ ϕ‬ﺑﺮﻗﺮار اﺳﺖ ﭘﺲ ﻧﺘﻴﺠﻪ از ﻟﻢ ‪ 1-6‬ﺣﺎﺻﻞ ﻣﻲﺷﻮد‪.‬‬

‫■‬

‫ﻣﺜﺎل ‪) :1-6‬ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم( ‪ :‬اﮔﺮ ‪ ρ (t ) = t 2‬و ∞ < ) ‪ ، E (X 2‬ﭼﻮن ‪ ρ‬ﺗﺎﺑﻌﻲ اﻛﻴﺪاً ﻣﺤﺪب اﺳـﺖ‬ ‫ﭘﺲ ] ‪ ϕ (a ) = E [(X − a )2‬ﻣﻘﺪار ﻣﻴﻨﻴﻤﻢ ﺧﻮد را در ﻧﻘﻄﻪ ‪ a = μ‬اﺧﺘﻴﺎر ﻣﻲﻛﻨﺪ‪.‬‬

‫ﻓﺼﻞ اول‪ :‬ﻛﻠﻴﺎت و ﻣﻔﺎﻫﻴﻢ اوﻟﻴﻪ‬

‫‪www.riazisara.ir‬‬

‫‪37‬‬

‫ﻣﺜﺎل ‪) :2-6‬ﺗﺎﺑﻊ زﻳﺎن ﻗﺪرﻣﻄﻠﻖ ﺧﻄﺎ( ‪ :‬اﮔﺮ | ‪ ρ (t ) =| t‬و ∞ < )| ‪ ، E (| X‬ﭼﻮن ‪ ρ‬ﺗﺎﺑﻌﻲ ﻣﺤﺪب اﺳﺖ‬ ‫ﭘﺲ ]| ‪ ϕ (a ) = E [| X − a‬ﻣﻘﺪار ﻣﻴﻨﻴﻤﻢ ﺧﻮد را در ﻧﻘﺎط ﻳﻚ ﻓﺎﺻﻠﻪ ﺑﺴﺘﻪ ﺑﺪﺳـﺖ ﻣـﻲآورد ﻛـﻪ ﻫﻤـﺎن‬ ‫ﻣﻴﺎﻧﻪ ‪ X‬اﺳﺖ‪.‬‬ ‫ﻧﺘﻴﺠﻪ ‪ :1-6‬ﺗﺤﺖ ﺷﺮاﻳﻂ ﻗﻀﻴﻪ ‪ 4-6‬اﮔﺮ ‪ ρ‬زوج ﺑﺎﺷﺪ و ‪ X‬ﺣﻮل ‪ μ‬ﻣﺘﻘﺎرن ﺑﺎﺷﺪ آﻧﮕﺎه ) ‪ ϕ (a‬ﻣﻴﻨـﻴﻤﻢ‬ ‫ﺧﻮد را در ‪ a = μ‬ﺑﺪﺳﺖ ﻣﻲ آورد‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﺑﺮ ﻃﺒﻖ ﻗﻀﻴﻪ ‪ ϕ ،4-6‬ﻣﻘﺪار ﻣﻴﻨﻴﻤﻢ ﺧﻮد را ﺑﺪﺳﺖ ﻣﻲ آورد‪ .‬اﮔﺮ ‪ μ + c‬ﻳﻚ ﻣﻘﺪار ﻣﻴﻨﻴﻤﻢ ﺑﺎﺷﺪ‬ ‫آﻧﮕﺎه ‪ μ − c‬ﻧﻴﺰ ﻣﻴﻨﻴﻤﻢ ﻣﻲﺑﺎﺷﺪ و در ﻧﺘﻴﺠﻪ ﻛﻠﻴﻪ ﻧﻘـﺎط در ﻓﺎﺻـﻠﻪ ‪ μ − c‬ﺗـﺎ ‪ μ + c‬ﻣﻴﻨـﻴﻤﻢ ﻣـﻲﺑﺎﺷـﻨﺪ‬ ‫ﭘﺲ ‪ a = μ‬ﻧﻴﺰ ﻣﻴﻨﻴﻤﻢ اﺳﺖ‪.‬‬ ‫)ﺗﻌﻤﻴﻢ ﺗﻮاﺑﻊ ﻣﺤﺪب ﺑﻪ ﻓﻀﺎي ‪ k‬ﺑ‪‬ﻌﺪي ‪ ℜ k‬ﺑﻪ ﻋﻬﺪه داﻧﺸﺠﻮ (‬ ‫)ﻣﺒﺤﺚ ﻫﻤﮕﺮاﻳﻲﻫﺎ ﺑﺨﺶ ‪ 8‬ﺑﻪ ﻋﻬﺪه داﻧﺸﺠﻮ(‬

‫■‬

‫‪٣٨‬‬

‫داﻧﻠﻮد از ﺳﺎﻳﺖ رﻳﺎﺿﻲ ﺳﺮا‬

‫‪www.riazisara.ir‬‬

‫ﻧﺎارﻳﺒﻲ‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫‪39‬‬

‫در ﺑﺮآورد ﻧﻘﻄﻪاي ﻣﻲﺧﻮاﻫﻴﻢ ﺑﺮآوردﮔﺮي را ﺑﺪﺳﺖ آورﻳﻢ ﻛﻪ ﺑﺮاي ﺗﻤـﺎم ﻣﻘـﺎدﻳﺮ ﻣﻤﻜـﻦ ﭘـﺎراﻣﺘﺮ‪ ،‬ﺗـﺎﺑﻊ‬ ‫ﻣﺨﺎﻃﺮه را ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ‪ .‬اﻣﺎ در ﻋﻤﻞ ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺑﺰرﮔﻲ ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎ ﭼﻨـﻴﻦ اﻣﻜـﺎﻧﻲ وﺟـﻮد ﻧـﺪارد‪،‬‬ ‫ﻳﻌﻨﻲ در آﻣﺎر ﺑﻬﺘﺮﻳﻦ ﺑﻪ ﻣﻌﻨﺎي ﻣﻄﻠﻖ وﺟﻮد ﻧـﺪارد‪ .‬ﺑﻨـﺎﺑﺮاﻳﻦ در آﻣـﺎر ﻫﻤﻴـﺸﻪ ﺑـﻪ دﻧﺒـﺎل ﺑﺪﺳـﺖ آوردن‬ ‫ﺑﺮآوردﮔﺮﻫﺎﻳﻲ ﻫﺴﺘﻴﻢ ﻛﻪ داراي ﺧﺎﺻﻴﺖ ﺑﻬﻴﻨﻪ ﺑﺎﺷﻨﺪ‪ .‬ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺑﺮآوردﮔﺮ ﺑﻬﻴﻨﻪ دو روش زﻳـﺮ‬ ‫ﺑﻴﺸﺘﺮ ﻣﻮرد ﺗﻮﺟﻪ اﺳﺖ ‪:‬‬ ‫‪ -1‬ﻣﺤﺪود ﻛﺮدن ‪ 1‬ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎ ﺑﻪ ﻳﻚ ﻛﻼس ﻛﻮﭼﻜﺘﺮ‬ ‫ب‪ -‬ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ﭘﺎﻳﺎ‬

‫اﻟﻒ‪ -‬ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳﺐ‬

‫‪ -2‬ﺑﺮﻗﺮاري ﻳﻚ ﻧﻮع راﺑﻄﻪ ﺗﺮﺗﻴﺐ ‪ 2‬ﺑﻴﻦ ﺑﺮآوردﮔﺮﻫﺎ‬ ‫اﻟﻒ‪ -‬ﺑﺮآوردﮔﺮﻫﺎي ﺑﻴﺰ‬

‫ﺑﺨﺶ‪ :1‬ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳﺐ‬

‫ب‪ -‬ﺑﺮآوردﮔﺮﻫﺎي ﻣﻴﻨﻴﻤﺎﻛﺲ‬ ‫‪3‬‬

‫ﺗﻌﺮﻳﻒ‪ :1-1‬ﺑﺮآوردﮔﺮ ) ‪ T ( X‬را ﺑﺮاي ) ‪ γ (θ‬ﻧﺎارﻳﺐ ﮔﻮﻳﻨﺪ ﻫﺮﮔﺎه ‪E θ [T ( X )] = γ (θ ), ∀θ ∈ Θ‬‬

‫و اﮔﺮ ﺑﺮآوردﮔﺮ ) ‪ T (X‬ﺑﺮاي ) ‪ γ (θ‬ﻧﺎارﻳـﺐ ﻧﺒﺎﺷـﺪ ﻣﻘـﺪار ) ‪ b (θ ) = E θ [T (X )] − γ (θ‬را ارﻳﺒـﻲ‬ ‫ﺑﺮآوردﮔﺮ ) ‪ T (X‬در ﺑﺮآورد ) ‪ γ (θ‬ﮔﻮﻳﻨﺪ‪.‬‬

‫■‬

‫ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ در ﺑﻌﻀﻲ ﻣﻮارد ﻣﻤﻜﻦ اﺳﺖ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﻣﻮﺟﻮد ﻧﺒﺎﺷﺪ‪.‬‬ ‫ﻣﺜﺎل ‪ :1-1‬ﻓﺮض ﻛﻨﻴﺪ ) ‪ X ~ B (n ,θ‬ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ‬ ‫ﺣﻞ‪ :‬ﻓﺮض ﻛﻨﻴﺪ ) ‪ T (X‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ‬

‫‪1‬‬

‫‪θ‬‬

‫‪1‬‬

‫‪θ‬‬

‫= ) ‪ γ (θ‬داراي ﻫﻴﭻ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺒﻲ ﻧﻴﺴﺖ‪.‬‬

‫ﺑﺎﺷﺪ‪ ،‬در اﻳﻨﺼﻮرت‬

‫‪n‬‬ ‫⎞ ‪⎛n‬‬ ‫‪1‬‬ ‫= ‪⇒ ∑T (x ) ⎜ ⎟θ x (1 − θ ) n −x‬‬ ‫‪θ‬‬ ‫‪θ‬‬ ‫⎠ ‪⎝x‬‬ ‫‪x =0‬‬

‫‪1‬‬

‫= )) ‪E (T (X‬‬

‫‪n‬‬ ‫⎞ ‪⎛n‬‬ ‫‪1‬‬ ‫= ‪⇒ T (0)(1 − θ ) + ∑T ( x ) ⎜ ⎟θ x (1 − θ ) n −x‬‬ ‫‪θ‬‬ ‫⎠ ‪⎝x‬‬ ‫‪x =1‬‬

‫‪١‬‬

‫‪Restriction‬‬ ‫‪Ordering‬‬ ‫‪٣‬‬ ‫‪Unbiased Estimators‬‬ ‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫‪40‬‬

‫ﺣﺎل اﮔﺮ ‪ θ → 0+‬آﻧﮕﺎه ﺳﻤﺖ ﭼﭗ ﻣﻌﺎدﻟﻪ ﻓﻮق ﺑﻪ ﺳﻤﺖ )‪ T (0‬و ﺳﻤﺖ راﺳﺖ ﺑـﻪ ﺳـﻤﺖ ∞‪ +‬ﻣﻴـﻞ‬ ‫ﻣﻲﻛﻨﺪ و ﻧﺸﺎن ﻣﻲدﻫﺪ ﻛﻪ ) ‪T (X‬ي وﺟﻮد ﻧﺪارد ﻛﻪ در راﺑﻄﻪ ﻓﻮق ﺻﺪقﻛﻨﺪ‪.‬‬

‫‪ P‬ﺗـﺎﺑﻊ ﺣﻘﻴﻘـﻲ ) ‪ γ (θ‬را ﺑـﺮآورد‬

‫ﺗﻌﺮﻳﻒ ‪ :2-1‬اﻟﻒ – در ﺧﺎﻧﻮاده ﺗﻮزﻳـﻊﻫـﺎي }‪= { pθ : θ ∈ Θ‬‬

‫ﭘﺬﻳﺮ ‪ 1‬ﮔﻮﻳﻨﺪ اﮔﺮ آﻣﺎره ) ‪ h (X‬وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﺑﻄﻮري ﻛﻪ‬

‫■‬

‫‪E θ [h (X )] = γ (θ ), ∀θ ∈ Θ‬‬

‫ب‪ -‬آﻣﺎره ) ‪ δ (X‬را ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﺑﺎ وارﻳﺎﻧﺲ ﺑﻄﻮر ﻳﻜﻨﻮاﺧﺖ ﻣﻴﻨـﻴﻤﻢ ‪ (UMVU) 2‬ﺑـﺮاي ) ‪γ (θ‬‬

‫ﮔﻮﻳﻨﺪ اﮔﺮ ‪ E θ [h (X )] = γ (θ ), ∀θ ∈ Θ‬و ﺑﺮاي ﻫﺮ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ) ‪ h (X‬ﭘﺎراﻣﺘﺮ ) ‪ γ (θ‬داﺷﺘﻪ‬ ‫‪∀θ ∈Θ‬‬

‫ﺑﺎﺷﻴﻢ ﻛﻪ‬

‫)) ‪V θ (δ (X )) ≤V θ (h (X‬‬

‫ج‪ -‬آﻣﺎره ) ‪ δ (X‬را ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﺑﺎ وارﻳﺎﻧﺲ ﺑﻄﻮر ﻣﻮﺿﻌﻲ ﻣﻴﻨـﻴﻤﻢ ‪ (LMVU) 3‬ﺑـﺮاي ) ‪ γ (θ‬در‬ ‫‪ θ = θ0‬ﮔﻮﻳﻨﺪ اﮔﺮ اﻳﻦ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﺑـﻮده و ﺑـﺮاي ﻫـﺮ ﺑﺮآوردﮔـﺮ ﻧﺎارﻳـﺐ ) ‪ h (X‬ﭘـﺎراﻣﺘﺮ ) ‪γ (θ‬‬ ‫)) ‪V θ0 (δ (X )) ≤V θ0 (h (X‬‬

‫داﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ‬

‫■‬

‫ﻳﻚ روش ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺑﺮآوردﮔﺮﻫﺎي ‪ UMVU‬ﻳﺎ ‪ LMVU‬ﻳﺎﻓﺘﻦ ﻛـﻼس ﻛﻠﻴـﻪ ﺑﺮآوردﮔﺮﻫـﺎي‬ ‫ﻧﺎارﻳﺐ ) ‪ γ (θ‬ﻳﻌﻨﻲ ‪ Δγ‬اﺳﺖ و ﺳﭙﺲ در اﻳﻦ ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ‪ UMVU‬ﻳـﺎ ‪ LMVU‬را ﺑﺪﺳـﺖ‬ ‫ﻣﻲآورﻳﻢ‪ .‬ﺑﺮاي اﻳﻦ ﻣﻨﻈﻮر از ﻟﻢ زﻳﺮ اﺳﺘﻔﺎده ﻣﻲﻛﻨﻴﻢ‪.‬‬ ‫ﻟﻢ ‪ :1-1‬اﮔﺮ ‪ δ0‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ) ‪ γ (θ‬ﺑﺎﺷﺪ آﻧﮕﺎه ﻛﻠﻴﻪ ﺑﺮآوردﮔﺮﻫـﺎي ﻧﺎارﻳـﺐ ) ‪ γ (θ‬ﺑـﺼﻮرت‬ ‫‪ δ = δ0 − U‬ﻣــﻲﺑﺎﺷــﺪ ﻛــﻪ در آن ‪ U‬ﻫــﺮ ﺑﺮآوردﮔــﺮ ﻧﺎارﻳــﺐ ﺻــﻔﺮ اﺳــﺖ ) ﻳﻌﻨــﻲ ‪∀θ ∈Θ‬‬ ‫‪V ar (δ ) = E [(δ0 − U )2 ] − [γ (θ )]2‬‬

‫‪ ( E θ (U ) = 0‬و ﺑﻌﻼوه‬ ‫اﺛﺒﺎت ‪ :‬واﺿﺢ اﺳﺖ‪.‬‬

‫■‬

‫ﻗﺮار ﻣﻲدﻫﻴﻢ‬ ‫}‪ Δ0 = {U E θ (U ) = 0, ∀θ ∈ Θ‬و }‪. Δγ = {δ E θ (δ ) = γ (θ ), ∀θ ∈ Θ‬‬

‫‪١‬‬

‫‪Estimable‬‬ ‫‪Uniformly Mminimum Variance Unbiased‬‬ ‫‪٣‬‬ ‫‪Locally Mminimum Variance Unbiased‬‬ ‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫‪41‬‬

‫ﺑﺮاي اﺳﺘﻔﺎده از ﻟﻢ ﻓﻮق در ﺣﻞ ﻳﻚ ﻣﺴﺌﻠﻪ‪ ،‬اﺑﺘﺪا ﻛﻼس ﻛﻠﻴﻪ ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳـﺐ ) ‪ γ (θ‬را ﺑـﻪ دﺳـﺖ‬ ‫ﻣﻲآورﻳﻢ و وارﻳﺎﻧﺲ آﻧﻬﺎ را در ﻳﻚ ﻧﻘﻄﻪ ﺛﺎﺑﺖ ‪ θ0‬ﻣﻴﻨﻴﻤﻢ ﻣﻲﻛﻨﻴﻢ‪ .‬اﮔﺮ اﻳﻦ ﻣﻘﺪار ﻣﻴﻨـﻴﻤﻢ ﺑـﻪ ﻣﻘـﺪار ‪θ0‬‬

‫ﺑﺴﺘﮕﻲ ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ )و در ﻧﺘﻴﺠﻪ ﺣﻞ ﻣﺴﺌﻠﻪ ﺑﻪ ﻣﻘﺪار ﻣﺸﺨﺺ ‪ θ0‬ﺑﺴﺘﮕﻲ ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ( آﻧﮕﺎه ﺑﺮآوردﮔـﺮ‬ ‫ﺣﺎﺻﻞ ‪ UMVU‬ﭘﺎراﻣﺘﺮ ﻣﻮرد ﻧﻈﺮاﺳﺖ‪ .‬در ﻏﻴﺮ اﻳﻦ ﺻﻮرت اﮔﺮ ﺑﺮآوردﮔﺮ ﺣﺎﺻﻞ ﺑﻪ ‪ θ0‬ﺑﺴﺘﮕﻲ داﺷـﺘﻪ‬ ‫ﺑﺎﺷﺪ )و در ﻧﺘﻴﺠﻪ ﻛﻤﺘﺮﻳﻦ وارﻳﺎﻧﺲ را در ﺑﻌﻀﻲ از ﻧﻘﺎط ‪ θ0‬ﺑﺪﺳﺖ آورد( آﻧﮕﺎه اﻳﻦ ﺑﺮآوردﮔﺮ ‪LMVU‬‬ ‫ﻧﺎﻣﻴﺪه ﻣﻲﺷﻮد و در اﻳﻦ ﺣﺎﻟﺖ ‪ UMVU‬ﭘﺎراﻣﺘﺮ ﻣﻮرد ﻧﻈﺮ وﺟﻮد ﻧﺪارد‪.‬‬ ‫ﻣﺜﺎل ‪ :2-1‬ﻓﺮض ﻛﻨﻴﺪ ‪ X‬ﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﮔﺴﺴﺘﻪ ﺑﺎ ﺗﺎﺑﻊ اﺣﺘﻤﺎل زﻳﺮ ﺑﺎﺷﺪ‬ ‫‪0〈θ 〈1‬‬

‫‪x =1‬‬ ‫‪x = 2, 3,...‬‬

‫‪θ‬‬ ‫⎪⎧‬ ‫‪pθ (x ) = ⎨ x −2‬‬ ‫‪2‬‬ ‫) ‪⎪⎩θ (1 − θ‬‬

‫ﺑﺮرﺳﻲ ﻛﻨﻴﺪ ﻛﻪ آﻳﺎ ﭘﺎراﻣﺘﺮﻫﺎي اﻟﻒ( ‪ γ 1(θ ) = θ‬ب( ‪ γ 2 (θ ) = (1 − θ )2‬داراي ﺑﺮآوردﮔـﺮ ‪UMVU‬‬ ‫ﻫﺴﺘﻨﺪ؟‬ ‫ﺣﻞ‪ :‬در ﻳﻜﻲ از ﻣﺜﺎلﻫﺎي ﻓﺼﻞ ﻗﺒﻞ ﻧﺸﺎن دادﻳﻢ ﻛﻪ‬ ‫‪E θ [U (X )] = 0 ⇒ U (x ) = (x − 2)(− h (1)) = (x − 2)a‬‬

‫‪x = 1, 2,....‬‬

‫و ﻧﺘﻴﺠﻪ ﮔﺮﻓﺘﻴﻢ ﻛﻪ ‪ X‬ﻳﻚ آﻣﺎره ﻛﺎﻣﻞ ﻧﻴﺴﺖ اﻣﺎ ﻛﺎﻣﻞ ﻛﺮاﻧﺪار اﺳﺖ‪ .‬ﺣﺎل ﻗﺮار ﻣﻲدﻫﻴﻢ‪:‬‬ ‫‪δ1(X ) = I {1} (X ) ⇒ E θ [δ1(X )] = θ‬‬ ‫‪δ2 (X ) = I {2} (X ) ⇒ E θ [δ2 (X )] = (1− θ )2‬‬

‫ﭘﺲ ‪ δ1‬و ‪ δ 2‬ﺑﻪ ﺗﺮﺗﻴﺐ ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳﺐ ﺑﺮاي ) ‪ γ 1(θ‬و ) ‪ γ 2 (θ‬ﻣﻲﺑﺎﺷﻨﺪ‪ .‬در ﻫﺮﻳـﻚ از ﺣـﺎﻻت‬ ‫ﻓﻮق‪ ،‬ﻓﺮم ﻛﻠﻲ ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳﺐ ﺑﻪ ﻓﺮم زﻳﺮ ﻣﻲﺑﺎﺷﺪ‪:‬‬ ‫‪i = 1, 2,...‬‬

‫) ‪δ i* (X ) = δ i (X ) − U (X‬‬

‫و *‪ δ i‬ﻣﻮﻗﻌﻲ ﻛﻤﺘﺮﻳﻦ وارﻳﺎﻧﺲ ﺧﻮد را در ‪ θ0‬ﺑﺪﺳﺖ ﻣﻲآورد ﻛﻪ‬ ‫‪V θ0 (δ i* ) = E θ0 [(δ i − U )2 ] − [γ i (θ0)]2‬‬

‫و ﻳﺎ ﻣﻌﺎدﻻ ] ‪ E θ0 [(δ i − U )2‬ﻣﻴﻨﻴﻤﻢ ﺷﻮد‪ .‬اﻣﺎ‬ ‫∞‪+‬‬

‫‪2‬‬ ‫) ‪E θ0 ⎡⎣ (δ i ( X ) − U (X ))2 ⎤⎦ = ∑ (δ i ( x ) − U ( x ) ) pθ0 ( x‬‬ ‫‪x =1‬‬

42

www.riazisara.ir

‫ ﻧﺎارﻳﺒﻲ‬:‫ﻓﺼﻞ دوم‬

+∞

= ∑ (δ i (x ) − a ( x − 2) ) pθ0 ( x ) 2

x =1

.‫ را ﻣﻲﺧﻮاﻫﻴﻢ ﭘﻴﺪا ﻛﻨﻴﻢ ﻛﻪ ﻣﺠﻤﻮع ﺑﺎﻻ را ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ‬a ‫ﺑﻨﺎﺑﺮاﻳﻦ ﻣﻘﺪاري از‬ +∞

i = 1 ⇒ g 1(a ) = E θ0 [(T1(x ) − h (x )) ] = (1 − a ) θ0 + ∑ a 2 (x − 2)2θ0x −2 (1 − θ0)2 (‫اﻟﻒ‬ 2

2

x =2

+∞

= (1 + a ) θ0 + ∑ a 2 y 2θ0y (1 − θ0)2 2

y =0

+∞ +∞ ⎛ g1′(a ) = 2(1 + a )θ0 + 2a (1 − θ0)2 ∑ y 2θ0y = 2a ⎜ θ0 + (1 − θ0)2 ∑ y 2θ0y ⎜ y =0 y =0 ⎝ −θ0 g 1′′(a ) = cons tan t > 0 ⇒ g 1′(a ) = 0 ⇒ a1* = +∞ 2 θ0 + (1 − θ0) ∑ y 2θ0y

⎞ ⎟ + 2θ0 ⎟ ⎠

y =0

‫ ﺑـﺴﺘﮕﻲ دارد ﻳـﻚ ﺑﺮآوردﮔـﺮ‬θ0 ‫ ﺑﻪ ﻣﻘﺪار‬a1* ‫ ﺑﻪ دﻟﻴﻞ آﻧﻜﻪ‬δ1* (X ) = δ1(X ) − a1* (X − 2) ‫ﺑﻨﺎﺑﺮاﻳﻦ‬ .‫ اﺳﺖ‬θ ‫ ﺑﺮاي‬LMVU -‫ب‬ 2 i = 2 ⇒ g 2 (θ ) = E θ0 ⎡(δ 2 (X ) − U ( X ) ) ⎤ ⎣ ⎦ +∞

= a 2θ0 + (1 − θ0)2 + ∑ a 2 (x − 2)2θ0x −2 (1 − θ0)2 x =3

+∞ ⎡ ⎤ = a 2 ⎢θ0 + ∑ y 2θ0y (1 − θ0)2 ⎥ + (1 − θ0)2 y =1 ⎣⎢ ⎦⎥

+∞ ⎡ ⎤ g 2′ (a ) = 2a ⎢θ0 + (1 − θ0)2 ∑ y 2θ0y ⎥ , y =1 ⎣⎢ ⎦⎥

g 2′′(a ) = cons tan t > 0

⇒ g 2′ (a ) = 0 ⇒ a2* = 0

‫ ﻧﺪارد ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ‬θ0 ‫ ﺑﺴﺘﮕﻲ ﺑﻪ‬a2* ‫ﭼﻮن‬ δ 2* (X ) = δ 2 (X ) − a2* (X − 2) = δ 2 (X )

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫‪43‬‬

‫ﺑﺮآوردﮔﺮي ﻧﺎارﻳﺐ ﺑﺮاي ‪ (1 − θ )2‬اﺳﺖ ﻛﻪ وارﻳﺎﻧﺲ را ﻧﻪ ﺗﻨﻬﺎ ﺑﺮاي ‪ θ0‬ﺑﻠﻜﻪ ﺑﺮاي ﻛﻠﻴﻪ ‪ 0〈θ 〈1‬ﻣﻴﻨﻴﻤﻢ‬ ‫ﻣﻲﻛﻨﺪ ﭘﺲ ) ‪ T 2* (X‬ﺑﺮآوردﮔﺮ ‪ UMVU‬ﺑﺮاي ‪ (1 − θ )2‬اﺳﺖ‪.‬‬

‫■‬

‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﺜﺎل ﺑﺎﻻ اﻳﻦ ﺳﻮال ﻣﻄﺮح ﻣﻲﺷﻮد ﻛﻪ ﭼﻪ ﺑﺮآوردﮔﺮﻫﺎﻳﻲ ﺑﺮاي ﭘـﺎراﻣﺘﺮ ) ‪ γ (θ‬ﺑﺮآوردﮔﺮﻫـﺎي‬ ‫‪ UMVU‬ﻫـﺴﺘﻨﺪ و ﻫﻤﭽﻨـﻴﻦ ﭼـﻪ ﺗﻮاﺑـﻊ ﺑﺮآوردﭘـﺬﻳﺮ ) ‪ γ (θ‬داراي ﺑﺮآوردﮔﺮﻫـﺎي ‪ UMVU‬ﻫـﺴﺘﻨﺪ‪.‬‬ ‫ﺟﻮاب ﺑﻪ اﻳﻦ ﺳﻮال از ﻃﺮﻳﻖ ﻗﻀﻴﻪ زﻳﺮ داده ﻣﻲﺷﻮد‪ .‬در اﻳﻦ ﻗﻀﻴﻪ‬

‫{‬

‫}‬

‫∞〈 ) ‪ Δ = δ E (δ 2‬اﺳﺖ‪.‬‬

‫ﻗـﻀﻴﻪ ‪ ) 1-1‬ﻗــﻀﻴﻪ ﻟﻬﻤــﻦ– ﺷـﻔﻪ(‪ :‬ﻓــﺮض ﻛﻨﻴـﺪ ‪ X‬ﻳــﻚ ﻣﺘﻐﻴـﺮ ﺗــﺼﺎدﻓﻲ ﺑـﺎ ﺗــﻮزﻳﻌﻲ از ﺧــﺎﻧﻮاده‬ ‫}‪= {Pθ : θ ∈ Θ‬‬

‫‪ P‬ﺑﺎﺷﺪ و ‪ δ ∈ Δ‬و ‪ Δ0‬ﻛﻼس ﻛﻠﻴﻪ ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳـﺐ ﺻـﻔﺮ ﺑﺎﺷـﺪ‪ .‬در اﻳـﻦ‬

‫ﺻـــﻮرت ﺷـــﺮط ﻻزم و ﻛـــﺎﻓﻲ ﺑـــﺮاي آﻧﻜـــﻪ ‪ δ‬ﻳـــﻚ ﺑﺮآوردﮔـــﺮ ‪ UMVU‬ﺑـــﺮاي اﻣﻴـــﺪ ﺧـــﻮد‬ ‫]) ‪ γ (θ ) = E θ [δ (X‬ﺑﺎﺷﺪ آن اﺳﺖ ﻛﻪ ‪:‬‬ ‫‪∀U ∈ Δ0, ∀θ ∈ Θ‬‬

‫‪Cov (δ ( X ),U ( X ) ) = 0‬‬

‫ﺗﻮﺟﻪ‪ :‬اﮔﺮ ﺑﻪ ﺟﺎي ‪ θ‬ﻣﻘﺪار ‪ θ0‬را در ﻗﻀﻴﻪ ﻗﺮار دﻫﻴﻢ‪ ،‬آﻧﮕﺎه ‪ T‬ﻳﻚ ﺑﺮآوردﮔﺮ ‪ LMVU‬ﺧﻮاﻫـﺪ ﺑـﻮد‪.‬‬ ‫‪Cov (δ (X ),U (X ) ) = 0 ⇔ E [δU ] = 0‬‬

‫ﻫﻤﭽﻨﻴﻦ ﭼﻮن ‪ E θ (U ) = 0‬ﭘﺲ‬ ‫اﺛﺒﺎت‪ ) :‬ﺷﺮط ﻛﺎﻓﻲ(‪ :‬ﻓﺮض ﻛﻨﻴﺪ‬

‫‪∀U ∈ Δ0, ∀θ ∈ Θ‬‬

‫‪Cov (δ ( X ),U ( X ) ) = 0‬‬

‫و ﻓﺮض ﻛﻨﻴﺪ * ‪ δ‬ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ دﻳﮕﺮي ﺑﺮاي ) ‪ γ (θ‬ﺑﺎﺷﺪ‪ .‬ﻳﻌﻨﻲ‬ ‫‪E θ [δ * (X )] = E θ [δ (X )] = γ (θ ) ⇒ E θ [δ * (X ) − δ ( X )] = 0 ∀θ ∈ Θ‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﻃﺒﻖ ﻓﺮض ﻣﺴﺎﻟﻪ دارﻳﻢ ﻛﻪ‬

‫)‬

‫(‬

‫(‬

‫)‬

‫‪Cov δ ( X ), δ * (X ) − δ (X ) = 0 ∀θ ∈ Θ ⇒ Cov δ (X ), δ * (X ) −V (δ (X )) = 0‬‬ ‫)‪(1‬‬

‫)‬

‫(‬

‫)) ‪⇒V arθ (δ (X )) = Cov θ δ (X ), δ * (X ) ≤ V arθ (δ (X ))V arθ (δ * (X‬‬ ‫‪⇒ V θ (δ (X )) ≤ V θ (δ * (X )) ⇒V θ (δ (X )) ≤V θ (δ * (X )) ∀θ ∈ Θ‬‬

‫ﻛﻪ در آن ﻧﺎﻣﺴﺎوي )‪ (1‬از ﻧﺎﻣﺴﺎوي ﺷﻮارﺗﺰ ﺑﺪﺳﺖ ﻣﻲآﻳﺪ‪ .‬ﭘﺲ ) ‪ δ (X‬ﺑﺮآوردﮔﺮ ‪ UMVU‬ﭘﺎراﻣﺘﺮ‬ ‫) ‪ γ (θ ) = E θ (δ‬اﺳﺖ‪.‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫‪44‬‬

‫)ﺷـــﺮط ﻻزم(‪ :‬ﻓـــﺮض ﻛﻨﻴـــﺪ ) ‪ δ (X‬ﺑﺮآوردﮔـــﺮ ‪ UMVU‬ﺑـــﺮاي ) ‪ γ (θ ) = E θ (δ‬ﺑﺎﺷـــﺪ و‬ ‫‪Cov θ (δ (X ),U (X )) = 0‬‬

‫‪ . E θ [U (X )] = 0 ∀θ ∈ Θ‬ﻣﻲﺧﻮاﻫﻴﻢ ﻧﺸﺎن دﻫﻴﻢ ﻛﻪ‬

‫) ‪δ * (X ) = δ (X ) + λU (X‬‬

‫ﺑﺮاي ﻳﻚ ﻣﻘﺪار ﺛﺎﺑﺖ ‪ λ‬ﻗﺮار ﻣﻲدﻫﻴﻢ‬

‫ﭼﻮن ) ‪ δ (X‬ﺑﺮآوردﮔﺮ ‪ UMVU‬و ) ‪ δ * (X‬ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ) ‪ γ (θ‬ﻣﻲﺑﺎﺷﻨﺪ ﭘﺲ‬ ‫)) ‪V θ (δ (X )) ≤V θ (δ * (X )) =V θ (δ (X ) + λU ( X‬‬ ‫)) ‪=V θ (δ (X )) + λ 2V θ (U (X )) + 2λCov θ (δ (X ),U (X‬‬

‫)‪(2‬‬

‫‪⇒ λ 2V θ (U ( X )) + 2λCov θ (δ (X ),U (X )) ≥ 0 ∀θ ∈ Θ, ∀λ‬‬

‫ﻣﻌﺎدﻟﻪ ‪ λ 2V θ (δ (X )) + 2λCov θ (δ (X ),U (X )) = 0‬ﻳﻚ ﻣﻌﺎدﻟﻪ درﺟﻪ دوم ﺑﺮ ﺣﺴﺐ ‪ λ‬اﺳﺖ‬ ‫)) ‪−2Cov θ (δ ( X ),U ( X‬‬ ‫ﻛﻪ داراي دو رﻳﺸﻪ‬ ‫)) ‪V θ (δ (X‬‬

‫= ‪ λ2‬و ‪ λ1 = 0‬اﺳﺖ و در ﻧﺘﻴﺠﻪ ﺑﻴﻦ اﻳﻦ دو رﻳﺸﻪ‬

‫ﻋﻼﻣﺖ ﻣﻌﺎدﻟﻪ ﻣﻨﻔﻲ ﺧﻮاﻫﺪ ﺑﻮد‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ اﮔﺮ ﻧﺎﻣﻌﺎدﻟﻪ )‪ (2‬ﺑﺨﻮاﻫﺪ ﺑﺮاي ﺗﻤﺎم ﻣﻘﺎدﻳﺮ ‪ λ‬ﺑﺮﻗﺮار ﺑﺎﺷﺪ‬ ‫ﺑﺎﻳﺴﺘﻲ ‪ λ1 = λ2 = 0‬ﺑﺎﺷﺪ ﻳﻌﻨﻲ ﺑﺎﻳﺴﺘﻲ ‪ Cov θ (δ (X ),U (X )) = 0‬ﺑﺎﺷﺪ‪.‬‬

‫■‬

‫ﻣﺜﺎل ‪ :3-1‬در ﻣﺜﺎل ‪ 2-1‬ﻛﻼس ﻛﻠﻴﻪ ﺑﺮآوردﮔﺮﻫﺎي ‪ UMVU‬و ﻫﻤﭽﻨﻴﻦ ﻛﻼس ﻛﻠﻴﻪ ﭘﺎراﻣﺘﺮﻫﺎي ) ‪γ (θ‬‬

‫ﺑﺮآوردﭘــﺬﻳﺮ داراي ﺑﺮآوردﮔــﺮ ‪ UMVU‬را ﺑﺪﺳــﺖ آورﻳــﺪ و ﻧــﺸﺎن دﻫﻴــﺪ ﻛــﻪ ﭘــﺎراﻣﺘﺮ ‪ θ‬داراي ﻫــﻴﭻ‬ ‫ﺑﺮآوردﮔﺮ ‪ UMVU‬ﻧﻴﺴﺖ‪.‬‬ ‫ﺣﻞ‪ :‬ﻛﻼس ﻛﻠﻴﻪ ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳﺐ ﺻﻔﺮ ﻋﺒﺎرت اﺳﺖ از‬ ‫)‪X = 1, 2,..., a = −U (1‬‬

‫)‪U (X ) = a (X − 2‬‬

‫‪ δ (X ) ⇔ Cov θ (δ (X ),U (X )) = 0‬ﺑﺮآوردﮔﺮ ‪ UMVU‬ﺑﺮاي ) ‪γ (θ ) = E θ (δ‬‬ ‫‪⇔ E θ [δ (X )a (X − 2)] = 0 ⇔ E θ [δ (X )(X − 2)] = 0‬‬

‫)‪⇔ δ (X )(X − 2) = {−δ (1)(1 − 2)}(X − 2) = δ (1)(X − 2‬‬ ‫‪⎧δ (1) x = 1, 3, 4,....‬‬ ‫‪⎧a x = 1, 3, 4,....‬‬ ‫⎨ = ) ‪⇒ δ (x‬‬ ‫⎨ = ) ‪⇒ δ (x‬‬ ‫‪x =2‬‬ ‫‪x =2‬‬ ‫‪⎩ b‬‬ ‫‪⎩b‬‬

‫ﻛﻪ در آن ‪ b‬ﻳﻚ ﺛﺎﺑﺖ دﻟﺨﻮاه اﺳـﺖ‪ .‬ﺑﻨـﺎﺑﺮاﻳﻦ ﻓـﺮم ﻛﻠـﻲ ﺑﺮآوردﮔﺮﻫـﺎي ‪ UMVU‬ﺑـﺼﻮرت ) ‪δ (X‬‬

‫اﺳﺖ‪.‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫‪45‬‬

‫∞‪+‬‬

‫) ‪γ (θ ) = E θ [δ (X )] = aθ + b (1 − θ )2 + ∑ aθ x −2 (1 − θ )2 = aθ + b (1 − θ )2 + aθ (1 − θ‬‬ ‫‪x =3‬‬

‫‪= a (2θ − θ 2 ) + b (1 − θ )2 = −a (1 − θ )2 + a + b (1 − θ )2‬‬ ‫‪= a + (b − a )(1 − θ )2 = a + c (1 − θ )2‬‬

‫ﺑﻨــﺎﺑﺮاﻳﻦ ﺗﻨﻬــﺎ ﭘﺎراﻣﺘﺮﻫــﺎي ﺑﻔــﺮم ﻓــﻮق داراي ﺑﺮآوردﮔــﺮ ‪ UMVU‬ﻫــﺴﺘﻨﺪ‪ ،‬وﻟــﻲ ‪ θ‬داراي ﺑﺮآوردﮔــﺮ‬ ‫‪ UMVU‬ﻧﻴﺴﺖ زﻳﺮا‬ ‫‪θ = a + c (1 − θ )2 ⇒ c (1 − 2θ + θ 2 ) − θ + a = 0 ⇒ cθ 2 − (2c + 1)θ + a = 0‬‬ ‫⎧‬ ‫‪⎪a = 0‬‬ ‫‪∀θ ∈(01‬‬ ‫⎪) ‪,‬‬ ‫‪⇒ ⎨c = 0‬‬ ‫⎪‬ ‫‪1‬‬ ‫‪⎪2c + 1 = 0 ⇒ c = −‬‬ ‫‪2‬‬ ‫⎩‬

‫■‬

‫ﻛﻪ ﺑﻪ ﺗﻨﺎﻗﺾ ﺑﺮ ﻣﻲﺧﻮرﻳﻢ‪.‬‬

‫ﻧﻜﺎﺗﻲ در ﻣﻮرد ﻗﻀﻴﻪ ﻟﻬﻤﻦ – ﺷﻔﻪ‪:‬‬ ‫‪ (1‬ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﺜﺎل ﻗﺒﻞ‪ ،‬ﺑﻮﺳﻴﻠﻪ اﻳﻦ ﻗـﻀﻴﻪ ﻣـﻲﺗـﻮان ﻛﻠﻴـﻪ ﺑﺮآوردﮔﺮﻫـﺎي ‪ UMVU‬و ﻫﻤﭽﻨـﻴﻦ ﻛﻠﻴـﻪ‬ ‫ﭘﺎراﻣﺘﺮﻫﺎي ﺑﺮآوردﭘـﺬﻳﺮ داراي ﺑﺮآوردﮔـﺮ ‪ UMVU‬را ﺑﺪﺳـﺖ آورد و ﺗﻨﻬـﺎ ﻣـﺸﻜﻞ آن ﺑﺪﺳـﺖ آوردن‬ ‫ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎ ارﻳﺐ ﺻﻔﺮ اﺳﺖ‪.‬‬

‫}‬

‫{‬

‫‪ (2‬ﺗﻌﺒﻴﺮ ﻫﻨﺪﺳﻲ‪ :‬اﮔﺮ ∞ 〈 ) ‪ Δ = δ E (δ 2‬آﻧﮕﺎه ‪ Δ‬ﻳﻚ ﻓﻀﺎي ﺑﺮداري اﺳﺖ زﻳﺮا‬ ‫‪∀a , b ∈ R , δ1, δ 2 ∈ Δ ⇒ aδ1 + b δ 2 ∈ Δ‬‬

‫و ‪ Δo‬ﻧﻴﺰ ﻳﻚ زﻳﺮ ﻓﻀﺎي ‪ Δ‬اﺳﺖ‪ .‬اﮔـﺮ ﻗـﺮار دﻫـﻴﻢ ) ‪ 〈δ1, δ 2 〉 = Cov (δ1, δ 2‬آﻧﮕـﺎه ﻳـﻚ ﺿـﺮب‬ ‫داﺧﻠﻲ روي ‪ Δ‬ﺧﻮاﻫﻴﻢ داﺷﺖ و ﺑﺎ ﺗﻮﺟـﻪ ﺑـﻪ ﺿـﺮب داﺧﻠـﻲ‬ ‫ﻓﻮق دارﻳﻢ ﻛﻪ‬

‫) ‪ = d (δ1, δ 2‬ﻓﺎﺻﻠﻪ ‪δ1, δ 2‬‬

‫) ‪= 〈δ1 − δ 2 , δ1 − δ 2 〉 = V ar (δ1 − δ 2‬‬

‫اﮔﺮ ‪ δ‬ﺑﺮآوردﮔﺮ ‪ UMVU‬ﺑﺎﺷﺪ آﻧﮕـﺎه ﺑـﻪ ازاي ﻫـﺮ ‪δ ′ ∈ Δ‬‬ ‫دارﻳﻢ ﻛـﻪ )‪ . V (δ ) ≤ V (δ ′‬ﺣـﺎل ﭼـﻮن ‪δ = δo − U‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫‪46‬‬

‫ﻣﻲﺧﻮاﻫﻴﻢ ‪ U‬را ﻃﻮري اﻧﺘﺨﺎب ﻛﻨﻴﻢ ﻛﻪ ) ‪ V (δ ) =V (δo − U ) = d (δo ,U‬ﻣﻴﻨﻴﻤﻢ ﺷﻮد‪ .‬اﻣـﺎ ﺑـﺮاي‬ ‫ﻣﻴﻨﻴﻤﻢ ﻛﺮدن ) ‪ d (δo ,U‬ﺑﺎﻳﺴﺘﻲ ‪ U‬را ﺗﺼﻮﻳﺮ ‪ δo‬در زﻳﺮ ﻓﻀﺎي ‪ Δo‬ﺑﮕﻴﺮﻳﻢ‪ .‬ﺑﻨـﺎﺑﺮاﻳﻦ ﺑﺎﻳـﺪ ‪δo − U‬‬

‫ﺑﺮ زﻳﺮ ﻓﻀﺎي ‪ Δo‬ﻋﻤﻮد ﺑﺎﺷﺪ‪ .‬ﻳﻌﻨﻲ‬ ‫‪Cov (δo − U ,U ) = 0 ⇔ Cov (δ ,U ) = 0‬‬

‫■‬

‫‪ (3‬از ﻗﻀﻴﻪ ﻟﻬﻤﻦ – ﺷﻔﻪ ﺑﺮاي اﺛﺒﺎت ﻋﺪم ‪ UMVU‬ﺑﻮدن ﻳﻚ ﺑﺮآوردﮔﺮ ﻣﻲﺗﻮان اﺳﺘﻔﺎده ﻛﺮد‪.‬‬ ‫ﻣﺜﺎل ‪ :4-1‬ﻓﺮض ﻛﻨﻴﺪ )‪ X ~ U (θ ,θ +1‬ﻣﻲ داﻧﻴﻢ ﻛﻪ ‪ T (X ) = X‬ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤـﺎل ﺑـﺮاي‬ ‫‪1‬‬ ‫‪ θ‬اﺳﺖ‪ .‬ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ ) ‪ T (X‬ﺑﺮاي ‪ θ‬ﻛﺎﻣﻞ ﻧﻴﺴﺖ و‬ ‫‪2‬‬

‫‪ S (X ) = X −‬ﻳﻚ ﺑﺮآ وردﮔﺮ ﻧﺎ ارﻳـﺐ ‪θ‬‬

‫اﺳﺖ ﻛﻪ ‪ UMVUE‬آن ﻧﻴﺴﺖ‪.‬‬ ‫ﺣﻞ‪:‬‬ ‫‪=0‬‬

‫‪θ +1‬‬

‫‪∫ h (x )dx‬‬

‫‪θ‬‬

‫‪d‬‬ ‫‪dθ‬‬

‫⇒ ‪h (x )dx = 0‬‬

‫‪θ +1‬‬

‫∫‬

‫⇒ ‪E [h (X )] = 0‬‬

‫‪θ‬‬

‫‪⇒ h (θ + 1) − h (θ ) = 0 ⇒ h (θ + 1) = h (θ ) ∀θ ∈ ℜ‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﺗﻮاﺑﻊ ﻣﺘﻨﺎوب ﺑﺎ دوره ﺗﻨﺎوب ‪ 1‬داراي اﻣﻴﺪ ﺻﻔﺮ ﻫـﺴﺘﻨﺪ‪ .‬ﺑـﺮاي ﻣﺜـﺎل اﮔـﺮ ) ‪h (x ) = sin(2π x‬‬

‫آﻧﮕﺎه ‪ E [sin(2π x )] = 0‬اﻣﺎ ‪. P (sin(2π x ) = 0) = 0 ≠ 1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪1 θ +1 1‬‬ ‫‪(x − )dx = x 2 − x‬‬ ‫‪= (2θ ) = θ‬‬ ‫‪θ‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪2‬‬

‫‪θ +1‬‬

‫∫‬

‫‪θ‬‬

‫‪1‬‬ ‫= ) ‪E (S (X )) = E (X −‬‬ ‫‪2‬‬

‫)) ‪Cov θ (S (X ), h (X )) = E θ (S (X )h ( X )) = E θ ( X sin(2π X‬‬

‫‪θ +1‬‬ ‫‪θ‬‬

‫‪1‬‬

‫‪θ +1‬‬

‫‪1‬‬

‫]) ‪∫ x sin(2π x )dx = [− 2π x cos(2π x ) + 4x 2 sin(2π x‬‬

‫‪1‬‬ ‫ﭘﺲ‬ ‫‪2‬‬

‫=‬

‫‪θ‬‬

‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫) ‪(θ + 1) cos(2πθ ) + 2 sin(2πθ ) + θ cos(2πθ ) − 2 sin(2πθ‬‬ ‫‪2π‬‬ ‫‪2π‬‬ ‫‪4π‬‬ ‫‪4π‬‬

‫‪=−‬‬

‫‪1‬‬ ‫‪cos(2πθ ) ≠ 0‬‬ ‫‪2π‬‬

‫‪=−‬‬

‫‪ S (X ) = X −‬ﺑﺮآوردﮔﺮ ‪ UMVU‬ﭘﺎراﻣﺘﺮ ‪ θ‬ﻧﻴﺴﺖ‪.‬‬

‫■‬

‫‪ (4‬ﺗﻮﺳﻂ ﻗﻀﻴﻪ ﻟﻬﻤﻦ – ﺷﻔﻪ ﻣﻲﺗﻮان ﻳﻜﺘﺎﻳﻲ ﺑﺮآوردﮔﺮﻫﺎي ‪ UMVU‬را ﺑﻪ ﺻﻮرت زﻳﺮ ﺛﺎﺑﺖ ﻛﺮد‪.‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫‪47‬‬

‫ﻟـــﻢ ‪ :2-1‬ﺑـــﺮاي ﻫـــﺮ دو ﻣﺘﻐﻴـــﺮ ﺗـــﺼﺎدﻓﻲ ‪ X‬و ‪ Y‬ﺑـــﺎ ﮔـــﺸﺘﺎورﻫﺎي دوم ﻣﺘﻨـــﺎﻫﻲ دارﻳـــﻢ ﻛـــﻪ‬ ‫) ‪ [Cov (X ,Y )]2 ≤V (X )V (Y‬و ﺗﺴﺎوي ﺑﺮﻗﺮار اﺳﺖ اﮔﺮ و ﻓﻘـﻂ اﮔـﺮ ﺛﺎﺑـﺖﻫـﺎي ‪ a‬و ‪ b‬ﻣﻮﺟـﻮد‬ ‫ﺑﺎﺷﻨﺪ ﺑﻄﻮري ﻛﻪ ‪. P (X = a + bY ) = 1‬‬ ‫ﻗﻀﻴﻪ ‪ :2-1‬اﮔﺮ ) ‪ δ (X‬ﻳﻚ ﺑﺮآوردﮔﺮ ‪ UMVU‬ﺑﺮاي ﭘـﺎراﻣﺘﺮ ) ‪ γ (θ‬ﺑﺎﺷـﺪ آﻧﮕـﺎه ) ‪ δ (X‬ﺑﺮآوردﮔـﺮ‬ ‫ﻳﻜﺘﺎي ‪ UMVU 1‬ﺑﺮاي ) ‪ γ (θ‬اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﻓﺮض ﻛﻨﻴﺪ ‪ δ‬و ‪ δ ′‬دو ﺑﺮآوردﮔﺮ ‪ UMVU‬ﭘﺎراﻣﺘﺮ ) ‪ γ (θ‬ﺑﺎﺷﻨﺪ‪ .‬ﭘﺲ‬ ‫)‪(3‬‬

‫‪V θ (δ ) =V θ (δ ′) ∀θ ∈ Θ‬‬

‫‪E θ (δ ) = E θ (δ ′) = γ (θ ),‬‬

‫در ﻧﺘﻴﺠﻪ ‪ E θ [δ − δ ′] = 0‬ﭘﺲ ‪ δ − δ ′‬ﺑﺮآوردﮔﺮ ﻧﺎ ارﻳﺐ ﺻﻔﺮ اﺳﺖ‪ .‬ﭘﺲ ﻃﺒﻖ ﻗﻀﻴﻪ ﻟﻬﻤﻦ – ﺷﻔﻪ‬ ‫) ‪o = cov(δ , δ − δ ′) =V (δ ) − Cov (δ − δ ′) ⇒ Cov (δ − δ ′) =V (δ‬‬ ‫)‪(3‬‬

‫)‪⇒ [Cov (δ , δ ′)] = [V (δ )] = V θ (δ )V θ (δ ′‬‬ ‫‪2‬‬

‫‪2‬‬

‫ﻳﻌﻨﻲ در ﻧﺎﻣﺴﺎوي ﻛﻮارﻳﺎﻧﺲ ﺣﺎﻟﺖ ﺗﺴﺎوي ﺑﺮﻗﺮار اﺳﺖ ﭘﺲ ﻃﺒﻖ ﻟﻢ ‪ 3-1‬دارﻳﻢ ﻛﻪ‬ ‫‪ Pθ (δ = aδ ′ + b ) = 1‬و در ﻧﺘﻴﺠﻪ ﻃﺒﻖ )‪ (3‬دارﻳﻢ ﻛﻪ ‪ Pθ (δ = δ ′) = 1‬ﻳﻌﻨﻲ ﺑﺮآوردﮔﺮ ‪ UMVU‬ﻳﻜﺘﺎ‬ ‫■‬

‫اﺳﺖ‪.‬‬

‫ﺗﻮﺟﻪ‪ :‬ﺑﺮآوردﮔﺮ ‪ δ = c‬ﺑﺮآوردﮔﺮي ‪ UMVU‬ﺑﺮاي اﻣﻴﺪ ﺧﻮد اﺳﺖ‪ ،‬زﻳﺮا داراي وارﻳﺎﻧﺲ ﺻـﻔﺮ اﺳـﺖ‪.‬‬ ‫ﺣﺎل اﮔﺮ ﺑﺮآوردﮔﺮﻫﺎي ﺛﺎﺑﺖ را ﻛﻨﺎر ﺑﮕﺬارﻳﻢ‪ ،‬ﺑﺮاي ﻳﻚ ﺗﺎﺑﻊ ﺑﺮآوردﭘﺬﻳﺮ ) ‪ γ (θ‬ﺳـﻪ ﺣﺎﻟـﺖ زﻳـﺮ ﭘـﻴﺶ‬ ‫ﻣﻲآﻳﺪ‪:‬‬ ‫ﺣﺎﻟﺖ اول‪ :‬ﻫﻴﭻ ﺗﺎﺑﻊ ﻏﻴﺮ ﺛﺎﺑﺘﻲ از ‪ θ‬ﺑﺮآوردﮔﺮ ‪ UMVU‬ﻧﺪارد‪.‬‬ ‫ﻣﺜﺎل ‪ :5-1‬ﻓﺮض ﻛﻨﻴﺪ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ‪ X‬داراي ﺗﺎﺑﻊ اﺣﺘﻤﺎل زﻳﺮ ﺑﺎﺷﺪ‪ ،‬ﻧﺸﺎن دﻫﻴﺪ ﻛـﻪ ﻫـﻴﭻ ﺗـﺎﺑﻊ ﻏﻴـﺮ‬ ‫ﺛﺎﺑﺘﻲ از ‪ θ‬ﺑﺮآوردﮔﺮ ‪ UMVU‬ﻧﺪارد‬ ‫‪θ +۱‬‬

‫‪θ‬‬

‫‪θ −۱‬‬

‫‪۱‬‬ ‫‪۳‬‬

‫‪۱‬‬ ‫‪۳‬‬

‫‪۱‬‬ ‫‪۳‬‬

‫‪x‬‬ ‫) ‪pθ ( x‬‬

‫اﺑﺘﺪا ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳﺐ ﺻﻔﺮ ﻳﻌﻨﻲ ‪ Δ0‬را ﺑﺪﺳﺖ ﻣﻲآورﻳﻢ‪.‬‬ ‫‪Unique‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫‪48‬‬

‫‪1‬‬ ‫‪E θ [U (X )] = 0 ⇒ [U (θ − 1) + U (θ ) + U (θ + 1)] = 0‬‬ ‫‪3‬‬ ‫‪⇒ U (θ − 1) + U (θ ) + U (θ + 1) = 0‬‬

‫}‬

‫⎫‪θ = 0 ⇒ U (−1) + U (0) + U (1) = 0‬‬ ‫)‪U ( k ) = U ( k + 3‬‬ ‫⎧ ⎪‬ ‫∈‪k‬‬ ‫⎨ ⇒ ⎬ ‪θ = 1 ⇒ U (0) + U (1) + U (2) = 0‬‬ ‫‪U (k ) + U (k + 1) + U (k + 2) = 0‬‬ ‫⎩‬ ‫⎪‬ ‫⎭‪θ = 2 ⇒ U (1) + U (2) + U (3) = 0‬‬

‫‪⇒ Δ0 = {U U (3 k ) = a ,U (3 k + 1) = b ,U (3 k + 2) = −(a + b ), k ∈ , a ,b ∈ ℜ‬‬ ‫‪δ (3 k )U (3 k ) = a‬‬ ‫⎧‬ ‫⎪‬ ‫‪ δ ⇔ δU ∈ Δ0 ⇒ ⎨ δ (3 k + 1)U (3 k + 1) = b‬ﺑﺮآوردﮔﺮ ‪UMVU‬‬ ‫) ‪⎪δ (3k + 2)U (3 k + 2) = −(a + b‬‬ ‫⎩‬ ‫‪a ≠ 0, b ≠ 0, ⎧ δ (3 k ) = 1‬‬ ‫⎪‬ ‫∈ ‪a + b ≠ . ⎨ δ (3 k + 1) = 1 ⇒ δ (k ) = 1 ∀k‬‬ ‫‪⎪δ (3 k + 2) = 1‬‬ ‫⇒‬ ‫⎩‬

‫ﭘﺲ ‪ δ‬ﻳﻚ ﺑﺮآوردﮔﺮ ﺛﺎﺑﺖ اﺳﺖ ﻛﻪ ﻧﻤﻲﺗﻮا ﻧﺪ ﺑﺮاي ) ‪ γ (θ‬ﻧﺎارﻳﺐ ﺑﺎﺷﺪ ﭘﺲ ‪ UMVU‬ﻧﻴﺰ ﻧﻴﺴﺖ‪■ .‬‬ ‫ﺣﺎﻟﺖ دوم‪ :‬ﺗﻨﻬﺎ ﺑﻌﻀﻲ از ﺗﻮاﺑﻊ ﺑﺮآوردﭘﺬﻳﺮ ﻏﻴﺮ ﺛﺎﺑﺖ داراي ﺑﺮآوردﮔﺮ ‪ UMVU‬ﻫﺴﺘﻨﺪ‪) .‬ﻣﺜﺎل ‪(-31‬‬ ‫ﺣﺎﻟﺖ ﺳﻮم‪ :‬ﻫﺮ ﭘﺎراﻣﺘﺮ ﺑﺮآوردﭘﺬﻳﺮ ) ‪ γ (θ‬داراي ﺑﺮآوردﮔﺮ ‪ UMVU‬اﺳﺖ‪.‬‬ ‫ﻳﻚ روش ﺑﺮاي ﺑﻪ دﺳﺖ آوردن ‪ UMVU‬در اﻳﻦ ﺣﺎﻟﺖ ﺗﻮﺳﻂ ﻗﻀﻴﻪ راﺋﻮﺑﻼﻛـﻮل اﺳـﺖ‪ .‬ﻃﺒـﻖ ﻗـﻀﻴﻪ‬ ‫راﺋﻮﺑﻼﻛﻮل اﮔﺮ ‪ T‬ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﺑﺮاي ‪ θ‬ﺑﺎﺷﺪ و ) ‪ δ (X‬ﻳﻚ ﺑﺮآوردﮔـﺮ ﻧﺎارﻳـﺐ ﺑـﺮاي ) ‪ γ (θ‬ﺑﺎﺷـﺪ‬ ‫آﻧﮕــــﺎه ] ‪ g (T ) = E [δ (X ) T‬ﻳــــﻚ آﻣــــﺎره اﺳــــﺖ و ) ‪ E θ [ g (T )] = E θ [δ (X )] = γ (θ‬و‬ ‫]) ‪ V θ [ g (T )]
‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫ﻗﻀﻴﻪ ‪ :3-1‬ﻓﺮض ﻛﻨﻴﺪ ‪ X‬داراي ﺗﻮزﻳﻌﻲ از ﺧـﺎ ﻧـﻮاده }‪= {Pθ : θ ∈ Θ‬‬

‫ﺑﺴﻨﺪه ﻛﺎﻣﻞ ﺑﺮاي‬

‫‪49‬‬

‫‪ P‬ﺑﺎﺷـﺪ و ‪ T‬ﻳـﻚ آﻣـﺎره‬

‫‪ P‬ﺑﺎﺷـﺪ‪ .‬در اﻳـﻦ ﺻـﻮرت ﻫـﺮ ﺗـﺎﺑﻊ ﺑﺮآوردﭘـﺬﻳﺮ ) ‪ γ (θ‬داراي ﻳـﻚ و ﺗﻨﻬـﺎ ﻳـﻚ‬

‫ﺑﺮآوردﮔﺮ ﻧﺎ ارﻳﺐ اﺳﺖ ﻛﻪ ﺗﺎﺑﻌﻲ از ‪ T‬ﻣﻲ ﺑﺎﺷﺪ‪.‬‬ ‫اﺛﺒﺎت‪ :‬وﺟﻮد اﻳﻦ ﺑﺮآوردﮔﺮ از ﻗﻀﻴﻪ راﺋﻮﺑﻼﻛﻮل ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ و اﮔﺮ ) ‪ g1(T‬و ) ‪ g 2 (T‬دو ﺑﺮآوردﮔﺮ‬ ‫ﻧﺎ ارﻳﺐ ) ‪ γ (θ‬ﺑﺎﺷﻨﺪ آﻧﮕﺎه‬ ‫ﺑﺎ اﺣﺘﻤﺎل ﻳﻚ‬

‫) ‪g 1(T ) = g 2 (T‬‬

‫‪completeness‬‬

‫⇒‬

‫‪E [ g 1(T ) − g 2 (T )] = 0‬‬

‫■‬

‫از ﻗﻀﻴﻪ راﺋﻮﺑﻼﻛﻮل و ﻗﻀﻴﻪ ﻗﺒﻞ ﻧﺘﻴﺠﻪ زﻳﺮ را ﻣﻲﺗﻮان ﺑﺪﺳﺖ آورد‪.‬‬ ‫ﻗﻀﻴﻪ ‪ :4-1‬ﻓﺮض ﻛﻨﻴﺪ ‪ X‬داراي ﺗـﻮزﻳﻌﻲ از ﺧـﺎﻧﻮاده }‪= {Pθ : θ ∈ Θ‬‬

‫ﺑﺴﻨﺪه و ﻛﺎﻣﻞ ﺑﺮاي ﺧﺎﻧﻮاده‬

‫‪ P‬ﺑﺎﺷـﺪ و ‪ T‬ﻳـﻚ آﻣـﺎره‬

‫‪ P‬ﺑﺎﺷﺪ‪.‬‬

‫اﻟﻒ( ﺑﺮاي ﻫﺮ ﺗﺎﺑﻊ ﺑﺮآوردﭘﺬﻳﺮ ) ‪ γ (θ‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ وﺟﻮد دارد ﻛﻪ ﺑﻪ ﻃﻮر ﻳﻜﻨﻮاﺧـﺖ ﻣﺨـﺎﻃﺮه‬ ‫را ﺑﺮاي ﻫﺮ ﺗﺎﺑﻊ زﻳﺎن ﻣﺤﺪب ) ‪ L (θ , d‬ﻣﻴﻨﻴﻤﻢ ﻣﻲﻛﻨﺪ‪ .‬اﻳﻦ ﺑﺮآوردﮔﺮ در ﺣﺎﻟﺖ ﺧﺎص ‪ UMVU‬اﺳﺖ‪.‬‬ ‫ب( ﺑﺮآوردﮔﺮ ‪ UMVU‬ﺣﺎﻟﺖ ﻗﺒﻞ ﻫﻤﺎن ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ) ‪ γ (θ‬اﺳﺖ ﻛﻪ ﺗـﺎﺑﻌﻲ از ‪ T‬ﻣـﻲﺑﺎﺷـﺪ‪.‬اﻳـﻦ‬ ‫ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﺑﺎ ﻣﺨﺎﻃﺮه ﻣﻴﻨﻴﻤﻢ اﺳﺖ ﺑﻪ ﺷﺮط آﻧﻜﻪ ﻣﺨﺎﻃﺮه آن ﻣﺘﻨﺎﻫﻲ و ﺗـﺎﺑﻊ زﻳـﺎن اﻛﻴـﺪا ﻣﺤـﺪب‬ ‫ﺑﺎﺷﺪ‪■ .‬‬ ‫ﺗﻮﺟﻪ‪ :‬اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻪ ﻏﻴﺮ از ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺎﺷﺪ‪ ،‬ﺑﺮآوردﮔﺮ ﺣﺎﺻﻞ را ‪ UMRU‬ﮔﻮﻳﻨﺪ‪.‬‬ ‫ﻗﻀﺎﻳﺎي ﻗﺒﻞ ﻧﻪ ﺗﻨﻬﺎ وﺟﻮد ﺑﺮآوردﮔﺮ ‪ UMVU‬را ﺗﻀﻤﻴﻦ ﻣﻲﻛﻨﺪ ﺑﻠﻜﻪ روشﻫﺎﻳﻲ را ﺑﺮاي ﺑﺪﺳﺖ آوردن‬ ‫ﺑﺮآوردﮔﺮﻫﺎي ‪ UMVU‬اراﻳﻪ ﻣﻲدﻫﺪ‪ .‬ﺑﺎ داﺷﺘﻦ آﻣـﺎره ﺑـﺴﻨﺪه ﻛﺎﻣـﻞ ‪ T‬در ﺑـﺮآورد ﭘـﺎراﻣﺘﺮ ) ‪ γ (θ‬اﻳـﻦ‬ ‫روشﻫﺎ ﻋﺒﺎرﺗﻨﺪ از‪:‬‬ ‫اﻟــﻒ( اﺑﺘــﺪا ﻳــﻚ ﺑﺮاوردﮔــﺮ ﻧﺎارﻳــﺐ ) ‪ δ (X‬ﺑــﺮاي ) ‪ γ (θ‬ﺗﻌﻴــﻴﻦ ﻣــﻲﻛﻨــﻴﻢ در اﻳــﻦ ﺻــﻮرت‬ ‫] ‪ g (T ) = E [δ (X ) T‬ﺑﺮآوردﮔﺮ ‪ UMVU‬ﭘﺎراﻣﺘﺮ ) ‪ γ (θ‬اﺳﺖ‪.‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫ﻣﺜﺎل ‪ : 6-1‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,..., X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪ U (0,θ‬ﺑﺎﺷﻨﺪ و‬ ‫‪θ‬‬

‫ﺻـــﻮرت ) ‪ T = X ( n‬ﻳـــﻚ آﻣـــﺎره ﺑـــﺴﻨﺪه و ﻛﺎﻣـــﻞ ﺑـــﺮاي ‪ θ‬اﺳـــﺖ و‬

‫‪2‬‬

‫‪θ‬‬ ‫‪2‬‬

‫‪50‬‬

‫= ) ‪ . γ (θ‬در اﻳﻦ‬

‫= ]‪ ، E [X 1‬ﭘـــﺲ‬

‫] ‪ g (T ) = E [X 1 T‬ﺑﺮآوردﮔﺮ ‪ UMVU‬ﭘﺎراﻣﺘﺮ ) ‪ γ (θ‬اﺳـﺖ‪ .‬اﻣـﺎ اﮔـﺮ ‪ X ( n ) = T = t‬ﺑﺎﺷـﺪ آﻧﮕـﺎه‬ ‫‪1‬‬ ‫‪ X 1 = t‬ﻳﺎ ‪ X 1 < t‬ﺧﻮاﻫﺪ ﺑﻮد‪ .‬ﭘﺲ اﮔﺮ ‪ X ( n ) = t‬ﺑﺎﺷﺪ آﻧﮕﺎه ﺑﺎ اﺣﺘﻤﺎل‬ ‫‪n‬‬ ‫‪n −1‬‬ ‫‪ X 1 ،‬داراي ﺗﻮزﻳﻊ ﻳﻜﻨﻮاﺧﺖ در ﻓﺎﺻﻠﻪ ) ‪ (0,t‬ﻣﻲﺑﺎﺷﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ‬ ‫‪n‬‬ ‫‪1 t n −1 n + 1 t‬‬ ‫( ‪=t) =t( )+‬‬ ‫=)‬ ‫‪.‬‬ ‫‪n 2 n‬‬ ‫‪n 2‬‬ ‫‪θ‬‬ ‫‪n +1 T‬‬ ‫= ) ‪ g (T‬ﺑﺮآوردﮔﺮ ‪ UMVU‬ﭘﺎراﻣﺘﺮ = ) ‪ γ (θ‬اﺳﺖ‪.‬‬ ‫ﭘﺲ ‪.‬‬ ‫‪2‬‬ ‫‪n 2‬‬

‫‪ X 1 = t ،‬و ﺑﺎ اﺣﺘﻤـﺎل‬

‫) ‪g (t ) = E ( X 1 X ( n‬‬

‫■‬

‫ب( ﭼﻮن ﺑﺮآوردﮔﺮ ‪ UMVU‬ﻳﻜﺘﺎ اﺳﺖ‪ ،‬ﭘـﺲ ﺑﺮآوردﮔـﺮ ‪ UMVU‬ﺗـﺎﺑﻊ ﺑﺮآوردﭘـﺬﻳﺮ ) ‪ γ (θ‬ﺑـﺎ ﺣـﻞ‬ ‫‪E θ [ g (T )] = γ (θ ) ∀θ ∈ Θ‬‬

‫ﻣﻌﺎدﻟﻪ زﻳﺮ ﺑﺪﺳﺖ ﻣﻲآﻳﺪ‪.‬‬

‫) ‪X (n‬‬

‫) ‪X (n‬‬

‫‪n‬‬ ‫ﻣﺜﺎل ‪ :7-1‬در ﻣﺜﺎل ﻗﺒﻞ دارﻳﻢ ﻛﻪ‬ ‫‪θ‬‬ ‫‪θ‬‬ ‫‪n +1‬‬ ‫‪θ‬‬ ‫‪n + 1 X (n ) θ‬‬ ‫) ‪n + 1 X (n‬‬ ‫‪is UMVUE of‬‬ ‫■‬ ‫(‪⇒E‬‬ ‫‪.‬‬ ‫⇒ =)‬ ‫‪.‬‬ ‫‪n‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪n‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫=)‬

‫( ‪~ Be (n ,1) ⇒ E‬‬

‫ﻣﺜﺎل ‪ :8-1‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,..., X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪ B (1,θ‬ﺑﺎﺷـﻨﺪ‪ .‬ﺑﺮآوردﮔـﺮ ‪UMVU‬‬ ‫ﭘﺎراﻣﺘﺮ ) ‪ γ (θ ) = θ (1 − θ‬را ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬ ‫‪n‬‬

‫ﺣﻞ‪ :‬ﻣﻲداﻧﻴﻢ ﻛﻪ ) ‪ T = ∑ X i ~ B (n ,θ‬آﻣﺎره ﺑﺴﻨﺪه و ﻛﺎﻣﻞ ﺑﺮاي ‪ θ‬اﺳﺖ‪.‬‬ ‫‪i =1‬‬

‫⎞ ‪⎛n‬‬ ‫) ‪E [ g (T )] = θ (1 − θ ) ⇒ ∑ g (t ) ⎜ ⎟θ t (1 − θ ) n −t = θ (1 − θ‬‬ ‫⎠ ‪⎝t‬‬ ‫‪t =0‬‬ ‫‪n‬‬ ‫‪⎛n ⎞ θ t‬‬ ‫( ⎟ ⎜ ) ‪⇒ ∑ g (t‬‬ ‫‪) = θ (1 − θ )1−n‬‬ ‫‪⎝ t ⎠ 1− θ‬‬ ‫‪t =0‬‬ ‫‪n‬‬

‫‪1‬‬ ‫‪β‬‬ ‫‪θ‬‬ ‫=‪θ‬و‬ ‫= ‪ β‬در اﻳﻦ ﺻﻮرت‬ ‫ﻗﺮار ﻣﻲ دﻫﻴﻢ ‪> 0‬‬ ‫‪1+ β‬‬ ‫‪1+ β‬‬ ‫‪1− θ‬‬

‫= ‪ 1 − θ‬ﺑﻨﺎﺑﺮاﻳﻦ‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫‪51‬‬

‫‪n −2 n − 2‬‬ ‫‪⎛n ⎞ t‬‬ ‫⎛‬ ‫⎞‬ ‫‪1 1−n‬‬ ‫‪β‬‬ ‫‪n −2‬‬ ‫‪g‬‬ ‫‪t‬‬ ‫‪1‬‬ ‫(‬ ‫)‬ ‫‪β‬‬ ‫(‬ ‫)‬ ‫‪β‬‬ ‫(‬ ‫‪β‬‬ ‫)‬ ‫=‬ ‫=‬ ‫‪+‬‬ ‫=‬ ‫‪∑ ⎜ t ⎟ 1+ β 1+ β‬‬ ‫‪∑ ⎜ u ⎟ β u +1‬‬ ‫⎠ ⎝‬ ‫⎠‬ ‫‪t =0‬‬ ‫⎝ ‪u =0‬‬ ‫‪n‬‬

‫‪∀β > 0‬‬

‫⎞‪− 2‬‬

‫‪t =u +1 n −1 ⎛ n‬‬

‫‪∑ ⎜ t −1 ⎟ β t‬‬ ‫⎝ ‪t =1‬‬

‫⎠‬

‫⎧‬ ‫‪⎪0‬‬ ‫⎞‪⎪⎛ n − 2‬‬ ‫⎪‬ ‫⎟ ‪⇒ g (t ) = ⎨ ⎜ t − 1‬‬ ‫⎠‬ ‫⎝⎪‬ ‫‪n‬‬ ‫⎞ ⎛ ⎪‬ ‫⎠⎟ ‪⎪ ⎜⎝ t‬‬ ‫⎩‬

‫‪t = 0, n‬‬

‫‪t = 0,..., n‬‬

‫) ‪t (n − t‬‬ ‫)‪n (n − 1‬‬

‫) ‪T (n −T‬‬ ‫ﭘﺲ‬ ‫)‪n (n −1‬‬

‫= ) ‪⇒ g (t‬‬

‫‪t = 0, n‬‬ ‫‪t ≠ 0, n‬‬

‫=‬

‫⎧‬ ‫‪⎪0‬‬ ‫) ‪= ⎨ t (n − t‬‬ ‫⎪ ‪t ≠ 0, n‬‬ ‫)‪⎩ n (n − 1‬‬

‫= ) ‪ g (T‬ﺑﺮآوردﮔﺮ ‪ UMVU‬ﭘﺎراﻣﺘﺮ ) ‪ θ (1 − θ‬اﺳﺖ‪■ .‬‬

‫ﺑﺨﺶﻫﺎي ‪ 2-3 ،2-2‬و ‪ 2-4‬ﺑﻪ ﻋﻨﻮان ﺳﻤﻴﻨﺎر ﺑﺮاي داﻧﺸﺠﻮﻳﺎن‬

‫ﺑﺨﺶ ‪ :5‬ﻧﺎﻣﺴﺎوي اﻃﻼع ‪) 1‬ﻧﺎﻣﺴﺎوي ﻛﺮاﻣﺮ ‪ -‬راﺋﻮ(‬ ‫ﻓﺮض ﻛﻨﻴﺪ ‪ δ‬ﻳﻚ ﺑﺮآوردﮔﺮ ) ‪ g (θ‬ﺑﺎﺷﺪ ﻛﻪ ) ‪ E (δ ) = g (θ‬و ) ‪ ψ (x ,θ‬ﺗﺎﺑﻌﻲ از ‪ x‬و ‪ θ‬ﺑـﺎ ﮔـﺸﺘﺎور‬ ‫دوم ﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ‪ ،‬در اﻳﻦ ﺻﻮرت ﻃﺒﻖ ﻧﺎﻣﺴﺎوي ﻛﻮارﻳﺎﻧﺲ دارﻳﻢ ﻛﻪ‬ ‫‪2‬‬ ‫]) ‪Cov (δ ,ψ‬‬ ‫[‬ ‫≥ ) ‪Var (δ‬‬

‫)‪( 1‬‬

‫) ‪Var (ψ‬‬

‫ﺑﺮاي ﻳﺎﻓﺘﻦ ﻳﻚ ﻛﺮان ﭘﺎﻳﻴﻦ ﺑﺮاي ) ‪ V (δ‬ﻣﻲﺧﻮاﻫﻴﻢ ﺳﻤﺖ راﺳﺖ ﻧﺎﻣﺴﺎوي ﻓـﻮق ﺑـﻪ ‪ δ‬ﺑـﺴﺘﮕﻲ ﻧﺪاﺷـﺘﻪ‬ ‫ﺑﺎﺷﺪ و ﺣﺪاﻗﻞ ﺑﻪ ) ‪ E (δ ) = g (θ‬ﺑﺴﺘﮕﻲ داﺷﺘﻪ ﺑﺎﺷﺪ‪.‬‬ ‫‪2‬‬ ‫ﻗﻀﻴﻪ ‪) 1-5‬ﺑﻠﻴـﺖ ‪ :(1974‬ﺷـﺮط ﻻزم و ﻛـﺎﻓﻲ ﺑـﺮاي آن ﻛـﻪ ) ‪ Cov (δ ,ψ‬ﺑـﺴﺘﮕﻲ ﺑـﻪ ‪ δ‬ﺗﻨﻬـﺎ از‬

‫ﻃﺮﻳﻖ ) ‪ g (θ‬داﺷﺘﻪ ﺑﺎﺷﺪ آن اﺳﺖ ﻛﻪ‬ ‫ﻛﻪ در آن‬

‫}‬

‫‪∀U ∈ Δ0‬‬

‫‪∀θ ∈ Θ‬‬

‫‪Cov (U ,ψ ) = 0‬‬

‫{‬

‫∞ < ) ‪Δ0 = U : E θ (U ) = 0, E θ (U 2‬‬

‫‪Information Inequality‬‬ ‫‪Blyth‬‬

‫‪١‬‬ ‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫‪52‬‬

‫اﺛﺒﺎت‪) :‬ﻛﻔﺎﻳﺖ( ﻓﺮض ﻛﻨﻴﺪ ‪ δ1‬و ‪ δ 2‬ﻫﺮ دو ﺑﺮاي ) ‪ g (θ‬ﻧﺎ ارﻳﺐ ﺑﺎﺷﻨﺪ در اﻳﻦ ﺻـﻮرت ‪. δ1 − δ 2 ∈ Δ0‬‬ ‫ﭘــﺲ‪ Co v(δ1 − δ 2 ,ψ ) = 0‬و در ﻧﺘﻴﺠــﻪ ) ‪ .Cov (δ1,ψ ) = Cov (δ 2 ,ψ‬ﻳﻌﻨــﻲ از ) ‪E (δ1) = E (δ 2‬‬

‫ﻧﺘﻴﺠﻪ ﮔﺮﻓﺘﻴﻢ ﻛﻪ ) ‪ Cov (δ1,ψ ) = Cov (δ 2 ,ψ‬ﭘﺲ ) ‪ Cov (δ ,ψ‬ﺗﻨﻬﺎ از ﻃﺮﻳﻖ ) ‪ E (δ‬ﺑـﻪ ‪ δ‬واﺑـﺴﺘﻪ‬ ‫اﺳﺖ‪.‬‬ ‫)ﻟـــﺰوم(‪ :‬ﻓـــﺮض ﻛﻨﻴـ ـﺪ ) ‪ Cov (δ ,ψ‬ﺗﻨﻬـــﺎ از ﻃﺮﻳـ ـﻖ ) ‪ g (θ ) = E (δ‬ﺑـــﻪ ‪ δ‬واﺑـــﺴﺘﻪ ﺑﺎﺷـــﺪ‪.‬‬ ‫ﭼﻮن ) ‪ E (δ + U ) = g (θ‬ﭘﺲ‬ ‫‪∀U ∈ Δ0‬‬

‫‪∀θ ∈ Θ‬‬

‫) ‪Cov (δ ,ψ ) = Cov (δ + U ,ψ‬‬

‫) ‪⇒ Cov (δ ,ψ ) = Cov (δ ,ψ ) + Cov (U ,ψ‬‬ ‫‪∀U ∈ Δ0‬‬

‫‪∀θ ∈ Θ‬‬

‫‪⇒ Cov (U ,ψ ) = 0‬‬

‫اﻃﻼع ﻓﻴﺸﺮ‪:‬‬ ‫ﻧﻤﻮدارﻫﺎي زﻳﺮ را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﺪ‪.‬‬

‫ﺳﺆال‪ :‬ﻣﺸﺎﻫﺪه ‪ X‬در ﻛﺪام ﺣﺎﻟﺖ اﻃﻼع ﺑﻴﺸﺘﺮي در ﻣﻮرد ﭘﺎراﻣﺘﺮ ‪ θ‬ﺑﻪ ﻣﺎ ﻣﻲدﻫﺪ؟‬ ‫ﺟﻮاب‪ :‬ﺑﺪن ﺷﻚ در ﺣﺎﻟﺖ )ب( ﻣﺸﺎﻫﺪه ‪ X‬ﺑﻪ ﻣﺎ اﻃﻼع ﺑﻴﺸﺘﺮي ﻣﻲدﻫﺪ‪.‬‬ ‫ﭘﺲ ﻫﺮ ﭼﻪ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ‪ X‬از ﻳﻚ ﻣﻘﺪار ‪ θ‬ﺑﻪ ﻣﻘﺪار دﻳﮕﺮ ‪ θ‬ﺑﻴﺸﺘﺮ ﺗﻐﻴﻴﺮ ﻛﻨﺪ‪ ،‬ﻣﺸﺎﻫﺪه ‪ X‬ﺑﻪ ﻣﺎ در ﻣـﻮرد‬ ‫ﻣﻘﺪار ﭘﺎراﻣﺘﺮ ‪ θ‬ﺑﻴﺸﺘﺮ اﻃﻼع ﻣﻲدﻫﺪ‪ .‬ﺣﺎل ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ‬

‫ﻣﻘﺪار ﺗﻐﻴﻴﺮ ﻧﺴﺒﻲ در ﭼﮕﺎﻟﻲ در ﻧﻘﻄﻪ‬

‫) ‪⎡ P ( x ; θ + Δ ) − p ( x ;θ‬‬ ‫⎤ ‪1‬‬ ‫⎢=‬ ‫‪.‬‬ ‫⎥⎦ ) ‪p (x ;θ‬‬ ‫‪Δ‬‬ ‫⎣ ﺑﻪ ازاي ﺗﻐﻴﻴﺮ ﭘﺎراﻣﺘﺮ ﺑﻪ اﻧﺪازه ‪Δ‬‬

‫‪X‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫) ‪⎡ P ( x ;θ + Δ ) − p ( x ;θ‬‬ ‫⎤ ‪1‬‬ ‫‪.‬‬ ‫⎣ ‪Δ→0‬‬ ‫⎥⎦ ) ‪p (x ;θ‬‬ ‫‪Δ‬‬

‫‪53‬‬

‫⎢ ‪ = lim‬ﻣﻴﺰان ﺗﻐﻴﺮ ﻧﺴﺒﻲ در ﭼﮕﺎﻟﻲ در ﻧﻘﻄﻪ ‪X‬‬ ‫‪1‬‬

‫∂‬ ‫) ‪p ( x ;θ‬‬ ‫∂‬ ‫‪θ‬‬ ‫∂‬ ‫) ‪ln p (x ;θ‬‬ ‫=‬ ‫=‬ ‫‪∂θ‬‬ ‫) ‪p ( x ;θ‬‬

‫ﻣﻴﺎﻧﮕﻴﻦ ﺗﻮان دوم اﻳﻦ ﺗﻐﻴﻴﺮ ﻧﺴﺒﻲ را ﻣﻴﺰان اﻃﻼﻋﻲ ﻛﻪ ‪ X‬در ﻣﻮرد ﭘﺎراﻣﺘﺮ ‪ θ‬دارد ﻣﻲﻧﺎﻣﻨﺪ و ﺑﻪ آن اﻃﻼع‬ ‫ﻓﻴﺸﺮ ﮔﻮﻳﻨﺪ ﻳﻌﻨﻲ‬ ‫‪2‬‬

‫‪2‬‬ ‫⎞ ‪⎛ p′‬‬ ‫∂ ⎡‬ ‫⎤‬ ‫‪I X (θ ) = E θ ⎢ ln p (X ;θ ) ⎥ = ∫ ⎜ θ ⎟ pθ d μ‬‬ ‫‪⎣ ∂θ‬‬ ‫⎦‬ ‫⎠ ‪⎝ pθ‬‬

‫ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ ﻫﺮ ﭼﻪ اﻳﻦ اﻣﻴﺪ رﻳﺎﺿﻲ در ﻳﻚ ﻧﻘﻄﻪ ‪ θ0‬ﺑﻴﺸﺘﺮ ﺷﻮد آﻧﮕﺎه ﻣﻲﺗﻮان ‪ θ0‬را از ﻧﻘﺎط ﻫﻤـﺴﺎﻳﻪ‬ ‫‪ θ‬ﺑﻬﺘﺮ ﺗﺸﺨﻴﺺ داد و ﺑﻨﺎﺑﺮاﻳﻦ ‪ θ‬را در ﻧﻘﻄﻪ ‪ θ = θ0‬دﻗﻴﻖﺗﺮ ﺑﺮآورد ﻛﺮد‪.‬‬ ‫ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ ﺷﺮاﻳﻂ زﻳﺮ ﺑﺮﻗﺮار ﺑﺎﺷﻨﺪ‪:‬‬

‫اﻟﻒ( ‪ Θ‬ﻳﻚ زﻳﺮ ﻓﺎﺻﻠﻪ ﺑﺎز از اﻋﺪاد ﺣﻘﻴﻘﻲ ﺑﺎﺷﺪ ) ‪( Θ ⊆ R‬‬ ‫ب( ﺗﻮزﻳﻊﻫﺎي ‪ Pθ‬داراي ﺗﻜﻴﻪﮔﺎه ﻳﻜﺴﺎن ﺑﺎﺷﻨﺪ و ﺑﻨـﺎﺑﺮاﻳﻦ }‪ S X* = {x | p ( x ;θ ) > 0‬ﺑـﻪ ‪ θ‬ﺑـﺴﺘﮕﻲ‬ ‫ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ‪.‬‬ ‫∂‬ ‫ج( ) ‪p ( x ; θ‬‬ ‫‪∂θ‬‬

‫ﺑﺮاي ﺗﻤﺎم ‪ θ ∈ Θ‬ﻣﻮﺟﻮد و ﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ‪.‬‬

‫∂‬ ‫∂‬ ‫∫ = ‪p (x ;θ )d μ‬‬ ‫د( ‪p (x ;θ )d μ‬‬ ‫∫‬ ‫‪∂θ‬‬ ‫‪∂θ‬‬ ‫‪2‬‬

‫∂ ⎡‬ ‫⎤‬ ‫ﻫـ( ‪E ⎢ ln p (x ;θ ) ⎥ > 0 ∀θ ∈ Θ‬‬ ‫‪⎣ ∂θ‬‬ ‫⎦‬

‫و( ﺑﺮاي ﻫﺮ ﺑﺮآوردﮔﺮ ‪ δ‬داﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ‪:‬‬

‫∂‬ ‫∂‬ ‫∂‬ ‫‪δ pθ d μ = ∫ δ‬‬ ‫= ] ‪E θ [δ‬‬ ‫‪pθ d μ‬‬ ‫∫‬ ‫‪∂θ‬‬ ‫‪∂θ‬‬ ‫‪∂θ‬‬

‫اﻳﻦ ﺷﺮاﻳﻂ را ﺷﺮاﻳﻂ ﻧﻈﻢ ‪ 2‬ﮔﻮﻳﻨﺪ‪.‬‬ ‫∂‬ ‫ﺣﺎل اﮔﺮ ﻗﺮار دﻫﻴﻢ ) ‪ln p ( x ;θ‬‬ ‫‪∂θ‬‬

‫= ) ‪ ψ (x ;θ‬آﻧﮕﺎه ﺑﺮاي ﺑﺮآوردﮔﺮ ‪ U‬ﻛﻪ ‪ E θ (U ) = 0‬دارﻳﻢ ﻛﻪ‬

‫‪Relative Rate‬‬ ‫‪Regularity Condition‬‬

‫‪١‬‬ ‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫‪54‬‬

‫) و(‬ ‫∂‬ ‫∂‬ ‫∂‬ ‫∂‬ ‫‪E θ (U ) = ∫U‬‬ ‫‪pθ d μ = ∫ [U‬‬ ‫] ‪ln pθ ] pθ d μ = E [U . ln pθ‬‬ ‫‪∂θ‬‬ ‫‪∂θ‬‬ ‫‪∂θ‬‬ ‫‪∂θ‬‬ ‫∂‬ ‫) ‪= Cov (U , ln pθ‬‬ ‫‪∂θ‬‬

‫=‪0‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﺷﺮاﻳﻂ ﻗﻀﻴﻪ ‪ 1-5‬ﺑﺮﻗﺮار اﺳﺖ‪ .‬ﻫﻤﭽﻨﻴﻦ ﭼﻮن‬ ‫∂ ) د(‬ ‫∂‬ ‫∂‬ ‫∂ ⎡‬ ‫⎤‬ ‫∂ ⎛‬ ‫⎞‬ ‫⎜ ∫ = ⎥ ‪E ⎢ ln pθ‬‬ ‫= ‪ln pθ ⎟pθ d μ = ∫ pθ d μ‬‬ ‫= ‪pθ d μ‬‬ ‫‪(1) = 0‬‬ ‫∫‬ ‫‪∂θ‬‬ ‫‪∂θ‬‬ ‫‪∂θ‬‬ ‫‪⎣ ∂θ‬‬ ‫⎦‬ ‫‪⎝ ∂θ‬‬ ‫⎠‬

‫∂ ) و(‬ ‫∂‬ ‫∂‬ ‫= ‪pθ d μ‬‬ ‫‪δ‬‬ ‫‪p‬‬ ‫‪d‬‬ ‫‪μ‬‬ ‫) ‪E θ [δ ] = g ′(θ‬‬ ‫=‬ ‫‪θ‬‬ ‫‪∂θ‬‬ ‫∫ ‪∂θ‬‬ ‫‪∂θ‬‬

‫ﭘﺲ‬

‫‪Cov (δ ,ψ ) = E (δψ ) = ∫ δ‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﻧﺎﻣﺴﺎوي )‪ (1‬ﺑﻪ ﺻﻮرت زﻳﺮ ﺗﺒﺪﻳﻞ ﻣﻲﺷﻮد‪.‬‬ ‫‪[ g ′(θ )]2‬‬ ‫) ‪I X (θ‬‬

‫=‬

‫‪[ g ′(θ )]2‬‬ ‫‪2‬‬

‫∂ ⎡‬ ‫⎤‬ ‫⎥ ) ‪E ⎢ ln p (x ;θ‬‬ ‫‪⎣ ∂θ‬‬ ‫⎦‬

‫≥ ) ‪V ar (δ‬‬

‫اﻳﻦ ﻧﺎﻣﺴﺎوي را ﻧﺎﻣﺴﺎوي اﻃﻼع ﻳﺎ ﻧﺎﻣﺴﺎوي ﻛﺮاﻣﺮ – راﺋﻮ ﮔﻮﻳﻨﺪ‪ .‬ﺑـﻪ ﻛـﺮان ﭘـﺎﻳﻴﻦ ﺑﺪﺳـﺖ آﻣـﺪه ﺑـﺮاي‬ ‫وارﻳﺎﻧﺲ‪ ،‬ﻛﺮان ﭘﺎﻳﻴﻦ ﻛﺮاﻣﺮ– راﺋﻮ )‪ (CRLB‬ﮔﻮﻳﻨﺪ‪ .‬ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ اﮔﺮ ﻣﺸﺘﻖ دوم ) ‪ ln p (x ;θ‬ﻣﻮﺟﻮد‬ ‫‪∂2‬‬ ‫‪∂2‬‬ ‫‪p‬‬ ‫‪d‬‬ ‫‪μ‬‬ ‫=‬ ‫‪θ‬‬ ‫ﺑﺎﺷﺪ و ‪∫ ∂θ 2 pθ d μ‬‬ ‫∫ ‪∂θ 2‬‬

‫آﻧﮕﺎه‬ ‫‪2‬‬

‫‪∂2‬‬ ‫∂ ⎡‬ ‫⎤‬ ‫]) ‪I X (θ ) = E ⎢ ln p (x ;θ ) ⎥ = − E [ 2 ln p ( x ;θ‬‬ ‫‪∂θ‬‬ ‫‪⎣ ∂θ‬‬ ‫⎦‬

‫ﺣـﺎل اﮔـﺮ ‪ X 1, X 2 ,… , X n‬ﻳــﻚ ﻧﻤﻮﻧـﻪ ﺗــﺼﺎدﻓﻲ از ﺗـﻮزﻳﻌﻲ ﺑـﺎ ﭼﮕــﺎﻟﻲ ‪ pθ : θ ∈ Θ‬ﺑﺎﺷـﻨﺪ آﻧﮕــﺎه‬ ‫‪2‬‬

‫∂ ⎡‬ ‫⎤‬ ‫⎥ ) ‪ I (θ ) = E θ ⎢ ln p (X ,θ‬را ﻣﻴﺰان اﻃﻼع ﻓﻴﺸﺮ ﻛﻪ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ‬ ‫‪⎣ ∂θ‬‬ ‫⎦‬

‫‪ X 1, X 2 ,… , X n‬در ﻣـﻮرد‬

‫‪ θ‬دارد‪ ،‬ﮔﻮﻳﻨﺪ‪.‬‬ ‫‪2‬‬

‫‪n‬‬ ‫∂‬ ‫∂‬ ‫∂ ⎡‬ ‫⎤‬ ‫]) ‪I (θ ) = E θ ⎢ ln p (X ;θ ) ⎥ =V θ [ ln p (X ;θ )] =V θ [ ln ∏ ln p (X i ;θ‬‬ ‫‪∂θ‬‬ ‫‪∂θ i =1‬‬ ‫‪⎣ ∂θ‬‬ ‫⎦‬ ‫)‪(3‬‬ ‫∂‬ ‫∂‬ ‫∂‬ ‫) ‪ln p (X i ;θ )] = nV θ [ ln p (X 1;θ )] = nE θ [ ln p (X 1;θ )]2 = nI X 1 (θ‬‬ ‫‪∂θ‬‬ ‫‪∂θ‬‬ ‫‪∂θ‬‬

‫ﻛﻪ در آن )‪ (2‬از اﺳﺘﻘﻼل و )‪ (3‬از ﻫﻤﺘﻮزﻳﻊ ﺑﻮدن ‪ X i‬ﻫﺎ ﻧﺘﻴﺠﻪ ﻣﻲﮔﺮدد‪.‬‬

‫‪( 2) n‬‬

‫[ ‪= ∑V θ‬‬ ‫‪i =1‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫‪55‬‬

‫ﻣﺜﺎل ‪ :1-5‬ﻓـﺮض ﻛﻨﻴـﺪ ‪ X 1, X 2 ,… , X n‬ﻳـﻚ ﻧﻤﻮﻧـﻪ ﺗـﺼﺎدﻓﻲ از ﺗﻮزﻳـﻊ ‪ N (θ ,1),θ ∈ R‬ﺑﺎﺷـﻨﺪ‪،‬‬ ‫‪ CRLB‬را ﺑﺮاي وارﻳﺎﻧﺲ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ‪ g (θ ) = θ 2‬ﺑﺪﺳـﺖ آورده و آن را ﺑـﺎ وارﻳـﺎﻧﺲ ﺑﺮآوردﮔـﺮ‬ ‫‪ UMVU‬ﭘﺎراﻣﺘﺮ ‪ θ 2‬ﻣﻘﺎﻳﺴﻪ ﻛﻨﻴﺪ‪.‬‬ ‫‪g (θ ) = θ 2 ⇒ g ′(θ ) = 2θ‬‬ ‫‪1‬‬ ‫‪1 n‬‬ ‫‪∂2‬‬ ‫‪ln f θ (x ) = − ln(2π ) − ∑ (x i − θ )2 ⇒ 2 ln f θ (x ) = −1‬‬ ‫‪2‬‬ ‫‪2 i =1‬‬ ‫‪∂θ‬‬

‫‪(2θ )2 4θ 2‬‬ ‫= ‪⇒ I (θ ) = nI X 1 (θ ) = n ⇒ CRLB‬‬ ‫=‬ ‫‪n‬‬ ‫‪n‬‬ ‫‪n‬‬ ‫‪S2 −n‬‬ ‫در اﻳــﻦ ﺧــﺎﻧﻮاده ) ‪ S = ∑ X i ~ N (nθ , n‬آﻣــﺎره ﺑــﺴﻨﺪه و ﻛﺎﻣــﻞ ﺑــﺮاي ‪ θ‬اﺳــﺖ و‬ ‫= ‪T‬‬ ‫‪n2‬‬ ‫‪i =1‬‬

‫‪4θ 2 2 4θ 2‬‬ ‫= ) ‪V (T‬‬ ‫>‪+ 2‬‬ ‫‪= CRLB‬‬ ‫‪n‬‬ ‫‪n‬‬ ‫‪n‬‬ ‫?‬

‫ﺑﺮآوردﮔﺮ ‪ UMVU‬ﺑﺮاي ‪ θ 2‬اﺳﺖ و‬

‫■‬

‫ﻣﺜﺎل ‪ :2-5‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,… , X n‬ﻳﻚ ﻧﻤﻮﻧـﻪ ﺗـﺼﺎدﻓﻲ از ﺗﻮزﻳـﻊ ﻧﻤـﺎﻳﻲ ﺑـﺎ ﭘـﺎراﻣﺘﺮ ‪ θ‬ﺑﺎﺷـﻨﺪ ‪.‬‬ ‫‪ CRLB‬را ﺑﺮاي وارﻳﺎﻧﺲ ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳﺐ ‪ θ‬و‬

‫‪1‬‬

‫‪θ‬‬

‫ﺑﺪﺳﺖ آورده و آن را ﺑﺎ وارﻳﺎﻧﺲ ﺑﺮآوردﮔﺮﻫﺎي‬

‫‪ UMVU‬ﻣﻘﺎﻳﺴﻪ ﻛﻨﻴﺪ‪.‬‬ ‫‪∂2‬‬ ‫‪1 2x‬‬ ‫‪ln f θ (x ) = 2 − 3‬‬ ‫‪2‬‬ ‫‪θ θ‬‬ ‫‪∂θ‬‬

‫⇒‬

‫‪x‬‬

‫‪θ‬‬

‫‪ln f θ (x ) = − ln θ −‬‬

‫‪⎡ ∂2‬‬ ‫⎤‬ ‫‪n‬‬ ‫‪2 ⎞ 1‬‬ ‫‪⎛ 1‬‬ ‫‪I X 1 (θ ) = − E θ ⎢ 2 ln f θ (X 1) ⎥ = − ⎜ 2 − 2 ⎟ = 2 ⇒ I (θ ) = 2‬‬ ‫‪θ ⎠ θ‬‬ ‫‪θ‬‬ ‫‪⎝θ‬‬ ‫‪⎣ ∂θ‬‬ ‫⎦‬

‫‪θ2‬‬ ‫‪n‬‬

‫=‬

‫‪1‬‬ ‫‪n θ2‬‬

‫‪= CRL B‬‬ ‫‪1‬‬ ‫‪nθ 2‬‬

‫‪1‬‬ ‫‪1‬‬ ‫‪> 2 = CRLB‬‬ ‫‪2‬‬ ‫‪(n − 2)θ‬‬ ‫‪nθ‬‬

‫‪n‬‬

‫= ) ‪T = X is UMV UE of θ ⇒V (T‬‬

‫) ‪( −1 θ‬‬ ‫= ‪⇒ CRLB‬‬

‫‪2‬‬

‫=‬

‫‪θ2‬‬

‫= ‪ ) g 1(θ ) = θ ⇒ g 1′(θ ) = 1 ⇒ CRLB‬اﻟﻒ‬

‫‪2‬‬

‫‪2‬‬

‫‪n θ‬‬

‫= ) ‪⇒V (T‬‬

‫‪1‬‬

‫‪θ‬‬

‫‪−1‬‬ ‫‪2‬‬

‫‪θ‬‬

‫= ) ‪⇒ g 2′ (θ‬‬

‫‪1‬‬

‫‪θ‬‬

‫= ) ‪) g 2 (θ‬ب‬

‫‪n −1‬‬ ‫‪is UMVUE of‬‬ ‫‪∑X i‬‬

‫= ‪T‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫‪56‬‬

‫ﻳﻚ ﺳﻮال ﻛﻪ در ﻣﻮرد ﻧﺎﻣﺴﺎوي ﻛﺮاﻣﺮ – راﺋﻮ ﻣﻄﺮح اﺳﺖ اﻳﻦ اﺳﺖ ﻛﻪ ﭼﻪ ﻣﻮﻗﻊ ﻧﺎﻣﺴﺎوي ﺑـﻪ ﻣـﺴﺎوي‬ ‫ﺗﺒﺪﻳﻞ ﻣﻲﺷﻮد و ﻳﺎ ﺑﻪ ﻋﺒﺎرﺗﻲ ﺑﺮاي ﭼـﻪ ﺑﺮآوردﮔﺮﻫـﺎي ﻧـﺎارﻳﺒﻲ وارﻳـﺎﻧﺲ ﺑﺮآوردﮔـﺮ ﺑـﺎ ‪ CRLB‬ﺑﺮاﺑـﺮ‬ ‫ﻣﻲﺷﻮد‪.‬‬ ‫ﻗﻀﻴﻪ ‪ :2-5‬ﻓﺮض ﻛﻨﻴﺪ ﺷﺮاﻳﻂ ﻧﻈﻢ ﺑﺮﻗﺮار ﺑﺎﺷﺪ و ‪ T‬ﺑﺮآوردﮔﺮي ﺑﺎﺷﺪ ﻛـﻪ ‪. V θ (T ) < ∞, ∀θ ∈ Θ‬‬ ‫در اﻳﻦ ﺻﻮرت ‪ V θ (T ) = CRLB‬اﮔﺮ و ﻓﻘﻂ اﮔﺮ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ) ‪ pθ (x‬ﻣﺘﻌﻠﻖ ﺑﻪ ﺧـﺎﻧﻮاده ﻧﻤـﺎﻳﻲ ﻳـﻚ‬ ‫ﭘﺎراﻣﺘﺮي زﻳﺮ ﺑﺎﺷﺪ‪.‬‬ ‫) ‪pθ (x ) = e c (θ )T ( x )−B (θ ) h (x‬‬ ‫) ‪B ′(θ‬‬ ‫در اﻳــﻦ ﺣﺎﻟــﺖ‬ ‫) ‪c ′(θ‬‬

‫= ]) ‪ g (θ ) = E θ [T (X‬و ) ‪ I (θ ) = c ′(θ ) g ′(θ‬ﻣــﻲﺑﺎﺷــﺪ‪) .‬ﻳﻌﻨــﻲ ﺗﻨﻬــﺎ در‬

‫ﺧﺎﻧﻮادهﻫﺎي ﻧﻤﺎﻳﻲ ﺑﻔﺮم ﻓﻮق و ﺗﻨﻬﺎ ﺑﺮاي ﺗﻮاﺑﻊ ﭘﺎراﻣﺘﺮي ﺑﻔﺮم ﻓﻮق وارﻳﺎﻧﺲ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ) ‪ g (θ‬ﺑـﺎ‬ ‫‪ CRLB‬ﺑﺮاﺑﺮ ﻣﻲﺷﻮد‪(.‬‬ ‫اﺛﺒﺎت‪:‬‬ ‫⎞‬ ‫‪)⎟ =1‬‬ ‫⎠‬

‫∂‬ ‫‪ln f θ (X ),T (X‬‬ ‫‪⎝ ∂θ‬‬

‫⎜⎛ ‪ ⇔ ρ 2‬ﺗﺴﺎوي در ﻧﺎﻣﺴﺎوي ﻛﺮاﻣﺮ – راﺋﻮ ﺑﺮﻗﺮار اﺳﺖ‬

‫∂‬ ‫) ‪ln f θ (X ) = a (θ )T (X ) + b (θ‬‬ ‫‪∂θ‬‬

‫⇔‬

‫‪⇔ ln f θ (X ) = T (X ) ∫ a (θ )d θ + ∫ b (θ )d θ‬‬ ‫) ‪= T (X )c (θ ) − B (θ ) + R (X‬‬ ‫) ‪⇔ f θ (X ) = e c (θ )T ( X )−B (θ )+ R ( X‬‬ ‫) ‪⇔ f θ (x ) = e c (θ )T ( X )−B (θ ) h (X‬‬ ‫) ‪B ′(θ‬‬ ‫در اﻳﻦ ﺧﺎﻧﻮاده‬ ‫) ‪c ′(θ‬‬

‫= ) ) ‪ g (θ ) = E θ (T (X‬و‬ ‫) ‪c ′′(θ )B ′(θ ) − B ′′(θ )c ′(θ‬‬ ‫) ‪c ′(θ‬‬

‫‪I (θ ) = −E [c ′′(θ )T (X ) − B ′′(θ )] = −‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫‪57‬‬

‫‪⎡ B ′(θ ) ⎤′‬‬ ‫⎢=‬ ‫) ‪⎥ c ′(θ ) = g ′(θ )c ′(θ‬‬ ‫‪′‬‬ ‫‪θ‬‬ ‫‪C‬‬ ‫(‬ ‫)‬ ‫⎣‬ ‫⎦‬

‫■‬

‫ﻣﺜﺎل ‪ :3-5‬ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ ﺗﻨﻬﺎ ﺗﻮزﻳﻊ ﮔﺴﺴﺘﻪاي ﻛﻪ داراي ﻣﻴﺎﻧﮕﻴﻦ و وارﻳﺎﻧﺲ ﻳﻜـﺴﺎن اﺳـﺖ و ) ‪V θ (X‬‬

‫در آن ﺑﺎ ‪ CRLB‬ﺑﺮاﺑﺮ ﻣﻲﺷﻮد ﺗﻮزﻳﻊ ﭘﻮاﺳﻮن اﺳﺖ‪.‬‬ ‫‪g (θ ) = E θ (X ) =V θ (X ) = θ‬‬ ‫‪(θ ′)2‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫=‬ ‫=‬ ‫=‬ ‫) ‪I X (θ ) I X (θ ) g ′(θ )c ′(θ ) c ′(θ‬‬ ‫)*(‬

‫) ‪⇒ c (θ ) = ln θ ⇒ pθ (x ) = e (ln θ ) x −B (θ ) h (x‬‬ ‫) ‪+ B ′(θ‬‬ ‫ﻛﻪ در آن )*( از ﻗﻀﻴﻪ ‪ 2-5‬ﺑﺪﺳﺖ ﻣﻲآﻳﺪ‪ .‬اﻣﺎ‬ ‫‪1θ‬‬

‫‪ B (θ ) = θ‬و در ﻧﺘﻴﺠﻪ ! ‪ h (x ) = x‬ﭘﺲ‬

‫‪θ x e −θ‬‬ ‫!‪x‬‬

‫‪1‬‬

‫‪θ‬‬

‫)*(‬

‫= ‪V θ ( X ) = CRLB ⇔ θ‬‬

‫= ) ‪⇒ c ′(θ‬‬

‫= ) ‪ θ = g (θ ) = E θ ( X‬ﭘﺲ ‪ B ′(θ ) = 1‬ﻳـﺎ‬

‫= ) ‪pθ (x‬‬

‫■‬

‫ﻗﻀﻴﻪ ‪ :3-5‬اﮔﺮ ) ‪ θ = h (ζ‬و ‪ h‬ﻣﺸﺘﻖ ﭘﺬﻳﺮ ﺑﺎﺷﺪ آن ﮔـﺎه ]) ‪ I * (ζ ) = I [ h (ζ )][ h ′(ζ‬اﻣـﺎ ‪CRLB‬‬ ‫‪2‬‬

‫ﺑﺮاي وارﻳﺎﻧﺲ ﺑﺮآوردﮔﺮﻫﺎي ‪ θ‬و ‪ ζ‬ﻳﻜـﻲ اﺳـﺖ‪) .‬ﻳﻌﻨـﻲ ‪ CRLB‬ﺑـﺎ ﺗﺒـﺪﻳﻼت روي ﭘﺎراﻣﺘﺮﻫـﺎ ﺗﻐﻴﻴـﺮ‬ ‫ﻧﻤﻲﻛﻨﺪ‪(.‬‬ ‫‪2‬‬

‫اﺛﺒﺎت‪:‬‬

‫‪2‬‬

‫⎤‬ ‫∂ ⎡‬ ‫⎤ ‪∂θ‬‬ ‫⎥ ‪) ⎥ = E ⎢ ln f θ (X ).‬‬ ‫⎦ ‪∂ζ‬‬ ‫⎦‬ ‫‪⎣ ∂ζ‬‬ ‫‪2‬‬ ‫‪⎤ ∂θ‬‬ ‫⎤⎦ ) ‪) ⎥ [ ]2 = I (θ ) ⎣⎡ h ′ (ζ‬‬ ‫‪⎦ ∂ζ‬‬ ‫‪2‬‬

‫∂ ⎡‬ ‫‪I (ζ ) = E ⎢ ln f ζ ( X‬‬ ‫‪⎣ ∂ζ‬‬ ‫∂ ⎡‬ ‫‪= E ⎢ ln f θ (X‬‬ ‫‪⎣ ∂θ‬‬

‫∂‬ ‫∂‬ ‫‪∂θ‬‬ ‫) ‪= g ′(θ )h ′(ζ‬‬ ‫= ] ‪E [T‬‬ ‫] ‪E [T‬‬ ‫‪∂ζ‬‬ ‫‪∂θ‬‬ ‫‪∂ζ‬‬

‫■‬

‫‪θ‬‬

‫‪2‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫] ) ‪g ′(ζ ) ] [ g ′(θ )h ′(ζ ) ] [ g ′(θ‬‬ ‫[‬ ‫=‬ ‫=‬ ‫=‬ ‫‪= CRLB‬‬

‫) ‪I (θ‬‬

‫‪I (θ )[h ′(ζ )]2‬‬

‫) ‪I (ζ‬‬

‫‪⇒ CRLB ζ‬‬

‫ﻣﺜـــﺎل ‪ :4-5‬ﻓـــﺮض ﻛﻨﻴـــﺪ ‪ X‬ﻣﺘﻌﻠـــﻖ ﺑـــﻪ ﻳـــﻚ ﺧـــﺎﻧﻮاده ﻧﻤـــﺎﻳﻲ ﺑـــﺎ ﺗـــﺎﺑﻊ ﭼﮕـــﺎﻟﻲ‬ ‫) ‪ pθ (x ) = e C (θ )T ( x )−B (θ ) h (x‬ﺑﺎﺷﺪ و ﻓﺮض ﻛﻨﻴﺪ ]) ‪ g (θ ) = E θ [T (X‬در اﻳـﻦ ﺻـﻮرت ﻧـﺸﺎن‬ ‫‪1‬‬ ‫دﻫﻴﺪ ﻛﻪ‬ ‫) ‪V ar (T‬‬

‫= ]) ‪. I [ g (θ‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫ﺣﻞ‪:‬‬

‫‪2‬‬ ‫⎤‬ ‫) ‪) ⎥V θ [c ′(θ )T (X ) − B ′(θ ) ] = [c ′(θ ) ] V θ (T‬‬ ‫⎦‬

‫‪58‬‬

‫∂ ⎡‬ ‫‪I (θ ) =V θ ⎢ ln pθ ( X‬‬ ‫‪⎣ ∂θ‬‬

‫‪2‬‬

‫⎤ ) ‪⎡ c ′(θ‬‬ ‫‪1‬‬ ‫= ) ‪V θ (T‬‬ ‫⎢=‬ ‫⎥‬ ‫) ‪V θ (T‬‬ ‫⎦ ) ‪⎣ g ′(θ‬‬

‫) ‪I (θ‬‬

‫‪[ g ′(θ )]2‬‬

‫= )) ‪I ( g (θ‬‬

‫⎛‬ ‫⎞ ) ‪B ′′(θ ) − c ′′(θ ) g (θ ) g ′(θ‬‬ ‫=‬ ‫= ) ‪⎜ Since V θ (T‬‬ ‫⎟‬ ‫‪2‬‬ ‫⎠ ) ‪c ′(θ‬‬ ‫‪′‬‬ ‫‪c‬‬ ‫[‬ ‫(‬ ‫])‬ ‫‪θ‬‬ ‫⎝‬

‫ﺑﺨﺶ ‪ :6‬ﻧﺎﻣﺴﺎوي اﻃﻼع )ﻛﺮاﻣﺮ‪ -‬راﺋﻮ( در ﺣﺎﻟﺖ ﭼﻨﺪ ﭘﺎراﻣﺘﺮي‬ ‫در اﻳﻦ ﻗﺴﻤﺖ ﻓﺮض ﻣـﻲﻛﻨـﻴﻢ ‪ θ = (θ1,… ,θ k )′‬ﺑﺎﺷـﺪ و ﺷـﺮاﻳﻂ ﻧﻈـﻢ را ﺑـﻪ ﺻـﻮرت زﻳـﺮ در ﻧﻈـﺮ‬ ‫ﻣﻲﮔﻴﺮﻳﻢ‪:‬‬ ‫اﻟﻒ‪ Θ -‬ﻳﻚ ﮔﻮي ﺑﺎز در ﻓﻀﺎي ‪ R k‬ﺑﺎﺷﺪ‪. Θ ⊆ R k ،‬‬ ‫ب‪ -‬ﺗﻮزﻳﻊﻫﺎي ‪ Pθ‬داراي ﺗﻜﻴﻪ ﮔﺎه ﻳﻜﺴﺎن ﺑﺎﺷـﻨﺪ و ﺑﻨـﺎﺑﺮاﻳﻦ }‪ S X* = {x | pθ (x ) > 0‬ﺑـﻪ ‪ θ‬ﺑـﺴﺘﮕﻲ‬ ‫ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ‪.‬‬ ‫∂‬ ‫ج‪f θ ( x ) -‬‬ ‫‪∂θi‬‬

‫ﺑﺮاي ﻫﺮ ‪ i = 1, 2,..., k‬و ﺑﺮاي ﺗﻤﺎم ‪ θ ∈ Θ‬ﻣﻮﺟﻮد ﺑﺎﺷﺪ‪.‬‬

‫∂‬ ‫∂‬ ‫∫ = ) ‪f θ (x )d μ (x‬‬ ‫د‪f θ (x )d μ ( x ) -‬‬ ‫∫‬ ‫‪∂θi‬‬ ‫‪∂θi‬‬ ‫∂‬ ‫ﻫـ‪ln f θ (x ), i = 1, 2,..., k -‬‬ ‫‪∂θi‬‬

‫‪∀ i = 1, 2,..., k‬‬

‫ﻣﺴﺘﻘﻞ ﺧﻄﻲ ﺑﺎﺷﻨﺪ‪.‬‬

‫و – ﺑﺮاي ﻫﺮ ﺑﺮآوردﮔﺮ ‪ T‬ﭘﺎراﻣﺘﺮ ) ‪ g (θ‬داﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ‬ ‫∂‬ ‫∂‬ ‫∂‬ ‫= ]) ‪E θ [T (X‬‬ ‫) ‪T (x )f θ (x )d μ (x ) = ∫T (x‬‬ ‫) ‪f θ (x )d μ ( x‬‬ ‫∫‬ ‫‪∂θi‬‬ ‫‪∂θi‬‬ ‫‪∂θi‬‬

‫‪∀ i = 1, 2,..., k‬‬

‫ﺗﻌﺮﻳﻒ‪ :1-6‬ﻣﺎﺗﺮﻳﺲ )) ‪ I (θ ) = (I ij (θ‬ﻛﻪ در آن‬ ‫‪k ×k‬‬

‫⎞‬ ‫∂‬ ‫∂‬ ‫[‪)⎟ = E‬‬ ‫) ‪ln f θ (X‬‬ ‫]) ‪ln f θ ( X‬‬ ‫⎟‬ ‫∂‬ ‫∂‬ ‫‪θ‬‬ ‫‪θ‬‬ ‫‪j‬‬ ‫‪i‬‬ ‫⎠‬

‫∂ ⎛‬ ‫∂‬ ‫‪ln f θ (X ),‬‬ ‫‪ln f θ (X‬‬ ‫⎜ ‪I ij (θ ) = Cov‬‬ ‫‪⎜ ∂θi‬‬ ‫∂‬ ‫‪θ‬‬ ‫‪j‬‬ ‫⎝‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫‪59‬‬

‫را ﻣﺎﺗﺮﻳﺲ اﻃﻼع ﻓﻴﺸﺮ ‪ θ‬ﮔﻮﻳﻨﺪ‪ .‬ﻣﻲﺗﻮان ﻧﺸﺎن داد ﻛﻪ اﮔﺮ ﺷﺮط )ﻫـ( ﺑﺮﻗﺮار ﺑﺎﺷﺪ آﻧﮕﺎه ﻣـﺎﺗﺮﻳﺲ ) ‪I (θ‬‬ ‫‪n‬‬ ‫⎛‬ ‫⎞‬ ‫≤‬ ‫‪0‬‬ ‫‪V‬‬ ‫(‬ ‫⎜‬ ‫ﻣﻌﻴﻦ ﻣﺜﺒﺖ اﺳﺖ )زﻳﺮا ﻣﺎﺗﺮﻳﺲ وارﻳﺎﻧﺲ ﻛﻮارﻳﺎﻧﺲ ﻣﻌﻴﻦ ﻧﺎﻣﻨﻔﻲ اﺳـﺖ ⎟ ‪∑ ai X i ) = a′Σa‬‬ ‫‪i =1‬‬ ‫⎝‬ ‫⎠‬

‫و در ﺻﻮرﺗﻲ ﻣﻌﻴﻦ ﻣﺜﺒﺖ اﺳﺖ ﻛﻪ ﻣﺘﻐﻴﺮﻫﺎي ﺗﺼﺎدﻓﻲ ﺑﺮدار ﺗـﺼﺎدﻓﻲ ﻣﺮﺑﻮﻃـﻪ واﺑـﺴﺘﻪ ﺧﻄـﻲ ﻧﺒﺎﺷـﻨﺪ‪(.‬‬ ‫ﻫﻤﭽﻨﻴﻦ اﮔﺮ در ﺷﺮاﻳﻂ )ج( و )د( ﺑﺘﻮان ﻣﺸﺘﻖ ﻣﺮﺗﺒـﻪ اول را ﺑـﺎ ﻣـﺸﺘﻖ ﻣﺮﺗﺒـﻪ دوم ﻋـﻮض ﻛـﺮد‪ ،‬آﻧﮕـﺎه‬ ‫⎤‬ ‫⎥)‬ ‫⎥⎦‬

‫ﻣﻲﺗﻮان ﻧﺸﺎن داد ﻛﻪ‬

‫‪⎡ ∂2‬‬ ‫‪ln f θ (X‬‬ ‫⎢ ‪I ij (θ ) = −E‬‬ ‫‪θ‬‬ ‫‪θ‬‬ ‫∂‬ ‫∂‬ ‫‪⎣⎢ i j‬‬

‫ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ اﮔﺮ ﺗﻐﻴﻴﺮ ﭘﺎراﻣﺘﺮ زﻳﺮ را داﺷﺘﻪ ﺑﺎﺷﻴﻢ‬

‫‪ θi = hi (ζ 1, ζ 2 ,..., ζ k ) i = 1, 2,..., k‬و‬

‫⎤ ‪⎡ ∂θi‬‬ ‫ﻗﺮاردﻫﻴﻢ ⎥‬ ‫‪⎢⎣ ∂ζ j ⎥⎦ ij‬‬

‫⎢ = ‪ J k ×k‬آﻧﮕﺎه‬ ‫∂ ⎡‬ ‫⎤‬ ‫∂‬ ‫⎢ ‪I ij* (ζ ) = E‬‬ ‫) ‪ln pθ (ζ ) (X‬‬ ‫⎥ ) ‪ln pθ (ζ ) (X‬‬ ‫‪∂ζ j‬‬ ‫⎦⎥‬ ‫‪⎣⎢ ∂ζ i‬‬ ‫‪⎤ ∂θ ∂θ‬‬ ‫‪)⎥ r .‬‬ ‫‪⎦ ∂ζ i ∂ζ j‬‬

‫‪k k‬‬ ‫∂ ⎡‬ ‫∂‬ ‫) ‪ln pθ (X‬‬ ‫‪ln pθ (X‬‬ ‫⎢ ‪= ∑∑ E‬‬ ‫‪∂θ‬‬ ‫‪⎣ ∂θ r‬‬ ‫‪r =1 =1‬‬

‫‪⇒ I * (ζ ) = JI (θ )J ′‬‬

‫ﻣﺜﺎل ‪ :1-6‬ﻓﺮض ﻛﻨﻴﺪ ‪ X‬داراي ﭼﮕﺎﻟﻲ از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ‪ k‬ﭘﺎراﻣﺘﺮي ﺑﻔﺮم زﻳﺮ ﺑﺎﺷﺪ‬ ‫‪k‬‬ ‫∑ ⎡‬ ‫⎤ ) ‪c (θ )T j ( x ) − B (θ‬‬ ‫‪⎢ j =1 j‬‬ ‫⎥‬ ‫‪pθ (x ) = ⎢e‬‬ ‫) ‪⎥ h (x‬‬ ‫⎢‬ ‫⎥‬ ‫⎣‬ ‫⎦‬

‫و ﻗﺮار دﻫﻴﻢ )) ‪τ i = E (T i (X‬‬

‫‪ i = 1, 2,..., k‬در اﻳﻦ ﺻﻮرت ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ ‪ I (τ ) = C −1‬ﻛﻪ ‪C‬‬

‫ﻣﺎﺗﺮﻳﺲ وارﻳﺎﻧﺲ ﻛﻮارﻳﺎﻧﺲ ) ‪ (T1,...,T k‬اﺳﺖ‪.‬‬ ‫ﺣﻞ‪ :‬اﮔﺮ ﺗﻐﻴﻴﺮ ﭘﺎراﻣﺘﺮ ‪ η j = c j (θ ), j = 1,..., k‬را ﺑﺪﻫﻴﻢ آﻧﮕﺎه ﺗﻮزﻳﻊ ﺑﻪ ﺻﻮرت‬ ‫‪k‬‬ ‫∑ ⎡‬ ‫⎤ ) ‪η T ( x ) − A (η‬‬ ‫⎥‬ ‫‪⎢ j =1 j j‬‬ ‫‪pθ (x ) = ⎢e‬‬ ‫) ‪⎥ h (x‬‬ ‫⎢‬ ‫⎥‬ ‫⎣‬ ‫⎦‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫‪60‬‬

‫در ﻣﻲ آﻳﺪ و در اﻳﻦ ﺣﺎﻟﺖ‬ ‫‪∂2‬‬ ‫⎦⎤ ) ‪A (η ) ⇒ I * (η ) = C = ⎣⎡Cov (T j ,T k‬‬ ‫‪jk‬‬ ‫‪∂η j ∂ηk‬‬ ‫ﻫﻤﭽﻨﻴﻦ ) ‪A (η‬‬

‫∂‬ ‫‪∂η j‬‬

‫= ) ‪I *j ,k (η‬‬

‫= )) ‪ τ j = E (T j (X‬ﭘﺲ ﻃﺒﻖ ﻣﻄﺎﻟﺐ ﻓﻮق‬

‫‪⎡ ∂2‬‬ ‫⎤‬ ‫⎤ ‪⎡ ∂τ j‬‬ ‫=‬ ‫⎢= ‪J‬‬ ‫‪A (η ) ⎥ = ⎣⎡Cov (T i ,T j ) ⎦⎤ = C‬‬ ‫⎢‬ ‫⎥‬ ‫‪i ,j‬‬ ‫‪⎣ ∂ηi ⎦ i , j ⎢⎣ ∂ηi ∂η j‬‬ ‫‪⎦⎥ i , j‬‬

‫و ﺑﻨﺎﺑﺮاﻳﻦ‬ ‫‪C = I * (η ) = JI (τ )J ′ = CI (τ )C ′ ⇒ I (τ ) = C −1‬‬

‫■‬

‫ﺑﺮاي ﺳﺎﺧﺘﻦ ﻧﺎﻣﺴﺎوي اﻃﻼع اﺑﺘﺪا ﻗﻀﻴﻪ زﻳﺮ را ﻣﻲآورﻳﻢ‪.‬‬ ‫ﻗﻀﻴﻪ ‪ :1-6‬ﺑﺮاي ﻫﺮ ﺑﺮآوردﮔﺮ ‪ T‬ﺑﺮاي ) ‪ g (θ‬و ﻫﺮ ﺗﺎﺑﻊ ) ‪ ψ i (x ,θ‬ﺑﺎ ﮔﺸﺘﺎور ﻣﺮﺗﺒﻪ دوم ﻣﺘﻨﺎﻫﻲ دارﻳـﻢ‬ ‫ﻛﻪ‬ ‫)‪(1‬‬

‫‪V θ (T ) ≥ γ ′C −1γ‬‬

‫ﻛــــــﻪ در آن ) ‪ γ ′ = (γ 1,…, γ k‬و ) ‪ C = (C ij‬و ) ‪ γ i = Cov (T ,ψ i‬و ) ‪.C ij = Cov (ψ i ,ψ j‬‬ ‫ﻃﺮف راﺳﺖ راﺑﻄﻪ )‪ (1‬ﺗﻨﻬﺎ از ﻃﺮﻳﻖ ) ‪ g (θ ) = E θ (T‬ﺑﺴﺘﮕﻲ ﺑﻪ ‪ T‬دارد ﺑﻪ ﺷﺮط آﻧﻜﻪ ﻫﺮ ﻛـﺪام از ‪ψ i‬‬

‫ﻫﺎ در ﺷﺮط ‪ Cov (U ,ψ i ) = 0‬ﺑﺮاي ﻫﺮ ‪ U ∈ Δ0‬ﺻﺪق ﻛﻨﻨﺪ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﺑﺮاي ﻫﺮ ﺛﺎﺑﺖ ‪ a1, a2 ,… , ak‬دارﻳﻢ ﻛﻪ‬ ‫‪2‬‬

‫‪k‬‬ ‫‪k‬‬ ‫⎡‬ ‫⎤‬ ‫) ‪⎢Cov (T , ∑ aiψ i ) ⎥ ≤V (T )V (∑ aiψ i‬‬ ‫‪i =1‬‬ ‫‪i =1‬‬ ‫⎣‬ ‫⎦‬ ‫‪2‬‬

‫‪k‬‬ ‫⎡‬ ‫⎤‬ ‫‪Cov‬‬ ‫(‬ ‫‪T‬‬ ‫‪,‬‬ ‫‪a‬‬ ‫‪ψ‬‬ ‫)‬ ‫⎢‬ ‫⎥ ‪∑i i‬‬ ‫‪i =1‬‬ ‫⎣‬ ‫⎦‬ ‫≥ ) ‪⇒V (T‬‬ ‫‪k‬‬ ‫) ‪V (∑ aiψ i‬‬ ‫‪i =1‬‬

‫‪k‬‬

‫اﻣﺎ‬

‫‪k‬‬

‫‪k‬‬

‫‪Cov (T , ∑ aiψ i ) = ∑ ai Cov (T ,ψ i ) = ∑ ai γ i = a′γ‬‬ ‫‪i =1‬‬

‫‪i =1‬‬

‫‪i =1‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫‪61‬‬

‫‪k‬‬

‫‪V (∑ aiψ i ) =V (a′ψ ) = a′V (ψ )a = a′Ca‬‬ ‫‪i =1‬‬

‫‪2‬‬

‫ﺑﺎ اﺳﺘﻔﺎده از ﻧﺎﻣﺴﺎوي ﻛﺸﻲ– ﺷﻮارﺗﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ ) ‪ ⎣⎡a′γ ⎦⎤ ≤ (a′Ca )(γ ′C −1γ ), ∀a ≠ 0‬ﻛـﻪ در آن ‪C‬‬

‫ﻣﻌﻴﻦ ﻣﺜﺒﺖ اﺳﺖ ( دارﻳﻢ ﻛﻪ‬ ‫‪2‬‬

‫⎤ ‪⎡a′γ‬‬ ‫‪∀a ≠ 0 ⇒V (T ) ≥ max ⎣ ⎦ = γ ′C −1γ‬‬ ‫‪a ≠0 a′Ca‬‬

‫‪2‬‬

‫⎤ ‪⎡a′γ‬‬ ‫⎦ ⎣ ≥ ) ‪V (T‬‬ ‫‪a′Ca‬‬

‫‪∴V (T ) ≥ γ ′C −1γ‬‬

‫■‬

‫ﻗﻀﻴﻪ ‪ :2-6‬ﻓﺮض ﻛﻨﻴﺪ ‪ X‬داراي ﺗـﺎﺑﻊ ﭼﮕـﺎﻟﻲ ) ‪ f θ (x‬ﺑﺎﺷـﺪ اﮔـﺮ ‪ T‬ﺑﺮآوردﮔـﺮ ﺑـﺮاي ) ‪ g (θ‬ﺑﺎﺷـﺪ‬ ‫ﻛﻪ ∞ < ) ‪ E (T 2‬و ﺷﺮاﻳﻂ ﻧﻈﻢ ﺑﺮﻗﺮار ﺑﺎﺷﺪ آﻧﮕﺎه‬ ‫)‪(2‬‬

‫‪V θ (T ) ≥ α ′I −1(θ )α‬‬

‫∂‬ ‫ﻛﻪ در آن ) ‪ α ′ = (α1,…, α k‬و ]) ‪E θ [T (X‬‬ ‫‪∂θi‬‬

‫= ‪ α i‬و ﻧﺎﻣﺴﺎوي ﻓﻮق را ﻧﺎﻣﺴﺎوي اﻃﻼع ﮔﻮﻳﻨﺪ‪.‬‬

‫∂‬ ‫اﺛﺒﺎت‪ :‬در ﻗﻀﻴﻪ ‪ 1-6‬ﻗﺮار ﻣﻲ دﻫـﻴﻢ ) ‪ln f θ (x‬‬ ‫‪∂θi‬‬

‫= ) ‪ ψ i ( x ,θ‬ﺑﻨـﺎﺑﺮاﻳﻦ ﻣـﺎﺗﺮﻳﺲ ‪ C‬ﺣﺎﺻـﻞ ﺑﻨـﺎﺑﺮ‬

‫ﺷﺮط ﻧﻈﻢ )ﻫـ( ﻣﻌﻴﻦ ﻣﺜﺒﺖ اﺳﺖ و ﻧﺘﻴﺠﻪ ﺑﻪ دﺳﺖ ﻣﻲآﻳﺪ‪.‬‬ ‫∂‬ ‫∂‬ ‫= ) ‪f θ (x )d μ (x‬‬ ‫‪E θ (T (X )) = α i‬‬ ‫‪∂θi‬‬ ‫‪∂θi‬‬

‫‪γ i = E (T ψ i ) = ∫T‬‬

‫■‬

‫ﻣﺜﺎل‪ :2-6‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,....X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪ N ( μ ,σ 2‬ﺑﺎﺷﻨﺪ‪ CRLB .‬ﺑﺮاي‬ ‫وارﻳﺎﻧﺲ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﭘﺎراﻣﺘﺮ ‪ E (X 2 ) = μ 2 + σ 2‬را ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬ ‫‪n‬‬ ‫‪1 n‬‬ ‫‪ln f θ (X ) = − ln(2πσ 2 ) − 2 ∑ (x i − μ )2‬‬ ‫‪2‬‬ ‫‪2σ i =1‬‬

‫ﺣﻞ‪:‬‬

‫‪1 n‬‬ ‫∂‬ ‫) ‪ln f θ (x ) = 2 ∑ (x i − μ‬‬ ‫‪∂μ‬‬ ‫‪σ i =1‬‬

‫‪∂2‬‬ ‫‪n‬‬ ‫‪ln f θ (x ) = 2‬‬ ‫‪2‬‬ ‫‪σ‬‬ ‫‪∂μ‬‬

‫‪∑ ( x i − μ )2‬‬ ‫‪∂2‬‬ ‫‪1‬‬ ‫) ‪ln f θ (x ) = − 4 ∑ (x i − μ‬‬ ‫‪2‬‬ ‫‪∂μ∂σ‬‬ ‫‪σ‬‬

‫‪2‬‬

‫) ‪∑ (x i − μ‬‬

‫‪1‬‬ ‫‪4‬‬

‫‪2σ‬‬

‫‪1‬‬

‫‪σ6‬‬

‫‪+‬‬

‫‪−‬‬

‫‪n‬‬ ‫‪2‬‬

‫‪2σ‬‬

‫‪n‬‬ ‫‪2σ 4‬‬

‫‪ln f θ (x ) = −‬‬

‫= ) ‪ln f θ (x‬‬

‫∂‬ ‫‪2‬‬ ‫‪2‬‬

‫‪∂σ‬‬

‫∂‬

‫‪∂ (σ 2 )2‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ دوم‪ :‬ﻧﺎارﻳﺒﻲ‬

‫⎤‬ ‫⎥ ‪0‬‬ ‫⎥‬ ‫⎥ ‪n‬‬ ‫⎦⎥ ‪2σ 4‬‬

‫‪62‬‬

‫‪⎡n‬‬ ‫‪⎢σ 2‬‬ ‫⎢ = ) ‪∴ I ( μ ,σ 2‬‬ ‫‪⎢ 0‬‬ ‫⎣⎢‬

‫‪⎡σ 2‬‬ ‫⎤‬ ‫⎥‪0‬‬ ‫⎢‬ ‫‪2 2‬‬ ‫‪4‬‬ ‫⎤ ‪⎡2μ‬‬ ‫‪⎥ ⎢ ⎥ = 2μ σ + 2σ‬‬ ‫‪⇒ CRLB = α ′I −1α ′ = [2μ 1] ⎢ n‬‬ ‫‪n‬‬ ‫‪n‬‬ ‫⎦ ‪⎢ 2σ 4 ⎥ ⎣1‬‬ ‫‪⎢0‬‬ ‫⎥‬ ‫⎦ ‪n‬‬ ‫⎣‬

‫)‪■ α ′ = (2μ ,1‬‬

‫ﺗﻮﺟﻪ‪ :‬اﮔﺮ ) ‪ I ii (θ‬اﻃﻼع ﻓﻴﺸﺮ در ﺣﺎﻟﺘﻲ ﺑﺎﺷﺪ ﻛﻪ ‪ θ i‬ﻧﺎﻣﻌﻠﻮم و ﻣﺎﺑﻘﻲ اﻋﻀﺎي ‪ θ‬ﺑﺠﺰ ‪ θ i‬ﻣﻌﻠﻮم‬ ‫ﺑﺎﺷﻨﺪ ‪ T‬آﻧﮕﺎه ⎦⎤ ) ‪ I ii −1(θ ) ≤ ⎡⎣ I −1(θ‬و در ﻧﺘﻴﺠﻪ‬ ‫‪ii‬‬

‫‪2‬‬

‫⎤ ) ‪⎡ ∂g (θ‬‬ ‫‪2‬‬ ‫⎥ ‪⎢ ∂θ‬‬ ‫⎤ ) ‪⎡ ∂g (θ‬‬ ‫‪−1‬‬ ‫⎦ ‪i‬‬ ‫⎣‬ ‫⎢≤‬ ‫‪⎥ ⎡⎣ I (θ ) ⎤⎦ ii‬‬ ‫) ‪I ii (θ‬‬ ‫⎦ ‪⎣ ∂θi‬‬

‫ﻳﻌﻨﻲ اﻳﻨﻜﻪ ﺗﻌﺮﻳﻒ اﻃﻼع ﻓﻴﺸﺮ ﭼﻨﺪ ﭘﺎراﻣﺘﺮي و ﻧﺎﻣﺴﺎوي اﻃﻼع ﭼﻨﺪﭘﺎراﻣﺘﺮي ﺑﺎﻋﺚ ﻣﻲﺷﻮد ﻛﻪ ‪CRLB‬‬ ‫)در ﻳﻚ ﭘﺎراﻣﺘﺮي( ﺗﻴﺰﺗﺮ ‪ 1‬ﺷﻮد‪ .‬ﺑﺮاي رﺳﻴﺪن ﺑﻪ اﻳﻦ ﻧﺎﻣﺴﺎوي ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ اﮔﺮ در ﻗﻀﻴﻪ ‪ 1-6‬ﻗﺮار‬ ‫دﻫﻴﻢ )‪ a′ = (0,....,0,1,0,.....,0‬آﻧﮕﺎه‬ ‫) ‪⎧ ∂g (θ‬‬ ‫‪k =i‬‬ ‫⎪‬ ‫‪, α k = ⎨ ∂θi‬‬ ‫‪⎪0‬‬ ‫‪k ≠i‬‬ ‫⎩‬

‫‪a′α‬‬ ‫‪≤ α ′I −1(θ )α‬‬ ‫‪α ′I (θ )α‬‬

‫‪2‬‬ ‫]) ‪Cov (T ,ψ i‬‬ ‫[‬ ‫=‬ ‫=‬

‫) ‪V (ψ i‬‬

‫‪CRLB‬‬

‫‪2‬‬

‫⎤ ) ‪⎡ ∂g (θ‬‬ ‫‪2‬‬ ‫⎥ ‪⎢ ∂θ‬‬ ‫⎤ ) ‪⎡ ∂g (θ‬‬ ‫‪−1‬‬ ‫‪−1‬‬ ‫‪−1‬‬ ‫⎣‬ ‫⎦ ‪i‬‬ ‫⇒‬ ‫⎢≤‬ ‫‪⎥ ⎡⎣ I (θ ) ⎤⎦ ii ⇒ I ii (θ ) ≤ ⎡⎣ I (θ ) ⎤⎦ ii‬‬ ‫) ‪I ii (θ‬‬ ‫⎦ ‪⎣ ∂θi‬‬ ‫ﻫﻤﭽﻨﻴﻦ ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ اﮔﺮ ﭘﺎراﻣﺘﺮﻫﺎ ﺑﺮ ﻫﻢ ﻣﺘﻌﺎﻣﺪ ﺑﺎﺷﻨﺪ آﻧﮕﺎه ‪∀i ≠ j‬‬

‫‪ I ij (θ ) = 0‬و در اﻳﻦ‬

‫ﺻﻮرت ﻧﺎﻣﺴﺎوي ﻓﻮق ﺑﻪ ﺗﺴﺎوي ﺗﺒﺪﻳﻞ ﻣﻲﺷﻮد‪ .‬ﻣﺜﺎل ‪ 2-6‬اﻳﻦ ﺣﺎﻟﺖ را ﻧﺸﺎن ﻣﻲدﻫﺪ‪.‬‬

‫‪Sharp‬‬

‫‪١‬‬

‫‪٦٣‬‬

‫داﻧﻠﻮد از ﺳﺎﻳﺖ رﻳﺎﺿﻲ ﺳﺮا‬

‫‪www.riazisara.ir‬‬

‫ﭘﺎﻳﺎﻳﻲ‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪64‬‬

‫ﺑﺨﺶ‪ :1‬ﻣﻔﻬﻮم ﭘﺎﻳﺎﺋﻲ ‪ 1‬و ﻛﻠﻴﺎت‬ ‫در ﻓﺼﻞ ﻗﺒﻞ ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎ را ﻣﺤﺪود ﺑﻪ ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳﺐ ﻛﺮدﻳﻢ و در اﻳﻦ ﻛﻼس‬ ‫ﺑﻬﺘﺮﻳﻦ ﺑﺮآوردﮔﺮﻫﺎي ﻧﺎارﻳﺐ را ﭘﻴﺪا ﻛﺮدﻳﻢ‪ .‬در اﻳﻦ ﻗﺴﻤﺖ ﻣﻲﺧﻮاﻫﻴﻢ ﺧﻮد را ﻣﺤﺪود ﺑﻪ ﻛﻼس دﻳﮕﺮي‬ ‫از ﺑﺮآوردﮔﺮﻫﺎ‪ ،‬ﻳﻌﻨﻲ ﺑﺮآوردﮔﺮﻫﺎي ﭘﺎﻳﺎ ﻛﻨﻴﻢ و در اﻳﻦ ﻛﻼس ﺑﻬﺘﺮﻳﻦ ﺑﺮآوردﮔﺮ ﭘﺎﻳﺎ را ﭘﻴﺪا ﻛﻨﻴﻢ‪.‬‬ ‫ﺑﺮاي ﭘﻲ ﺑﺮدن ﺑﻪ ﻣﻔﻬﻮم ﭘﺎﻳﺎﺋﻲ ﺑﻪ ﻣﺜﺎل زﻳﺮ ﺗﻮﺟﻪ ﻛﻨﻴﺪ‪.‬‬ ‫ﻣﺜﺎل‪ :1-1‬ﻓﺮض ﻛﻨﻴﺪ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ‪ X‬ﻃﻮل ﻋﻤﺮ ﻳﻚ ﻗﻄﻌﻪ ﺑﺮﺣﺴﺐ ﺳﺎﻋﺖ ﺑﺎﺷﺪ ﻛﻪ داراي ﺗﻮزﻳﻊ‬ ‫‪−x‬‬

‫‪1‬‬

‫‪θ‬‬ ‫ﻧﻤﺎﻳﻲ ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ زﻳﺮ اﺳﺖ‪:‬‬ ‫‪x > 0, θ > 0‬‬ ‫‪θ‬‬ ‫‪δ‬‬ ‫ﻣﻲﺧﻮاﻫﻴﻢ ﺑﺮاﺳﺎس ﻳﻚ ﻣﺸﺎﻫﺪه ‪ X‬ﭘﺎراﻣﺘﺮ ‪ θ‬را ﺑﺮاﺳﺎس ﺗﺎﺑﻊ زﻳﺎن ‪ L (θ , δ ) = (1 − )2‬ﺑﺮآورد‬ ‫‪θ‬‬ ‫ﻛﻨﻴﻢ‪ .‬ﻓﺮض ﻛﻨﻴﺪ ) ‪ δ (x‬ﻳﻚ ﺑﺮآورد ﭘﺎراﻣﺘﺮ ‪ θ‬ﺑﺮاﺳﺎس ‪) X‬ﻃﻮل ﻋﻤﺮ ﺑﺮﺣﺴﺐ ﺳﺎﻋﺖ( ﺑﺎﺷﺪ‪.‬‬

‫‪e‬‬

‫= ) ‪f θ (x‬‬

‫ﺣﺎل اﮔﺮ ﺷﺨﺺ دﻳﮕﺮي ﻃﻮل ﻋﻤﺮ اﻳﻦ ﻗﻄﻌﻪ را ﺑﺮ ﺣﺴﺐ دﻗﻴﻘﻪ اﻧﺪازهﮔﻴﺮي ﻛﻨﺪ و در اﻳﻦ ﺣﺎﻟﺖ ﻣﺘﻐﻴﺮ‬ ‫ﺗﺼﺎدﻓﻲ ‪ Y‬را ﻃﻮل ﻋﻤﺮ ﻗﻄﻌﻪ ﺑﺮﺣﺴﺐ دﻗﻴﻘﻪ در ﻧﻈﺮ ﺑﮕﻴﺮد در اﻳﻦ ﺻﻮرت ﺑﺎﻳﺴﺘﻲ ‪ Y = 60X‬ﺑﺎﺷﺪ‪.‬‬ ‫اﮔﺮ ﻗﺮار دﻫﻴﻢ ‪ η = 60θ‬در اﻳﻦ ﺻﻮرت ﺑﻪ راﺣﺘﻲ دﻳﺪه ﻣﻲﺷﻮد ﻛﻪ ‪ Y‬داراي ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ زﻳﺮ اﺳﺖ‪:‬‬ ‫‪y > 0,η > 0‬‬

‫‪η‬‬

‫‪−y‬‬

‫‪1‬‬

‫‪y‬‬

‫‪⇒ f η (y ) = e‬‬

‫‪η‬‬

‫‪1‬‬ ‫‪y‬‬ ‫‪1 − 60θ‬‬ ‫= ) ( ‪f η (y ) = f θ‬‬ ‫‪e‬‬ ‫‪60 60 60θ‬‬

‫ﺣﺎل اﮔﺮ در اﻳﻦ اﻧﺪازهﮔﻴﺮي ﺟﺪﻳﺪ ﺑﺮآورد * ‪ δ‬را ﺑﺮاي ﭘﺎراﻣﺘﺮ ‪ η‬ﺑﺪﺳﺖ آورﻳﻢ اﻧﺘﻈﺎر دارﻳﻢ ﻛﻪ‬ ‫) ‪δ * ( y ) = 60δ (X‬‬

‫)‪(1‬‬

‫ﺑﺎﺷﺪ) زﻳﺮا ﻣﻨﻄﻘﻲ ﺑﻪ ﻧﻈﺮ ﻣﻲرﺳﺪ ﻛﻪ ﺑﺮآوردﮔﺮﻫﺎي ﻳﻜﺴﺎﻧﻲ را ﺻﺮف ﻧﻈﺮ از ﻧﻮع اﻧﺪازهﮔﻴﺮي ﺑﻜﺎر‬ ‫ﺑﺒﺮﻳﻢ‪ (.‬در اﻳﻦ ﺣﺎﻟﺖ‪:‬‬ ‫‪δ* 2‬‬ ‫‪60δ 2‬‬ ‫‪δ‬‬ ‫‪L (η , δ ) = (1 − ) = (1 −‬‬ ‫) ‪) = (1 − )2 = L (θ , δ‬‬ ‫‪η‬‬ ‫‪θ‬‬ ‫‪60θ‬‬ ‫*‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﺳﺎﺧﺘﺎر ﻛﻠﻲ ﻣﺴﺌﻠﻪ ﺑﺎ اﻧﺪازهﮔﻴﺮي ﺑﺮﺣﺴﺐ دﻗﻴﻘﻪ )ﻳﻌﻨﻲ ﻛﻼس ﺗﻮاﺑﻊ ﭼﮕﺎﻟﻲ‪ ،‬ﻛﻼس ﻓﻀﺎي‬ ‫ﭘﺎراﻣﺘﺮي و ﻛﻼس ﺗﻮاﺑﻊ زﻳﺎن( دﻗﻴﻘﺎ ﺑﺎ ﺳﺎﺧﺘﺎر ﻛﻠﻲ ﻣﺴﺌﻠﻪ ﺑﺎ اﻧﺪازهﮔﻴﺮي ﺑﺮﺣﺴﺐ ﺳﺎﻋﺖ ﻳﻜﻲ ﻣﻲﺷﻮد‪.‬‬

‫‪Inrariance‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪65‬‬

‫در ﻧﺘﻴﺠﻪ ﻣﻨﻄﻘﻲ ﺑﻪ ﻧﻈﺮ ﻣﻲرﺳﺪ ﻛﻪ در اﻳﻦ ﻣﺴﺌﻠﻪ ﺑﺮآوردﻫﺎﻳﻲ را ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار دﻫﻴﻢ ﻛﻪ ﺗﺤﺖ اﻳﻦ‬ ‫دو ﺳﺎﺧﺘﺎر ﻳﻜﺴﺎن ﺑﺎﺷﻨﺪ ﻳﻌﻨﻲ‪:‬‬ ‫) ‪δ (y ) = δ *(y‬‬

‫)‪(2‬‬ ‫ﺑﻨﺎﺑﺮاﻳﻦ از رواﺑﻂ )‪ (1‬و )‪ (2‬دارﻳﻢ ﻛﻪ‪:‬‬

‫) ‪δ (60x ) = 60δ (x‬‬

‫)‪(3‬‬

‫ﺑﺮآوردﮔﺮ ‪ δ‬ﻛﻪ در ﺷﺮط )‪ (3‬ﺻﺪق ﻣﻲﻛﻨﺪ را ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ ‪ 1‬ﻣﻲﻧﺎﻣﻨﺪ و ﻫﻤﺎﻧﻄﻮر ﻛﻪ دﻳﺪه ﻣﻲﺷﻮد‬ ‫ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢ ﭘﺎﻳﺎ ﻳﻚ ﻗﺴﻤﺖ ﻛﻮﭼﻚ از ﻛﻼس ﻛﻠﻴﻪ ﺑﺮآوردﮔﺮﻫﺎ اﺳﺖ‪.‬‬ ‫ﻣﺴﺌﻠﻪ ﻓﻮق ﺑﺮاي ﺣﺎﻟﺖ ﻛﻠﻲﺗﺮ ﻳﻌﻨﻲ ‪ Y = cX , c > 0‬ﻧﻴﺰ ﺑﺮﻗﺮار اﺳﺖ و در اﻳﻦ ﺣﺎﻟﺖ ﺑﺮآوردﮔﺮ‬ ‫ﻫﻢﭘﺎﻳﺎ ﺑﻪ ﺻﻮرت زﻳﺮ اﺳﺖ‪:‬‬ ‫)‪(4‬‬

‫‪∀c > 0‬‬

‫) ‪δ (cx ) = c δ (x‬‬

‫‪1‬‬ ‫ﭼﻮن اﻳﻦ راﺑﻄﻪ ﺑﺮاي ﻫﺮ ‪ x‬ﺑﺮﻗﺮار اﺳﺖ ﭘﺲ ﺑﺮاي‬ ‫‪c‬‬

‫= ‪ x‬ﻧﻴﺰ ﺑﺮﻗﺮار اﺳﺖ و در ﻧﺘﻴﺠﻪ از راﺑﻄﻪ )‪(4‬‬

‫دارﻳﻢ ﻛﻪ‬ ‫‪1‬‬ ‫‪δ (x ) ⇒ δ (x ) = δ (1)x ⇒ δ (x ) = kx‬‬ ‫‪x‬‬

‫= )‪δ (1‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ در اﻳﻦ ﺣﺎﻟﺖ ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎ ﻋﺒﺎرت اﺳﺖ از‪:‬‬ ‫}‪D E = {δ ∈ D | δ (x ) = kx , ∀x , ∀k > 0‬‬ ‫در اﻳﻦ ﻓﺼﻞ ﻣﻲﺧﻮاﻫﻴﻢ در ﺑﻴﻦ ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎ ﺑﺮاي ﻳﻚ ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل آن ﺑﺮآوردﮔﺮي را ﭘﻴﺪا‬ ‫ﻛﻨﻴﻢ ﻛﻪ داراي ﻛﻤﺘﺮﻳﻦ ﻣﺨﺎﻃﺮه ‪ 2‬ﺑﺎﺷﺪ‪ ،‬ﻛﻪ ﺑﻪ آن ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ ﺑﺎ ﻛﻤﺘﺮﻳﻦ ﻣﺨﺎﻃﺮه ) ‪ (MRE3‬ﮔﻮﻳﻨﺪ‪.‬‬ ‫در اﻳﻦ ﻣﺜﺎل دارﻳﻢ ﻛﻪ‪:‬‬ ‫‪δ (X ) 2 ⎤ 1‬‬ ‫‪1‬‬ ‫‪2‬‬ ‫⎡‬ ‫‪R (θ , δ ) = E θ ⎢(1 −‬‬ ‫⎤ ] ) ‪) ⎥ = 2 E θ ⎡⎣(kX − θ )2 ⎤⎦ = 2 ⎡V (kX ) + [ E (kX − θ‬‬ ‫⎦‬ ‫‪θ‬‬ ‫⎣ ‪θ‬‬ ‫⎣‬ ‫‪⎦ θ‬‬ ‫‪1‬‬ ‫‪= 2 ⎡⎣ k 2θ 2 + ( k − 1)2θ 2 ⎤⎦ = k 2 + (k − 1)2 = 2k 2 − 2k + 1‬‬ ‫‪θ‬‬ ‫‪١‬‬

‫‪Equivariance‬‬ ‫‪Risk‬‬ ‫‪٣‬‬ ‫‪Minimom Risk Equivariant Estimator‬‬ ‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪66‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﺛﺎﺑﺖ اﺳﺖ و ﺑﻪ ‪ θ‬ﺑﺴﺘﮕﻲ ﻧﺪارد‪ .‬در ﻧﺘﻴﺠﻪ ﺑﺮآوردﮔﺮ ‪ MRE‬ﺑﺎ ﻣﻴﻨﻴﻤﻢ ﻛﺮدن‬ ‫) ‪ R (θ , δ‬ﻧﺴﺒﺖ ﺑﻪ ‪ k‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪:‬‬ ‫) ‪∂ 2R (θ , δ‬‬ ‫‪= 4 >0‬‬ ‫‪∂k 2‬‬ ‫‪1‬‬ ‫ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ ‪ δ * (X ) = X‬ﺑﺮآوردﮔﺮي ﻫﻢﭘﺎﻳﺎ ﺑﺎ ﻛﻤﺘﺮﻳﻦﻣﺨﺎﻃﺮه اﺳﺖ‪ .‬ﭘﺲ ﺑﺮآوردﮔﺮ ‪MRE‬‬ ‫‪2‬‬ ‫‪1‬‬ ‫) ‪∂R (θ , δ‬‬ ‫‪= 4k − 2 = 0 ⇒ k = ,‬‬ ‫‪2‬‬ ‫‪∂k‬‬

‫ﭘﺎراﻣﺘﺮ ‪ θ‬اﺳﺖ‪.‬‬

‫■‬

‫اﺻﻮل ﭘﺎﻳﺎﺋﻲ‪:‬‬ ‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﺜﺎل ﺑﺎﻻ ﻣﻲﺗﻮان ﺧﻮد را ﻣﺤﺪود ﺑﻪ ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ﭘﺎﻳﺎ ﻛﻨﻴﻢ‪ .‬اﻣﺎ ﭘﺎﻳﺎﺋﻲ را ﻣﻲﺗﻮان از دو‬ ‫ﺟﻨﺒﻪ در ﻧﻈﺮ ﮔﺮﻓﺖ‪.‬‬

‫‪-1‬ﭘﺎﻳﺎﺋﻲ اﻧﺪازهﮔﻴﺮي ‪) 1‬ﭘﺎﻳﺎﺋﻲ ﻃﺒﻴﻌﻲ ﻳﺎ ﻣﻨﻄﻘﻲ ﻳﺎ ﺗﺎﺑﻌﻲ(‬ ‫اﻳﻦ ﺟﻨﺒﻪ از ﭘﺎﻳﺎﺋﻲ ﻣﻲﮔﻮﻳﺪ ﻛﻪ اﺳﺘﻨﺒﺎط ﻧﺒﺎﻳﺴﺘﻲ ﺑﻪ ﻧﻮع اﻧﺪازهﮔﻴﺮي دادهﻫﺎ ﺑﺴﺘﮕﻲ داﺷﺘﻪ ﺑﺎﺷﺪ‪.‬‬ ‫)ﻣﺜﻼ در ﻣﺜﺎل ‪ 1-1‬اﮔﺮ ) ‪ δ (X‬ﺑﺮاي ﺑﺮآورد ‪ θ‬ﺑﻜﺎر ﺑﺮده ﻣﻲﺷﻮد ﻃﺒﻴﻌﻲ ﺑﻪ ﻧﻈﺮ ﻣﻲرﺳﺪ ﻛﻪ‬ ‫) ‪ δ * (Y ) = cδ (X‬ﺑﺮاي ﺑﺮآورد ‪ η = cθ‬ﺑﻜﺎر ﺑﺮده ﺷﻮد‪(.‬‬

‫‪ -2‬ﭘﺎﻳﺎﺋﻲ ﺳﺎﺧﺘﺎري ‪)2‬ﻳﺎ رﻳﺎﺿﻲ(‬ ‫اﻳﻦ ﺟﻨﺒﻪ از ﭘﺎﻳﺎﺋﻲ ﻣﻲﮔﻮﻳﺪ ﻛﻪ اﮔﺮ دو ﻣﺴﺌﻠﻪ اﺳﺘﻨﺒﺎﻃﻲ داراي ﻳﻚ ﺳﺎﺧﺘﺎر از ﻟﺤﺎظ ﻓﻀﺎي ﭘﺎراﻣﺘﺮي‪ ،‬ﺗﺎﺑﻊ‬ ‫ﭼﮕﺎﻟﻲ و ﺗﺎﺑﻊ زﻳﺎن ﺑﺎﺷﻨﺪ آﻧﮕﺎه ﺑﺎﻳﺴﺘﻲ روش اﺳﺘﻨﺒﺎط ﻳﻜﺴﺎﻧﻲ را در دو ﻣﺴﺌﻠﻪ ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار دﻫﻴﻢ‪.‬‬ ‫)ﻣﺜﻼ در ﻣﺜﺎل ‪ 1-1‬ﺑﺮآورد ) ‪ δ (Y ) = δ (cX‬را ﺑﺮاي ﺑﺮآورد ‪ η = cθ‬ﺑﻜﺎر ﺑﺒﺮﻳﻢ(‪.‬‬ ‫ﺑﺎ ﺗﻠﻔﻴﻖ اﻳﻦ دو ﺟﻨﺒﻪ ﻣﻲﺗﻮان ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎ را ﭘﻴﺪا ﻛﺮد)ﻣﺜﻼ در ﻣﺜﺎل ‪( δ (cX ) = cδ (X ) 1-1‬‬

‫ﻓﺮﻣﻮل ﺑﻨﺪي و ﺗﻌﺎرﻳﻒ ﭘﺎﻳﺎﻳﻲ‬ ‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﻄﺎﻟﺐ ﺑﺎﻻ در ﺣﺎﻟﺖ ﻛﻠﻲ ﻣﺎ ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ ) ‪ X = (X 1, X 2 ,..., X n‬ﺑﺎ ﻣﻘﺎدﻳﺮ ‪ χ‬و‬ ‫ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ﻳﺎ اﺣﺘﻤﺎل ﺗﻮام ) ‪ f θ (x ) = f θ (x 1,..., x n‬دارﻳﻢ‪ .‬ﭘﺲ ﺑﻮﺳﻴﻠﻪ ﻳﻚ ﺗﺒﺪﻳﻞ ﻳﻚ ﺑﻪ ﻳﻚ و‬ ‫‪Measurement Invariance‬‬ ‫‪Formal Invariance‬‬

‫‪١‬‬ ‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪67‬‬

‫ﭘﻮﺷﺎي ) ‪ Y = g (X‬دادهﻫﺎي ‪ X‬را ﺑﻪ دادهﻫﺎي ﺟﺪﻳﺪ ‪ Y‬ﺗﺒﺪﻳﻞ ﻣﻲﻛﻨﻴﻢ ﻛﻪ اﻳﻦ ﺗﺒﺪﻳﻼت ﻳﻚ ﮔﺮوه از‬ ‫ﺗﺒﺪﻳﻼت ‪ G‬را ﺑﻮﺟﻮد ﻣﻲآورﻧﺪ‪.‬‬ ‫ﺗﻌﺮﻳﻒ‪ :1-1‬ﻳﻚ ﮔﺮوه از ﺗﺒﺪﻳﻼت روي ‪ χ‬ﻛﻪ آن را ﺑﺎ ‪ G‬ﻧﻤﺎﻳﺶ ﻣﻲدﻫﻴﻢ ﻳﻚ ﻣﺠﻤﻮﻋﻪ ﺗﺒﺪﻳﻼت‬ ‫اﻧﺪازهﭘﺬﻳﺮ ﻳﻚ ﺑﻪ ﻳﻚ و ﭘﻮﺷﺎ روي ‪ χ‬اﺳﺖ ﻛﻪ در ﺷﺮاﻳﻂ زﻳﺮ ﺻﺪق ﻣﻲﻛﻨﺪ‪:‬‬ ‫‪(i ) if g1, g 2 ∈ G ⇒ g 1g 2 ∈ G‬‬

‫‪∃g −1 ∈ G ∋ g −1( g (x )) = x‬‬

‫‪(ii ) ∀g ∈ G‬‬

‫‪(iii ) ∃e ∈ G ∋ e (x ) = x‬‬

‫ﻣﺜﺎل‪ :2-1‬در ﻣﺜﺎل ‪ 1-1‬ﮔﺮوه ﺗﺒﺪﻳﻼت زﻳﺮ را دارﻳﻢ }‪ G = {g c : g c (X ) = cX ,c > 0‬ﻛﻪ ﺑﻪ آن‬ ‫ﮔﺮوه ﺗﺒﺪﻳﻼت ﺿﺮﺑﻲ ﻳﺎ ﻣﻘﻴﺎﺳﻲ ﮔﻮﻳﻨﺪ‪ .‬ﺗﻮاﺑﻊ ‪ g c‬ﻳﻚ ﺑﻪ ﻳﻚ و ﭘﻮﺷﺎ ﻫﺴﺘﻨﺪ‪.‬‬ ‫‪g c2 g c1 (x ) = g c2 ( g c1 (x )) = g c2 (c1x ) = c2c1x = g c2c1 (x ) ⇒ g c2 g c1 = g c2c1 ∈ g‬‬ ‫‪g c −1 = g c −1 ∈ G ,e = g 1 ∈ G‬‬

‫ﺗﻌﺮﻳﻒ‪ :2-1‬ﻓﺮضﻛﻨﻴﺪ }‪ F = {f θ (x ) : θ ∈ Θ‬ﻳﻚ ﺧﺎﻧﻮاده از ﺗﻮزﻳﻊﻫﺎي اﺣﺘﻤﺎل ﺑﺮاي ‪ X‬ﺑﺎﺷﻨﺪ و‬

‫‪ G‬ﻳﻚ ﮔﺮوه از ﺗﺒﺪﻳﻼت روي ‪ x‬ﺑﺎﺷﺪ‪ .‬ﺧﺎﻧﻮاده ‪ F‬را ﺗﺤﺖ ﮔﺮوه ‪ G‬ﭘﺎﻳﺎ ‪ 1‬ﮔﻮﻳﻨﺪ اﮔﺮ ﺑﺮاي ﻫﺮ ‪θ ∈ Θ‬‬ ‫و ‪ g ∈G‬ﻳﻚ ‪ θ ′ ∈ Θ‬ﻳﻜﺘﺎ وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﺑﻄﻮرﻳﻜﻪ ) ‪ Y = g (X‬داراي ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ) ‪f θ ′ ( y‬‬

‫ﻣﺘﻌﻠﻖ ﺑﻪ ﺧﺎﻧﻮاده ‪ F‬ﺑﺎﺷﺪ در اﻳﻦ ﺣﺎﻟﺖ ‪ θ ′‬را ﺑﺎ ) ‪ g (θ‬ﻧﻤﺎﻳﺶ ﻣﻲدﻫﻨﺪ‪.‬‬

‫■‬

‫ﻣﺜﻼ در ﻣﺜﺎل ‪ 1-1‬ﺗﺤﺖ ﮔﺮوه ﺗﺒﺪﻳﻼت }‪ G = {g c : g c (X ) = cX ,c > 0‬ﺧﺎﻧﻮاده ﺗﻮزﻳﻊ ﻧﻤﺎﻳﻲ ﭘﺎﻳﺎ‬ ‫ﻣﻲﺑﺎﺷﺪ‪.‬‬ ‫‪y >0‬‬ ‫‪η >0‬‬

‫‪1 −y η‬‬ ‫‪)= e‬‬ ‫‪2‬‬

‫‪Y =cX‬‬ ‫‪f η (y‬‬ ‫→⎯⎯⎯‬ ‫‪η =cθ‬‬

‫‪x >0‬‬ ‫‪θ >0‬‬

‫‪θ‬‬

‫‪−x‬‬

‫‪1‬‬

‫‪f θ (x ) = e‬‬

‫‪θ‬‬

‫اﮔﺮ ﻗﺮار دﻫﻴﻢ ) ‪ PθX (A ) = Pθ (X ∈ A‬آﻧﮕﺎه ﺗﻌﺮﻳﻒ ‪ 2-1‬ﻣﻲﮔﻮﻳﺪ ﻛﻪ ﺧﺎﻧﻮاده ‪ F‬ﺗﺤﺖ ﺗﺒﺪﻳﻼت ‪G‬‬ ‫ﭘﺎﻳﺎ اﺳﺖ اﮔﺮ ﺑﺮاي ﻫﺮ ‪ θ ∈ Θ‬و ‪ g ∈G‬ﻳﻚ ‪ g (θ ) ∈ Θ‬ﻣﻮﺟﻮد ﺑﺎﺷﺪ ﺑﻄﻮري ﻛﻪ ) ‪Pθg ( X ) = PgX(θ‬‬

‫و ﻳﺎ‪:‬‬ ‫‪invariant‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪68‬‬

‫) ‪Pθ ( g (X ) ∈ A ) = Pg (θ ) (X ∈ A‬‬

‫)‪(5‬‬ ‫زﻳﺮا‬ ‫) ‪f g (θ ) ( g (x ))d μ ( x‬‬

‫∫‬

‫)*(‬

‫∫‬

‫= ) ‪f θ (x )d μ ( x‬‬

‫} ‪{x |g ( x )∈A‬‬

‫= ) ‪Pθg ( X ) (A ) = Pθ ( g (X ) ∈ A‬‬

‫} ‪{x |g ( x )∈A‬‬

‫∫‬

‫) ‪f g (θ ) ( y )dv ( y ) = Pg (θ ) (X ∈ A ) = PgX(θ ) (A‬‬

‫) ‪Y =g (X‬‬

‫=‬

‫} ‪{ y | y ∈A‬‬

‫ﻛﻪ در آن ﺗﺴﺎوي )*( از ﭘﺎﻳﺎﻳﻲ ﺗﻮزﻳﻊ ﻧﺘﻴﺠﻪ ﻣﻲﮔﺮدد‪ .‬از راﺑﻄﻪ )‪ (5‬ﺑﺮاي ﻫﺮ ﺗﺎﺑﻊ اﻧﺘﮕﺮال ﭘﺬﻳﺮ ‪ h‬ﻧﺘﻴﺠﻪ‬ ‫ﻣﻲﺷﻮد ﻛﻪ‬ ‫)‪(6‬‬

‫]) ‪E θ [h ( g (X )] = E g (θ ) [h (X‬‬

‫ﻗﻀﻴﻪ‪ :1-1‬اﮔﺮ ﺗﻮزﻳﻊﻫﺎي ‪ f θ ∈ F‬ﻣﺠﺰا ﺑﺎﺷﻨﺪ و ﺧﺎﻧﻮاده ‪ F‬ﺗﺤﺖ ﺗﺒﺪﻳﻼت ‪ G‬ﭘﺎﻳﺎ ﺑﺎﺷﺪ آﻧﮕﺎه ﮔﺮوه‬ ‫ﺗﺒﺪﻳﻼت } ‪ G = {g : g ∈ G‬روي ‪ Θ‬ﺗﺸﻜﻴﻞ ﻳﻚ ﮔﺮوه از ﺗﺒﺪﻳﻼت را ﻣﻲدﻫﺪ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﻣﺠﺰا ﺑﻮدن ‪ f θ‬ﺑﺪﻳﻦ ﻣﻌﻨﻲ اﺳﺖ ﻛﻪ ‪ . θ1 ≠ θ2 ⇒ pθX1 ≠ pθX2‬ﺣﺎل ﺷﺮاﻳﻂ ﮔﺮوه ﺗﺒﺪﻳﻞ ﺑﻮدن‬ ‫‪ G‬را ﺑﺮرﺳﻲ ﻣﻲ ﻛﻨﻴﻢ‪:‬‬ ‫ﻳﻚ ﺑﻪ ﻳﻚ اﺳﺖ ‪(i ) g ∈ G‬‬ ‫) ‪Let C = g (A ), g (θ1) = g (θ2 ) ⇒ Pg (θ1) (X ∈C ) = Pg (θ2 ) (X ∈C‬‬ ‫)‪(5‬‬

‫) ‪⇒ Pθ1 ( g (X ) ∈C ) = Pθ2 ( g (X ) ∈C‬‬ ‫)*(‬

‫‪⇒ Pθ1 ( X ∈ g −1(C )) = Pθ2 (X ∈ g −1(C )) ⇒ Pθ1 (X ∈ A ) = Pθ2 (X ∈ A ) ⇒θ1 = θ2‬‬

‫‪is onto , i .e ., ∀θ ∈ Θ ∃θ * ∈ Θ ∋ g (θ * ) = θ‬‬ ‫) ‪( g (X ) ∈ A‬‬

‫)‪(5‬‬

‫‪(ii ) g ∈ G‬‬

‫‪Pθ ( X ∈ A ) = Pθ ( g −1( g (X )) ∈ A ) = P‬‬

‫) ‪g −1 (θ‬‬

‫) ‪( X ∈ A ) = Pg (θ * ) (X ∈ A‬‬

‫‪=P‬‬

‫)) ‪g ( g −1 (θ‬‬

‫)*(‬

‫) ‪⇒ g (θ * ) = θ where θ * = g −1(θ‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪69‬‬

‫‪(iii ) g1, g 2 ∈ G‬‬

‫‪⇒ g 2 g1 ∈ G‬‬

‫اﺑﺘﺪا ﻧﺸﺎن ﻣﻲدﻫﻴﻢ ﻛﻪ ‪g 2g1 = g 2 g1‬‬ ‫)) ‪∈ g 2−1(A‬‬

‫)‪(1‬‬ ‫‪−1‬‬ ‫‪) ∈ g 2 (A )) = Pg1(θ ) (X‬‬

‫)‪(1‬‬

‫‪( X ∈ A ) = Pθ ( g 2 g1(X ) ∈ A ) = Pθ ( g1(X‬‬

‫) ‪2 g 1 (θ‬‬

‫‪Pg‬‬

‫)‪(1‬‬

‫) ‪= Pg1(θ ) ( g 2 (X ) ∈ A )) = Pg 2g1(θ ) (X ∈ A‬‬ ‫)*(‬

‫‪⇒ g1g 2 = g 2 g1 ∈ G‬‬

‫) ‪(since g 2 g1 ∈ G‬‬

‫‪∋ g g −1(θ ) = θ‬‬ ‫‪−1‬‬

‫اﺑﺘﺪا ﻧﺸﺎن ﻣﻲدﻫﻴﻢ ﻛﻪ ‪= g −1‬‬ ‫) ‪(X ∈ A‬‬

‫‪∃g −1 ∈ G‬‬

‫‪(iv ) ∀g ∈ G‬‬

‫‪g‬‬

‫‪( g (X ) ∈ A ) = P‬‬

‫)) ‪g ( g −1 (θ‬‬

‫)‪(1‬‬

‫‪Pθ (X ∈ A ) = Pθ ( g −1g (X ) ∈ A ) = P‬‬

‫) ‪g −1 (θ‬‬

‫)*(‬

‫‪⇒ g ( g −1(θ )) = θ ⇒ g −1 = g −1‬‬

‫از ﻃﺮﻓﻲ‬

‫‪and g −1 ∈ G‬‬

‫)‬

‫‪⇒ g −1 ∈ G ⇒ g ∈ G‬‬

‫(‬

‫‪gg −1(θ ) = g g −1(θ ) = gg −1(θ ) = e (θ ) = θ‬‬

‫‪and‬‬

‫‪⇒ g −1 = g −1 ∈ G‬‬

‫‪∋ e (θ ) = θ‬‬ ‫)*(‬

‫‪g ∈G‬‬

‫‪(v ) ∃e ∈ G‬‬

‫)‪(1‬‬

‫‪Pθ (X ∈ A ) = Pθ (e (X ) ∈ A ) = Pe (θ ) (X ∈ A ) ⇒ e (θ ) = θ , e ∈ G‬‬

‫ﻛﻪ در آن ﻛﻠﻴﻪ رواﺑﻂ )*( از ﻣﺠﺰا ﺑﻮدن ﺑﺪﺳﺖ آﻣﺪهاﺳﺖ‪.‬‬

‫■‬

‫ﺑﺮاي ﻣﺜﺎل‪ ،‬در ﻣﺜﺎل ‪ G = {g c | g c (θ ) = cθ ,c > 0} ،1-1‬ﮔﺮوه ﺗﺒﺪﻳﻼت ﺑﻮﺟﻮد آﻣﺪه ﺗﺤﺖ ﺧﺎﻧﻮاده‬ ‫ﺗﻮزﻳﻊ ﻫﺎي ﭘﺎﻳﺎي ﻧﻤﺎﻳﻲ‪ ،‬روي ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ‪ Θ‬ﻣﻲﺑﺎﺷﺪ‪.‬‬ ‫ﺗﻌﺮﻳﻒ‪ :3-1‬ﻓﺮض ﻛﻨﻴﺪ ﺧﺎﻧﻮاده }‪ F = {f θ (x ) : θ ∈ Θ‬ﺗﺤﺖ ﮔﺮوه ﺗﺒﺪﻳﻼت ‪ G‬ﭘﺎﻳﺎ ﺑﺎﺷﺪ‪ .‬در اﻳﻦ‬

‫ﺻﻮرت ﺗﺎﺑﻊ زﻳﺎن ) ‪ L (θ , δ‬را ﺗﺤﺖ ﮔﺮوه ‪ G‬ﭘﺎﻳﺎ ﮔﻮﻳﻨﺪ اﮔﺮ ﺑﺮاي ﻫﺮ ‪ g ∈ G‬و ﻫﺮ ‪δ ∈ D‬‬ ‫)ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎ( ﻳﻚ ‪ δ * ∈ D‬ﻳﻜﺘﺎ وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﺑﻄﻮري ﻛﻪ‬ ‫‪∀θ ∈ Θ‬‬

‫) * ‪L (θ , δ ) = L ( g (θ ), δ‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪70‬‬

‫در اﻳﻦ ﺣﺎﻟﺖ * ‪ δ‬را ﺑﻮﺳﻴﻠﻪ ) ‪ g (δ‬ﻧﺸﺎن ﻣﻲدﻫﻨﺪ و ﻣﺴﺌﻠﻪ ﻣﻮرد ﻧﻈﺮ را ﺗﺤﺖ ﮔﺮوه ﺗﺒﺪﻳﻼت ‪ G‬ﭘﺎﻳﺎ‬ ‫■‬

‫ﮔﻮﻳﻨﺪ‪.‬‬ ‫ﺑﺮاي‬

‫ﻣﺜﺎل‪،‬‬

‫ﻣﺜﺎل‬

‫در‬

‫‪1-1‬‬

‫}‪= {g c | g c (X ) = cX , c > 0‬‬

‫ﺗﺎﺑﻊ‬

‫زﻳﺎن‬

‫‪δ‬‬ ‫‪θ‬‬

‫‪L (θ , δ ) = (1 − )2‬‬

‫ﺗﺤﺖ‬

‫ﺗﺒﺪﻳﻼت‬

‫‪ G‬ﭘﺎﻳﺎ ﺑﻮد زﻳﺮا‬

‫‪δ‬‬ ‫‪cδ 2‬‬ ‫) ‪) = (1 − )2 = L (θ , δ‬‬ ‫‪cθ‬‬ ‫‪θ‬‬

‫‪L ( g (θ ), g (δ ) = L (cθ , c δ ) = (1 −‬‬

‫ﻗﻀﻴﻪ‪ :2-1‬اﮔﺮ ﺧﺎﻧﻮاده ‪ F‬ﺗﺤﺖ ﺗﺒﺪﻳﻼت ‪ G‬ﭘﺎﻳﺎ ﺑﺎﺷﺪ‪ ،‬اﻧﮕﺎه ﮔﺮوهﺗﺒﺪﻳﻼت } ‪G = {g : g ∈ G‬‬

‫)ﻳﻌﻨﻲ ﮔﺮوه ﺗﺒﺪﻳﻼت ﺑﻮﺟﻮد آﻣﺪه ﺗﺤﺖ اﻳﻦ ﺧﺎﻧﻮاده روي ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎ( ﺗﺸﻜﻴﻞ ﻳﻚ ﮔﺮوه از‬ ‫ﺗﺒﺪﻳﻼت را ﻣﻲدﻫﻨﺪ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﺗﻤﺮﻳﻦ )ﻫﻤﺎﻧﻨﺪ ﻗﻀﻴﻪ‪.(1-1‬‬

‫■‬

‫ﺑﺮاي ﻣﺜﺎل‪ ،‬در ﻣﺜﺎل ‪ G = {g c | g c (δ ) = c δ ,c > 0} ،1-1‬ﮔﺮوه ﺗﺒﺪﻳﻼت ﺑﻮﺟﻮد آﻣﺪه ﺗﺤﺖ ﺧﺎﻧﻮاده‬ ‫ﺗﻮزﻳﻊﻫﺎي ﭘﺎﻳﺎي ﻧﻤﺎﻳﻲ روي ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ‪ D‬ﻣﻲ ﺑﺎﺷﺪ‪.‬‬

‫ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎ‬

‫‪1‬‬

‫در ﻗﺴﻤﺖ ﻗﺒﻞ اﺻﻮل ﭘﺎﻳﺎﻳﻲ را ﺑﻪ ﺻﻮرت زﻳﺮ ﻣﻌﺮﻓﻲ ﻛﺮدﻳﻢ‪:‬‬ ‫‪ -1‬ﭘﺎﻳﺎﺋﻲ اﻧﺪازهﮔﻴﺮي )ﻃﺒﻴﻌﻲ ﻳﺎ ﻣﻨﻄﻘﻲ ﻳﺎ ﺗﺎﺑﻌﻲ(‪ :‬اﮔﺮ ) ‪ δ (x‬را ﺑﺮاي ﺑﺮآورد ) ‪ h (θ‬ﺑﻜﺎر‬ ‫ﻣﻲﺑﺮﻳﻢ ﻃﺒﻴﻌﻲ ﺑﻪ ﻧﻈﺮ ﻣﻲرﺳﺪ ﻛﻪ )) ‪ g (δ (X‬را ﺑﺮاي ﺑﺮآورد )) ‪ g (h (θ‬ﺑﻜﺎر ﺑﺒﺮﻳﻢ‪.‬‬ ‫‪ -2‬ﭘﺎﻳﺎﺋﻲ ﺳﺎﺧﺘﺎري)ﻳﺎ رﻳﺎﺿﻲ(‪ :‬اﮔﺮ دو ﻣﺴﺌﻠﻪ اﺳﺘﻨﺒﺎﻃﻲ داراي ﻳﻚ ﺳﺎﺧﺘﺎر از ﻟﺤﺎظ ﻓﻀﺎي‬ ‫ﭘﺎراﻣﺘﺮي‪ ،‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ و ﺗﺎﺑﻊ زﻳﺎن ﺑﺎﺷﻨﺪ آﻧﮕﺎه ﺑﺎﻳﺴﺘﻲ روش ﻳﻜﺴﺎﻧﻲ را در دو ﻣﺴﺌﻠﻪ ﻣﻮرد‬ ‫اﺳﺘﻔﺎده ﻗﺮار دﻫﻴﻢ‪ .‬ﻳﻌﻨﻲ )) ‪ δ ( g (X‬را ﺑﺮاي ﺑﺮآورد )) ‪ g (h (θ‬ﺑﻜﺎر ﺑﺒﺮﻳﻢ‪.‬‬ ‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺗﻌﺎرﻳﻒ ﺑﺎﻻ و اﺻﻮل ﭘﺎﻳﺎﺋﻲ‪ ،‬ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ را ﺑﺼﻮرت زﻳﺮ ﺗﻌﺮﻳﻒ ﻣﻲﻛﻨﻴﻢ‪.‬‬

‫‪Equivariant Estimators‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪71‬‬

‫ﺗﻌﺮﻳﻒ‪ :4-1‬ﻓﺮض ﻛﻨﻴﺪ ﻣﺴﺌﻠﻪ ﻣﻮرد ﻧﻈﺮ ﻣﺎ ﺗﺤﺖ ﮔﺮوه ﺗﺒﺪﻳﻼت ‪ G‬ﭘﺎﻳﺎ ﺑﺎﺷﺪ )ﺗﻌﺎرﻳﻒ‪2-1‬و‪(3-1‬‬ ‫ﺑﺮآوردﮔﺮ ‪ δ‬را ﺗﺤﺖ ﮔﺮوه ﺗﺒﺪﻳﻼت ‪ G‬ﻫﻢﭘﺎﻳﺎ ﮔﻮﻳﻨﺪ ﻫﺮﮔﺎه ﺑﺮاي ﻫﺮ ‪ g ∈ G‬و ﻫﺮ ‪ x ∈ χ‬داﺷﺘﻪ‬ ‫ﺑﺎﺷﻴﻢ ﻛﻪ‬

‫)) ‪δ ( g (X )) = g (δ (X‬‬

‫■‬

‫ﺑﺮاي ﻣﺜﺎل‪ ،‬در ﻣﺜﺎل ‪ 1-1‬ﺷﺮط ﻓﻮق ﻣﻌﺎدل اﺳﺖ ﺑﺎ ) ‪. δ (cX ) = cδ (X‬‬ ‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺗﻌﺮﻳﻒ ﻫﻢﭘﺎﻳﺎﻳﻲ اﻳﻦ ﺳﻮال ﻣﻄﺮح ﻣﻲﺷﻮد ﻛﻪ ﺗﺤﺖ ﻳﻚ ﺗﺒﺪﻳﻞ ‪ G‬ﻛﺪاﻣﻴﻚ از ﺗﻮاﺑﻊ ) ‪h (θ‬‬

‫داراي ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ ﻫﺴﺘﻨﺪ‪ .‬اﮔﺮ در ﺗﻌﺮﻳﻒ ‪ G 4-1‬را ﺑﺎ‬

‫‪ G‬و ‪ χ‬را ﺑﺎ ‪ Θ‬ﻋﻮض ﻛﻨﻴﻢ آﻧﮕﺎه‬

‫ﻳﻚ ﺗﺎﺑﻊ ) ‪ h (θ‬ﻃﺒﻖ اﺻﻮل ﭘﺎﻳﺎﻳﻲ داراي ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ اﺳﺖ اﮔﺮ در ﺷﺮط زﻳﺮ ﺻﺪق ﻣﻲﻛﻨﺪ‪:‬‬ ‫)) ‪h ( g (θ )) = g (h (θ‬‬

‫ﺑﺮاي ﻣﺜﺎل‪ ،‬در ﻣﺜﺎل ‪ h (θ ) = θ ،1-1‬در ﺷﺮط ﻓﻮق ﺻﺪق ﻣﻲ ﻛﻨﺪ زﻳﺮا ‪:‬‬ ‫‪h ( g (θ )) = h (cθ ) = cθ‬‬ ‫‪g (h (θ )) = c (h (θ )) = cθ‬‬

‫اﻣﺎ اﮔﺮ ﺑﺨﻮاﻫﻴﻢ ‪ h (θ ) = θ r‬را ﺑﺮآورد ﻛﻨﻴﻢ آﻧﮕﺎه ) ‪ h (θ‬در ﺷﺮط ﻓﻮق ﺻﺪق ﻧﻤﻲﻛﻨﺪ زﻳﺮا‬ ‫‪g (h (θ )) = cθ r‬‬

‫‪h ( g (θ )) = h (cθ ) = c r θ r‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ‪ ،‬در اﻳﻦ ﻣﺜﺎل اﮔﺮ ﺑﺨﻮاﻫﻴﻢ ‪ h (θ ) = θ r‬را ﺑﺮآورد ﻛﻨﻴﻢ ﺑﺎﻳﺴﺘﻲ از اﺑﺘﺪا ﺧﺎﻧﻮاده ‪ G‬را ﺑﻪﺻﻮرﺗﻲ‬ ‫درﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ ﻛﻪ‬

‫‪ g (h (θ )) = c r θ r‬ﺑﺎﺷﺪ ﻳﻌﻨﻲ } ‪= {g c | g c (δ ) = c r δ‬‬

‫‪.G‬‬

‫ﻣﺜﺎل ‪ :3-1‬ﻓﺮض ﻛﻨﻴﺪ ) ‪ X ∼ B (n , p‬ﻛﻪ در آن ‪ n‬ﻣﻌﻠﻮم و ‪ p‬ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل اﺳﺖ و ﻣﻲﺧﻮاﻫﻴﻢ آن‬ ‫را ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ‪ L ( p , δ ) = (δ − p )2‬ﺑﺮآورد ﻛﻨﻴﻢ‪ .‬ﻓﺮض ﻛﻨﻴﺪ ) ‪ T (X‬ﺑﺮآوردﮔﺮ ﭘﺎراﻣﺘﺮ ‪p‬‬

‫ﺑﺮاﺳﺎس ‪ X‬ﺑﺎﺷﺪ‪.‬‬ ‫ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ ﺷﺨﺼﻲ ﺑﺨﻮاﻫﺪ اﺣﺘﻤﺎل ﺷﻜﺴﺖ ﻳﻌﻨﻲ ‪ q = 1 − p‬را ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﻓﻮق‬ ‫ﺑﺮآورد ﻧﻤﺎﻳﺪ‪ .‬اﻳﻦ ﺷﺨﺺ از ﺗﻌﺪاد ﺷﻜﺴﺖﻫﺎ در ‪ n‬آزﻣﺎﻳﺶ ﻳﻌﻨﻲ ) ‪ Y = n − X ∼ B (n , q‬اﺳﺘﻔﺎده‬ ‫ﻣﻲﻧﻤﺎﻳﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ در اﻳﻦ ﻣﺴﺌﻠﻪ ﮔﺮوه ﺗﺒﺪﻳﻼت زﻳﺮ را دارﻳﻢ‪:‬‬ ‫‪g 1(x ) = n − x , g 2 (x ) = x‬‬

‫} ‪= {g 1 , g 2‬‬

‫‪G‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪72‬‬

‫ﭼﻮن ﺑﺮاﺳﺎس اﻳﻦ ﺗﺒﺪﻳﻞ ) ‪ Y = g1(X ) ∼ B (n ,1 − p‬و ) ‪ Y = g 2 (X ) ∼ B (n , p‬ﭘﺲ ﮔﺮوه‬ ‫ﺗﺒﺪﻳﻼت ‪ G‬ﺗﻮﻟﻴﺪ ﺷﺪه ﺗﻮﺳﻂ ‪ G‬ﻋﺒﺎرت اﺳﺖ از‬ ‫‪g2( p ) = p‬‬

‫‪g 1( p ) = 1 − p‬‬

‫}‪= {g1, g 2‬‬

‫‪G‬‬

‫ﺣﺎل ﭼﻮن ﻣﻲﺧﻮاﻫﻴﻢ ‪ h ( p ) = p‬ﻳﺎ ‪ h ( p ) = 1 − p‬را ﺑﺮآورد ﻛﻨﻴﻢ ﭘﺲ ﺑﺎﻳﺴﺘﻲ‬ ‫‪g (1 − p ) = g (h ( p )) = h ( g 1( p )) = h (1 − p ) = p‬‬ ‫‪g 2 ( p ) = g 2 ( h ( p )) = h ( g 2 ( p )) = h ( p ) = p‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﮔﺮوه ﺗﺒﺪﻳﻼت زﻳﺮ روي ‪ D‬ﺑﻮﺟﻮد ﻣﻲآﻳﺪ‬ ‫‪g1(δ ) = 1 − δ , g 2 (δ ) = δ‬‬

‫‪G‬‬

‫}‪= {g 1, g 2‬‬

‫ﻫﻤﭽﻨﻴﻦ ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ‬ ‫) ‪L ( g 1( p ), g 1(δ )) = L (1 − p ,1 − δ ) = (δ − p )2 = L ( p , δ‬‬

‫ﻳﻌﻨﻲ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دم ﺗﺤﺖ اﻳﻦ ﺗﺒﺪﻳﻞ ﭘﺎﻳﺎ اﺳﺖ‪.‬‬ ‫ﺣﺎل ﻃﺒﻖ ﺗﻌﺮﻳﻒ ‪ 4-1‬ﺑﺮآوردﮔﺮ ‪ δ‬در اﻳﻦ ﻣﺴﺌﻠﻪ ﻫﻢﭘﺎﻳﺎ اﺳﺖ اﮔﺮ‬ ‫) ‪δ ( g (X )) = g (δ (X )) ⇔ δ (n − X ) = 1 − δ (X‬‬ ‫‪x‬‬ ‫از ﺟﻤﻠﻪ ﺑﺮآوردﮔﺮﻫﺎي ﭘﺎﻳﺎ در اﻳﻦ ﻣﺴﺌﻠﻪ‬ ‫‪n‬‬

‫‪x‬‬ ‫‪n‬‬

‫= ) ‪ T1(x‬و )‪ T 2 (x ) = α ( ) + (1 − α )(0.5‬ﻣﻲﺑﺎﺷﺪ‪.‬‬

‫اﮔﺮ ﺑﺮآوردﮔﺮﻫﺎي ﭘﺎﻳﺎ ﺑﻔﺮم ﺑﺎﻻ را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ در اﻳﻦ ﺻﻮرت ﺗﻌﻴﻴﻦ اﻳﻦ ﺑﺮآوردﮔﺮ در ﻧﻘﺎط‬ ‫‪n‬‬ ‫) ⎥⎤ ⎢⎡ ( ‪ T (0),T (1),.....T‬ﻛﺎﻓﻲ ﻣﻲﺑﺎﺷﺪ زﻳﺮا ﻃﺒﻖ راﺑﻄﻪ ﺑﺎﻻ‬ ‫⎦‪⎣2‬‬

‫‪.T (n ) = −T (0), T (n − 1) = −T (1),...‬‬ ‫در ﺣﺎﻟﻲ ﻛﻪ اﮔﺮ ﻳﻚ ﺑﺮآوردﮔﺮ ﻋﺎدي را ﺑﻜﺎر ﺑﺒﺮﻳﻢ ﺑﺎﻳﺴﺘﻲ اﻳﻦ ﺑﺮآوردﮔﺮ را در ﻧﻘﺎط‬ ‫) ‪ T (0),T (1),.....T (n‬ﺗﻌﻴﻴﻦ ﻛﻨﻴﻢ و ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮﻫﺎي ﭘﺎﻳﺎ ﻧﻴﺰ روﺷﻲ ﺑﺮاي ﺧﻼﺻﻪ ﻛﺮدن دادهﻫﺎ‬ ‫اراﻳﻪ ﻣﻲدﻫﻨﺪ‪.‬‬

‫■‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪73‬‬

‫ﺑﻬﺘﺮﻳﻦ ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ‬ ‫ﺣﺎل اﻳﻦ ﺳﻮال ﻣﻄﺮح ﻣﻲﺷﻮد ﻛﻪ در ﺑﻴﻦ ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢ ﭘﺎﻳﺎ ﻛﺪام ﺑﺮآوردﮔﺮ ﺑﻬﺘﺮ اﺳﺖ‪ .‬ﺟﻮاب اﻳﻦ‬ ‫ﺳﻮال اﻳﻦ اﺳﺖ ﻛﻪ ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎﺋﻲ ﻛﻪ داراي ﻛﻤﺘﺮﻳﻦ ﻣﺨﺎﻃﺮه ﺑﺎﺷﺪ ﺑﻬﺘﺮﻳﻦ ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ‬ ‫ﻣﻲﺑﺎﺷﺪ‪ .‬ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺑﻬﺘﺮﻳﻦ ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ از ﺗﻌﺎرﻳﻒ و ﻗﻀﺎﻳﺎي زﻳﺮ اﺳﺘﻔﺎده ﻣﻲﻛﻨﻴﻢ‪.‬‬ ‫ﺗﻌﺮﻳﻒ ‪ :5-1‬دو ﻧﻘﻄﻪ ‪ θ1,θ2‬در ‪ Θ‬را ﻣﻌﺎدل ‪ 1‬ﮔﻮﻳﻨﺪ اﮔﺮ ‪ g ∈ G‬ﻣﻮﺟﻮد ﺑﺎﺷﺪ ﻛﻪ )‪. θ2 = g (θ1‬‬ ‫ﻳﻚ ﻣﺪار ‪ 2‬در ‪ Θ‬ﻋﺒﺎرت از ﻳﻚ ﻛﻼس )ﻣﺠﻤﻮﻋﻪ( از ﻧﻘﺎط ﻣﻌﺎدل در ‪ Θ‬اﺳﺖ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﻣﺪار ‪ θ0‬در ‪Θ‬‬

‫ﻋﺒﺎرت از ﻣﺠﻤﻮﻋﻪ زﻳﺮ اﺳﺖ‪:‬‬

‫} ‪. Θ(θ0) = {g (θ0) | g ∈ G‬‬

‫■‬

‫ﻣﻌﺎدل ﺑﻮدن در ﺗﻌﺮﻳﻒ ‪ 5-1‬ﻳﻚ راﺑﻄﻪ ﻫﻢارزي را ﺑﺪﺳﺖ ﻣﻲدﻫﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﺗﻌﺮﻳﻒ ﻓﻮق ‪ Θ‬را ﺑﻪ‬ ‫ﻛﻼسﻫﺎي ﻫﻢارزي اﻓﺮاز ﻣﻲﻛﻨﺪ‪ .‬ﻫﺮ ﻳﻚ از اﻳﻦ ﻛﻼسﻫﺎ را ﻳﻚ ﻣﺪار )ﺗﺤﺖ ‪ ( G‬ﻣﻲﻧﺎﻣﻴﻢ‪.‬‬ ‫ﺗﻌﺮﻳﻒ ‪ :6-1‬ﻳﻚ ﮔﺮوه ‪ G‬از ﺗﺒﺪﻳﻼت روي ‪ Θ‬را اﻧﺘﻘﺎﻟﻲ ﻳﺎ ﮔﺬرا ‪ 3‬ﮔﻮﻳﻨﺪ‪ ،‬ﻫﺮﮔﺎه ‪ Θ‬داراي ﺗﻨﻬﺎ ﻳﻚ‬ ‫ﻣﺪار ﺑﺎﺷﺪ و ﻳﺎ ﻣﻌﺎدﻻ اﮔﺮ ﺑﺮاي ﻫﺮ دو ﻧﻘﻄﻪ ‪ θ1,θ2 ∈ Θ‬ﻳﻚ ‪ g ∈ G‬ﻣﻮﺟﻮد ﺑﺎﺷﺪ ﺑﻄﻮرﻳﻜﻪ‬ ‫)‪. θ2 = g (θ1‬‬

‫■‬

‫ﺑﺮاي ﻣﺜﺎل‪ ،‬در ﻣﺜﺎل ‪1-1‬‬

‫‪θ2‬‬ ‫‪ G‬ﺗﻨﻬﺎ داراي ﻳﻚ ﻣﺪار اﺳﺖ )‪θ = cθ1‬‬ ‫‪θ1 1‬‬

‫= ‪ (θ2‬ﭘﺲ ﻳﻚ ﮔﺮوه اﻧﺘﻘﺎﻟﻲ‬

‫اﺳﺖ وﻟﻲ در ﻣﺜﺎل ‪ 3-1‬ﭼﻮن ‪ g ( p ) = 1 − p‬ﭘﺲ ﻣﺪارﻫﺎ ﻫﻤﺎن زوجﻫﺎي ﻣﺮﺗﺐ ) ‪ ( p ,1 − p‬ﻫﺴﺘﻨﺪ و‬ ‫‪1‬‬ ‫در ﻧﺘﻴﺠﻪ ‪ G‬اﻧﺘﻘﺎﻟﻲ ﻧﻴﺴﺖ‪ .‬در اﻳﻦ ﮔﺮوه ﻧﻘﺎط‬ ‫‪3‬‬ ‫‪2‬‬ ‫‪1‬‬ ‫ﻧﻘﺎط = ‪ p2 = , p1‬را ﻧﻤﻲﺗﻮان ﺑﻪ ﻫﻢ اﻧﺘﻘﺎل داد‪.‬‬ ‫‪3‬‬ ‫‪3‬‬

‫‪2‬‬ ‫‪3‬‬

‫= ‪ p2 = , p1‬را ﻣﻲﺗﻮان ﺑﻪ ﻫﻢ اﻧﺘﻘﺎل داد وﻟﻲ‬

‫ﻗﻀﻴﻪ ‪)3-1‬ﻣﻬﻢ(‪ :‬ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﻫﺮ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ روي ﻣﺪارﻫﺎي ‪ Θ‬ﻣﻘﺪاري ﺛﺎﺑﺖ دارد و ﻳﺎ ﻣﻌﺎدﻻ‬ ‫‪R (θ , δ ) = R ( g (θ ), δ ) ∀θ ∈ Θ, g ∈ G‬‬

‫‪١‬‬

‫‪Equivalent‬‬ ‫‪Orbit‬‬ ‫‪٣‬‬ ‫‪Transitive‬‬ ‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪74‬‬

‫]) ‪R (θ , δ ) = E θ [L (θ , δ (X‬‬

‫اﺛﺒﺎت‪:‬‬ ‫)ﭘﺎﻳﺎﺋﻲ ﺗﺎﺑﻊ زﻳﺎن(‬

‫])) ‪= E θ [L ( g (θ ), g (δ (X‬‬

‫)ﻫﻢﭘﺎﻳﺎﺋﻲ ﺑﺮآوردﮔﺮ ‪( δ‬‬

‫])) ‪= E θ [L ( g (θ ), δ ( g (X‬‬

‫)ﭘﺎﻳﺎﺋﻲ ﺗﻮزﻳﻊ‪ ،‬راﺑﻄﻪ )‪((6‬‬

‫])) ‪= E g (θ ) [L ( g (θ ), δ (X‬‬

‫■‬

‫) ‪= R ( g (θ ), δ‬‬

‫ﻧﺘﻴﺠﻪ ‪ :1-1‬اﮔﺮ‬

‫‪ G‬ﻳﻚ ﮔﺮوه اﻧﺘﻘﺎﻟﻲ از ﺗﺒﺪﻳﻼت روي ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ‪ Θ‬ﺑﺎﺷﺪ آﻧﮕﺎه ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه‬

‫ﻫﺮ ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ ﺛﺎﺑﺖ اﺳﺖ و ﺑﻪ ‪ θ‬ﺑﺴﺘﮕﻲ ﻧﺪارد‪.‬‬ ‫ﺗﻮﺟﻪ‪ :‬ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻧﺘﻴﺠﻪ ﻓﻮق اﮔﺮ‬

‫■‬

‫‪ G‬ﻳﻚ ﮔﺮوه اﻧﺘﻘﺎﻟﻲ ﺑﺎﺷﺪ آﻧﮕﺎه ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎ‬

‫ﻧﺴﺒﺖ ﺑﻪ ‪ θ‬ﺛﺎﺑﺖ اﺳﺖ و در ﻧﺘﻴﺠﻪ ﺑﻬﺘﺮﻳﻦ ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ )‪ (MRE‬آن ﺑﺮآوردﮔﺮي اﺳﺖ ﻛﻪ اﻳﻦ‬ ‫ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﺛﺎﺑﺖ را ﻣﻴﻨﻴﻤﻢ ﻣﻲﻛﻨﺪ‪.‬‬ ‫ﺑﺮاي ﻣﺜﺎل‪ ،‬در ﻣﺜﺎل ‪ 1-1‬دﻳﺪﻳﻢ ﻛﻪ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي‬

‫‪ δ (X ) = kX‬ﺑﺮاﺑﺮ‬

‫‪1‬‬ ‫‪ R (θ , δ ) = 2k 2 − 2k + 1‬ﺑﻮد ﻛﻪ ﺑﻪ ‪ θ‬ﺑﺴﺘﮕﻲ ﻧﺪاﺷﺖ و ﻣﻴﻨﻴﻤﻢ آن ﺑﻪ ازاي‬ ‫‪2‬‬ ‫‪1‬‬ ‫ﺑﺮآوردﮔﺮ ‪ MRE‬ﻋﺒﺎرت از ‪ δ * (X ) = X‬ﺑﻮد‪.‬‬ ‫‪2‬‬

‫= ‪ k‬ﺑﺪﺳﺖ آﻣﺪ‪ ،‬ﭘﺲ‬

‫ﺗﻌﺮﻳﻒ‪ :7-1‬ﻓﺮض ﻛﻨﻴﺪ‬

‫‪ G‬ﮔﺮوﻫﻲ از ﺗﺒﺪﻳﻼت روي ﻓﻀﺎي ‪ χ‬ﺑﺎﺷﺪ‪ .‬ﺗﺎﺑﻊ ) ‪ T (X‬را روي ‪χ‬‬

‫ﻧﺴﺒﺖ ﺑﻪ ‪ G‬ﭘﺎﻳﺎ ‪ 1‬ﮔﻮﻳﻨﺪ ﻫﺮﮔﺎه ﺑﺮاي ﻫﺮ ‪ x ∈ χ‬و ‪ g ∈ G‬داﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ ) ‪.T ( g (x )) = T (x‬‬ ‫ﺗﺎﺑﻊ ) ‪ T (x‬را ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل ‪ 2‬ﻧﺴﺒﺖ ﺑﻪ ‪ G‬ﮔﻮﻳﻨﺪ ﻫﺮﮔﺎه ‪ T‬ﭘﺎﻳﺎ ﺑﺎﺷﺪ و در ﺷﺮط زﻳﺮ ﺻﺪق ﻛﻨﺪ‬ ‫‪T (x 1) = T (x 2 ) ⇒ x 1 = g (x 2 ) for some g ∈ G‬‬

‫■‬

‫ﻣﻔﺎﻫﻴﻢ ﻓﻮق ﺑﺮاي درك اﻳﻦ ﻣﻄﻠﺐ ﻛﻪ ‪ χ‬ﻣﻲﺗﻮاﻧﺪ ﺑﻪ ﻣﺪارﻫﺎﻳﻲ از ﻧﻘﺎط ﻛﻪ ﺗﺤﺖ ‪ G‬ﻣﻌﺎدل ﻫﺴﺘﻨﺪ‪،‬‬ ‫ﻣﻔﻴﺪ ﻣﻲﺑﺎﺷﺪ‪.‬‬

‫ﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎ ﺗﺎﺑﻌﻲ اﺳﺖ ﻛﻪ روي ﻫﺮ ﻣﺪار ﻣﻘﺪاري ﺛﺎﺑﺖ دارد‪.‬‬

‫) ) ‪ ( x ′ ∼ x ⇒ T ( x ′) = T ( x‬و ﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل ﺗﺎﺑﻌﻲ اﺳﺖ ﻛﻪ روي ﻫﺮ ﻣﺪار ﻣﻘﺪاري ﺛﺎﺑﺖ‬

‫‪Invariant‬‬ ‫‪Maximal Invariant‬‬

‫‪١‬‬ ‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪75‬‬

‫دارد و ﻣﻘﺎدﻳﺮ ﻣﺘﻔﺎوﺗﻲ را ﺑﻪ ﻫﺮ ﻳﻚ از ﻣﺪارﻫﺎي ﻣﺘﻔﺎوت ﻣﻲدﻫﺪ‪ .‬ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ اﮔﺮ ‪ G‬ﻳﻚ ﮔﺮوه‬

‫اﻧﺘﻘﺎﻟﻲ روي ‪ χ‬ﺑﺎﺷﺪ آﻧﮕﺎه ‪ χ‬ﺧﻮد ﻳﻚ ﻣﺪار اﺳﺖ و ﺑﻨﺎﺑﺮاﻳﻦ ﺗﻨﻬﺎ ﺗﺎﺑﻊ ﭘﺎﻳﺎﺋﻲ ﻣﺎﻛﺰﻳﻤﺎل روي ‪χ‬‬ ‫ﺗﺎﺑﻊ ﺛﺎﺑﺖ اﺳﺖ‪.‬‬ ‫ﺑﺪﻳﻬﻲ اﺳﺖ ﻛﻪ اﮔﺮ ‪ T‬ﻳﻚ آﻣﺎره ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل ﺑﺎﺷﺪ‪ ،‬ﻫﺮ ﺗﺎﺑﻊ ﻳﻚ ﺑﻪ ﻳﻚ از آن ﻧﻴﺰ ﻳﻚ آﻣﺎره ﭘﺎﻳﺎي‬ ‫ﻣﺎﻛﺰﻳﻤﺎل اﺳﺖ‪ .‬ﭘﺲ آﻣﺎره ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل ﻳﻜﺘﺎ ﻧﻴﺴﺖ وﻟﻲ ﻫﻤﻪ آﻧﻬﺎ ﺗﻮاﺑﻌﻲ ﻳﻚ ﺑﻪ ﻳﻚ از ﻳﻜﺪﻳﮕﺮ‬ ‫ﻫﺴﺘﻨﺪ‪.‬‬ ‫ﻣﺜﺎل ‪ :4-1‬ﻓﺮض ﻛﻨﻴﺪ ‪ χ = ℜn‬و ‪ G‬ﮔﺮوه ﺗﺒﺪﻳﻼت ﻣﻜﺎﻧﻲ ﺑﺎﺷﺪ‪.‬‬ ‫} ‪= {g c : g c ( x 1, x 2 ,..., x n ) = ( x 1 + c ,....., x n + c ), c ∈ R‬‬

‫در‬

‫اﻳﻦ‬

‫) ‪T (x ) = ( x 1 − x n ,...., x n −1 − x n‬‬

‫ﺻﻮرت‬

‫ﭘﺎﻳﺎي‬

‫‪G‬‬

‫ﻣﺎﻛﺰﻳﻤﺎل‬

‫اﺳﺖ‪.‬‬

‫ﭼﻮن‬

‫‪ (x i + c ) − (x n + c ) = x i − x n‬ﭘﺲ ) ‪ T ( g c (x )) = T (x‬ﭘﺲ ‪ T‬ﭘﺎﻳﺎ اﺳﺖ‪ .‬ﺣﺎل اﮔﺮ‬ ‫)‪ T (x ) = T (x ′‬آﻧﮕﺎه ) ‪ (x i − x n ) = (x i ′ − x n‬و در ﻧﺘﻴﺠﻪ ﺑﺎ ‪ c = x n − x n ′‬دارﻳﻢ ﻛﻪ‬ ‫‪ g c (x ′) = x‬ﭘﺲ ‪ T‬ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل اﺳﺖ‪.‬‬

‫■‬

‫ﻣﺜﺎل ‪ :5-1‬ﻓﺮض ﻛﻨﻴﺪ ‪ χ = ℜn‬و ‪ G‬ﮔﺮوه ﺗﺒﺪﻳﻼت ﻣﻘﻴﺎﺳﻲ ﺑﺎﺷﺪ‪.‬‬ ‫}‪= {g c : g c ( x 1,..., x n ) = (cx 1,..., cx n ), c > 0‬‬ ‫‪n‬‬

‫اﮔﺮ ‪ Z = ∑ X i2‬آﻧﮕﺎه‬ ‫‪i =1‬‬

‫‪if Z = 0‬‬ ‫‪if Z ≠ 0‬‬

‫‪G‬‬

‫‪⎧0‬‬ ‫⎪‬ ‫‪ T (X ) = ⎨ X‬ﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل اﺳﺖ‪.‬‬ ‫‪Xn‬‬ ‫‪1‬‬ ‫)‬ ‫‪⎪( ,...‬‬ ‫‪Z‬‬ ‫‪⎩ Z‬‬

‫ﻣﺜﺎل ‪ :6-1‬ﻓﺮض ﻛﻨﻴﺪ ‪ χ = ℜn‬و ‪ G‬ﮔﺮوه ﺗﺒﺪﻳﻼت ﻣﻜﺎﻧﻲ‪ -‬ﻣﻘﻴﺎﺳﻲ ﺑﺎﺷﺪ‬ ‫} ‪= {g b ,c | g b ,c (x 1,..., x n ) = (cx 1 + b ,...,cx n + b ), c > 0, b ∈ R‬‬

‫اﮔﺮ‬

‫‪1 n‬‬ ‫‪x = ∑x i‬‬ ‫‪n i =1‬‬

‫و‬

‫‪1 n‬‬ ‫‪(x i − x )2‬‬ ‫= ‪s‬‬ ‫∑‬ ‫‪n − 1 i =1‬‬

‫‪⎧0‬‬ ‫‪s =0‬‬ ‫⎪‬ ‫آﻧﮕﺎه‬ ‫‪ T (x ) = ⎨ x − x‬ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل اﺳﺖ‪.‬‬ ‫‪x −x‬‬ ‫‪1‬‬ ‫‪,..., n‬‬ ‫‪) s ≠0‬‬ ‫(⎪‬ ‫‪s‬‬ ‫‪⎩ s‬‬

‫‪2‬‬

‫‪G‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪76‬‬

‫ﺗﻮﺟﻪ‪ :‬ﭘﺎﻳﺎﻳﻲ و ﭘﺎﻳﺎﻳﻲ ﻣﺎﻛﺰﻳﻤﺎل را روي ‪ Θ‬ﺑﻄﻮر ﻣﺸﺎﺑﻪ ﻣﻲﺗﻮان ﺗﻌﺮﻳﻒ ﻛﺮد‪.‬‬ ‫ﻗﻀﻴﻪ ‪ :4-1‬ﻓﺮض ﻛﻨﻴﺪ ‪ G‬ﮔﺮوﻫﻲ از ﺗﺒﺪﻳﻼت روي ﻓﻀﺎي ‪ χ‬ﺑﺎﺷﺪ و ) ‪ T (X‬ﻳﻚ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل‬ ‫ﺑﺎﺷﺪ‪ .‬در اﻳﻦ ﺻﻮرت ﺗﺎﺑﻊ ) ‪ h (X‬ﻧﺴﺒﺖ ﺑﻪ ‪ G‬ﭘﺎﻳﺎ اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ ‪ h‬ﺗﺎﺑﻌﻲ از ‪ T‬ﺑﺎﺷﺪ‪.‬‬ ‫اﺛﺒﺎت‪:‬‬ ‫)ﻛﻔﺎﻳﺖ(‪ :‬ﻓﺮض ﻛﻨﻴﺪ )) ‪ h (x ) = s (T (x‬در اﻳﻦ ﺻﻮرت‬ ‫) ‪ h ( g (x )) = s (T ( g (x )) = s (T (x )) = h (x‬ﭘﺲ ‪ h‬ﭘﺎﻳﺎ اﺳﺖ‪.‬‬ ‫)ﻟﺰوم(‪ :‬ﻓﺮض ﻛﻨﻴﺪ ‪ h‬ﭘﺎﻳﺎ ﺑﺎﺷﺪ و ) ‪ T (x 1) = T (x 2‬در اﻳﻦ ﺻﻮرت ﭼﻮن ‪ T‬ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل اﺳﺖ‬ ‫ﭘﺲ ) ‪ x 1 = g (x 2‬و در ﻧﺘﻴﺠﻪ ) ‪ h (x 1) = h ( g (x 2 )) = h (x 2‬ﻳﻌﻨﻲ ‪ h‬ﺗﺎﺑﻌﻲ از ‪ T‬اﺳﺖ‪.‬‬

‫■‬

‫ﻗﻀﻴﻪ ‪ :5-1‬اﮔﺮ ‪ h‬ﻳﻚ آﻣﺎره ﭘﺎﻳﺎ ﺑﺎﺷﺪ آﻧﮕﺎه ﺗﻮزﻳﻊ آن روي ﻫﺮ ﻣﺪار ‪ Θ‬ﻣﻘﺪاري ﺛﺎﺑﺖ اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﻓﺮض ﻛﻨﻴﺪ ‪ θ1,θ2‬در ﻳﻚ ﻣﺪار ‪ Θ‬ﺑﺎﺷﻨﺪ در اﻳﻦ ﺻﻮرت ‪ g ∈ G‬وﺟﻮد دارد ﻛﻪ‬ ‫)‪ θ2 = g (θ1‬و ﺑﻨﺎﺑﺮاﻳﻦ‬ ‫)*(‬

‫)‪(5‬‬

‫) ‪Pθ2 (h (X ) ∈ A ) = Pg (θ1) (h ( X ) ∈ A ) = Pθ1 ( h ( g (x )) ∈ A ) = Pθ1 ( h (X ) ∈ A‬‬

‫ﻳﻌﻨﻲ ﺗﻮزﻳﻊ روي ﻫﺮ ﻣﺪار ‪ Θ‬ﺛﺎﺑﺖ اﺳﺖ‪ .‬ﺗﻮﺟﻪ داﺷﺘﻪ ﺑﺎﺷﻴﺪ ﻛﻪ ﺗﺴﺎوي )*( از ﭘﺎﻳﺎﺋﻲ ‪ h‬ﺣﺎﺻﻞ‬ ‫ﻣﻲﮔﺮدد‪.‬‬ ‫ﻧﺘﻴﺠﻪ‪ :2-1‬اﮔﺮ‬

‫■‬ ‫‪ G‬ﺗﻘﺎرﻧﻲ ﺑﺎﺷﺪ آﻧﮕﺎه ‪ Θ‬ﺗﻨﻬﺎ ﻳﻚ ﻣﺪار دارد و در ﻧﺘﻴﺠﻪ ﺗﻮزﻳﻊ ﻫﺮ آﻣﺎره ﭘﺎﻳﺎي ‪h‬‬

‫روي آن ﺑﻪ ‪ θ‬ﺑﺴﺘﮕﻲ ﻧﺪارد‪ ،‬ﻳﻌﻨﻲ ‪ h‬ﻳﻚ آﻣﺎره ﻓﺮﻋﻲ ‪ 1‬اﺳﺖ‪.‬‬ ‫ﻗﻀﻴﻪ زﻳﺮ ﺣﺎﻟﺖ ﻛﻠﻲ ﺗﺮ ﻗﻀﻴﻪ ‪ 5-1‬را ﺑﻴﺎن ﻣﻲ ﻛﻨﺪ‪.‬‬ ‫ﻗﻀﻴﻪ ‪ :6-1‬ﻓﺮض ﻛﻨﻴﺪ ﻳﻚ ﻣﺴﺌﻠﻪ ﺗﺤﺖ ﺗﺒﺪﻳﻼت ‪ G‬ﭘﺎﻳﺎ ﺑﺎﺷﺪ و ) ‪ υ (θ‬ﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل روي‬ ‫‪ Θ‬ﻧﺴﺒﺖ ﺑﻪ‬

‫‪ G‬ﺑﺎﺷﺪ‪ .‬اﮔﺮ ) ‪ h (X‬ﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎ ﺗﺤﺖ ‪ G‬ﺑﺎﺷﺪ آﻧﮕﺎه ﺗﻮزﻳﻊ ) ‪ h (X‬ﺗﻨﻬﺎ ﺑﻪ ) ‪υ (θ‬‬

‫ﺑﺴﺘﮕﻲ دارد‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﺑﺮاي ﻫﺮ ‪ A ⊂ χ‬دارﻳﻢ ﻛﻪ‬ ‫‪Ancillary‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬ ‫)*(‬

‫‪77‬‬

‫)‪(5‬‬

‫) ‪Pg (θ ) (h (X ) ∈ A ) = Pθ (h ( g (X )) ∈ A ) = Pθ (h ( X ) ∈ A‬‬

‫ﺗﻮﺟﻪ داﺷﺘﻪ ﺑﺎﺷﻴﺪ ﻛﻪ ﺗﺴﺎوي )*( از ﭘﺎﻳﺎﺋﻲ ‪ h‬ﺣﺎﺻﻞ ﻣﻲﮔﺮدد‪ .‬ﻳﻌﻨﻲ ) ‪ S (θ ) = Pθ (h (X ) ∈ A‬ﻳﻚ‬ ‫ﺗﺎﺑﻊ ﭘﺎﻳﺎ روي ‪ Θ‬اﺳﺖ )) ‪ (S ( g (θ )) = S (θ‬ﺑﻨﺎﺑﺮاﻳﻦ ﻃﺒﻖ ﻗﻀﻴﻪ ‪ S (θ ) 4-1‬ﺗﺎﺑﻌﻲ از ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل‬ ‫) ‪ υ (θ‬اﺳﺖ‪ .‬ﭼﻮن اﻳﻦ ﻣﻄﻠﺐ ﺑﺮاي ﻫﺮ ‪ A‬ﺑﺮﻗﺮار اﺳﺖ ﭘﺲ ﺗﻮزﻳﻊ ) ‪ h (X‬ﺗﻨﻬﺎ ﺑﻪ ) ‪ υ (θ‬ﺑﺴﺘﮕﻲ دارد‪.‬‬ ‫■‬ ‫ﺗﻮﺳﻂ ﻗﻀﻴﻪ زﻳﺮ ﺑﺮآوردﮔﺮﻫﺎي ‪ MRE‬را ﺑﺪﺳﺖ ﻣﻲآورﻳﻢ‪.‬‬ ‫ﻗﻀﻴﻪ ‪ :7-1‬ﻓﺮض ﻛﻨﻴﺪ ﻣﺴﺌﻠﻪ ﻣﻮرد ﻧﻈﺮ ﺗﺤﺖ ﺗﺒﺪﻳﻼت ‪ G‬ﭘﺎﻳﺎ ﺑﺎﺷﺪ)ﺗﻌﺎرﻳﻒ‪2-1‬و ‪ (3-1‬و‬

‫‪ G‬ﻳﻚ‬

‫ﮔﺮوه اﻧﺘﻘﺎﻟﻲ روي ‪ Θ‬ﺑﺎﺷﺪ و ) ‪ Y = T (X‬ﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل روي ‪ χ‬ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت‬ ‫ﻫﺮ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي ) ‪ δ (X‬ﺑﺎ ﻣﺨﺎﻃﺮه ﻣﺘﻨﺎﻫﻲ ﻛﻪ اﻣﻴﺪ ﺷﺮﻃﻲ ] ‪ E e [L (e , δ (X ) |Y = y‬را‬ ‫ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ θ‬اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﺑﺮآوردﮔﺮ ‪ MRE‬از ﻣﻴﻨﻴﻤﻢ ﻛﺮدن ]) ‪ R (θ , δ ) = E θ [L (θ , δ (X‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪ .‬اﻣﺎ ﻃﺒﻖ ﻧﺘﻴﺠﻪ‬ ‫‪ 1-1‬ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﻫﺮ ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ ﻧﺴﺒﺖ ﺑﻪ ‪ θ‬ﺛﺎﺑﺖ اﺳﺖ)ﭼﻮن ‪ G‬اﻧﺘﻘﺎﻟﻲ اﺳﺖ(‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﻛﺎﻓﻲ‬

‫اﺳﺖ اﻳﻦ ﻣﺨﺎﻃﺮه را در ﻧﻘﻄﻪ ‪ θ = e‬ﻣﻴﻨﻴﻤﻢ ﻛﻨﻴﻢ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﻛﺎﻓﻲ اﺳﺖ ﻣﺨﺎﻃﺮه زﻳﺮ را ﻧﺴﺒﺖ ﺑﻪ ‪δ‬‬ ‫ﻣﻴﻨﻴﻤﻢ ﻛﻨﻴﻢ‬ ‫}] ‪R (e , δ ) = E e [L (e , δ (X ))] = E e {E e [L (e , δ (X )) |Y‬‬

‫) (‬

‫‪= ∫ E e [L (e , δ (X )) |Y = y ]f Y ( y )d μ y‬‬

‫اﻳﻦ اﻧﺘﮕﺮال ﻣﻮﻗﻌﻲ ﻣﻴﻨﻴﻤﻢ ﻣﻲ ﺷﻮد ﻛﻪ ] ‪ E e [L (e , δ (X )) |Y = y‬ﻣﻴﻨﻴﻤﻢ ﺷﻮد و در ﻧﺘﻴﺠﻪ ﻗﻀﻴﻪ‬ ‫ﺛﺎﺑﺖ اﺳﺖ‪.‬‬

‫■‬

‫ﺗﻮﺟﻪ‪ :‬اﮔﺮ در ﻣﺴﺌﻠﻪاي آﻣﺎره ﺑﺴﻨﺪه ) ‪ S (X‬وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﻛﻪ ﭘﺎﻳﺎ ﺑﺎﺷﺪ ﻳﻌﻨﻲ‬ ‫)) ‪ S ( g (X )) = g (S (X‬آﻧﮕﺎه ﻣﻲﺗﻮان ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي ) ‪ δ (X‬را ﻫﻤﻴﻦ آﻣﺎره ﺑﺴﻨﺪه ) ‪ S (X‬در‬ ‫ﻧﻈﺮ ﮔﺮﻓﺖ ﻛﻪ ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻗﻀﻴﻪ ﺑﺎﺳﻮ و ﻗﻀﻴﻪ ‪ 5-1‬اﻳﻦ آﻣﺎره ﻫﻢﭘﺎﻳﺎ از ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل‬ ‫) ‪ Y = T (X‬ﻣﺴﺘﻘﻞ اﺳﺖ‪.‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫ﺑﺨﺶ‪ : 2‬ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ﻣﻜﺎن‬

‫‪78‬‬

‫‪1‬‬

‫ﻓﺮض ﻛﻨﻴﺪ ) ‪ X = (X 1, X 2 ,..., X n‬داراي ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ﺗﻮام‬ ‫) ‪f (x − θ ) = f (x 1 − θ ,..., x n − θ‬‬

‫ﺑﺎﺷﺪ ﻛﻪ در آن ‪ f‬ﻣﻌﻠﻮم و ‪ θ‬ﭘﺎراﻣﺘﺮ ﻣﻜﺎن ﻧﺎﻣﻌﻠﻮم اﺳﺖ‪ .‬اﮔﺮ ﮔﺮوه ﺗﺒﺪﻳﻼت زﻳﺮ را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ‪.‬‬

‫} ‪G = {g a : g a ( x 1,...., x n ) = ( x 1 + a ,..., x n + a ) = x + a , a ∈ R‬‬ ‫آﻧﮕﺎه ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻓﻮق ﻧﺴﺒﺖ ﺑﻪ اﻳﻦ ﺗﺒﺪﻳﻞ ﭘﺎﻳﺎ اﺳﺖ‪ ،‬ﻫﺮﮔﺎه ﮔﺮوه ﺗﺒﺪﻳﻼت‬ ‫} ‪= {g a : g a (θ ) = θ + a , a ∈ R‬‬

‫ﺑﺎﺷﺪ‬

‫‪ G‬ﺑﺼﻮرت زﻳﺮ‬

‫‪G‬‬

‫ﻛﻪ ﻳﻚ ﮔﺮوه اﻧﺘﻘﺎﻟﻲ از ﺗﺒﺪﻳﻼت اﺳﺖ‪ .‬در ﺑﺮآورد ﭘﺎراﻣﺘﺮ ‪ h (θ ) = θ‬ﺗﺤﺖ ﺗﺒﺪﻳﻞ ‪ h (θ ) ، G‬داراي‬ ‫ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ اﺳﺖ اﮔﺮ‬ ‫) ‪h ( g (θ )) = g (h (θ )) ⇔ θ + a = g (θ‬‬ ‫} ‪= {g a : g a (δ ) = δ + a , a ∈ R‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﮔﺮوه ﺗﺒﺪﻳﻼت ‪ G‬ﺑﺼﻮرت زﻳﺮ اﺳﺖ‬

‫‪G‬‬

‫در ﻧﺘﻴﺠﻪ ﺗﺤﺖ ﮔﺮوه ‪ G‬ﺗﺎﺑﻊ زﻳﺎن ) ‪ L (θ , δ‬ﭘﺎﻳﺎ اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ‬ ‫?‬

‫) ‪L (θ , δ ) = L ( g (θ ), g (δ )) ⇔ L (θ , δ ) = L (θ + a , δ + a ) ⇔ L (θ , δ ) = ρ (δ − θ‬‬

‫)اﺛﺒﺎت راﺑﻄﻪ ﺳﻮم‪:‬‬ ‫) ‪⇒) a = −θ ⇒ L (θ , δ ) = L (0, δ − θ ) = ρ (δ − θ‬‬

‫) ‪( ⇐) L (θ + a, δ + a ) = ρ (δ + a − θ − a ) = ρ (δ − θ ) = L (θ , δ‬‬ ‫ﺑﻨﺎﺑﺮاﻳﻦ اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم ) ‪ L (θ , δ ) = ρ (δ − θ‬ﺑﺎﺷﺪ آﻧﮕﺎه ﻣﺴﺌﻠﻪ‪ ،‬ﺗﺤﺖ ﮔﺮوه ﺗﺒﺪﻳﻼت ‪ G‬ﭘﺎﻳﺎ‬ ‫اﺳﺖ ‪ .‬ﺑﺮاي ﻣﺜﺎل | ‪ L (θ , δ ) =| δ − θ‬ﻳﺎ ‪ L (θ , δ ) = (δ − θ )2‬از اﻳﻦ ﻧﻮع ﺗﺎﺑﻊ زﻳﺎن ﻣﻲ ﺑﺎﺷﻨﺪ‪.‬‬ ‫ﻫﻤﭽﻨﻴﻦ ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎ در اﻳﻦ ﺣﺎﻟﺖ ﺑﺼﻮرت زﻳﺮ ﻣﻲﺑﺎﺷﻨﺪ‪:‬‬ ‫‪δ ( g (X )) = g (δ (X )) ⇔ δ (X + a ) = δ (X ) + a‬‬

‫از ﺟﻤﻠﻪ ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢ ﭘﺎﻳﺎ در اﻳﻦ ﺣﺎﻟﺖ ‪ X‬و‬

‫) ‪X (1) + X ( n‬‬ ‫‪2‬‬

‫ﻣﻲﺑﺎﺷﻨﺪ‪.‬‬

‫ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺑﺮآوردﮔﺮﻫﺎي ‪ MRE‬در اﻳﻦ ﺣﺎﻟﺖ از ﻗﻀﻴﻪ زﻳﺮ اﺳﺘﻔﺎده ﻣﻲﻛﻨﻴﻢ‪.‬‬

‫‪MRE Estimator of Location Parameter‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪79‬‬

‫ﻗﻀﻴﻪ ‪ :1-2‬اﮔﺮ ‪ δ0‬ﻫﺮ ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎي ‪ θ‬ﺑﺎﺷﺪ آﻧﮕﺎه ﺷﺮط ﻻزم و ﻛﺎﻓﻲ ﺑﺮاي آﻧﻜﻪ ﺑﺮآوردﮔﺮ ‪δ‬‬ ‫ﺑﺮاي ‪ θ‬ﻫﻢ ﭘﺎﻳﺎ ﺑﺎﺷﺪ آن اﺳﺖ ﻛﻪ‬ ‫) ‪δ (x ) = δ0(x ) + U (x‬‬

‫)‪(1‬‬

‫ﻛﻪ در آن ) ‪ U (x‬ﻫﺮ ﺗﺎﺑﻊ ﭘﺎﻳﺎ ﻧﺴﺒﺖ ﺑﻪ ‪ G‬اﺳﺖ ﻳﻌﻨﻲ‪:‬‬ ‫) ‪U (x + a ) = U (x‬‬

‫)‪(2‬‬

‫اﺛﺒﺎت‪ :‬ﻓﺮض ﻛﻨﻴﺪ رواﺑﻂ )‪ (1‬و )‪ (2‬ﺑﺮﻗﺮار ﺑﺎﺷﻨﺪ در اﻳﻦ ﺻﻮرت‪:‬‬ ‫) ‪δ (x + a ) = δ0(x + a ) + U (x + a ) = {δ0(x ) + a} + U (x ) = δ (x + a‬‬

‫ﭘﺲ ) ‪ δ (x‬ﻳﻚ ﺑﺮاوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ اﺳﺖ‪ .‬ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ ) ‪ δ (x‬ﻫﻢ ﭘﺎﻳﺎ ﺑﺎﺷﺪ و ﻗﺮار ﻣﻲدﻫﻴﻢ‬ ‫) ‪ U (x ) = δ (x ) − δ0(x‬در اﻳﻦ ﺻﻮرت راﺑﻄﻪ )‪ (1‬ﺑﺮﻗﺮار اﺳﺖ و ﻫﻤﭽﻨﻴﻦ‬ ‫) ‪U (x + a ) = δ (x + a ) − δ0( x + a ) = δ (x ) + a − δ0(x ) − a = δ (x ) − δ0(x ) = U (x‬‬

‫ﭘﺲ راﺑﻄﻪ )‪ (2‬ﺑﺮﻗﺮار اﺳﺖ‪.‬‬

‫■‬

‫اﮔﺮ ﻗﺮار دﻫﻴﻢ )‪ Y = (Y 1,....,Y n −1‬ﻛﻪ ‪ Y i = X i − X n , i = 1,..., n − 1‬و ‪ Y = c‬اﮔﺮ ‪n = 1‬‬

‫ﺑﺎﺷﺪ‪ ،‬آﻧﮕﺎه ‪ Y‬ﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل ﻧﺴﺒﺖ ﺑﻪ ‪ G‬اﺳﺖ و ﻃﺒﻖ ﻗﻀﻴﻪ ‪ 4-1‬ﺗﺎﺑﻊ ) ‪ U (x‬ﭘﺎﻳﺎ اﺳﺖ‬ ‫اﮔﺮ و ﻓﻘﻂ اﮔﺮ ﺗﺎﺑﻌﻲ از ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل ‪ Y‬ﺑﺎﺷﺪ ﺑﻨﺎﺑﺮاﻳﻦ از ﻗﻀﻴﻪ ‪ 1-2‬ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد ﻛﻪ‬ ‫ﻧﺘﻴﺠﻪ ‪ :1‬اﮔﺮ ‪ δ0‬ﻫﺮ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي ‪ θ‬ﺑﺎﺷﺪ آﻧﮕﺎه ﺷﺮط ﻻزم و ﻛﺎﻓﻲ ﺑﺮاي اﻳﻨﻜﻪ ﺑﺮآوردﮔﺮ ‪ δ‬ﺑﺮاي‬ ‫‪ θ‬ﻫﻢﭘﺎﻳﺎ ﺑﺎﺷﺪ اﻳﻦ اﺳﺖ ﻛﻪ ﺗﺎﺑﻊ ‪ v‬از ‪ n −۱‬ﻣﺘﻐﻴﺮ ‪ i = 1,..., n − 1 ، y i = x i − x n‬وﺟﻮد داﺷﺘﻪﺑﺎﺷﺪ‬ ‫ﺑﻄﻮري ﻛﻪ ) ‪. δ (x ) = δ0(x ) − v ( y‬‬ ‫ﺣﺎل ﭼﻮن ﮔﺮوه‬

‫■‬

‫‪ G‬اﻧﺘﻘﺎﻟﻲ اﺳﺖ و ‪ Y‬ﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل اﺳﺖ در اﻳﻦ ﺻﻮرت ﻃﺒﻖ ‪7-1‬‬

‫ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎي ) ‪ δ (X ) = δ0(X ) − v (Y‬ﻛﻪ اﻣﻴﺪ ﺷﺮﻃﻲ ] ‪ E θ =0[ ρ (δ0(X ) − v ( y )) | y‬را‬ ‫ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ θ‬اﺳﺖ‪ .‬ﺣﺎل اﮔﺮ ) ‪ v * ( y‬اﻳﻦ اﻣﻴﺪ ﺷﺮﻃﻲ را ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ آﻧﮕﺎه‬ ‫) ‪ δ * (x ) = δ0(x ) −v * ( y‬ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ θ‬اﺳﺖ‪.‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪80‬‬

‫ﻧﺘﻴﺠﻪ ‪ :2-2‬در ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻣﻜﺎن و ﺗﺤﺖ ﺗﺒﺪﻳﻼت ﻣﻜﺎن ‪ G‬دارﻳﻢ ﻛﻪ‬ ‫اﻟﻒ‪ -‬اﮔﺮ ‪ ρ (δ − θ ) = (δ − θ )2‬ﺑﺎﺷﺪ آﻧﮕﺎه ] ‪ v * ( y ) = E θ =0[δ0(x ) | y‬و در ﻧﺘﻴﺠﻪ ﺑﺮآوردﮔﺮ‬ ‫‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ θ‬ﻋﺒﺎرت اﺳﺖ از‬ ‫] ‪δ * (x ) = δ0(x ) − E θ =0[δ0(x ) | y‬‬

‫ب( اﮔﺮ | ‪ ρ (δ − θ ) =| δ − θ‬ﺑﺎﺷﺪ آﻧﮕﺎه ] ‪)v * ( y ) = med θ =0[δ0(x ) | y‬ﻣﻴﺎﻧﻪ ﺗﻮزﻳﻊ ‪ δ0(x ) | y‬ﺑﻪ‬ ‫ازاي ‪ ( θ = 0‬و در ﻧﺘﻴﺠﻪ ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ θ‬ﻋﺒﺎرت اﺳﺖ از‬ ‫] ‪δ * (x ) = δ0(x ) − med θ =0[δ0(x ) | y‬‬

‫■‬

‫ﻣﺜﺎل ‪) :1-2‬ﺣﺎﻟﺖ ‪ ( n = 1‬اﮔﺮ ‪ X‬داراي ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ) ‪ f (x − θ‬ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت ) ‪ v ( y‬ﻳﻚ‬ ‫ﻣﻘﺪار ﺛﺎﺑﺖ اﺳﺖ و ﻃﺒﻖ ﻣﻄﺎﻟﺐ ﻓﻮق * ‪ δ * (x ) = x − v‬ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ θ‬اﺳﺖ ﻛﻪ * ‪v‬‬

‫ﻣﻘﺪاري اﺳﺖ ﻛﻪ ]) ‪ E0[ ρ (x − v‬را ﻣﻴﻨﻴﻤﻢ ﻣﻲﻛﻨﺪ و ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم‬ ‫) ‪ δ * (x ) = X − E0(x‬ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ θ‬اﺳﺖ‪.‬‬

‫■‬

‫ﻣﺜﺎل ‪ :2-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,..., X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪ N ( μ ,σ 2‬ﺑﺎﺷﻨﺪ ﻛﻪ ‪ σ 2‬ﻣﻌﻠﻮم‬ ‫اﺳﺖ‪ .‬ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ μ‬را ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬ ‫ﺣﻞ‪:‬‬

‫) ‪= f (x − μ‬‬

‫‪( x − μ )2‬‬

‫‪1‬‬ ‫‪2σ 2‬‬

‫‪−‬‬

‫‪e‬‬

‫‪1‬‬ ‫‪2‬‬

‫‪2πσ‬‬

‫= ) ‪f X (x‬‬

‫ﻗﺮار ﻣﻲ دﻫﻴﻢ ‪ δ0(X ) = X‬ﭘﺲ ) ‪ δ0(X‬آﻣﺎره ﺑﺴﻨﺪه ﻛﺎﻣﻞ و ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي ﻣﻜﺎن ‪ μ‬اﺳﺖ‬ ‫) ‪ (δ0(X + a ) = δ0(X ) + a‬و ﭼﻮن ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل ‪ Y‬ﻳﻚ آﻣﺎره ﻓﺮﻋﻲ اﺳﺖ ﭘﺲ ﻃﺒﻖ ﻗﻀﻴﻪ‬ ‫ﺑﺎﺳﻮ ) ‪ δ0(X‬و ‪ Y‬از ﻳﻜﺪﻳﮕﺮ ﻣﺴﺘﻘﻞ ﻫﺴﺘﻨﺪ‪.‬‬ ‫ﺑﻨﺎﺑﺮاﻳﻦ ﺗﺤﺖ ﺗﺎﺑﻊزﻳﺎن درﺟﻪدوم دارﻳﻢ ﻛﻪ‬ ‫‪δ * (X ) = δ0(X ) − E0[δ0(X ) | y ] = X − E0[X ] = X‬‬

‫ﭘﺲ ‪ X‬ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ μ‬اﺳﺖ‪.‬‬

‫■‬

‫ﻗﻀﻴﻪ ‪ :2-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ F‬ﻛﻼس ﻛﻠﻴﻪ ﺗﻮزﻳﻊ ﻫﺎي ﻳﻚ ﻣﺘﻐﻴﺮه ‪ F‬ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ‪ f‬و وارﻳﺎﻧﺲ ﺛﺎﺑﺖ‬ ‫ﻣﺘﻨﺎﻫﻲ ﻣﺜﻼ ‪ σ 2 = 1‬ﺑﺎﺷﻨﺪ‪ .‬ﻫﻤﭽﻨﻴﻦ ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,..., X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ ﻫﺮ ﻳﻚ ﺑﺎ‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪81‬‬

‫ﭼﮕﺎﻟﻲ ) ‪ f (x i − θ‬ﺑﺎ ) ‪ θ = E (X i‬ﺑﺎﺷﺪ و ) ‪ rn (F‬ﻣﺨﺎﻃﺮه ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ θ‬ﺗﺤﺖ ﺗﺎﺑﻊ‬ ‫زﻳﺎن درﺟﻪ دوم ﺑﺎﺷﺪ‪ .‬در اﻳﻦ ﺻﻮرت ) ‪ rn (F‬ﻣﻮﻗﻌﻲ ﻣﻘﺪار ﻣﺎﻛﺰﻳﻤﻢ ﺧﻮد را روي ‪ F‬ﺑﺪﺳﺖ ﻣﻲآورد‬ ‫ﻛﻪ ‪ F‬ﺗﻮزﻳﻊ ﻧﺮﻣﺎل ﺑﺎﺷﺪ‪.‬‬ ‫‪1‬‬ ‫اﺛﺒﺎت‪ :‬در ﺣﺎﻟﺖ ﺗﻮزﻳﻊ ﻧﺮﻣﺎل ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ θ‬ﺑﺮاﺑﺮ ‪ X‬ﺑﺎ ﻣﺨﺎﻃﺮه‬ ‫‪n‬‬ ‫‪1‬‬ ‫ﭼﻮن ﻣﺨﺎﻃﺮه ‪ X‬در ﻫﺮ ﺗﻮزﻳﻌﻲ ﺑﺮاﺑﺮ‬ ‫اﺳﺖ ﺑﻨﺎﺑﺮاﻳﻦ ﻣﺨﺎﻃﺮه ﺑﺮآوردﮔﺮ ‪ MRE‬در ﻫﺮ ﺗﻮزﻳﻊ ‪F‬‬ ‫‪n‬‬ ‫‪1‬‬ ‫ﺑﺎﻳﺴﺘﻲ ﻛﻤﺘﺮ ﻳﺎ ﻣﺴﺎوي‬ ‫ﺑﺎﺷﺪ)‪ MRE‬ﻣﺨﺎﻃﺮه را ﻣﻴﻨﻤﻢ ﻣﻲﻛﻨﺪ( ﺑﻨﺎﺑﺮاﻳﻦ ﺗﻮزﻳﻊ ﻧﺮﻣﺎل داراي ﻣﺎﻛﺰﻳﻤﻢ‬ ‫‪n‬‬

‫= ) ‪ rn (F‬اﺳﺖ ‪.‬‬

‫ﻣﻘﺪار ﻣﺨﺎﻃﺮه ﺑﺮآوردﮔﺮ ‪ MRE‬در ﺑﻴﻦ ﻛﻠﻴﻪ ﺗﻮزﻳﻊﻫﺎي ‪ F‬اﺳﺖ‪.‬‬

‫■‬

‫ﻣﺜﺎل ‪ :3-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,..., X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ﻧﻤﺎﻳﻲ دو ﭘﺎراﻣﺘﺮي ) ‪E (θ ,b‬‬

‫ﺑﺎﺷﻨﺪ ﻛﻪ ‪ b‬ﻣﻘﺪاري ﻣﻌﻠﻮم اﺳﺖ‪ .‬ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ θ‬را ﺗﺤﺖ ﺗﻮاﺑﻊ زﻳﺎن درﺟﻪ دوم و ﻗﺪر‬ ‫ﻣﻄﻠﻖ ﺧﻄﺎ ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬ ‫‪1‬‬

‫ﺣﻞ‪:‬‬

‫‪1‬‬

‫) ‪1 − ( x −θ‬‬ ‫) ‪1 − ( x −θ‬‬ ‫‪f θ (x ) = e b‬‬ ‫‪I (θ ,+∞ ) (x ) = e b‬‬ ‫) ‪I (0,+∞ ) (x − θ ) = f (x − θ‬‬ ‫‪b‬‬ ‫‪b‬‬

‫ﻗﺮار ﻣﻲدﻫﻴﻢ )‪ δ0(X ) = X (1‬ﺑﻨﺎﺑﺮاﻳﻦ ) ‪ δ0(X‬آﻣﺎره ﺑﺴﻨﺪه ﻛﺎﻣﻞ وﻫﻤﭽﻨﻴﻦ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي ﻣﻜﺎن‬ ‫‪ θ‬اﺳﺖ و ﻃﺒﻖ ﻗﻀﻴﻪ ﺑﺎﺳﻮ از آﻣﺎره ﻓﺮﻋﻲ ‪) Y‬ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل( ﻣﺴﺘﻘﻞ اﺳﺖ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ‬ ‫اﻟﻒ‪ -‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم‬ ‫‪n‬‬

‫‪n − x‬‬ ‫‪b‬‬ ‫= ‪x ( e b )dx‬‬ ‫‪b‬‬ ‫‪n‬‬

‫∞‪+‬‬

‫∫‬

‫*‬

‫= ) )‪v ( y ) = E [X (1) | y ] = E0(X (1‬‬

‫‪0‬‬

‫‪b‬‬ ‫ﭘﺲ ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ θ‬ﻋﺒﺎرت اﺳﺖ از‬ ‫‪n‬‬

‫‪ δ * (X ) = X (1) −‬ﻛﻪ ﺑﺮآوردﮔﺮ ‪ UMVU‬ﻧﻴﺰ‬

‫ﻫﺴﺖ‪.‬‬ ‫ب‪ -‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﻗﺪر ﻣﻄﻠﻖ ﺧﻄﺎ ) )‪ v * ( y ) = med0[X (1) | y ] = med0(X (1‬ﭘﺲ‬ ‫* ‪n‬‬

‫‪n‬‬

‫‪n‬‬

‫‪− v‬‬ ‫*‪− x v‬‬ ‫‪n −b x‬‬ ‫‪b‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪b‬‬ ‫‪= ⇒ 1− e‬‬ ‫‪= ⇒ v * = ln 2‬‬ ‫‪e‬‬ ‫‪dx = ⇒ −e b‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪b‬‬ ‫‪n‬‬ ‫‪0‬‬

‫*‪v‬‬

‫‪∫0‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪82‬‬

‫‪b‬‬ ‫‪n‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ θ‬ﻋﺒﺎرت اﺳﺖ از ‪ δ * ( X ) = X (1) − ln 2‬ﻛﻪ اﻳﻦ ﺑﺮآوردﮔﺮ‬ ‫■‬

‫ﻧﺎارﻳﺐ ﻧﻴﺴﺖ‪.‬‬

‫ﺑﺮآوردﮔﺮ ﭘﻴﺘﻤﻦ‬

‫‪1‬‬

‫اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺎﺷﺪ‪ ،‬آﻧﮕﺎه ﺑﺮآوردﮔﺮ ‪ MRE‬ﻣﻜﺎن را ﺑﻪ ﻓﺮم راﺣﺖﺗﺮي ﻣﻲﺗﻮان ﺑﺪﺳﺖ آورد‪.‬‬ ‫ﻗﻀﻴﻪ ‪ :3-2‬ﺗﺤﺖ ﮔﺮوه ﺗﺒﺪﻳﻼت ﻣﻜﺎﻧﻲ ‪ G‬و در ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻣﻜﺎن و ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم‪،‬‬ ‫ﺑﺮآوردﮔﺮ ‪ MRE‬ﻣﻜﺎن ﻋﺒﺎرت اﺳﺖ از‪:‬‬ ‫∞‪+‬‬

‫‪∫ uf (x 1 − u ,...., x n − u )du‬‬

‫∞‪−‬‬ ‫∞‪+‬‬

‫‪∫−∞ f (x 1 − u ,...., x n − u )du‬‬

‫*‬

‫= ] ‪δ (X ) = δ0(X ) − E0[δ0(X ) | y‬‬

‫اﻳﻦ ﻓﺮم را ﺑﻌﻨﻮان ﺑﺮآوردﮔﺮ ﭘﻴﺘﻤﻦ ﭘﺎراﻣﺘﺮ ‪ θ‬ﻣﻲﺷﻨﺎﺳﻨﺪ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﻓﺮض ﻛﻨﻴﺪ ‪ δ0(X ) = X n‬ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي ‪ θ‬ﺑﺎﺷﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ‬ ‫) ‪v * ( y ) = E0( X n | y‬‬

‫ﺣﺎل ﺗﺒﺪﻳﻞ زﻳﺮ را در ﻧﻈﺮ ﻣﻲﮔﻴﺮﻳﻢ‪:‬‬ ‫‪⎧⎪Y i = X i − X n , i = 1,..., n − 1‬‬ ‫⎨‬ ‫‪⎪⎩W = X n‬‬

‫در اﻳﻦ ﺻﻮرت ‪ J = 1‬و‬

‫) ‪( y 1,...., y n −1,w ) = f ( y 1 + w ,...., y n −1 + w ,w‬‬

‫‪,W‬‬

‫‪fY‬‬

‫و ﺑﻨﺎﺑﺮاﻳﻦ‬ ‫) ‪( y 1,..., y n −1,w‬‬

‫‪,W‬‬

‫‪fY‬‬

‫‪∫ f Y ,W ( y 1,..., y n −1,w )dw‬‬

‫= ) ‪f X n Y| (w | y ) = f W Y| (w | y‬‬

‫‪f ( y 1 + w ,..., y n −1 + w ,w )dw‬‬

‫=‬

‫‪∫ f ( y 1 + w ,..., y n −1 + w ,w )dw‬‬ ‫‪∫wf ( y 1 + w ,..., y n −1 + w ,w )dw‬‬ ‫= ) ‪⇒ v * ( y ) = E0(X n |Y ) = E0(W |Y‬‬ ‫‪∫ f ( y 1 + w ,..., y n −1 + w ,w )dw‬‬ ‫‪Pitman Estimator‬‬

‫‪١‬‬

www.riazisara.ir

83

‫ ﭘﺎﻳﺎﻳﻲ‬:‫ﻓﺼﻞ ﺳﻮم‬

∫wf (x 1 − x n + w ,..., x n −1 − x n + w ,w )dw ∫ f (x 1 − x n + w ,..., x n −1 − x n + w ,w )dw u = x −w ∫ uf (x 1 − u ,..., x n −1 − u , x n − u )du = xn − ∫ f (x 1 − u ,..., x n −1 − u , x n − u )du ∫ uf (x 1 − u ,..., x n − u )du ∴ δ * (x ) = x n − E0(X n |Y ) = ∫ f (x 1 − u ,..., x n − u )du = n

1 2



1 2

‫ ﺑﺎﺷﺪ ﺑﺮآوردﮔﺮ‬U (θ − ,θ + ) ‫ ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از‬X 1, X 2 ,..., X n ‫ ﻓﺮض ﻛﻨﻴﺪ‬:4-2‫ﻣﺜﺎل‬ .‫ را ﺑﺪﺳﺖ آورﻳﺪ‬θ ‫ ﭘﺎراﻣﺘﺮ‬MRE :‫ﺣﻞ‬ n ⎧ n = I ( x ) ⎪∏ (θ − 1,θ + 1 ) i ∏ I (−1,1 ) (x i − θ ) = f (x 1 − θ ,...., x n − θ ) ⎪ i =1 i =1 2 2 22 f X (x ) = ⎨ ⎪I 1 1 (θ ) ⎪⎩ ( x ( n ) − 2,x (1) + 2 )

∴ δ * (x ) =



∫ uf (x − u )du ∫ f (x − u )du

=

∫ uI (x ∫ I (x

(n ) −

(n ) −

1 1 du ,x (1) + ) 2 2

1 1 du ,x (1) + ) 2 2

= .... =

x (1) + x ( n ) 2

.‫ ﻧﻴﺴﺖ‬UMVUE ‫ اﺳﺖ وﻟﻲ‬θ ‫ ﺑﺮاي‬MRE ‫ ﺑﺮآوردﮔﺮ‬δ * (X ) =

X (1) + X ( n ) 2

‫ﭘﺲ‬

‫ ﻣﻌﻠﻮم اﺳﺖ‬b ‫ ﺑﺎﺷﻨﺪ ﻛﻪ‬E (θ ,b ) ‫ ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از‬X 1, X 2 ,..., X n ‫ ﻓﺮض ﻛﻨﻴﺪ‬:5-2 ‫ﻣﺜﺎل‬ .‫ را ﺑﺪﺳﺖ آورﻳﺪ‬θ ‫ ﭘﺎراﻣﺘﺮ‬MRE ‫ﺑﺮآوردﮔﺮ‬ :‫ﺣﻞ‬ ⎧ n 1 − ( x i −θ )/b I (0,+∞ ) (x i − θ ) = f (x 1 − θ ,...., x n − θ ) ⎪∏ e ⎪ i =1 b f X (x ) = ⎨ ⎪ 1 e ( − nx + nθ )/b I ( −∞ ,x (1) ) (θ ) ⎪⎩b n

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫)‪x (1‬‬ ‫∞‪−‬‬

‫‪nu‬‬ ‫‪b‬‬

‫)‪x (1‬‬ ‫∞‪−‬‬

‫‪b‬‬ ‫‪b‬‬ ‫‪(u − )e‬‬ ‫‪n‬‬ ‫‪n‬‬ ‫‪− nu‬‬ ‫‪e b‬‬

‫‪b‬‬ ‫‪n‬‬

‫‪84‬‬

‫)‪x (1‬‬

‫=‬

‫‪u ( − nx + nu )/b‬‬ ‫‪du‬‬ ‫‪∫ bn e‬‬ ‫∞‪−‬‬ ‫)‪(1‬‬

‫= ‪∫ uf (x − u )du‬‬ ‫‪x‬‬ ‫‪∫ f (x − u )du‬‬

‫= ) ‪∴ δ * (x‬‬

‫‪1 ( − nx + nu )/b‬‬ ‫‪du‬‬ ‫‪∫ bn e‬‬ ‫∞‪−‬‬

‫‪b‬‬ ‫‪n‬‬

‫‪= x (1) −‬‬

‫■‬

‫ﻛﻪ ﻫﻤﺎن ﺑﺮآوردﮔﺮ ﺑﺪﺳﺖ آﻣﺪه در ﻣﺜﺎل‪ -3-2‬اﻟﻒ ﻣﻲﺑﺎﺷﺪ‪.‬‬

‫ﻗﻀﻴﻪ ‪ :4-2‬ﺑﺮآوردﮔﺮ ﭘﻴﺘﻤﻦ ﭘﺎراﻣﺘﺮ ﻣﻜﺎن ﺗﺎﺑﻌﻲ از آﻣﺎره ﺑﺴﻨﺪه اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﻓﺮض ﻛﻨﻴﺪ ) ‪ S = (S 1,...., S k‬ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﺗﻮام ﺑﺮاي ‪ θ‬ﺑﺎﺷﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﻃﺒﻖ ﻗﻀﻴﻪ ﺗﺠﺰﻳﻪ‬ ‫ﺑﻪ ﻋﻮاﻣﻞ دارﻳﻢ ﻛﻪ ) ‪ f (x 1 − θ ,..., x n − θ ) = g (S ,θ )h (x 1,..., x n‬ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ ﭘﻴﺘﻤﻦ‬ ‫ﭘﺎراﻣﺘﺮ ‪ θ‬ﻋﺒﺎرت اﺳﺖ از‬

‫) ‪∫ uf (x − u )du = ∫ ug (S ,u )h (x )du = ∫ ug (S ,u )du = k (S‬‬ ‫‪∫ f (x − u )du ∫ g (S ,u )h (x )du ∫ g (S ,u )du‬‬

‫= ) ‪■ δ * (x‬‬

‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﺜﺎلﻫﺎي ﺑﺎﻻ دﻳﺪه ﻣﻲﺷﻮد ﻛﻪ ﺑﺮاي ﺑﺮآورد ﭘﺎراﻣﺘﺮ ﻣﻜﺎن ارﺗﺒﺎﻃﻲ ﺑﻴﻦ ﺑﺮآوردﮔﺮﻫﺎي ‪ MRE‬و‬ ‫ﻧﺎارﻳﺐ و ‪ UMVUE‬وﺟﻮد دارد‪ .‬اﻳﻦ ارﺗﺒﺎط در ﻗﻀﻴﻪ زﻳﺮ آورده ﺷﺪه اﺳﺖ‪:‬‬ ‫ﻗﻀﻴﻪ ‪ :5-2‬ﻓﺮض ﻛﻨﻴﺪ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت ﺑﺮاي ﺑﺮآورد ﭘﺎراﻣﺘﺮ ﻣﻜﺎن‬ ‫اﻟﻒ‪ -‬اﮔﺮ ) ‪ δ (X‬ﻫﺮ ﺑﺮآورد ﻫﻢﭘﺎﻳﺎ ﺑﺎ ارﻳﺐ ﺛﺎﺑﺖ ‪ b‬ﺑﺎﺷﺪ آﻧﮕﺎه ‪ δ (X ) − b‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ و‬ ‫ﻧﺎارﻳﺐ ﻣﻲﺑﺎﺷﺪ و داراي ﻣﺨﺎﻃﺮه ﻛﻤﺘﺮي ﻧﺴﺒﺖ ﺑﻪ ) ‪ δ (X‬اﺳﺖ‪.‬‬ ‫ب‪ -‬ﺑﺮآوردﮔﺮ ﻳﻜﺘﺎي ‪ MRE‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ اﺳﺖ‪.‬‬ ‫ج‪ -‬اﮔﺮ ﺑﺮآوردﮔﺮ ‪ UMVU‬ﻣﻮﺟﻮد ﺑﺎﺷﺪ و ﻫﻢﭘﺎﻳﺎ ﺑﺎﺷﺪ آﻧﮕﺎه ﻳﻚ ﺑﺮآوردﮔﺮ ‪ MRE‬اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪ :‬اﻟﻒ(ﻫﻢﭘﺎﻳﺎ ﺑﻮدن و ﻧﺎارﻳﺐ ﺑﻮدن ‪ δ (X ) − b‬واﺿﺢ اﺳﺖ‪.‬‬ ‫] ‪R (θ , δ − b ) = E θ [(δ (X ) − b − θ )2‬‬ ‫‪2‬‬ ‫] ‪= E θ ⎡(δ (X ) − θ ) ⎤ + b 2 − 2bE θ [δ (X ) − θ‬‬ ‫⎣‬ ‫⎦‬

‫) ‪= R (θ , δ ) − b 2 < R (θ , δ‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪85‬‬

‫ب‪ -‬ﻓﺮض ﻛﻨﻴﺪ ) ‪ δ (X‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻳﻜﺘﺎي ‪ MRE‬ﺑﺎﺷﺪ وﻟﻲ ﻧﺎارﻳﺐ ﻧﺒﺎﺷﺪ و داراي ارﻳﺐ ‪ b‬ﺑﺎﺷﺪ در‬ ‫اﻳﻦ ﺻﻮرت ﻃﺒﻖ ﻗﺴﻤﺖ )اﻟﻒ( ‪ δ (X ) − b‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ ﺑﺎ ﻣﺨﺎﻃﺮه ﻛﻤﺘﺮ ﻧﺴﺒﺖ ﺑﻪ ) ‪δ (X‬‬

‫اﺳﺖ ﻛﻪ اﻳﻦ ﺑﺎ ﻳﻜﺘﺎ ﺑﻮدن ﺑﺮآوردﮔﺮ ‪ δ (X ) ، MRE‬ﻣﺘﻨﺎﻗﺾ اﺳﺖ‪ .‬ﭘﺲ ) ‪ δ (X‬ﻧﺎارﻳﺐ ﻣﻲﺑﺎﺷﺪ‪.‬‬ ‫ج‪ -‬اﮔﺮ ) ‪ δ (X‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ و ‪ UMVU‬ﺑﺎﺷﺪ آﻧﮕﺎه اﻳﻦ ﺑﺮآوردﮔﺮ ﻣﻘﺪار ﻣﺨﺎﻃﺮه را ﻣﻴﻨﻴﻤﻢ‬ ‫ﻣﻲﻛﻨﺪ‪ .‬ﭘﺲ ﻳﻚ ﺑﺮآوردﮔﺮ ‪ MRE‬اﺳﺖ‪.‬‬

‫■‬

‫ﺗﻮﺟﻪ‪ :‬در ﻣﺜﺎلﻫﺎي ﻓﻮق دﻳﺪﻳﻢ ﻛﻪ اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﻧﺒﺎﺷﺪ آﻧﮕﺎه ﻣﻤﻜﻦ اﺳﺖ ﺑﺮآوردﮔﺮ ‪MRE‬‬ ‫ﻳﻚ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﻧﺒﺎﺷﺪ‪ .‬ﻣﻔﻬﻮم ﻣﻌﻤﻮل ﻧﺎارﻳﺒﻲ اﻳﻦ اﺳﺖ ﻛﻪ‬ ‫‪E θ [δ (X )] = θ ∀θ ∈ Θ‬‬

‫و اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺎﺷﺪ آﻧﮕﺎه ] ‪ R (θ , δ ) = E θ [(δ (X ) − θ )2‬ﻣﻮﻗﻌﻲ ﺑﻪ ازاي ﻫﺮ ‪θ ∈ Θ‬‬ ‫ﻣﻴﻨﻴﻤﻢ ﻣﻘﺪار ﺧﻮد را ﺑﺪﺳﺖ ﻣﻲآورد ﻛﻪ ]) ‪ θ = E θ [δ (X‬ﺑﺎﺷﺪ ﺑﻨﺎﺑﺮاﻳﻦ‬ ‫‪∀θ ′ ≠ θ‬‬

‫])‪E θ [(δ (X ) − θ )2 ] ≤ E θ [(δ (X ) − θ ′‬‬

‫ﻳﻌﻨﻲ ﻣﺘﻮﺳﻂ ﻓﺎﺻﻠﻪ ) ‪ δ (X‬ﺑﺎ ﻣﻘﺪار واﻗﻌﻲ ﭘﺎراﻣﺘﺮ‪ ،‬ﻳﻌﻨﻲ ] ‪ E θ [(δ (X ) − θ )2‬ﻛﻤﺘﺮ اﺳﺖ از ﻣﺘﻮﺳﻂ‬ ‫ﻓﺎﺻﻠﻪ ) ‪ δ (X‬از ﻫﺮ ﻣﻘﺪار دﻳﮕﺮ ﭘﺎراﻣﺘﺮ‪ .‬اﻳﻦ ﻣﻄﻠﺐ راه ﮔﺸﺎي ﺗﻌﺮﻳﻔﻲ ﺑﺮاي ﻧﺎارﻳﺒﻲ ﺗﺤﺖ ﺗﻮاﺑﻊ زﻳﺎن‬ ‫دﻳﮕﺮ اﺳﺖ‪.‬‬

‫■‬

‫ﺗﻌﺮﻳﻒ‪) :1-2‬ﻣﺨﺎﻃﺮه ﻧﺎارﻳﺐ ‪ :(1‬ﻓﺮض ﻛﻨﻴﺪ در ﻳﻚ ﻣﺴﺌﻠﻪ ﺑﺮآوردﻳﺎﺑﻲ ﺗﺎﺑﻊ زﻳﺎن )) ‪ L (θ , δ (X‬ﺑﺎﺷﺪ‪.‬‬ ‫ﺑﺮآوردﮔﺮ ) ‪ δ (X‬را ﻣﺨﺎﻃﺮه ﻧﺎارﻳﺐ ﮔﻮﻳﻨﺪ ﻫﺮﮔﺎه‬ ‫■‬

‫‪∀θ ′ ≠ θ‬‬

‫])) ‪E θ [L (θ , δ (X ))] ≤ E θ [L (θ ′, δ (X‬‬

‫ﻣﺜﺎل‪) :6-2‬ﻧﺎارﻳﺒﻲ ﻣﻴﺎﻧﻪ(‪ :‬اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﻗﺪرﻣﻄﻠﻖ ﺧﻄﺎ ﺑﺎﺷﺪ آﻧﮕﺎه‬ ‫‪| δ − θ | f (δ )d δ‬‬

‫∞‪+‬‬

‫∫ = ]| ‪g (θ ) = E θ [L (θ , δ (X ))] = E [| δ (X ) − θ‬‬

‫∞‪−‬‬

‫‪(δ − θ )f (δ )d δ‬‬

‫■‬

‫)) ‪f (δ )d δ ⇒ θ = med θ (δ (X‬‬

‫∞‪+‬‬

‫∞‪+‬‬

‫‪θ‬‬

‫∫ = ‪f (δ )d δ‬‬

‫‪θ‬‬

‫‪θ‬‬

‫∫ ‪= ∫ (θ − δ )f (δ )d δ +‬‬ ‫∞‪−‬‬

‫‪θ‬‬

‫∞‪∫−‬‬

‫⇒‬

‫‪g ′(θ ) = 0‬‬

‫‪Risk-unbiased‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪86‬‬

‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻗﻀﻴﻪ ‪-5-2‬ب ﻣﻲﺧﻮاﻫﻴﻢ ﻧﺸﺎن دﻫﻴﻢ ﻛﻪ ﺑﺮآوردﮔﺮ ‪ MRE‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻣﺨﺎﻃﺮه ﻧﺎارﻳﺐ‬ ‫اﺳﺖ‪ .‬ﺑﺮاي اﻳﻦ ﻣﻨﻈﻮر از ﻟﻢ زﻳﺮ اﺳﺘﻔﺎده ﻣﻲﻛﻨﻴﻢ‪.‬‬ ‫ﻟﻢ ‪ :1-2‬اﮔﺮ ‪ G‬ﻳﻚ ﮔﺮوه ﺟﺎﺑﺠﺎﻳﻲ )آﺑﻠﻲ( ﺑﺎﺷﺪ و ‪ δ‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎ ﺗﺤﺖ ﮔﺮوه ‪ G‬ﺑﺎﺷﺪ‬ ‫آﻧﮕﺎه ) ‪ G (δ‬ﺑﺮاي ﻫﺮ ‪ g ∈ G‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﺑﺮاي ﻫﺮ ‪ g * ∈ G‬دارﻳﻢ ﻛﻪ‬ ‫)‪(1‬‬

‫)‪(2‬‬

‫) )) ‪g (δ ( g * (X )) ) = g ( g * (δ ( X )) ) = g * ( g (δ (X‬‬

‫ﻛﻪ در آن )‪ (1‬از ﻫﻢﭘﺎﻳﺎ ﺑﻮدن ‪ δ‬و )‪ (2‬از آﺑﻠﻲ ﺑﻮدن ‪ G‬ﺑﺪﺳﺖ ﻣﻲآﻳﺪ‪ .‬ﻳﻌﻨﻲ ) ‪ g (δ‬ﻳﻚ ﺑﺮآوردﮔﺮ‬ ‫ﻫﻢﭘﺎﻳﺎ اﺳﺖ‪.‬‬

‫■‬

‫ﻗﻀﻴﻪ ‪ :6-2‬اﮔﺮ ‪ G‬ﻳﻚ ﮔﺮوه اﻧﺘﻘﺎﻟﻲ و ‪ G‬ﻳﻚ ﮔﺮوه ﺟﺎﺑﺠﺎﻳﻲ ﺑﺎﺷﺪ آﻧﮕﺎه ﺑﺮآوردﮔﺮ ‪ MRE‬ﻳﻚ‬ ‫ﺑﺮآوردﮔﺮ ﻣﺨﺎﻃﺮه ﻧﺎارﻳﺐ اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﻓﺮض ﻛﻨﻴﺪ ‪ δ‬ﺑﺮآوردﮔﺮ ‪ MRE‬ﺑﺎﺷﺪ و ‪ . θ ′,θ ∈ G‬ﭼﻮن ‪ G‬اﻧﺘﻘﺎﻟﻲ اﺳﺖ ﭘﺲ‬

‫‪g∈ G‬‬

‫ﻣﻮﺟﻮد اﺳﺖ ﺑﻄﻮري ﻛﻪ )‪ θ = g (θ ′‬و ﺑﻨﺎﺑﺮاﻳﻦ‬ ‫)*(‬

‫)**(‬

‫(‬

‫)‬

‫]) ‪E θ [L (θ ′, δ (X ) )] = E θ [L g −1(θ ), δ (X ) ] = E [L (θ , g (δ (X ))) ) ≥ E θ [L (θ , δ (X‬‬

‫ﻛﻪ در آن ﺗﺴﺎوي )*( از ﭘﺎﻳﺎﻳﻲ ﺗﺎﺑﻊ زﻳﺎن و ﻧﺎﻣﺴﺎوي )**( از ﻟﻢ ‪ 1-2‬و ‪ MRE‬ﺑﻮدن ‪ δ‬ﺣﺎﺻﻞ‬ ‫ﻣﻲﮔﺮدﻧﺪ‪ .‬ﭘﺲ ‪ δ‬ﺑﺮآوردﮔﺮ ﻣﺨﺎﻃﺮه ﻧﺎارﻳﺐ اﺳﺖ‪.‬‬

‫■‬

‫ﻧﺘﻴﺠﻪ ‪ :3-2‬ﺗﺤﺖ ﮔﺮوه ﺗﺒﺪﻳﻼت ﻣﻜﺎن ‪ G‬و ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم‪ ،‬ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪θ‬‬

‫ﻣﺨﺎﻃﺮه‪-‬ﻧﺎارﻳﺐ)ﻧﺎارﻳﺐ – ﻣﻴﺎﻧﮕﻴﻦ( اﺳﺖ‪.‬‬

‫ﺑﺨﺶ ‪ :3‬ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ﻣﻘﻴﺎس‬

‫■‬

‫‪1‬‬

‫ﻓﺮض ﻛﻨﻴﺪ ) ‪ X = (X 1,… , X n‬داراي ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ﺗﻮام‬ ‫‪σ >0‬‬

‫⎞ ‪x‬‬ ‫‪⎛x ⎞ 1 ⎛x‬‬ ‫⎟ ‪f ⎜ ⎟ = n f ⎜ 1 ,..., n‬‬ ‫⎠ ‪σ‬‬ ‫‪σ‬‬ ‫‪⎝σ ⎠ σ‬‬ ‫‪⎝σ‬‬

‫‪1‬‬

‫‪n‬‬

‫‪MRE Estimator of scale-parameter‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪87‬‬

‫ﺑﺎﺷﺪ ﻛﻪ در آن ‪ f‬ﻣﻌﻠﻮم و ‪ σ‬ﭘﺎراﻣﺘﺮ ﻣﻘﻴﺎس ﻧﺎﻣﻌﻠﻮم اﺳﺖ‪ .‬اﮔﺮ ﮔﺮوه ﺗﺒﺪﻳﻼت زﻳﺮ را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ‬ ‫}‪= {g c : g c (x 1, x 2 ,…, x n ) = (cx 1,… , cx n ) = cx , c > 0‬‬

‫‪G‬‬

‫آﻧﮕﺎه ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻓﻮق ﻧﺴﺒﺖ ﺑﻪ اﻳﻦ ﺗﺒﺪﻳﻞ ﭘﺎﻳﺎ اﺳﺖ ﻫﺮﮔﺎه ﮔﺮوه ﺗﺒﺪﻳﻼت ‪ G‬ﺑﺼﻮرت زﻳﺮ‬ ‫}‪= {g c : g c (σ ) = cσ , c > 0‬‬

‫ﺑﺎﺷﺪ‬

‫‪G‬‬

‫ﻛﻪ ﻳﻚ ﮔﺮوه اﻧﺘﻘﺎﻟﻲ از ﺗﺒﺪﻳﻼت اﺳﺖ‪ .‬در ﺑﺮآورد ﭘﺎراﻣﺘﺮ ‪ h (σ ) = σ r‬ﺗﺤﺖ ﺗﺒﺪﻳﻞ ‪ h (σ ) ، G‬داراي‬ ‫ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ اﺳﺖ اﮔﺮ‬ ‫) ‪h ( g (σ )) = g (h (σ )) ⇔ (cσ )r = g (σ r‬‬ ‫}‪= {g c : g c (δ ) = c r σ , c > 0‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﮔﺮوه ﺗﺒﺪﻳﻼت ‪ G‬ﺑﺼﻮرت زﻳﺮ اﺳﺖ‬

‫‪G‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﺗﺤﺖ ﮔﺮوه ‪ G‬ﺗﺎﺑﻊ زﻳﺎن ) ‪ L (σ , δ‬ﭘﺎﻳﺎ اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ‬ ‫⎞ ‪⎛ δ‬‬ ‫⎟ ‪L ( g (σ ), g (δ )) = L (σ , δ ) ⇔ L (cσ , c δ ) = L (σ , δ ) ⇔ L (σ , δ ) = γ ⎜ r‬‬ ‫⎠ ‪⎝σ‬‬ ‫)*(‬

‫‪r‬‬

‫‪δ‬‬ ‫‪δ‬‬ ‫‪γ‬‬ ‫)‬ ‫=‬ ‫(‬ ‫)‬ ‫‪σr‬‬ ‫‪σr‬‬

‫اﺛﺒﺎت)*(‪:‬‬

‫‪⇒ L (σ , δ ) = L (1,‬‬

‫‪1‬‬

‫‪σ‬‬

‫= ‪⇒) c‬‬

‫‪c rδ‬‬ ‫‪δ‬‬ ‫) ‪) = γ ( r ) = L (σ , δ‬‬ ‫( ‪⇐) L (cσ , c δ ) = γ‬‬ ‫‪r‬‬ ‫‪σ‬‬ ‫) ‪(cσ‬‬ ‫‪r‬‬

‫‪δ‬‬ ‫ﺑﻨﺎﺑﺮاﻳﻦ اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم )‬ ‫‪σr‬‬ ‫‪δ‬‬ ‫‪δ‬‬ ‫اﺳﺖ‪ .‬ﺑﺮاي ﻣﺜﺎل ‪ L (σ , δ ) = (1 − r )2‬و | ‪ L (σ , δ ) =| 1 − r‬از اﻳﻦ ﻧﻮع ﺗﺎﺑﻊ زﻳﺎن ﻫﺴﺘﻨﺪ‪.‬‬ ‫‪σ‬‬ ‫‪σ‬‬ ‫ﻫﻤﭽﻨﻴﻦ ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎ در اﻳﻦ ﺣﺎﻟﺖ ﺑﺼﻮرت زﻳﺮ ﻣﻲﺑﺎﺷﻨﺪ‬

‫( ‪ L (σ , δ ) = γ‬ﺑﺎﺷﺪ آﻧﮕﺎه ﻣﺴﺌﻠﻪ ﻣﺎ ﺗﺤﺖ ﮔﺮوه ﺗﺒﺪﻳﻼت ‪ G‬ﭘﺎﻳﺎ‬

‫) ‪δ ( g ( X ) ) = g (δ ( X ) ) ⇔ δ (cX ) = c r δ ( X‬‬

‫از ﺟﻤﻠﻪ ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎي ﭘﺎراﻣﺘﺮ ‪ (r = 1)σ‬ﻋﺒﺎرﺗﻨﺪ از‬ ‫‪1 n‬‬ ‫‪(X i − X )2‬‬ ‫∑‬ ‫‪n − 1 i =1‬‬

‫= ‪S‬‬

‫‪1 n‬‬ ‫| ‪∑| X i − X‬‬ ‫‪n i =1‬‬

‫=‪D‬‬

‫ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺑﺮآوردﮔﺮ ‪ MRE‬در اﻳﻦ ﺣﺎﻟﺖ از ﻗﻀﻴﻪ زﻳﺮ اﺳﺘﻔﺎده ﻣﻲﻛﻨﻴﻢ‪.‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪88‬‬

‫ﻗﻀﻴﻪ ‪ :1-3‬اﮔﺮ ) ‪ δ0(X‬ﻫﺮ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي ‪ σ r‬ﺑﺎﺷﺪ آﻧﮕﺎه ﺷﺮط ﻻزم و ﻛﺎﻓﻲ ﺑﺮاي آﻧﻜﻪ‬ ‫ﺑﺮاوردﮔﺮ ) ‪ δ (X‬ﺑﺮاي ‪ σ r‬ﻫﻢﭘﺎﻳﺎ ﺑﺎﺷﺪ آن اﺳﺖ ﻛﻪ‬ ‫) ‪δ0(x‬‬

‫)‪(1‬‬

‫) ‪U (x‬‬

‫= ) ‪δ (x‬‬

‫ﻛﻪ در آن ) ‪ U (x‬ﻫﺮ ﺗﺎﺑﻊ ﭘﺎﻳﺎ ﻧﺴﺒﺖ ﺑﻪ ‪ G‬اﺳﺖ ﻳﻌﻨﻲ‬ ‫) ‪U (cx ) = U ( x‬‬

‫)‪(2‬‬

‫اﺛﺒﺎت‪ :‬ﻓﺮض ﻛﻨﻴﺪ)‪ (1‬و )‪ (2‬ﺑﺮﻗﺮار ﺑﺎﺷﻨﺪ در اﻳﻦ ﺻﻮرت‬ ‫) ‪c r δ0(x‬‬ ‫) ‪= c r δ (x‬‬ ‫) ‪U (x‬‬

‫=‬

‫) ‪δ0(cx‬‬ ‫) ‪U (cx‬‬

‫= ) ‪δ (cx‬‬

‫ﭘﺲ ) ‪ δ (x‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ اﺳﺖ‪ .‬ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ ) ‪ δ (x‬ﺑﺮآوردﮔﺮي ﻫﻢﭘﺎﻳﺎ ﺑﺎﺷﺪ ﻗﺮار ﻣﻲدﻫﻴﻢ‪.‬‬ ‫) ‪δ0(x‬‬ ‫) ‪δ (x‬‬

‫= ) ‪ U (x‬در اﻳﻦ ﺻﻮرت راﺑﻄﻪ )‪ (1‬ﺑﺮﻗﺮار اﺳﺖ و ﻫﻤﭽﻨﻴﻦ‬ ‫) ‪δ0(cx ) c r δ0(x ) δ0(x‬‬ ‫= ) ‪U (cx‬‬ ‫=‬ ‫=‬ ‫) ‪= U (x‬‬ ‫) ‪δ (cx ) c r δ (x ) δ (x‬‬

‫■‬ ‫‪Xi‬‬ ‫‪Xn‬‬ ‫اﮔﺮ ﻗﺮار دﻫﻴﻢ ) ‪ Z = ( Z 1,..., Z n‬ﻛﻪ‬ ‫= ‪i = 1,..., n − 1, Z n‬‬ ‫‪Xn‬‬ ‫| ‪|X n‬‬

‫= ‪) Z i‬و ‪ Z = c‬اﮔﺮ‪n =۱‬‬

‫ﺑﺎﺷﺪ( آﻧﮕﺎه ‪ Z‬ﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل ﻧﺴﺒﺖ ﺑﻪ ‪ G‬اﺳﺖ و ﻃﺒﻖ ﻗﻀﻴﻪ ‪ 4-1‬ﺗﺎﺑﻊ ) ‪ U (x‬ﭘﺎﻳﺎ اﺳﺖ اﮔﺮ‬ ‫و ﻓﻘﻂ اﮔﺮ ﺗﺎﺑﻌﻲ از ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل ‪ Z‬ﺑﺎﺷﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ از ﻗﻀﻴﻪ ‪ 1-3‬ﻧﺘﻴﺠﻪ ﻣﻲ ﺷﻮد ﻛﻪ‪:‬‬

‫ﻧﺘﻴﺠﻪ‪ :1-3‬اﮔﺮ ‪ δ0‬ﻫﺮ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي ‪ σ r‬ﺑﺎﺷﺪ آﻧﮕﺎه ﺷﺮط ﻻزم و ﻛﺎﻓﻲ ﺑﺮاي اﻳﻦ ﻛﻪ ﺑﺮآوردﮔﺮ ‪δ‬‬ ‫ﺑﺮاي ‪ σ r‬ﻫﻢﭘﺎﻳﺎ ﺑﺎﺷﺪ اﻳﻦ اﺳﺖ ﻛﻪ ﺗﺎﺑﻊ ‪ w‬از ‪ n‬ﻣﺘﻐﻴﺮ‬ ‫‪Xi‬‬ ‫‪Xn‬‬ ‫= ‪i = 1,..., n − 1, Z n‬‬ ‫‪Xn‬‬ ‫| ‪|X n‬‬

‫وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﺑﻄﻮري ﻛﻪ‬

‫) ‪δ0( x‬‬ ‫) ‪w (z‬‬

‫= ‪Zi‬‬

‫= ) ‪δ (x‬‬

‫■‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪89‬‬

‫ﺣﺎل ﭼﻮن ﮔﺮوه ‪ G‬اﻧﺘﻘﺎﻟﻲ اﺳﺖ و ‪ Z‬ﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل اﺳﺖ در اﻳﻦ ﺻﻮرت ﻃﺒﻖ ﻗﻀﻴﻪ ‪7-1‬‬ ‫⎞ ) ‪⎛ δ0(X‬‬ ‫) ‪δ0(X‬‬ ‫ﺑﺮآوردﮔﺮ ﻫﻢ ﭘﺎﻳﺎي‬ ‫= ) ‪ δ ( X‬ﻛﻪ اﻣﻴﺪ ﺷﺮﻃﻲ ] ‪⎟ | z‬‬ ‫) ‪w (Z‬‬ ‫⎠ ) ‪⎝ w (z‬‬

‫⎜ ‪ E σ =1[γ‬را ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ‬

‫ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ σ r‬اﺳﺖ‪ .‬ﺣﺎل اﮔﺮ ) ‪ w * (z‬اﻳﻦ اﻣﻴﺪ ﺷﺮﻃﻲ را ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ آﻧﮕﺎه‬ ‫) ‪δ0(X‬‬

‫) ‪w * (z‬‬

‫= ) ‪ δ (X‬ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ σ r‬اﺳﺖ‪.‬‬

‫ﻟﻢ ‪ :1-3‬ﻓﺮض ﻛﻨﻴﺪ ‪ X‬ﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﻣﺜﺒﺖ ﺑﺎﺷﺪ‬ ‫‪2‬‬

‫) ‪E (X 2‬‬ ‫‪⎛X‬‬ ‫⎞‬ ‫اﻟﻒ‪ -‬اﮔﺮ ∞ < ) ‪ E (X 2‬آﻧﮕﺎه ⎟‪ E ⎜ − 1‬ﻣﻘﺪار ﻣﻴﻨﻴﻤﻢ ﺧﻮد را ﺑﻪ ازاي‬ ‫) ‪E (X‬‬ ‫‪⎝c‬‬ ‫⎠‬

‫= ‪ c‬ﺑﺪﺳﺖ‬

‫ﻣﻲآورد‪.‬‬ ‫‪⎛X‬‬

‫⎞‬

‫ب‪ -‬اﮔﺮ ∞ < ) ‪ E (X‬و ‪ X‬داراي ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ‪ f‬ﺑﺎﺷﺪ آﻧﮕﺎه ⎟ ‪ E ⎜ − 1‬ﻣﻘﺪار ﻣﻴﻨﻴﻤﻢ ﺧﻮد را ﺑﻪ‬ ‫‪⎝ c‬‬ ‫⎠‬ ‫ازاي ﻣﻘﺪار ‪ c‬ﺑﺪﺳﺖ ﻣﻲآورد ﻛﻪ در راﺑﻄﻪ زﻳﺮ ﺻﺪق ﻛﻨﺪ‬ ‫‪xf (x )dx‬‬

‫∞‪+‬‬

‫‪c‬‬

‫‪∫0 xf (x )dx =∫c‬‬

‫)ﻫﺮ ﻣﻘﺪاري ‪ c‬ﻛﻪ در راﺑﻄﻪ ﻓﻮق ﺻﺪق ﻣﻲ ﻛﻨﺪ را ﻣﻴﺎﻧﻪ – ﻣﻘﻴﺎس ‪ 1‬ﺗﻮزﻳﻊ ‪ X‬ﻣﻲﻧﺎﻣﻨﺪ(‬ ‫■‬

‫اﺛﺒﺎت‪ :‬ﺗﻤﺮﻳﻦ‪.‬‬

‫ﻧﺘﻴﺠﻪ ‪ :2-3‬در ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻣﻘﻴﺎس و ﺗﺤﺖ ﺗﺒﺪﻳﻼت ﻣﻘﻴﺎس ‪ G‬دارﻳﻢ ﻛﻪ‬ ‫‪⎞ ⎛ δ‬‬ ‫⎞‬ ‫اﻟﻒ‪ -‬اﮔﺮ ⎟‪⎟ = ⎜ r − 1‬‬ ‫‪⎠ ⎝σ‬‬ ‫⎠‬ ‫‪2‬‬

‫‪⎛ δ‬‬ ‫‪) γ ⎜ r‬ﻓﺮم ‪ ( A‬آﻧﮕﺎه ﺑﺮآوردﮔﺮ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ σ‬ﻋﺒﺎرتاﺳﺖ از‬ ‫‪⎝σ‬‬ ‫‪r‬‬

‫] ‪δ0(X )E1[δ0(X ) | z‬‬ ‫] ‪E1[δ02 (X ) | z‬‬ ‫‪⎞ δ‬‬ ‫ب‪ -‬اﮔﺮ ‪⎟ = r − 1‬‬ ‫‪⎠ σ‬‬

‫‪δ‬‬ ‫‪⎝σ r‬‬

‫⎛⎜ ‪) γ‬ﻓﺮم ‪ ( B‬آﻧﮕﺎه‬

‫) ‪δ0(X‬‬ ‫*‬

‫) ‪w (z‬‬

‫= ) ‪δ * (X‬‬

‫= ) ‪ δ * (X‬ﻛﻪ در آن ) ‪ w * (z‬ﻫﺮ ﻣﻴﺎﻧﻪ ﻣﻘﻴﺎس‬

‫ﺗﻮزﻳﻊ ) ‪ δ0(X‬ﺑﻪ ﺷﺮط ‪ Z‬ﺑﺎ ‪ σ = 1‬ﻣﻲﺑﺎﺷﺪ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﺗﻤﺮﻳﻦ‪.‬‬

‫■‬ ‫‪Scale-median‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫⎞‬ ‫ﻣﺜﺎل ‪) :1-3‬ﺣﺎﻟﺖ ‪ ( n = 1‬اﮔﺮ ‪ X‬داري ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ⎟‬ ‫⎠‬ ‫‪Xr‬‬ ‫ﻣﻘﺪار ﺛﺎﺑﺖ اﺳﺖ و ﻃﺒﻖ ﻣﻄﺎﻟﺐ ﻓﻮق‬ ‫*‪w‬‬

‫⎤⎞‬ ‫ﻣﻘﺪاري اﺳﺖ ﻛﻪ ⎥ ⎟⎟‬ ‫⎦⎥ ⎠‬

‫‪⎡ ⎛X r‬‬ ‫⎜⎜ ‪E1 ⎢γ‬‬ ‫‪⎢⎣ ⎝ w‬‬

‫‪⎛x‬‬ ‫⎜ ‪f‬‬ ‫‪σ ⎝σ‬‬ ‫‪1‬‬

‫‪90‬‬

‫ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت ) ‪ w * (z‬ﻳﻚ‬

‫= ) ‪ δ * (X‬ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ σ r‬اﺳﺖ ﻛﻪ * ‪w‬‬

‫را ﻣﻴﻨﻴﻤﻢ ﻣﻲﻛﻨﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﻓﺮم ‪، A‬‬

‫) ‪X r E1(X r‬‬ ‫‪Xr‬‬ ‫*‬ ‫= ) ‪ δ (X‬و ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم ‪ δ (X ) = * ، B‬ﻛﻪ ‪ w‬ﻫﺮ ﻣﻴﺎﻧﻪ ﻣﻘﻴﺎس‬ ‫) ‪E 1 ( X 2r‬‬ ‫‪w‬‬ ‫*‬

‫*‬

‫ﺗﻮزﻳﻊ ‪ X r‬ﻣﻲﺑﺎﺷﺪ‪ ،‬ﺑﺮآوردﮔﺮﻫﺎي ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ σ r‬ﻫﺴﺘﻨﺪ‪.‬‬

‫■‬

‫ﻣﺜﺎل ‪ :2-3‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪ N (0,σ 2‬ﺑﺎﺷﻨﺪ ﺑﺮآوردﮔﺮ ‪MRE‬‬ ‫ﭘﺎراﻣﺘﺮ ‪ σ 2‬را ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم ‪ A‬ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬ ‫‪1 x 2‬‬

‫) ( ‪−‬‬ ‫‪1‬‬ ‫‪1 x‬‬ ‫= ) ‪f X (x‬‬ ‫) ( ‪e 2σ = f‬‬ ‫‪σ σ‬‬ ‫‪σ 2π‬‬

‫ﺣﻞ‪:‬‬ ‫‪n‬‬

‫ﻗﺮار ﻣﻲدﻫﻴﻢ ‪ δ0(X ) = ∑ X i2‬در اﻳﻦ ﺻﻮرت ) ‪ δ0(X‬آﻣﺎره ﺑﺴﻨﺪه ﻛﺎﻣﻞ ﺑﺮاي ‪ σ‬و ﻫﻤﭽﻨﻴﻦ‬ ‫‪2‬‬

‫‪i =1‬‬

‫ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي ‪ σ 2‬اﺳﺖ )زﻳﺮا ) ‪ ( δ0(cX ) = c 2δ0(X‬و ﻃﺒﻖ ﻗﻀﻴﻪ ﺑﺎﺳﻮ از آﻣﺎره ﻓﺮﻋﻲ ‪) Z‬ﭘﺎﻳﺎي‬ ‫ﻣﺎﻛﺰﻳﻤﺎل( ﻣﺴﺘﻘﻞ اﺳﺖ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ‬ ‫‪n‬‬

‫‪n ∑ X i2‬‬

‫‪2‬‬ ‫‪2‬‬ ‫) ) ‪δ0( X ) E1[δ0(X )] ∑ X i E ( χ ( n‬‬ ‫‪1 n‬‬ ‫‪i =1‬‬ ‫=‬ ‫=‬ ‫=‬ ‫= ) ‪δ (X‬‬ ‫‪∑X i‬‬ ‫]) ‪E 1[δ02 (X‬‬ ‫] ‪E 1[( χ (2n ) )2‬‬ ‫‪2n + n 2 n + 2 i =1‬‬ ‫*‬

‫■‬

‫ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ اﻳﻦ ﺑﺮآوردﮔﺮ ﻣﺨﺎﻃﺮه ﻧﺎارﻳﺐ اﺳﺖ‪.‬‬

‫ﻣﺜﺎل ‪ :3-3‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪ U (0,θ‬ﺑﺎﺷﻨﺪ ﺑﺮآوردﮔﺮ ‪MRE‬‬ ‫ﭘﺎراﻣﺘﺮ ‪ θ‬را ﺗﺤﺖ ﺗﻮاﺑﻊ زﻳﺎن ‪ A‬و ‪ B‬ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬ ‫ﺣﻞ‪:‬‬

‫⎞ ‪⎞ 1 ⎛x‬‬ ‫⎟ ⎜ ‪⎟= f‬‬ ‫⎠ ‪⎠ θ ⎝θ‬‬

‫‪⎛x‬‬ ‫⎜ ) ‪I (01,‬‬ ‫‪θ‬‬ ‫‪⎝θ‬‬ ‫‪1‬‬

‫= ) ‪I (0,θ ) (x‬‬

‫‪1‬‬

‫‪θ‬‬

‫= ) ‪f X (x‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪91‬‬

‫ﻗﺮار ﻣﻲ دﻫﻴﻢ ) ‪ δ0(X ) = X ( n‬ﺑﻨﺎﺑﺮاﻳﻦ ) ‪ δ0(X‬آﻣﺎره ﺑﺴﻨﺪه ﻛﺎﻣﻞ ﺑﺮاي ‪ θ‬اﺳﺖ و ﻫﻤﭽﻨﻴﻦ ﺑﺮآوردﮔﺮ‬ ‫ﻫﻢﭘﺎﻳﺎي ‪ θ‬اﺳﺖ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ از آﻣﺎره ﻓﺮﻋﻲ )ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل( ‪ Z‬ﻣﺴﺘﻘﻞ اﺳﺖ‪ .‬درﻧﺘﻴﺠﻪ‬ ‫اﻟﻒ‪ -‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم ‪ A‬ﺑﺎ ‪، r =۱‬‬ ‫⎞ ‪⎛ n‬‬ ‫⎜ ) ‪X (n‬‬ ‫⎟‬ ‫) ) ‪X ( n ) E 1(X ( n‬‬ ‫‪n +1⎠ n + 2‬‬ ‫*‬ ‫⎝‬ ‫(‬ ‫)‬ ‫))‪(X ( n ) ~ Be (n ,1‬‬ ‫= ‪δ X‬‬ ‫=‬ ‫=‬ ‫) ‪x (n‬‬ ‫‪n‬‬ ‫‪n +1‬‬ ‫) ) ‪E1( X (2n‬‬ ‫‪n +2‬‬ ‫‪X‬‬ ‫ب‪ -‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم ‪ B‬ﺑﺎ ‪ δ * (X ) = ( n* ) ، r = 1‬ﻛﻪ در آن * ‪ w‬ﻫﺮ ﻣﻴﺎﻧﻪ ﻣﻘﻴﺎس ﺗﻮزﻳﻊ ) ‪X ( n‬‬ ‫‪w‬‬

‫ﺑﺎ‪ θ = 1‬اﺳﺖ‪ .‬ﻳﻌﻨﻲ‬ ‫‪1‬‬ ‫‪1‬‬ ‫) ‪x ( nx n −1 )dx = ∫ * x ( nx n −1 )dx ⇒ ... ⇒ w * = n +1 ⇒ δ * ( X ) = n +1 2X ( n‬‬ ‫‪w‬‬ ‫‪2‬‬

‫*‪w‬‬

‫‪∫0‬‬ ‫■‬

‫ﺑﺮآوردﮔﺮ ﭘﻴﺘﻤﻦ‪:‬‬ ‫اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم ‪ A‬ﺑﺎﺷﺪ آﻧﮕﺎه ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ﻣﻘﻴﺎس را ﺑﻔﺮم راﺣﺖﺗﺮي ﻣﻲﺗﻮان ﺑﺪﺳﺖ‬ ‫آورد‪.‬‬ ‫ﻗﻀﻴﻪ ‪ :2-3‬ﺗﺤﺖ ﮔﺮوه ﺗﺒﺪﻳﻼت ﻣﻘﻴﺎﺳﻲ ‪ G‬و در ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻣﻘﻴﺎﺳﻲ و ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم ‪A‬‬ ‫ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ﻣﻘﻴﺎس ‪ σ r‬ﻋﺒﺎرت اﺳﺖ از‬ ‫‪(ν x 1,...,ν x n )dν‬‬ ‫‪(ν x 1,...,ν x n )dν‬‬

‫‪+∞ n + r −1‬‬ ‫‪ν‬‬ ‫‪f‬‬ ‫‪0‬‬ ‫‪+∞ n +2r −1‬‬ ‫‪ν‬‬ ‫‪f‬‬ ‫‪0‬‬

‫∫‬ ‫∫‬

‫] ‪δ0(x )E1[δ0(x ) | z‬‬ ‫=‬ ‫] ‪E1[δ02 (x ) | z‬‬

‫= ) ‪δ * (x‬‬

‫اﻳﻦ ﻓﺮم را ﺑﻌﻨﻮان ﺑﺮآورد ﭘﻴﺘﻤﻦ ﭘﺎراﻣﺘﺮ ‪ σ r‬ﻣﻲﺷﻨﺎﺳﻨﺪ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﺗﻤﺮﻳﻦ )ﻫﻤﺎﻧﻨﺪ اﺛﺒﺎت ﻗﻀﻴﻪ‪ 3-2‬ﻣﻲ ﺑﺎﺷﺪ( ‪. δ0(X ) = X nr‬‬

‫■‬

‫ﻣﺜﺎل‪ :4-3‬ﻓﺮضﻛﻨﻴﺪ ‪ X 1, X 2 ,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ﻧﻤﺎﻳﻲ ﺑﺎ ﭘﺎراﻣﺘﺮ ‪ λ‬ﺑﺎﺷﻨﺪ‪ .‬ﺑﺮآوردﮔﺮ‬ ‫ﭘﻴﺘﻤﻦ ﭘﺎراﻣﺘﺮ ‪ λ‬را ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪92‬‬

‫ﺣﻞ‪r =۱ :‬‬

‫‪x‬‬ ‫‪⎛x‬‬ ‫‪f ⎜ 1 ,..., n‬‬ ‫‪λ‬‬ ‫‪λ ⎝λ‬‬

‫‪n‬‬ ‫‪x‬‬ ‫‪−∑ i‬‬

‫‪x‬‬ ‫‪− i‬‬

‫⎞‬ ‫‪n‬‬ ‫) ‪⎟ = ν f (ν x 1,...,ν x n‬‬ ‫‪λ‬‬ ‫⎠‬ ‫‪i =1 λ‬‬ ‫)‪Γ(n + 1‬‬ ‫‪+∞ n‬‬ ‫‪+∞ n −ν x‬‬ ‫∑‬ ‫‪i‬‬ ‫‪dν‬‬ ‫‪(∑ x i ) n +1 ∑ x i‬‬ ‫‪∫0 ν f (ν x )dν = ∫0 ν e‬‬ ‫∞‪δ * (x ) = +‬‬ ‫=‬ ‫=‬ ‫‪+∞ n +1 −ν x‬‬ ‫)‪Γ(n + 2‬‬ ‫‪n +1‬‬ ‫∑‬ ‫‪n +1‬‬ ‫‪i‬‬ ‫‪dν‬‬ ‫‪∫0 ν f (ν x )dν ∫0 ν e‬‬ ‫‪n +2‬‬ ‫) ‪(∑ x i‬‬ ‫‪1‬‬

‫‪n‬‬

‫ﭘﺲﺑﺮآوردﮔﺮ‪ MRE‬ﭘﺎرﻣﺘﺮ ‪ λ‬ﺑﺮاﺑﺮ‬

‫‪Xi‬‬

‫=‬

‫‪λ‬‬

‫‪i =1‬‬

‫‪e‬‬

‫‪1‬‬

‫‪n‬‬

‫=‬

‫‪λ‬‬

‫‪n‬‬

‫‪1‬‬ ‫‪f X (x ) = ∏ e‬‬

‫∑ = ) ‪ δ * (X‬اﺳﺖ)ﻛﻪ ﻣﺨﺎﻃﺮهﻧﺎارﻳﺐ ﻧﻴﺰ اﺳﺖ(‪.‬‬

‫‪n +1‬‬

‫■‬

‫ﻣﺜﺎل ‪ :5-3‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪U (0,θ‬ﺑﺎﺷﻨﺪ‪ .‬ﺑﺮآوردﮔﺮ ﭘﻴﺘﻤﻦ‬ ‫ﭘﺎراﻣﺘﺮ ‪ θ‬را ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬ ‫ﺣﻞ‪:‬‬ ‫‪⎧ n 1‬‬ ‫‪xi‬‬ ‫‪xi‬‬ ‫⎞ ‪xn‬‬ ‫‪1 n‬‬ ‫‪1 ⎛ x1‬‬ ‫‪n‬‬ ‫=‬ ‫=‬ ‫‪I‬‬ ‫‪I‬‬ ‫‪f‬‬ ‫(‬ ‫)‬ ‫(‬ ‫)‬ ‫‪,...,‬‬ ‫) ‪⎪∏ (01,‬‬ ‫∏‬ ‫‪01‬‬ ‫(‬ ‫‪,‬‬ ‫)‬ ‫⎜‬ ‫) ‪⎟ = ν f (ν x‬‬ ‫‪n‬‬ ‫‪n‬‬ ‫‪θ‬‬ ‫‪θ‬‬ ‫⎠ ‪θ‬‬ ‫‪θ i =1‬‬ ‫‪θ‬‬ ‫‪⎝θ‬‬ ‫‪⎪ i =1 θ‬‬ ‫⎨ = ) ‪f X (x‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫⎪‬ ‫‪I‬‬ ‫=‪ν‬‬ ‫) ‪(θ ) = ν n I 1 (ν‬‬ ‫) ∞‪n ( x ( n ) ,+‬‬ ‫‪(0,‬‬ ‫)‬ ‫‪θ‬‬ ‫‪⎪ θ‬‬ ‫) ‪x (n‬‬ ‫⎩‬ ‫) ‪ν n +1 1 x ( n‬‬ ‫‪+∞ n‬‬ ‫‪1 x (n ) n‬‬ ‫‪∫0 ν f (ν x )dν = ∫0 ν dν = n + 1 0 = n + 2 x‬‬ ‫∞‪δ * (x ) = +‬‬ ‫) ‪(n‬‬ ‫‪1 x ( n ) n +1‬‬ ‫‪n +1‬‬ ‫‪ν n +2 1 x ( n ) n + 1‬‬ ‫(‬ ‫)‬ ‫‪f‬‬ ‫‪x‬‬ ‫‪d‬‬ ‫‪d‬‬ ‫‪ν‬‬ ‫‪ν‬‬ ‫‪ν‬‬ ‫‪ν‬‬ ‫‪ν‬‬ ‫‪∫0‬‬ ‫‪∫0‬‬ ‫‪n +2 0‬‬

‫ﻛﻪ ﻫﻤﺎن ﺑﺮآوردﮔﺮ ﺑﺪﺳﺖ آﻣﺪه در ﻣﺜﺎل ‪ 3-3‬اﺳﺖ‪.‬‬

‫■‬

‫ﻗﻀﻴﻪ ‪ :3-3‬ﺑﺮآوردﮔﺮ ﭘﻴﺘﻤﻦ ﭘﺎراﻣﺘﺮ ﻣﻘﻴﺎس ﺗﺎﺑﻌﻲ از آﻣﺎره ﺑﺴﻨﺪه اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت ‪ :‬ﺗﻤﺮﻳﻦ‪.‬‬

‫■‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪93‬‬

‫ﺑﺨﺶ‪ :4‬ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮﻫﺎي ﻣﻜﺎن‪-‬ﻣﻘﻴﺎس‬ ‫ﻓﺮض ﻛﻨﻴﺪ ) ‪ X = (X 1,… , X n‬داراي ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ﺗﻮام )‬

‫‪x n −θ‬‬

‫‪σ‬‬

‫‪,...,‬‬

‫‪x1 −θ‬‬

‫‪σ‬‬

‫( ‪f‬‬

‫‪1‬‬ ‫‪n‬‬

‫‪σ‬‬

‫ﺑﺎﺷﻨﺪ ﻛﻪ در‬

‫آن ‪ f‬ﻣﻌﻠﻮم و ‪ θ‬و ‪ σ‬ﻫﺮ دو ﻧﺎﻣﻌﻠﻮم ﻫﺴﺘﻨﺪ‪ .‬در زﻳﺮ ﺑﺮآوردﮔﺮﻫﺎي ‪ MER‬ﺑﺮاي ‪ σ‬و ‪ θ‬را ﺑﻪ ﻃﻮر‬ ‫ﺟﺪاﮔﺎﻧﻪ ﺑﺪﺳﺖ ﻣﻲآورﻳﻢ‪.‬‬ ‫اﻟﻒ‪ -‬ﺑﺮآوردﮔﺮﻫﺎي ‪ MRE‬ﭘﺎراﻣﺘﺮ ﻣﻘﻴﺎس ‪: σ‬‬ ‫ﻓﺮض ﻛﻨﻴﺪ ﺑﺨﻮاﻫﻴﻢ ﭘﺎراﻣﺘﺮ ‪ σ r‬را ﺑﺮآورد ﻛﻨﻴﻢ ‪ .‬اﮔﺮ ﮔﺮوه ﺗﺒﺪﻳﻼت زﻳﺮ را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ‪.‬‬ ‫}‪G = {g a ,b | g a ,b (x ) = a + bx , a ∈ R , b > 0‬‬ ‫آﻧﮕﺎه ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻓﻮق ﻧﺴﺒﺖ ﺑﻪ اﻳﻦ ﺗﺒﺪﻳﻞ ﭘﺎﻳﺎ اﺳﺖ ﻫﺮﮔﺎه ﮔﺮوه ﺗﺒﺪﻳﻼت ‪ G‬ﺑﻪ ﺻﻮرت زﻳﺮ‬ ‫ﺑﺎﺷﺪ‪.‬‬ ‫}‪= {g a ,b | g a ,b (θ , σ ) = (a + bθ , b σ ), a ∈ R , b > 0‬‬

‫‪G‬‬

‫ﻛﻪ ﻳﻚ ﮔﺮوه اﻧﺘﻘﺎﻟﻲ از ﺗﺒﺪﻳﻼت اﺳﺖ‪ .‬در ﺑﺮآورد ﭘﺎراﻣﺘﺮ ‪ h (θ ,σ ) = σ r‬ﺗﺤﺖ ﺗﺒﺪﻳﻞ ‪h (σ ) ، G‬‬

‫داراي ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ اﺳﺖ اﮔﺮ‬ ‫) ‪h ( g (θ , δ )) = g ( h (θ , σ ) ) ⇔ h (a + bθ , b σ ) = g (σ r ) ⇔ b r σ r = g (σ r‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﮔﺮوه ﺗﺒﺪﻳﻼت ‪ G‬ﺑﻪ ﺻﻮرت زﻳﺮ اﺳﺖ‪.‬‬ ‫} ‪= {g a ,b | g a ,b (δ ) = b r δ , b > 0, a ∈ R‬‬

‫‪G‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﺗﺤﺖ ﮔﺮوه ‪ G‬ﺗﺎﺑﻊ زﻳﺎن ) ‪ L (θ , σ , δ‬ﭘﺎﻳﺎ اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ‬ ‫⎞ ‪⎛ δ‬‬ ‫⎟ ‪L (θ , σ , δ ) = γ ⎜ r‬‬ ‫⎠ ‪⎝σ‬‬

‫‪1‬‬

‫‪σ‬‬

‫= ‪,b‬‬

‫‪−θ‬‬

‫‪σ‬‬

‫⇔‬

‫=‪a‬‬

‫) ‪L (θ , σ , δ ) = L (a + bθ , bσ , b r δ‬‬

‫)ﺑﺮاي ﻣﺜﺎل ﺗﺎﺑﻊ زﻳﺎن ﻫﺎي ﺑﻔﺮم ‪ A‬و ‪.( B‬‬ ‫در اﻳﻦ ﺣﺎﻟﺖ ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎ ﺑﻔﺮم زﻳﺮ ﻣﻲﺑﺎﺷﻨﺪ‪.‬‬ ‫)‪(1‬‬

‫) ) ‪δ ( g (X ) ) = g (δ ( X ) ) ⇔ δ (a + bX ) = b r (δ ( X‬‬

‫ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺑﺮآوردﮔﺮ ‪ MRE‬در اﻳﻦ ﺣﺎﻟﺖ ﺑﻪ ﺻﻮرت زﻳﺮ ﻋﻤﻞ ﻣﻲﻛﻨﻴﻢ‪ .‬اﮔﺮ ﺗﻨﻬﺎ ﻳﻚ ﺗﻐﻴﻴﺮ در‬ ‫ﻣﻜﺎن داﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻳﻌﻨﻲ‪:‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫)‪(b = 1‬‬

‫) ‪g (θ , σ ) = (θ + a , σ‬‬

‫‪94‬‬

‫‪g (x ) = x + a‬‬

‫) ‪δ (a + bX ) = δ (X‬‬

‫در اﻳﻦ ﺻﻮرت راﺑﻄﻪ )‪ (1‬ﺑﺎ ‪ b = 1‬ﻧﺘﻴﺠﻪ ﻣﻲدﻫﺪ ﻛﻪ ﺑﺎﻳﺴﺘﻲ‬

‫ﻳﻌﻨﻲ ‪ δ‬ﻳﻚ ﺗﺎﺑﻊ ﭘﺎﻳﺎ ﻧﺴﺒﺖ ﺑﻪ ‪ G‬اﺳﺖ ﭘﺲ ﻃﺒﻖ ﻧﺘﻴﺠﻪ ‪،1-2‬‬

‫‪ δ‬ﺗﺎﺑﻌﻲ از ‪n −1‬‬

‫ﺗﻔﺎﺿﻞ ‪ Y i = X i − X n , i = 1,..., n − 1,‬ﻣﻲﺑﺎﺷﺪ‪ .‬اﻣﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ﺗﻮام ‪Y i‬ﻫﺎ ﺑﺼﻮرت زﻳﺮ ﺑﺪﺳﺖ‬ ‫ﻣﻲآﻳﺪ‪:‬‬ ‫⎞ ‪⎛w‬‬ ‫⎟ ⎜ ‪f‬‬ ‫‪σ‬‬ ‫⎠ ‪⎝σ‬‬ ‫‪1‬‬

‫‪n‬‬

‫= ) ‪i = 1,..., n ⇒ f W (w ) = f X (w + θ‬‬ ‫‪⇒ J =1‬‬

‫‪i = 1,..., n − 1‬‬

‫⎞ ‪y n −1 + t t‬‬ ‫‪⎛ y1 +t‬‬ ‫‪,...,‬‬ ‫⎟ ‪,‬‬ ‫‪f‬‬ ‫⎜‬ ‫‪σ‬‬ ‫⎠‪σ‬‬ ‫‪σn ⎝ σ‬‬ ‫‪1‬‬

‫‪W i = X i −θ‬‬

‫‪⎧Y i = X i − X n =W i −W n‬‬ ‫⎨‬ ‫‪⎩ T =W n‬‬

‫= ) ‪( y , t ) = f W ( y 1 + t ,..., y n −1 + t , t‬‬

‫⎞ ‪y +t t‬‬ ‫‪⎛ y1 +t‬‬ ‫‪,..., n −1 , ⎟ dt‬‬ ‫⎜‬ ‫‪σ‬‬ ‫⎠‪σ‬‬ ‫‪⎝ σ‬‬

‫∞‪+‬‬

‫‪∫−∞ f‬‬

‫‪1‬‬ ‫‪n‬‬

‫‪σ‬‬

‫= ) ‪⇒ fY (y‬‬

‫⎞ ‪y‬‬ ‫‪y n −1‬‬ ‫‪1‬‬ ‫‪⎛ y1‬‬ ‫⎞‬ ‫⎛*‬ ‫‪+‬‬ ‫‪+‬‬ ‫=‬ ‫‪,...,‬‬ ‫‪,‬‬ ‫‪f‬‬ ‫‪u‬‬ ‫‪u‬‬ ‫‪u‬‬ ‫‪du‬‬ ‫‪f‬‬ ‫⎟ ⎜‬ ‫⎜‬ ‫⎟‬ ‫‪σ‬‬ ‫‪σ n −1 ∫−∞ ⎝ σ‬‬ ‫⎠ ‪σ n −1 ⎝ σ‬‬ ‫⎠‬ ‫∞‪+‬‬

‫‪,T‬‬

‫‪fY‬‬

‫‪1‬‬

‫‪t‬‬

‫‪σ‬‬

‫=‪u‬‬

‫=‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﺗﻮزﻳﻊ )‪ Y = (Y 1,… ,Y n −1‬ﺑﻪ ﻳﻚ ﺧﺎﻧﻮاده ﻣﻘﻴﺎس ﻣﺘﻌﻠﻖ اﺳﺖ در ﻧﺘﻴﺠﻪ در اﻳﻦ ﺧﺎﻧﻮاده ﺑﺮاي‬ ‫ﺑﺮآورد ﭘﺎراﻣﺘﺮ ‪ σ r‬از ﺑﺮآوردﮔﺮﻫﺎي ‪ MRE‬ﺑﺪﺳﺖ آﻣﺪه در ﺑﺨﺶ ﻗﺒﻞ اﺳﺘﻔﺎده ﻣﻲﻛﻨﻴﻢ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ‬ ‫ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ σ r‬ﺑﻔﺮم‬ ‫ﭘﺎراﻣﺘﺮ ‪ σ r‬ﺑﺮ‬

‫اﺳﺎس ‪Y‬‬

‫‪Yi‬‬ ‫‪, i = 1, 2,..., n − 2‬‬ ‫‪Y n −1‬‬

‫⎪⎫ ⎞ ) ‪⎧⎪ ⎛ δ0(Y‬‬ ‫⎬ ‪⎟|z‬‬ ‫⎪⎭ ⎠ ) ‪⎩⎪ ⎝ w (z‬‬

‫) ‪δ0(Y‬‬ ‫*‬

‫) ‪w (Z‬‬

‫= ) ‪ δ (X‬اﺳﺖ ﻛﻪ ) ‪ δ0(Y‬ﻫﺮ ﺑﺮآوردﮔﺮ ﭘﺎﻳﺎي ﻣﻘﻴﺎس‬

‫اﺳﺖ ) ) ‪(δ (bY ) = b δ (Y‬‬ ‫‪r‬‬

‫‪0‬‬

‫‪0‬‬

‫= ‪Z = ( Z 1,… , Z n −1), Z i‬‬

‫⎜ ‪ E σ =1 ⎨γ‬را ﻣﻴﻨﻴﻤﻢ ﻣﻲﻛﻨﺪ‪.‬‬

‫ﻛﻪ‬

‫در‬

‫آن‬

‫‪Y n −1‬‬ ‫| ‪|Y n −1‬‬

‫= ‪Z n −1‬‬

‫و ) ‪ w * (z‬ﻫﺮ ﻋﺪدي اﺳﺖ ﻛﻪ‬

‫و‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪95‬‬

‫‪2‬‬ ‫⎛‬ ‫‪⎛ δ‬‬ ‫⎞ ⎞‬ ‫ﻧﺘﻴﺠﻪ ‪ :1-4‬اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم ‪ ⎜ L (θ , σ , δ ) = ⎜ r − 1⎟ ⎟ A‬ﺑﺎﺷﺪ آﻧﮕﺎه ﺑﺮاوردﮔﺮ ‪MRE‬‬ ‫⎜‬ ‫‪⎝σ‬‬ ‫⎠⎟ ⎠‬ ‫⎝‬

‫] ‪δ0(Y )E σ =1[δ0(Y ) | z‬‬ ‫] ‪E σ =1[δ02 (Y ) | z‬‬

‫ﭘﺎراﻣﺘﺮ ‪ σ r‬ﻋﺒﺎرت اﺳﺖ از‬ ‫‪⎛ δ‬‬ ‫⎞⎞‬ ‫و اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم ‪− 1⎟ ⎟ B‬‬ ‫‪r‬‬ ‫‪⎝σ‬‬ ‫⎠⎠‬

‫= ) ‪δ * (X‬‬

‫⎛‬

‫⎜ = ) ‪ ⎜ L (θ ,σ , δ‬ﺑﺎﺷﺪ آﻧﮕﺎه ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ σ r‬ﻋﺒﺎرت‬

‫) ‪δ0(X‬‬

‫⎝‬

‫= ) ‪ δ * (X‬ﻛﻪ در آن ) ‪ w * (z‬ﻫﺮ ﻣﻴﺎﻧﻪ ﻣﻘﻴﺎس ﺗﻮزﻳﻊ ) ‪ δ0(Y‬ﺑﻪ ﺷﺮط ‪ Z‬ﺑﺎ ‪σ = 1‬‬

‫اﺳﺖ از‬

‫) ‪w * (z‬‬

‫ﻣﻲﺑﺎﺷﺪ‪.‬‬

‫■‬

‫ﻣﺜﺎل ‪ :1-4‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪ N ( μ ,σ 2‬ﺑﺎﺷﻨﺪ ﻛﻪ در آن ‪ μ‬و ‪ σ 2‬ﻫﺮ‬ ‫دو ﻧﺎﻣﻌﻠﻮم ﻫﺴﺘﻨﺪ‪ .‬ﺑﺮآورد ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ σ 2‬را ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎنﻫﺎي ﺑﻔﺮم ‪ A‬و ‪ B‬ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬ ‫‪n‬‬

‫ﺣﻞ‪ T = (X , ∑ (X i − X )2 ) :‬ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﻛﺎﻣﻞ ﺑﺮاي ‪ μ‬و ‪ σ‬اﺳﺖ‪ .‬ﻗﺮار ﻣﻲدﻫﻴﻢ‬ ‫‪2‬‬

‫‪i =1‬‬

‫‪n‬‬

‫‪ δ0 = ∑ (X i − X )2‬در اﻳﻦ ﺻﻮرت ‪ δ0‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ ﺑﺮاي ‪ σ 2‬اﺳﺖ‬

‫)‬

‫‪i =1‬‬

‫(‬

‫) ‪ δ0(a + bX ) = b 2δ0(X ), δ0(Y ) = b 2δ0(Y‬و از آﻣﺎره ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل ‪) Z‬ﻓﺮﻋﻲ( ﻣﺴﺘﻘﻞ‬

‫اﺳﺖ و‬

‫)‪δ0 ~ χ(2n −1) (σ = 1‬‬

‫اﻟﻒ‪ -‬اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم ‪ A‬ﺑﺎﺷﺪ آﻧﮕﺎه‬ ‫)‪δ0E1(δ0 | z ) δ0E 1(δ0‬‬ ‫‪1 n‬‬ ‫)‪δ0(n − 1‬‬ ‫‪δ0‬‬ ‫=‬ ‫=‬ ‫=‬ ‫=‬ ‫= ) ‪δ (X‬‬ ‫‪( X i − X )2‬‬ ‫∑‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪n + 1 n + 1 i =1‬‬ ‫) ‪E1(δ0 | z‬‬ ‫)‪E1(δ0 ) 2( n − 1) + (n − 1‬‬ ‫*‬

‫‪D‬‬

‫ب‪ -‬اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم ‪ B‬ﺑﺎﺷﺪ آﻧﮕﺎه * ‪ w‬ﻣﻴﺎﻧﻪ‪-‬ﻣﻘﻴﺎس ﺗﻮزﻳﻊ ‪ δ0 | Z = δ0‬اﺳﺖ‪.‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬ ‫‪n −1‬‬ ‫‪1‬‬ ‫‪−1 − x‬‬ ‫‪2 e 2 dx‬‬

‫‪n +1‬‬ ‫‪1‬‬ ‫‪−1 − x‬‬ ‫‪2 e 2 dx‬‬

‫‪x‬‬

‫‪x‬‬

‫‪x‬‬

‫∞‪+‬‬

‫‪n −1‬‬ ‫⎛‬ ‫‪22 Γ‬‬

‫*‪w‬‬

‫⎞‪n −1‬‬ ‫⎜‬ ‫⎟‬ ‫⎠ ‪⎝ 2‬‬

‫‪x‬‬

‫∞‪+‬‬

‫‪n +1‬‬ ‫⎛‬ ‫‪22 Γ‬‬

‫*‪w‬‬

‫⎞‪n +1‬‬ ‫⎜‬ ‫⎟‬ ‫⎠ ‪⎝ 2‬‬

‫∫=‬

‫∫=‬

‫‪n −1‬‬ ‫‪−1 − 1 x‬‬ ‫‪2 e 2 dx‬‬

‫‪n +1‬‬ ‫‪1‬‬ ‫‪−1 − x‬‬ ‫‪2 e 2 dx‬‬

‫‪x‬‬

‫‪x‬‬

‫‪x‬‬ ‫‪n −1‬‬ ‫⎛‬ ‫‪22 Γ‬‬

‫⎞‪n −1‬‬ ‫⎜‬ ‫⎟‬ ‫⎠ ‪⎝ 2‬‬ ‫*‪w‬‬

‫‪1‬‬

‫‪n +1‬‬ ‫⎛‬ ‫‪22 Γ‬‬

‫⎞‪n +1‬‬ ‫⎜‬ ‫⎟‬ ‫⎠ ‪⎝ 2‬‬

‫‪96‬‬ ‫*‪w‬‬

‫‪∫0‬‬

‫∫ ⇔ ‪⇔ .....‬‬

‫‪0‬‬

‫ﻳﻌﻨﻲ * ‪ w‬ﻣﻴﺎﻧﻪ ﺗﻮزﻳﻊ )‪ χ (2n +1‬اﺳﺖ و ﺑﻨﺎﺑﺮاﻳﻦ )‪ w * = χ02/5 (n + 1‬و در ﻧﺘﻴﺠﻪ‬ ‫‪n‬‬ ‫‪1‬‬ ‫‪( X i − X )2‬‬ ‫∑‬ ‫‪2‬‬ ‫‪χ0/5 (n + 1) i =1‬‬

‫= ) ‪δ * (X‬‬

‫■‬ ‫‪1‬‬ ‫‪2‬‬

‫‪1‬‬ ‫‪2‬‬

‫ﻣﺜﺎل‪ :2-4‬ﻓﺮضﻛﻨﻴﺪ ‪ X 1, X 2 ,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ) ‪ U (θ − σ ,θ + σ‬ﺑﺎﺷﺪ‪.‬‬ ‫ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ σ‬را ﺗﺤﺖ ﺗﻮاﺑﻊ زﻳﺎن ﺑﻔﺮم ‪ A‬و ‪ B‬ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬ ‫)‬

‫ﺣﻞ‪:‬‬

‫‪x −θ‬‬

‫‪σ‬‬

‫( ‪11‬‬ ‫) ‪(− ,‬‬ ‫‪22‬‬

‫‪I‬‬

‫‪1‬‬

‫‪σ‬‬

‫=)‬

‫‪1‬‬ ‫‪1 (x‬‬ ‫) ‪(θ − ,θ +‬‬ ‫‪2‬‬ ‫‪2‬‬

‫‪I‬‬

‫‪1‬‬

‫‪σ‬‬

‫= ) ‪f θ ,σ (x‬‬

‫) ) ‪ T = (X (1) , X ( n‬ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﻣﻴﻨﻴﻤﺎل ﺑﺮاي ) ‪ (θ ,σ‬اﺳﺖ و )‪ δ0 = X ( n ) − X (1‬ﺑﺮآوردﮔﺮ‬ ‫ﻫﻢﭘﺎﻳﺎي ‪ σ‬اﺳﺖ ﻛﻪ از آﻣﺎره ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل )ﻓﺮﻋﻲ( ‪ Z‬ﻣﺴﺘﻘﻞ اﺳﺖ و اﮔﺮ ‪ σ = 1‬ﺑﺎﺷﺪ‪.‬‬ ‫‪1‬‬ ‫‪2‬‬

‫‪1‬‬ ‫‪2‬‬

‫)‪δ0 = X ( n ) − X (1) = (X ( n ) − θ + ) − (X (1) − θ + ) =V ( n ) −V (1‬‬ ‫‪D‬‬

‫)‪=V ( n −1) ~ Be (n − 1, 2‬‬

‫اﻟﻒ‪ -‬اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم ‪ A‬ﺑﺎﺷﺪ آﻧﮕﺎه‬ ‫‪n −1‬‬ ‫)‬ ‫‪n +2‬‬ ‫‪n +2‬‬ ‫‪n +1‬‬ ‫) )‪(X ( n ) − X (1‬‬ ‫= ‪δ0‬‬ ‫=‬ ‫)‪n (n − 1‬‬ ‫‪n‬‬ ‫‪n‬‬ ‫)‪(n + 1)(n + 2‬‬

‫(‪δ0‬‬

‫] ‪δ E [δ‬‬ ‫= ‪δ * (X ) = 0 1 20‬‬ ‫] ‪E1[δ0‬‬

‫ب‪ -‬اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻪ ﻓﺮم ‪ B‬ﺑﺎﺷﺪ ﺑﺮآوردﮔﺮ ‪ σ ،MRE‬را ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬ ‫}‪= {g b ( x ) = bx , b > 0‬‬ ‫ﺗﻮﺟﻪ‪ :‬ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ اﮔﺮ ﮔﺮوه ﺗﺒﺪﻳﻼت‬ ‫}‪= {g b (σ ) = b σ , b > 0‬‬

‫ﺑﺨﺶ ﻗﺒﻞ( آﻧﮕﺎه‬

‫■‬ ‫‪G‬‬ ‫‪G‬‬

‫را ﺑﻪ ﻛﺎر ﻣﻲﺑﺮدﻳﻢ )ﻫﻤﺎﻧﻨﺪ‬

‫‪ G‬دﻳﮕﺮ ﻳﻚ ﮔﺮوه اﻧﺘﻘﺎﻟﻲ ﻧﺒﻮد و از روش ﺑﻜﺎر ﺑﺮده ﺷﺪه در اﻳﻦ ﻓﺼﻞ ﻧﻤﻲﺗﻮان‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪⎞ 2‬‬ ‫‪1‬‬ ‫‪r‬‬ ‫ﺑﺮآوردﮔﺮ ‪ σ ،MRE‬را ﺑﺪﺳﺖ آورد‪) .‬اﺷﺘﺎﻳﻦ )‪ (1964‬ﻧﺸﺎن داد ﻛﻪ ‪⎟ s‬‬ ‫⎠‬

‫⎧‬ ‫⎫ ‪nx 2‬‬ ‫‪⎪⎪ 1 1 +‬‬ ‫⎪‬ ‫⎞ ‪⎛x‬‬ ‫⎪ ‪s‬‬ ‫⎨ ‪ ψ ⎜ ⎟ = min‬ﺗﺤﺖ ﺗﺒﺪﻳﻞ ﻓﻮق ﺑﺮاي‬ ‫‪,‬‬ ‫⎬‬ ‫⎠ ‪⎝s‬‬ ‫⎪ ‪⎪ n +1 n + 2‬‬ ‫⎩⎪‬ ‫⎭⎪‬ ‫‪1 n‬‬ ‫ﻛﻤﺘﺮي ﻧﺴﺒﺖ ﺑﻪ ‪(X i − X )2‬‬ ‫∑‬ ‫‪n + 1 i =1‬‬

‫‪97‬‬

‫⎜⎛ ‪ δ ( x ) = ψ‬ﻛﻪ‬

‫‪x‬‬ ‫‪⎝s‬‬

‫‪ σ 2‬در ﺗﻮزﻳﻊ ﻧﺮﻣﺎل داراي ﻣﺨﺎﻃﺮه‬

‫= ‪ δ0‬در ﻣﺜﺎل‪ 1-4‬اﺳﺖ(‬

‫ب‪ -‬ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ﻣﻜﺎن ‪θ‬‬ ‫⎞‬ ‫ﻓﺮض ﻛﻨﻴﺪ ﺑﺨﻮاﻫﻴﻢ ﭘﺎراﻣﺘﺮ ﻣﻜﺎن ‪ θ‬را در ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ⎟‬ ‫⎠‬

‫‪x n −θ‬‬ ‫‪⎛ x1 −θ‬‬ ‫‪f‬‬ ‫‪,...,‬‬ ‫⎜‬ ‫‪σ‬‬ ‫‪σn ⎝ σ‬‬ ‫‪1‬‬

‫ﺑﺮآورد‬

‫ﻛﻨﻴﻢ‪ .‬ﻫﻤﺎنﮔﻮﻧﻪ ﻛﻪ دﻳﺪﻳﻢ اﻳﻦ ﺧﺎﻧﻮاده ﺗﺤﺖ ﮔﺮوهﻫﺎي ﺗﺒﺪﻳﻼت‬ ‫} ‪= {g a ,b | g a ,b (x ) = a + bx‬‬ ‫}) ‪= {g a ,b | g a ,b (θ , σ ) = (a + bθ , bσ‬‬

‫‪G‬‬ ‫‪G‬‬

‫ﭘﺎﻳﺎ اﺳﺖ و در ﺑﺮآورد ﭘﺎراﻣﺘﺮ ‪ θ‬ﮔﺮوه ﺗﺒﺪﻳﻼت ‪ G‬ﺑﻪ ﺻﻮرت زﻳﺮ ﻣﻲﺑﺎﺷﺪ‬ ‫} ‪= {g a ,b (δ ) = a + b δ‬‬

‫‪G‬‬

‫در اﻳﻦﺻﻮرت ﻣﺴﺌﻠﻪ ﻣﻮرد ﻧﻈﺮ ﺗﺤﺖ ﮔﺮوه ‪ G‬ﭘﺎﻳﺎ اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم زﻳﺮ ﺑﺎﺷﺪ‬ ‫⎞ ‪⎛ δ −θ‬‬ ‫⎜ ‪L (θ , σ , δ ) = ρ‬‬ ‫⎟‬ ‫⎠ ‪⎝ σ‬‬

‫‪1‬‬

‫‪σ‬‬

‫= ‪,b‬‬

‫‪−θ‬‬

‫‪σ‬‬

‫=‪a‬‬

‫⇔‬

‫) ‪L (θ ,σ , δ ) = L (a + bθ , bσ , a + b δ‬‬

‫در اﻳﻦ ﺣﺎﻟﺖ ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎ ﺑﻪ ﻓﺮم زﻳﺮ ﻣﻲﺑﺎﺷﻨﺪ‬ ‫)‪(2‬‬

‫) ‪δ ( g (X ) ) = g (δ (X ) ) ⇔ δ (a + bx ) = a + b δ (x‬‬

‫ﭼﻮن ‪ G‬اﻧﺘﻘﺎﻟﻲ اﺳﺖ ﭘﺲ ﻣﺨﺎﻃﺮه ﻫﺮ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ ﺛﺎﺑﺖ اﺳﺖ‪ .‬ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺑﺮآوردﮔﺮ‬ ‫‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ θ‬دو ﺣﺎﻟﺖ زﻳﺮ ﭘﻴﺶ ﻣﻲآﻳﺪ‪.‬‬ ‫ﺣﺎﻟﺖ اول‪ :‬ﺑﺮاي ﻳﻚ ﻣﻘﺪار ﺛﺎﺑﺖ ‪ σ‬ﻗﺮار ﻣﻲدﻫﻴﻢ‬ ‫)‬

‫‪xn‬‬

‫‪σ‬‬

‫‪,...,‬‬

‫‪x1‬‬

‫‪σ‬‬

‫( ‪f‬‬

‫‪1‬‬ ‫‪n‬‬

‫‪σ‬‬

‫= ) ‪g σ (x 1,…, x n‬‬ ‫‪Stein‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪98‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﻣﻜﺎن ﻣﻘﻴﺎس ﺑﻪ ﺻﻮرت زﻳﺮ ﺗﺒﺪﻳﻞ ﻣﻲﺷﻮد‪.‬‬ ‫) ‪g σ (x 1 − θ ,...., x n − θ‬‬

‫)‪(3‬‬ ‫ﻛﻪ ﺑﻪ ﻳﻚ ﺧﺎﻧﻮاده ﻣﻜﺎن ﻣﺘﻌﻠﻖ اﺳﺖ‪.‬‬

‫⎞ ‪δ −θ‬‬ ‫⎜⎛ ‪ ρ‬ﻳﻚ ﺑﺮآوردﮔﺮ ‪MRE‬‬ ‫ﻟﻢ ‪ :1-4‬ﻓﺮض ﻛﻨﻴﺪ ﺑﺮاي ﺧﺎﻧﻮاده ﻣﻜﺎن )‪ (3‬و ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم ⎟‬ ‫⎠ ‪⎝ σ‬‬ ‫* ‪ δ‬ﺑﺮاي ‪ θ‬ﺗﺤﺖ ﺗﺒﺪﻳﻼت ﻣﻜﺎن) }‪= {g a ( x ) = x + a‬‬

‫*‬

‫‪( G‬ﻣﻮﺟﻮد ﺑﺎﺷﺪ و‬

‫)‪ δ * (i‬ﺑﻪ ‪ σ‬ﺑﺴﺘﮕﻲ ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ‬ ‫)‪ δ * (ii‬در راﺑﻄﻪ )‪ (2‬ﺻﺪق ﻛﻨﺪ‪.‬‬ ‫آﻧﮕﺎه * ‪ δ‬ﻣﺨﺎﻃﺮه را در ﺑﻴﻦ ﺗﻤﺎم ﺑﺮآوردﮔﺮﻫﺎﻳﻲ ﻛﻪ در )‪ (2‬ﺻﺪق ﻣﻲﻛﻨﻨﺪ‪ ،‬ﻣﻴﻨﻴﻤﻢ ﻣﻲﻛﻨﺪ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﻓﺮض ﻛﻨﻴﺪ ‪ δ‬ﻫﺮ ﺑﺮاوردﮔﺮ ﻫﻢﭘﺎﻳﺎي دﻳﮕﺮ ﻛﻪ در )‪ (2‬ﺻﺪق ﻣﻲﻛﻨﺪ ﺑﺎﺷﺪ‪ ،‬ﺑﻨﺎﺑﺮاﻳﻦ ‪ δ‬ﺗﺤﺖ‬

‫*‬

‫‪G‬‬

‫ﻧﻴﺰ ﻫﻢﭘﺎﻳﺎ اﺳﺖ‪ .‬ﻫﻤﭽﻨﻴﻦ ﻓﺮض ﻛﻨﻴﺪ ﻛﻪ ‪ σ‬ﻣﻘﺪاري ﻣﻌﻠﻮم ﺑﺎﺷﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﻃﺒﻖ ﻓﺮض ﻗﻀﻴﻪ در ﻣﻮرد * ‪، δ‬‬ ‫ﺑﺮاي اﻳﻦ ﻣﻘﺪار ‪ σ‬ﻣﺨﺎﻃﺮه * ‪ δ‬ﻛﻤﺘﺮ ﻳﺎ ﻣﺴﺎوي ‪ δ‬اﺳﺖ و ﭼﻮن اﻳﻦ ﻣﻮﺿﻮع ﺑﺮاي ﻫﺮ ‪ σ‬ﺑﺮﻗﺮار اﺳﺖ‬ ‫ﭘﺲ * ‪ δ‬ﺑﺮآوردﮔﺮ ‪ MRE‬در ﺑﻴﻦ ﺗﻤﺎم ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎي )‪ (2‬اﺳﺖ‪.‬‬

‫■‬

‫ﻣﺜﺎل ‪ :3-4‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪ N ( μ ,σ 2‬ﺑﺎﺷﻨﺪ ﻛﻪ ﻫﺮ دوي ‪ μ‬و ‪σ‬‬ ‫ﻧﺎﻣﻌﻠﻮم ﻫﺴﺘﻨﺪ‪ .‬ﻃﺒﻖ ﻣﺜﺎل‪ δ * = X ،2-2‬ﺑﺮآوردﮔﺮ ‪MRE‬‬

‫ﭘﺎراﻣﺘﺮ ‪ μ‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن‬

‫⎞ ‪⎛ δ −θ ⎞ ⎛ δ −θ‬‬ ‫⎜ ‪ ρ‬اﺳﺖ‪ .‬ﭼﻮن ﺷﺮاﻳﻂ ) ‪ (i‬و ) ‪ (ii‬ﻟﻢ ‪ 1-4‬ﺑﺮﻗﺮار اﺳﺖ ﺑﻨﺎﺑﺮاﻳﻦ ‪δ = X‬‬ ‫⎜=⎟‬ ‫⎟‬ ‫⎠ ‪⎝ σ ⎠ ⎝ σ‬‬

‫‪2‬‬

‫*‬

‫ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ μ‬ﺗﺤﺖ ﺗﺒﺪﻳﻼت ‪ G‬ﻣﻲﺑﺎﺷﺪ‪.‬‬

‫■‬ ‫‪1‬‬ ‫‪2‬‬

‫‪1‬‬ ‫‪2‬‬

‫ﻣﺜﺎل ‪ :4-4‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪ U (θ − σ ,θ + σ‬ﺑﺎﺷﻨﺪ‪ .‬در‬ ‫اﻳﻦﺻﻮرت ﻃﺒﻖ ﻣﺜﺎل‪،4-2‬‬ ‫⎞ ‪⎞ ⎛ δ −θ‬‬ ‫⎜=⎟‬ ‫⎟‬ ‫⎠ ‪⎠ ⎝ σ‬‬

‫‪2‬‬

‫) ‪X (1) + X ( n‬‬ ‫‪2‬‬

‫= * ‪ δ‬ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ θ‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن‬

‫‪⎛ δ −θ‬‬ ‫⎜ ‪ ρ‬اﺳﺖ‪.‬ﭼﻮن ﺷﺮاﻳﻂ ) ‪ (i‬و ) ‪ (ii‬ﻟﻢ ‪ 1-4‬ﺑﺮﻗﺮار اﺳﺖ‪ ،‬ﺑﻨﺎﺑﺮاﻳﻦ ‪ δ‬ﺑﺮآوردﮔﺮ‬ ‫‪⎝ σ‬‬

‫‪ MER‬ﭘﺎراﻣﺘﺮ ‪ θ‬ﺗﺤﺖ ﺗﺒﺪﻳﻼت ‪ G‬ﻣﻲﺑﺎﺷﺪ‪.‬‬

‫*‬

‫■‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪b‬‬ ‫ﺗﻮﺟﻪ‪ :‬در ﻣﺜﺎل ‪ 3-2‬دﻳﺪﻳﻢ ﻛﻪ در ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ) ‪ E (θ ,b‬ﺑﺎ ‪ b‬ﻣﻌﻠﻮم‬ ‫‪n‬‬

‫‪99‬‬

‫‪ δ * = X (1) −‬ﺑﺮآوردﮔﺮ‬

‫‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ θ‬اﺳﺖ‪ .‬ﭼﻮن ﺷﺮط )‪ (i‬ﻟﻢ ‪ 1-4‬ﺑﺮاي اﻳﻦ ﺑﺮآوردﮔﺮ ﺻﺪق ﻧﻤﻲﻛﻨﺪ ﭘﺲ از اﻳﻦ روش‬ ‫ﻧﻤﻲﺗﻮان ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ θ‬را ﭘﻴﺪا ﻛﺮد‪.‬‬ ‫ﺣﺎﻟﺖ دوم‪ :‬اﮔﺮ ﺷﺮاﻳﻂ ﺣﺎﻟﺖ اول ﺑﺮﻗﺮار ﻧﺒﺎﺷﺪ‪ ،‬ﺑﺮاي ﻳﺎﻓﺘﻦ ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ θ‬ﻫﻤﺎﻧﻨﺪ‬ ‫ﺑﺨﺶﻫﺎي ﻗﺒﻞ ﺑﻪ ﺻﻮرت زﻳﺮ ﻋﻤﻞ ﻣﻲﻛﻨﻴﻢ‪.‬‬ ‫ﻗﻀﻴﻪ ‪ :1-4‬ﻓﺮض ﻛﻨﻴﺪ ‪ δ0‬ﻫﺮ ﺑﺮآوردﮔﺮ ‪ θ‬ﺑﺎﺷﺪ ﻛﻪ در راﺑﻄﻪ زﻳﺮ ﺻﺪق ﻛﻨﺪ‬ ‫) ‪δ0(a + bx ) = a + b δ0( x‬‬

‫و ‪ δ1‬ﻫﺮ ﺑﺮآوردﮔﺮ ‪ σ‬ﺑﺎﺷﺪ ﻛﻪ ﻣﻘﺎدﻳﺮ ﻣﺜﺒﺖ را ﺑﮕﻴﺮد و در راﺑﻄﻪ زﻳﺮ ﺻﺪق ﻛﻨﺪ‬ ‫) ‪δ1(a + bx ) = b δ1(x‬‬

‫در اﻳﻦ ﺻﻮرت ‪ δ‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎي ﻣﻜﺎن )) ‪ (δ (a + bx ) = a + b δ (x‬ﻣﻲﺑﺎﺷﺪ اﮔﺮ و ﻓﻘﻂ اﮔﺮ‬ ‫) ‪δ (x ) = δ0(x ) − w (z )δ1(x‬‬

‫‪،Y i = X i − X n i = 1,...., n − 1‬‬

‫ﻛﻪ در آن‬

‫‪Y n −1‬‬ ‫‪Y‬‬ ‫‪, Z i = i i = 1,...., n − 1‬‬ ‫| ‪|Y n −1‬‬ ‫‪Y n −1‬‬

‫= ‪Z = ( Z 1,..., Z n −1), Z n‬‬

‫اﺛﺒﺎت‪ :‬ﻫﻤﺎﻧﻨﺪ اﺛﺒﺎت ﻗﻀﻴﻪ‪ 1-2‬ﻣﻲﺑﺎﺷﺪ و ﺑﻌﻨﻮان ﺗﻤﺮﻳﻦ واﮔﺬار ﻣﻲﮔﺮدد‪.‬‬

‫■‬

‫ﻧﺘﻴﺠﻪ ‪ :2-4‬اﮔﺮ ‪ δ0‬و ‪ δ1‬ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎي ‪ θ‬و ‪ σ‬ﺑﺎﺷﻨﺪ ﻛﻪ در ﺷﺮاﻳﻂ ﻗﻀﻴﻪ ‪ 1-4‬ﺻﺪق‬ ‫ﻣﻲﻛﻨﻨﺪ آﻧﮕﺎه ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ﻣﻜﺎن ‪ θ‬ﻋﺒﺎرت اﺳﺖ از‬ ‫) ‪δ * (x ) = δ0(x ) − w * (z )δ1(x‬‬

‫ﻛﻪ در آن ﺑﺮاي ﻫﺮ ‪ w (z ) ، z‬ﻫﺮ ﻋﺪدي اﺳﺖ ﻛﻪ } ‪ E 01, {ρ [δ0(x ) − w * (z )δ1(x )} | z‬را ﻣﻴﻨﻴﻤﻢ‬ ‫ﻛﻨﺪ‪.‬‬

‫■‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪100‬‬

‫⎞ ‪⎛ δ −θ ⎞ ⎛ δ −θ‬‬ ‫⎜ ‪) ρ‬ﻓﺮم ‪ ( C‬ﺑﺎﺷﺪ آﻧﮕﺎه ) ‪ w (z‬از راﺑﻄﻪ زﻳﺮ‬ ‫⎜=⎟‬ ‫ﻧﺘﻴﺠﻪ ‪ :3-4‬اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم ⎟‬ ‫⎠ ‪⎝ σ ⎠ ⎝ σ‬‬ ‫] ‪E [δ ( X )δ (X ) | Z‬‬ ‫ﺑﺪﺳﺖ ﻣﻲآﻳﺪ‪.‬‬ ‫‪w * (z ) = 01, 0 2 1‬‬ ‫] ‪E01, [δ1 (X ) | Z‬‬ ‫‪2‬‬

‫*‬

‫■‬

‫اﺛﺒﺎت‪ :‬ﺗﻤﺮﻳﻦ‪.‬‬

‫ﻣﺜﺎل ‪ :5-4‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ﻧﻤﺎﻳﻲ ) ‪ E (θ ,σ‬ﺑﺎﺷﻨﺪ ﻛﻪ در‬

‫آن ‪ θ‬و ‪ σ‬ﻫﺮ دو ﻧﺎﻣﻌﻠﻮم ﻫﺴﺘﻨﺪ‪ .‬ﺑﺮآوردﮔﺮﻫﺎي ‪ MRE‬ﭘﺎراﻣﺘﺮﻫﺎي ‪ θ‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﺑﻪ ﻓﺮم ‪ C‬و ‪σ‬‬ ‫ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﺑﻪ ﻓﺮم ‪ A‬را ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬ ‫‪n‬‬ ‫⎛‬ ‫⎞‬ ‫‪T‬‬ ‫(‬ ‫‪T‬‬ ‫‪,‬‬ ‫‪T‬‬ ‫)‬ ‫‪X‬‬ ‫‪,‬‬ ‫ﺣﻞ‪ :‬ﺑﻪ راﺣﺘﻲ دﻳﺪه ﻣﻲﺷﻮد ﻛﻪ ⎟ ) )‪ = 1 2 = ⎜ (1) ∑ (X i − X (1‬ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ﻛﺎﻣﻞ‬ ‫‪i =1‬‬ ‫⎝‬ ‫⎠‬

‫‪σ‬‬ ‫ﺑﺮاي ) ‪ (θ ,σ‬اﺳﺖ و ) ‪ T1 ∼ E (θ ,‬و )‪χ (22n −2‬‬ ‫‪n‬‬

‫‪σ‬‬ ‫‪2‬‬

‫∼ ‪ T 2‬و ‪ T1‬و ‪ T 2‬از ﻳﻜﺪﻳﮕﺮ ﻣﺴﺘﻘﻞ ﻫﺴﺘﻨﺪ‪.‬‬

‫‪n‬‬ ‫‪1‬‬ ‫‪1 n‬‬ ‫و‬ ‫(‬ ‫‪X‬‬ ‫‪−‬‬ ‫‪X‬‬ ‫)‬ ‫ﺑﻨﺎﺑﺮاﻳﻦ ) )‪∑ i (1) n − 1 ∑ (X i − X (1‬‬ ‫‪n (n − 1) i =1‬‬ ‫‪i =1‬‬

‫‪ X (1) −‬ﺑﻪ ﺗﺮﺗﻴﺐ ﺑﺮآوردﮔﺮﻫﺎي‬

‫‪ UMVU‬ﭘﺎراﻣﺘﺮﻫﺎي ‪ θ‬و ‪ σ‬ﻫﺴﺘﻨﺪ‪.‬‬ ‫اﻟﻒ‪ -‬در ﺑﺮآورد‬

‫‪δ‬‬ ‫‪ σ‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ‪) L (θ , σ , δ ) = ( − 1)2‬ﻓﺮم‬ ‫‪σ‬‬

‫‪ A‬ﺑﺎ ‪( r = 1‬‬

‫‪n‬‬

‫) )‪ δ1 = ∑ (X i − X (1‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻫﻢﭘﺎﻳﺎ ﺑﺮاي ‪ σ‬اﺳﺖ ) ) ‪ (δ1(a + bX ) = b δ1(X‬و ﻃﺒﻖ ﻗﻀﻴﻪ‬ ‫‪i =1‬‬

‫ﺑﺎﺳﻮ از آﻣﺎره ﭘﺎﻳﺎي ﻣﺎﻛﺰﻳﻤﺎل )ﻓﺮﻋﻲ( ‪ Z‬ﻣﺴﺘﻘﻞ اﺳﺖ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ σ‬ﻋﺒﺎرت‬ ‫اﺳﺖ از‬ ‫]‪δ1E 1[δ1 | z ] δ1E 1[δ1‬‬ ‫)‪δ1(n − 1‬‬ ‫‪δ1 1 n‬‬ ‫=‬ ‫=‬ ‫=‬ ‫) )‪= ∑ ( X i − X (1‬‬ ‫] ‪E 1[δ12 | z‬‬ ‫‪E 1[δ12 ] ( n − 1) + (n − 1)2 n n i =1‬‬

‫= ) ‪δ * (X‬‬

‫)ﺗﻮﺟﻪ ﻛﻨﻴﺪ در ﺑﺨﺶ ﻗﺒﻞ دﻳﺪﻳﻢ ﻛﻪ اﮔﺮ ‪ θ = 0‬ﺑﺎﺷﺪ‪ ،‬آﻧﮕﺎه ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ σ‬ﻋﺒﺎرت‬ ‫‪1 n‬‬ ‫ﺑﻮد(‪.‬‬ ‫از ‪∑ X i‬‬ ‫‪n + 1 i =1‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﺳﻮم‪ :‬ﭘﺎﻳﺎﻳﻲ‬

‫‪101‬‬

‫ب‪ -‬در ﺑﺮآورد ‪ θ‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﺑﻪ ﻓﺮم ) ‪،( C‬‬ ‫‪n‬‬

‫)‪δ0(X ) = X (1‬‬

‫و‬

‫) )‪δ1( X ) = ∑ (X i − X (1‬‬ ‫‪i =1‬‬

‫⎞ ) ‪⎛ δ (a + bx ) = a + b δ0(x‬‬ ‫‪ ⎜ 0‬و ﺑﻨﺎﺑﺮ ﻗﻀﻴﻪ‬ ‫ﺑﻪ ﺗﺮﺗﻴﺐ ﺑﺮآوردﮔﺮﻫﺎي ﻫﻢﭘﺎﻳﺎ ﺑﺮاي ‪ θ‬و ‪ σ‬ﻫﺴﺘﻨﺪ ⎟‬ ‫⎠ ) ‪⎝ δ1(a + bx ) = b δ1(x‬‬

‫ﺑﺎﺳﻮ )‪ (δ0, δ1‬و ‪ Z‬از ﻳﻜﺪﻳﮕﺮ ﻣﺴﺘﻘﻞ ﻫﺴﺘﻨﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ σ‬ﻋﺒﺎرت اﺳﺖ از‬ ‫‪1‬‬ ‫‪1‬‬ ‫(‬ ‫‪n‬‬ ‫‪−‬‬ ‫)‬ ‫‪1‬‬ ‫]‪E [δ δ | z ] E01, [δ0]E01, [δ1‬‬ ‫‪1‬‬ ‫‪n‬‬ ‫=‬ ‫=‬ ‫‪=n = 2‬‬ ‫‪w * (z ) = 01, 0 21‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪n n‬‬ ‫] ‪E01, [δ1 | z‬‬ ‫] ‪E01, [δ1‬‬ ‫)‪(n − 1) + (n − 1‬‬ ‫‪1 n‬‬ ‫) )‪⇒ δ (X ) = δ0(X ) − w (z )δ1(X ) = X (1) − 2 ∑ ( X i − X (1‬‬ ‫‪n i =1‬‬ ‫*‬

‫*‬

‫)ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ در ﺑﺨﺶﻫﺎي ﻗﺒﻞ دﻳﺪﻳﻢ ﻛﻪ ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ﻣﻜﺎن ‪ θ‬ﺑﺎ ﻓﺮض ﻣﻌﻠﻮم ﺑﻮدن ‪σ‬‬ ‫ﺑﺮاﺑﺮ‬

‫‪σ‬‬ ‫‪n‬‬

‫‪ X (1) −‬ﺑﻮد( ‪.‬‬

‫■‬

‫⎞ ‪⎛ δ −θ‬‬ ‫⎜ ﻫﻴﭻ ﺑﺮآوردﮔﺮ ﻣﺨﺎﻃﺮه ﻧﺎارﻳﺐ وﺟﻮد ﻧﺪارد‪ .‬ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ ﮔﺮوه ‪G‬‬ ‫ﺗﻮﺟﻪ‪ :‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ⎟‬ ‫⎠ ‪⎝ σ‬‬ ‫‪2‬‬

‫در اﻳﻦ ﺣﺎﻟﺖ ﻏﻴﺮﺟﺎﺑﺠﺎﻳﻲ اﺳﺖ‪.‬‬

‫■‬

‫‪١٠٢‬‬

‫داﻧﻠﻮد از ﺳﺎﻳﺖ رﻳﺎﺿﻲ ﺳﺮا‬

‫‪www.riazisara.ir‬‬

‫ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬

‫ﻓﺼﻞ ﭼﻬﺎرم‪ :‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬

‫‪www.riazisara.ir‬‬

‫‪103‬‬

‫ﺑﺨﺶ‪ :1‬ﻣﻘﺪﻣﻪ‬ ‫ﺗﻤﺎﻣﻲ روشﻫﺎي اﺳﺘﻨﺒﺎط آﻣﺎري ﻛﻪ ﺗﺎﻛﻨﻮن ﺑﺮرﺳﻲ ﻛﺮدهاﻳﻢ ﻳﻚ ﻧﻮع ﺗﺼﻤﻴﻢﮔﻴﺮي ﻣﻲﺑﺎﺷﻨﺪ و در آﻧﻬﺎ ﺑﻪ‬ ‫ﻛﻤﻚ ﻧﻤﻮﻧﻪﻫﺎي آﻣﺎري و دادهﻫﺎ درﺑﺎره ﭘﺎراﻣﺘﺮ ﻳﺎ ﺗﻮزﻳﻊ ﻣﺠﻬﻮل ﺑﻪ ﺗﺼﻤﻴﻢﮔﻴﺮي ﻣﻲﭘﺮداﺧﺘﻴﻢ و ﺑﻪ آﻧﻬﺎ‬ ‫آﻣﺎر ﻛﻼﺳﻴﻚ ﮔﻮﻳﻨﺪ‪ .‬در ﻧﻈﺮﻳﻪ ﺗﺼﻤﻴﻢ ﺑﻪ ﻛﻤﻚ ﻧﻤﻮﻧﻪﻫﺎي آﻣﺎري و دﻳﮕﺮ ﺟﻮاﻧﺐ‪ ،‬ﺑﺎ ﺑﺮرﺳﻲ ﻣﻘﺪار ﺳﻮد‬ ‫و زﻳﺎن ﻣﻲﻛﻮﺷﻴﻢ ﺗﺎ ﺑﻪ ﺑﻬﺘﺮﻳﻦ ﺗﺼﻤﻴﻢﮔﻴﺮي دﺳﺖ ﻳﺎﺑﻴﻢ‪.‬‬ ‫ﺑﻨﺎﺑﺮاﻳﻦ ﻧﻈﺮﻳﻪ ﺗﺼﻤﻴﻢ ﺷﺎﻣﻞ روشﻫﺎي دﻳﮕﺮي از ﻣﺴﺎﺋﻞ اﺳﺘﻨﺒﺎط آﻣﺎري اﺳﺖ ﻛﻪ روشﻫﺎي ﻗﺒﻠﻲ را‬ ‫ﺷﺎﻣﻞ ﻣﻲﺑﺎﺷﺪ و ﺟﻨﺒﻪﻫﺎي ﺟﺪﻳﺪي را ﻧﻴﺰ در ﻧﻈﺮ ﻣﻲﮔﻴﺮد‪ .‬در ﻓﺼﻞﻫﺎي ﻗﺒﻞ ﺑﺎ ﻋﻨﺎﺻﺮ ﻳﻚ ﻣﺴﺌﻠﻪ ﺗﺼﻤﻴﻢ‬ ‫آﺷﻨﺎ ﺷﺪهاﻳﻢ وﻟﻲ آﻧﻬﺎ را ﺑﻄﻮر ﻛﻠﻲ ﻣﻌﺮﻓﻲ ﻧﻜﺮدهاﻳﻢ ‪ .‬در زﻳﺮ اﻳﻦ ﻋﻨﺎﺻﺮ را ﻣﻌﺮﻓﻲ ﻣﻲﻛﻨﻴﻢ‪.‬‬ ‫دادهﻫﺎ‪ :‬دادهﻫﺎ ﺑﻮﺳﻴﻠﻪ ﻳﻚ ﺑﺮدار ﺗﺼﺎدﻓﻲ ‪ X‬ﺑﺎ ﻓﻀﺎي ﻧﻤﻮﻧﻪ)ﻣﺠﻤﻮﻋﻪ ﻣﻘﺎدﻳﺮ( ‪ χ‬ﻧﻤﺎﻳﺶ داده ﻣﻲﺷﻮد‪.‬‬ ‫وﺿﻊ ﻃﺒﻴﻌﺖ ‪ : 1‬ﭘﺎراﻣﺘﺮ واﻗﻌﻲ و ﻣﺠﻬﻮل ‪ θ‬را ﻛﻪ ﻣﻲﺧﻮاﻫﻴﻢ روي آن اﺳﺘﻨﺒﺎط اﻧﺠﺎم دﻫﻴﻢ را وﺿﻊ‬ ‫ﻃﺒﻴﻌﺖ ﮔﻮﻳﻨﺪ‪.‬‬ ‫ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ‪ : 2‬ﻣﺠﻤﻮﻋﻪ ﺗﻤﺎم ﻣﻘﺎدﻳﺮ ﻣﻤﻜﻦ ‪ θ‬را ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ﮔﻮﻳﻨﺪ و ﺑﺎ ﻧﻤﺎد ‪ Θ‬ﻧﻤﺎﻳﺶ‬ ‫ﻣﻲدﻫﻨﺪ‪.‬‬

‫ﻣﺪل‪ :‬ﻣﺪل ﻋﺒﺎرت اﺳﺖ از ﻣﺠﻤﻮﻋﻪ ﻛﻠﻴﻪ ﺗﻮزﻳﻊﻫﺎي اﺣﺘﻤﺎل ﺑﺮاي ﺑﺮدار ‪ X‬ﻛﻪ داراي ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل ‪θ‬‬ ‫اﺳﺖ‪ .‬ﻳﻌﻨﻲ ﻣﺠﻤﻮﻋﻪ }‪ {f (x | θ ) : θ ∈ Θ‬ﻛﻪ در آن ) ‪ f (x | θ‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ﻳﺎ ﺗﺎﺑﻊ اﺣﺘﻤﺎل روي ‪χ‬‬ ‫اﺳﺖ‪.‬‬ ‫ﻓﻀﺎي ﻛﺎرﻫﺎ ‪ : 3‬ﺑﻌﺪ از اﻳﻨﻜﻪ ‪ X = x‬ﻣﺸﺎﻫﺪه ﮔﺮدﻳﺪ‪ ،‬ﺗﺼﻤﻴﻤﻲ ﺑﺮاي ‪ θ‬اﺗﺨﺎذ ﻣﻲﮔﺮدد‪ .‬ﻣﺠﻤﻮﻋﻪ ﻛﻠﻴﻪ‬ ‫ﺗﺼﻤﻴﻢﻫﺎي ﻣﻤﻜﻦ را ﻓﻀﺎي ﻛﺎرﻫﺎ ﮔﻮﻳﻨﺪ و ﺑﺎ ﻧﻤﺎد ‪ A‬ﻧﻤﺎﻳﺶ ﻣﻲدﻫﻨﺪ و اﻋﻀﺎي آن را ﺑﺎ ‪a ∈ A‬‬

‫ﻧﺸﺎن ﻣﻲدﻫﻨﺪ‪ .‬ﻓﻀﺎي ﻛﺎرﻫﺎ ﻣﻌﻴﻦ ﻣﻲﻛﻨﺪ ﻛﻪ ﻣﺴﺌﻠﻪ ﺗﺼﻤﻴﻢ ﻣﻮرد ﻣﻄﺎﻟﻌﻪ‪ ،‬ﻳﻚ ﻣﺴﺌﻠﻪ ﺑﺮآورد ﻧﻘﻄﻪاي ﻳﺎ‬ ‫ﻓﺎﺻﻠﻪ اﻃﻤﻴﻨﺎن و ﻳﺎ آزﻣﻮن ﻓﺮض ﻣﻲﺑﺎﺷﺪ‪ .‬در ﻣﺴﺌﻠﻪ ﺑﺮآورد ﻧﻘﻄﻪاي ﻣﻲﺧﻮاﻫﻴﻢ ﻧﻘﺎﻃﻲ از ﻓﻀﺎي ﻛﺎرﻫﺎ را‬

‫‪١‬‬

‫‪State of Nature‬‬ ‫‪Parameter Space‬‬ ‫‪٣‬‬ ‫‪Action Space‬‬ ‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭼﻬﺎرم‪ :‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬

‫‪104‬‬

‫ﺑﺮاي ‪ θ‬ﺣﺪس ﺑﺰﻧﻴﻢ ﭘﺲ ‪ θ ⊂ A‬ﺧﻮاﻫﺪ ﺑﻮد )ﻣﺜﻼ" در ﺑﺮآورد ﭘﺎراﻣﺘﺮ ﺗﻮزﻳﻊ دو ﺟﻤﻠﻪاي ‪۰ < p < ۱‬‬

‫و ﻣﻲﺗﻮاﻧﺪ ]‪ A = [0,1‬ﺑﺎﺷﺪ( در ﻣﺴﺌﻠﻪ آزﻣﻮن ﻓﺮض‪ ،‬ﻣﺎ دو ﻛﺎر "ﻗﺒﻮل‪ " H 0‬و "رد‪ " H 0‬را دارﻳﻢ ﻛﻪ‬ ‫آن را ﺑﺎ ‪ a0‬و ‪ a1‬ﻧﻤﺎﻳﺶ ﻣﻲدﻫﻴﻢ و ﺑﻨﺎﺑﺮاﻳﻦ }‪= {a0, a1‬‬

‫‪ . A‬در ﻳﻚ ﻣﺴﺌﻠﻪ ﻓﺎﺻﻠﻪ اﻃﻤﻴﻨﺎن‪ ،‬ﻛﺎرﻫﺎ‬

‫ﻓﻮاﺻﻞ ﻳﺎ زﻳﺮﻣﺠﻤﻮﻋﻪﻫﺎﻳﻲ از ﻓﻀﺎي ﭘﺎراﻣﺘﺮ ﻫﺴﺘﻨﺪ و ﺑﻨﺎﺑﺮاﻳﻦ ‪. A ⊂ Θ‬‬ ‫ﺗﺎﺑﻊ زﻳﺎن‪ :‬اﮔﺮ ‪ θ ∈ Θ‬ﻣﻘﺪار واﻗﻌﻲ وﺿﻊ ﻃﺒﻴﻌﺖ ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت ﻛﺎر ‪ a ∈ A‬ﻣﻤﻜﻦ اﺳﺖ‬ ‫درﺳﺖ ﻳﺎ ﺗﺎ اﻧﺪازهاي ﻧﺎدرﺳﺖ و ﻳﺎ ﻛﻼ ﻧﺎدرﺳﺖ ﺑﺎﺷﺪ‪ .‬ﻣﻴﺰان اﻳﻦ ﻧﺎدرﺳﺘﻲ را ﺑﺎ ﻛﻤﻴﺖ ﺗﺎﺑﻊ‬ ‫زﻳﺎن ) ‪ L (θ , a‬اﻧﺪازهﮔﻴﺮي ﻣﻲﻛﻨﻴﻢ ﻛﻪ ﻣﻘﺪار زﻳﺎن ﺑﻜﺎر ﺑﺮدن ﻛﺎر ‪ a‬ﻣﻮﻗﻌﻲ ﻛﻪ ‪ θ‬ﻣﻘﺪار وﺿﻊ ﻃﺒﻴﻌﺖ‬ ‫واﻗﻌﻲ ﺑﺎﺷﺪ را اﻧﺪازه ﻣﻲﮔﻴﺮد‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ )∞‪→ [0, +‬‬

‫‪ L : Θ × A‬و‪ L (θ , a ) = 0‬ﺑﻪ ﻣﻌﻨﺎي اﻳﻦ اﺳﺖ‬

‫ﻛﻪ اﮔﺮ ‪ θ‬وﺿﻊ ﻃﺒﻴﻌﺖ واﻗﻌﻲ اﺳﺖ آﻧﮕﺎه ‪ a‬ﺗﺼﻤﻴﻢ درﺳﺘﻲ ﻣﻲﺑﺎﺷﺪ‪.‬‬ ‫ﺗﺎﺑﻊ ﺗﺼﻤﻴﻢ ‪ :1‬ﺗﺎﺑﻊ ﺗﺼﻤﻴﻢ )ﻳﺎ ﻗﺎﻋﺪه ﺗﺼﻤﻴﻢ( ﻗﺎﻋﺪهاي اﺳﺖ ﻛﻪ ﺑﺎ ﻣﺸﺎﻫﺪه ‪ X = x‬ﻣﻌﻴﻦ ﻣﻲﻛﻨﺪ ﻛﻪ ﭼﻪ‬ ‫ﻛﺎر‬

‫‪ a ∈ A‬را ﺑﺎﻳﺴﺘﻲ ﺑﻜﺎر ﺑﺒﺮﻳﻢ و ﻣﻌﻤﻮﻻ آﻧﺮا ﺑﺎ ) ‪ δ (x‬ﻧﻤﺎﻳﺶ ﻣﻲدﻫﻨﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ‬

‫‪δ (x ) : χ → A‬‬

‫)در ﻣﺴﺌﻠﻪ ﺑﺮآورد ﻧﻘﻄﻪاي‪ ،‬ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ ﻫﻤﺎن ﺑﺮآوردﮔﺮﻫﺎ ﻣﻲﺑﺎﺷﻨﺪ(‬ ‫ﻓﻀﺎي ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ‪ :‬ﻣﺠﻤﻮﻋﻪ ﻛﻠﻴﻪ ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ ﻣﻤﻜﻦ را ﺑﺎ ‪ D‬ﻧﻤﺎﻳﺶ ﻣﻲدﻫﻴﻢ‪ .‬در ﻧﻈﺮﻳﻪ ﺗﺼﻤﻴﻢ‬ ‫ﻫﺪف اﻳﻦ اﺳﺖ ﻛﻪ ﻣﻌﻴﻦ ﻛﻨﻴﻢ ﻛﻪ ﻛﺪاﻣﻴﻚ از ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ ‪ δ (x ) ∈ D‬ﻳﻚ ﻗﺎﻋﺪه ﺗﺼﻤﻴﻢ ﺧﻮب‬ ‫ﻣﻲﺑﺎﺷﺪ‪.‬‬ ‫ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ‪) 2‬رﻳﺴﻚ(‪ :‬در ﻣﺴﺌﻠﻪ ﺗﺼﻤﻴﻢ روي ﭘﺎراﻣﺘﺮ ‪ θ‬ﺑﺮاﺳﺎس ﺗﺎﺑﻊ ﺗﺼﻤﻴﻢ ) ‪ δ (x‬ﻣﻴﺰان دﻗﺖ‬ ‫ﺗﺎﺑﻊ ﺗﺼﻤﻴﻢ ﺑﻮﺳﻴﻠﻪ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﻳﻌﻨﻲ ⎤⎦ ) ) ‪ R (θ , δ ) = E θ ⎡⎣ L (θ , δ (X‬اﻧﺪازه ﮔﺮﻓﺘﻪ ﻣﻲﺷﻮد‪ .‬ﭼﻮن‬ ‫ﻣﻘﺪار ‪ θ‬ﻧﺎﻣﻌﻠﻮم اﺳﺖ ﻋﻼﻗﻪﻣﻨﺪ ﻫﺴﺘﻴﻢ ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻤﻲ را ﺑﻜﺎر ﺑﺒﺮﻳﻢ ﻛﻪ ) ‪ R (θ , δ‬را ﺑﻪ ازاي ﻫﺮ‬ ‫‪ θ ∈ Θ‬ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ‪ .‬اﻣﺎ در ﺣﺎﻟﺖ ﻛﻠﻲ ﭼﻨﻴﻦ ﻛﺎري ﻣﻤﻜﻦ ﻧﻴﺴﺖ و ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺎﻳﺴﺘﻲ ﻣﺤﺪودﻳﺖﻫﺎﻳﻲ‬ ‫روي ﻓﻀﺎي ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ )ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎ( ﺑﺮاي دﺳﺘﻴﺎﺑﻲ ﺑﻪ ﺗﺼﻤﻴﻢ ﺑﻬﻴﻨﻪ اﻋﻤﺎل ﻛﻨﻴﻢ‪ .‬ﻳﻚ روش‬ ‫‪Decision Rule‬‬ ‫‪Risk Function‬‬

‫‪١‬‬ ‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭼﻬﺎرم‪ :‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬

‫‪105‬‬

‫ﺑﺮاي ﭘﻴﺪا ﻛﺮدن ﺗﺼﻤﻴﻢ ﺑﻬﻴﻨﻪ‪ ،‬ﺑﺮﻗﺮاري ﻳﻚ راﺑﻄﻪ ﺗﺮﺗﻴﺐ ﺑﻴﻦ ﺗﺼﻤﻴﻢﻫﺎ ﻣﻲﺑﺎﺷﺪ‪ .‬دو روش اﺳﺎﺳﻲ در‬ ‫ﺑﺮﻗﺮاري راﺑﻄﻪاي ﺗﺮﺗﻴﺒﻲ ﺑﻴﻦ ﺗﺼﻤﻴﻤﺎت‪ ،‬اﺻﻞ ﻛﻤﻴﻦ ﺑﻴﺸﻴﻨﻪ ‪) 1‬ﻣﻴﻨﻴﻤﺎﻛﺲ( و اﺻﻞ ﺑﻴﺰ ‪ 2‬ﻣﻲﺑﺎﺷﺪ‪.‬‬

‫در اﻳﻦ ﻓﺼﻞ و ﻓﺼﻞ ﺑﻌﺪ اﻳﻦ دو روش را ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺑﺮآورد ﻧﻘﻄﻪاي ﺑﺮاي ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل ‪θ‬‬ ‫ﺑﺮرﺳﻲ ﻣﻲ ﻛﻨﻴﻢ‪.‬‬

‫ﺑﺨﺶ‪ -2‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬

‫‪3‬‬

‫در روشﻫﺎﺋﻲ ﻛﻪ ﻗﺒﻼ ﻣﻄﺎﻟﻌﻪ ﻛﺮدﻳﻢ )روشﻫﺎي ﻛﻼﺳﻴﻚ( ﭘﺎراﻣﺘﺮ ‪ θ‬را ﻳﻚ ﻣﻘﺪار ﺛﺎﺑﺖ ﻧﺎﻣﻌﻠﻮم در ﻧﻈﺮ‬ ‫ﮔﺮﻓﺘﻴﻢ و ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ ‪ X 1, X 2 ,… , X n‬از ﺟﻤﻌﻴﺖ ﻛﻪ داراي ﺗﻮزﻳﻊ ) ‪ f θ (x‬ﺑﻮد ﺟﻤﻊ آوري‬ ‫ﻛﺮده و ﺑﺮاﺳﺎس آن در ﻣﻮرد ‪ θ‬ﺗﺼﻤﻴﻢﮔﻴﺮي ﻣﻲﻛﺮدﻳﻢ‪ .‬در روش ﺑﻴﺰي ‪ θ‬را ﻛﻤﻴﺘﻲ در ﻧﻈﺮ ﻣﻲﮔﻴﺮﻳﻢ ﻛﻪ‬ ‫ﺧﻮد ﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ اﺳﺖ و ﺗﻐﻴﻴﺮات آن ﺗﻮﺳﻂ ﻳﻚ ﺗﻮزﻳﻊ اﺣﺘﻤﺎل )ﻛﻪ آﻧﺮا ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﻣﻲﻧﺎﻣﻴﻢ(‬ ‫ﺑﻴﺎن ﻣﻲﮔﺮدد‪ .‬اﻳﻦ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺑﺮاﺳﺎس اﻋﺘﻘﺎدات و ﺗﺠﺮﺑﻴﺎت ﻗﺒﻠﻲ آزﻣﺎﻳﺸﮕﺮ و ﻗﺒﻞ از ﻣﺸﺎﻫﺪه دادهﻫﺎ‬ ‫ﺗﻌﻴﻴﻦ ﻣﻲﮔﺮدد‪ .‬ﺳﭙﺲ از ﺟﻤﻌﻴﺖ ﻳﻚ ﻧﻤﻮﻧﻪ ﺟﻤﻊ آوري ﻣﻲﺷﻮد و ﺑﺮ اﺳﺎس آن ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺗﺼﺤﻴﺢ‬ ‫ﻣﻲﮔﺮدد‪ .‬ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺗﺼﺤﻴﺢ ﺷﺪه را ﺗﻮزﻳﻊ ﭘﺴﻴﻦ ﻣﻲﻧﺎﻣﻨﺪ و ﺑﺮاﺳﺎس اﻳﻦ ﺗﻮزﻳﻊ ﭘﺴﻴﻦ ﺗﺼﻤﻴﻢﮔﻴﺮي‬

‫اﻧﺠﺎم ﻣﻲﮔﻴﺮد‪ .‬ﺑﺮاي ﻣﺜﺎل ﻓﺮض ﻛﻨﻴﺪ ﻗﻄﻌﺎت ﺗﻮﻟﻴﺪي ﻳﻚ ﻛﺎرﺧﺎﻧﻪ داراي ﺗﻮزﻳﻊ ﻧﻤﺎﻳﻲ ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ ‪θ‬‬ ‫ﺳﺎﻋﺖ ﻣﻲﺑﺎﺷﻨﺪ و ﺑﻪ ﻋﻠﺖ ﻓﺮﺳﻮدﮔﻲ دﺳﺘﮕﺎهﻫﺎ اﻳﻦ ﻣﻴﺎﻧﮕﻴﻦ ‪ θ‬ﻧﻴﺰ در ﺳﺎل ﺗﻐﻴﻴﺮ ﻣﻲﻛﻨﺪ و ﺗﻐﻴﻴﺮات آن‬ ‫ﻃﺒﻖ ﻳﻚ ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ) ‪ π (θ‬ﺑﺎﺷﺪ‪.‬‬

‫ﻣﺨﺎﻃﺮه و ﺗﺼﻤﻴﻢ ﺑﻴﺰي‪:‬‬ ‫ﻓﺮض ﻛﻨﻴﺪ ) ‪ π (θ‬ﺗﻮزﻳﻊ اﺣﺘﻤﺎل روي ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ‪ Θ‬ﺑﺎﺷﺪ ﻛﻪ ﺑﻪ آن ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ‪ θ 4‬ﮔﻮﻳﻨﺪ ﭼﻮن‬ ‫ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ])) ‪ R (θ , δ ) = E θ [L (θ , δ (X‬ﺗﺎﺑﻌﻲ از ‪ θ‬اﺳﺖ و ‪ θ‬ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ اﺳﺖ‬ ‫ﭘﺲ ) ‪ R (θ , δ‬ﻧﻴﺰ ﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ اﺳﺖ و ﺗﺎﺑﻌﻲ از ‪ θ‬اﺳﺖ‪ .‬اﻣﻴﺪ رﻳﺎﺿﻲ )ﻣﺘﻮﺳﻂ( ) ‪ R (θ , δ‬را‬ ‫ﻧﺴﺒﺖ ﺑﻪ ﭼﮕﺎﻟﻲ ﭘﻴﺸﻴﻦ ‪ θ‬ﻣﺨﺎﻃﺮه ﺑﻴﺰ ﻣﻲﻧﺎﻣﻨﺪ ﻳﻌﻨﻲ‬ ‫‪١‬‬

‫‪Minimax‬‬ ‫‪Bayes‬‬ ‫‪٣‬‬ ‫‪Bayesian Decision‬‬ ‫‪٢‬‬

‫‪Prior Distribution‬‬

‫‪٤‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭼﻬﺎرم‪ :‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬

‫اﮔﺮ ) ‪ π (θ‬ﭘﻴﻮﺳﺘﻪ ﺑﺎﺷﺪ‬ ‫اﮔﺮ ) ‪ π (θ‬ﮔﺴﺴﺘﻪ ﺑﺎﺷﺪ‬

‫‪106‬‬

‫‪⎧ R (θ , δ )π (θ )d θ‬‬ ‫∫⎪‬ ‫‪r (π , δ ) = E [R (θ , δ )] = ∫ R (θ , δ )d Π (θ ) = ⎨Θ‬‬ ‫) ‪⎪ ∑ R (θ , δ )π (θ‬‬ ‫‪Θ‬‬ ‫‪⎩ Θ‬‬

‫ﺗﺼﻤﻴﻢ ﺑﻴﺰي ﻧﺴﺒﺖ ﺑﻪ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ‪ π‬آن ﺗﺼﻤﻴﻢ ) ‪ δ π (x‬اﺳﺖ ﻛﻪ ﻣﺨﺎﻃﺮه ﺑﻴﺰي را در ﺑﻴﻦ ﺗﻤﺎم ﺗﻮاﺑﻊ‬ ‫ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ‪ ،‬ﻳﻌﻨﻲ ﺗﺼﻤﻴﻢ ﺑﻴﺰي آن ﺗﺎﺑﻊ ﺗﺼﻤﻴﻤﻲ اﺳﺖ ﻛﻪ در راﺑﻄﻪ زﻳﺮ ﺻﺪق ﻛﻨﺪ‪.‬‬ ‫) ‪r (π , δ π ) = inf r (π , δ‬‬

‫‪δ ∈D‬‬

‫روش ﺑﺪﺳﺖ آوردن ﺗﺼﻤﻴﻢ ﺑﻴﺰي‪:‬‬ ‫ﻓﺮض ﻛﻨﻴﺪ ‪ θ‬داراي ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ) ‪ π (θ‬ﺑﺎﺷﺪ )در اﻳﻨﺠﺎ ‪ θ‬ﻫﻢ ﺑﻌﻨﻮان ﭘﺎراﻣﺘﺮ و ﻫﻢ ﺑﻪ ﻋﻨﻮان ﻣﺘﻐﻴﺮ‬ ‫ﺗﺼﺎدﻓﻲ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﻲﺷﻮد( و ) ‪ X = (X 1,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ ﺟﻤﻊآوري ﺷﺪه از‬ ‫ﺟﻤﻌﻴﺘﻲ ﺑﺎﺷﺪ ﻛﻪ ﺗﻮزﻳﻊ آن ﺑﻪ ‪ θ‬ﺑﺴﺘﮕﻲ دارد‪ .‬ﺑﺮاﺳﺎس اﻳﻦ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ در ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ) ‪π (θ‬‬

‫ﺗﺠﺪﻳﺪ ﻧﻈﺮ ﻣﻲﻛﻨﻴﻢ و ﭼﮕﺎﻟﻲ ﭘﺴﻴﻦ ‪ θ‬را ﺑﻪ ﺻﻮرت زﻳﺮ ﺑﺪﺳﺖ ﻣﻲآورﻳﻢ‬ ‫) ‪f ( x ,θ‬‬ ‫) ‪m (x‬‬

‫= ) ‪π (θ | x‬‬

‫ﻛﻪ در آن ) ‪ f (x ,θ‬ﭼﮕﺎﻟﻲ ﺗﻮام ‪ X‬و ‪ θ‬و ) ‪ m (x‬ﭼﮕﺎﻟﻲ ﻛﻨﺎري ‪ X‬اﺳﺖ ﺑﻨﺎﺑﺮاﻳﻦ‬ ‫) ‪m (x ) = ∫ f (x ,θ )d Π (θ‬‬

‫ﭘﺲ‬

‫‪,‬‬

‫) ‪f (x ,θ ) = π (θ )f (x | θ‬‬

‫) ‪= c (x )π (θ )f ( x | θ ) ∝ π (θ )f ( x | θ ) = π (θ ) L (θ‬‬

‫) ‪π (θ )f (x ,θ‬‬ ‫) ‪m (x‬‬

‫= ) ‪π (θ | x‬‬

‫ﻳﻌﻨﻲ ﺑﺮاي ﻣﺤﺎﺳﺒﻪ ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ﭘﺴﻴﻦ ‪ θ‬ﻛﺎﻓﻴﺴﺖ ﺣﺎﺻﻠﻀﺮب ) ‪ π (θ‬در ) ‪) L (θ‬ﺗﺎﺑﻊ درﺳﺖ‬ ‫ﻧﻤﺎﻳﻲ( را ﺑﺪﺳﺖ آورده و آﻧﺮا ﺑﻪ ﻳﻚ ﺗﻮزﻳﻊ اﺣﺘﻤﺎل ﺗﺒﺪﻳﻞ ﻛﻨﻴﻢ‪.‬‬ ‫ﻣﺜﺎل ‪ :1-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ) ‪ B (1,θ‬ﺑﺎﺷﻨﺪ و ‪ θ‬داراي ﺗﻮزﻳﻊ‬ ‫ﭘﻴﺸﻴﻦ ) ‪ Be (α , β‬ﺑﺎﺷﺪ ﻛﻪ در آن ‪ α‬و ‪ β‬ﻣﻌﻠﻮم ﻫﺴﺘﻨﺪ‪ .‬ﭼﮕﺎﻟﻲ ﭘﺴﻴﻦ ‪ θ‬را ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭼﻬﺎرم‪ :‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬

‫‪107‬‬

‫ﺣﻞ‪:‬‬ ‫⎤‬ ‫⎤ ‪θ α −1(1 − θ ) β −1 ⎥ ⎡θ ∑ x i (1 − θ ) n −∑ x i‬‬ ‫⎣⎦‬

‫⎦‬

‫‪n + β −∑ x i −1‬‬

‫‪1‬‬

‫⎡‬

‫⎢ = ) ‪π (θ | x ) ∝ π (θ )L (θ‬‬

‫) ‪⎣ Be (α , β‬‬

‫) ‪(1 − θ‬‬

‫‪α + ∑ x i −1‬‬

‫‪∝ θ‬‬

‫) ‪⇒ θ | x ~ Be (α + ∑ x i , n + β − ∑ x i‬‬

‫■‬

‫ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺗﺼﻤﻴﻢ ﺑﻴﺰي از ﻗﻀﻴﻪ زﻳﺮ اﺳﺘﻔﺎده ﻣﻲﻛﻨﻴﻢ‪.‬‬ ‫ﻗﻀﻴﻪ ‪ :1-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ θ‬داراي ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ) ‪ π (θ‬ﺑﺎﺷﺪ و ﺑﻪ ﺷﺮط ‪ X ، θ‬داراي ﺗﻮزﻳﻌﻲ از‬ ‫ﺧﺎﻧﻮاده }‪ {f (x | θ ) | θ ∈ Θ‬ﺑﺎﺷﺪ‪ .‬ﻓﺮض ﻛﻨﻴﺪ در ﻣﺴﺌﻠﻪ ﺗﺼﻤﻴﻢ ﺑﺎ ﺗﺎﺑﻊ زﻳﺎن ﻏﻴﺮﻣﻨﻔﻲ ) ‪L (θ , δ‬‬

‫ﺷﺮاﻳﻂ زﻳﺮ ﺑﺮﻗﺮار ﺑﺎﺷﺪ‪.‬‬ ‫اﻟﻒ‪ -‬ﻳﻚ ﺗﺎﺑﻊ ﺗﺼﻤﻴﻢ ‪ δ0‬ﺑﺎ ﻣﺤﺎﻃﺮه ﻣﺘﻨﺎﻫﻲ ﻣﻮﺟﻮد ﺑﺎﺷﺪ‪.‬‬ ‫ب‪ -‬ﺑﺮاي ﻫﺮ ‪ x ∈ χ‬ﻳﻚ ﺗﺎﺑﻊ ﺗﺼﻤﻴﻢ ) ‪ δ π (x‬ﻣﻮﺟﻮد ﺑﺎﺷﺪ ﻛﻪ‬ ‫) ‪r ( x , δ ( x )) = E [L (θ , δ (x )) | X = x ] = ∫ L (θ ,δ (x ))d π (θ | x‬‬ ‫‪Θ‬‬

‫را ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ )ﻳﻌﻨﻲ ) ‪.( r (x , δ π ) = inf r (x , δ‬‬

‫‪δ ∈ Dδ ∈ D‬‬

‫در اﻳﻦ ﺻﻮرت ) ‪ δ π (x‬ﻳﻚ ﺗﺼﻤﻴﻢ ﺑﻴﺰ اﺳﺖ ) ) ‪ r (x , δ‬را ﻣﺨﺎﻃﺮه ﭘﺴﻴﻦ ﮔﻮﻳﻨﺪ(‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﻓﺮض ﻛﻨﻴﺪ ‪ δ‬ﻫﺮ ﺗﺼﻤﻴﻤﻲ ﺑﺎ ﻣﺨﺎﻃﺮه ﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ‪ .‬در اﻳﻦ ﺻﻮرت ﭼﻮن ﺗﺎﺑﻊ زﻳﺎن ﻧﺎﻣﻨﻔﻲ اﺳﺖ‪.‬‬ ‫ﭘﺲ‬

‫‪a.e .‬‬

‫∞ < } ‪E {L (θ , δ (x )) | X = x‬‬

‫و در ﻧﺘﻴﺠﻪ ﻃﺒﻖ ﺷﺮط )ب( دارﻳﻢ ﻛﻪ‬ ‫‪a.e .‬‬

‫} ‪E {L (θ , δ (x )) | X = x } ≥ E {L (θ , δ π ( x ) | X = x‬‬

‫⎤⎦} ‪⇒ E [ E {L (θ , δ (x )) | X = x }] ≥ E ⎣⎡ E {L (θ , δ π (x )) | X = x‬‬ ‫])) ‪⇒ E [L (θ , δ (x ))] ≥ E [L (θ , δ π (x‬‬

‫ﻛﻪ اﻣﻴﺪ رﻳﺎﺿﻲ ﻧﺴﺒﺖ ﺑﻪ ﺗﻮزﻳﻊ ﺗﻮام ‪ θ‬و ‪ X‬اﺳﺖ ﭘﺲ ) ‪ r (π , δ ) ≥ r (π , δ π‬ﻳﻌﻨﻲ ) ‪ δ π (X‬ﻳﻚ‬ ‫ﺗﺼﻤﻴﻢ ﺑﻴﺰ اﺳﺖ زﻳﺮا ﻣﺨﺎﻃﺮه ﺑﻴﺰ را ﻣﻴﻨﻴﻤﻢ ﻣﻲﻛﻨﺪ‪.‬‬

‫■‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭼﻬﺎرم‪ :‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬

‫‪108‬‬

‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻗﻀﻴﻪ ﺑﺎﻻ ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺗﺼﻤﻴﻢ ﺑﻴﺰي ﺑﺎﻳﺴﺘﻲ ﻣﺨﺎﻃﺮه ﭘﺴﻴﻦ را ﻣﻴﻨﻴﻤﻢ ﻛﻨﻴﻢ‪ .‬در ﺑﺮآورد‬ ‫ﻧﻘﻄﻪاي‪ ،‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي ﺑﺪﺳﺖ آﻣﺪه را ﺑﺮآوردﮔﺮ ﺑﻴﺰ ‪ 1‬ﻣﻲﻧﺎﻣﻴﻢ و در ﻗﻀﻴﻪ زﻳﺮ ﺗﺤﺖ ﺗﻮاﺑﻊ زﻳﺎن ﻣﺨﺘﻠﻒ‬ ‫اﻳﻦ ﺑﺮآوردﮔﺮ را ﺑﺪﺳﺖ ﻣﻲآورﻳﻢ‪.‬‬ ‫ﻗﻀﻴﻪ ‪ :2-2‬ﺗﺤﺖ ﻓﺮﺿﻴﺎت ﻗﻀﻴﻪ‪ 1-2‬در ﺑﺮآورد ﻧﻘﻄﻪاي ﭘﺎراﻣﺘﺮ ) ‪ γ (θ‬دارﻳﻢ ﻛﻪ‬ ‫اﻟﻒ‪ -‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ‪ L ( γ (θ ), δ (X ) ) = [δ (X ) − γ (θ )]2‬ﺑﺮآورد ﺑﻴﺰ ﻋﺒﺎرت اﺳﺖ از‪:‬‬ ‫] ‪δ π (x ) = E [γ (θ ) | x‬‬

‫ب‪ -‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ﻗﺪر ﻣﻄﻠﻖ ) ‪ L ( γ (θ ), δ (X ) ) = δ (X ) − γ (θ‬ﺑﺮآورد ﺑﻴﺰ‪ ،‬ﻣﻴﺎﻧﻪ ﺗﻮزﻳﻊ‬ ‫‪ γ (θ ) | x‬اﺳﺖ‪.‬‬ ‫ج‪ -‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم وزﻧﻲ ‪ L ( γ (θ ), δ (X ) ) = w (θ )[δ (X ) − γ (θ )]2‬ﺑﺮآورد ﺑﻴﺰ ﻋﺒﺎرت‬ ‫] ‪E [w (θ )γ (θ ) | x‬‬ ‫] ‪E [w (θ ) | x‬‬

‫اﺳﺖ از‪:‬‬

‫= ) ‪δ π (x‬‬

‫اﺛﺒﺎت )ج(‪:‬‬ ‫‪r ( x , δ (x ) ) = ∫ w (θ )[δ (x ) − γ (θ )]2π (θ | x )d θ‬‬ ‫‪Θ‬‬

‫] ‪= δ 2 (x )E [w (θ ) | x ] − 2δ (x )E [w (θ )γ (θ ) | x ] + E [w (θ )γ 2 (θ ) | x‬‬ ‫)) ‪∂r (x , δ (x‬‬ ‫‪= 0 ⇒ δπ (x ) = .......‬‬ ‫) ‪∂δ (x‬‬

‫■‬

‫ﻣﺜﺎل ‪ :2-2‬در ﻣﺜﺎل‪ 1-2‬ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﭘﺎراﻣﺘﺮ ‪ θ‬را ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬ ‫) ‪θ ~ Be (α , β ) ⇒ θ | x ~ Be (α + ∑ x i , β + n − ∑ x i‬‬

‫‪α + ∑xi ⎛ α + β ⎞ α‬‬ ‫⎛‬ ‫⎞‬ ‫‪n‬‬ ‫‪x‬‬ ‫⎜=‬ ‫⎜‪+‬‬ ‫⎟‬ ‫⎠⎟ ‪α + β + n ⎝ α + β + n ⎠ α + β ⎝ α + β + n‬‬

‫ﭼﻮن‬

‫‪α‬‬ ‫‪α +β‬‬

‫‪α‬‬ ‫‪α +β‬‬

‫) ‪X 1,… , X n ~ B (1,θ‬‬

‫= ] ‪δ π (x ) = E [θ | x‬‬

‫= ) ‪ E (θ‬ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺑﺼﻮرت ﻳﻚ ﻣﻴﺎﻧﮕﻴﻦ وزﻧﻲ از ﻣﻴﺎﻧﮕﻴﻦ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ‬

‫)ﺑﺮآورد ‪ θ‬ﻗﺒﻞ از ﻣﺸﺎﻫﺪه دادهﻫﺎ( و ﻣﻴﺎﻧﮕﻴﻦ ﻧﻤﻮﻧﻪ ‪) x‬ﺑﺮآورد ‪ θ‬ﺑﻮﺳﻴﻠﻪ ﻣﺸﺎﻫﺪات( ﻣﻲﺑﺎﺷﺪ‪.‬‬

‫‪Bayes Estimator‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭼﻬﺎرم‪ :‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬

‫‪109‬‬

‫ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ اﻳﻦ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﻧﻴﺴﺖ و در ﺻﻮرﺗﻲ ﻛﻪ ∞ → ‪ n‬و ﻳﺎ ‪ α = β = 0‬اﻧﮕﺎه ﺑﺮآوردﮔﺮ‬ ‫) ‪ δ π (x‬ﺑﺎ ﺑﺮآوردﮔﺮ ‪ UMVU‬ﻳﻜﻲ ﻣﻲﺷﻮد‪.‬‬ ‫اﻟﺒﺘﻪ ﺣﺎﻟﺖ ‪ α = β = 0‬ﻳﻚ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﻧﻤﻲﺑﺎﺷﺪ زﻳﺮا ﺑﺎﻳﺴﺘﻲ ‪ α > 0, β > 0‬ﺑﺎﺷﺪ)ﺣﺎﻟﺖ ‪ α →0‬و‬ ‫ﺑﺎ ‪ β → 0‬را ﺑﻌﺪا ﺑﺤﺚ ﺧﻮاﻫﻴﻢ ﻛﺮد(‪.‬‬

‫■‬

‫ﻣﺜﺎل ‪ :3-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ ‪ n‬ﺗﺎﻳﻲ از ﺗﻮزﻳﻊ ) ‪ N (θ ,σ 2‬ﺑﺎﺷﻨﺪ ﻛﻪ در‬ ‫آن ‪ σ 2‬ﻳﻚ ﻣﻘﺪار ﻣﻌﻠﻮم اﺳﺖ‪ .‬اﮔﺮ ) ‪ θ ~ N ( μ ,τ 2‬و ﺗﺎﺑﻊ زﻳﺎن ﺑﻔﺮم درﺟﻪ‪ 2‬ﺑﺎﺷﺪ ﺑﺮآوردﮔﺮ ﺑﻴﺰ‬ ‫ﭘﺎراﻣﺘﺮ ‪ θ‬را ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬ ‫ﺣﻞ‪:‬‬ ‫‪1 n‬‬

‫) ‪⎞ − 2σ 2 ∑ ( X i −θ‬‬ ‫‪i =1‬‬ ‫‪⎟⎟ e‬‬ ‫⎠‬

‫‪2‬‬

‫‪n‬‬

‫‪⎛ 1‬‬ ‫⎜⎜‬ ‫‪2‬‬ ‫‪⎝ 2πσ‬‬

‫‪(θ − μ )2‬‬ ‫‪2‬‬

‫‪θ2 1 n‬‬ ‫‪μ nx‬‬ ‫) ‪( + ) +θ ( 2 + 2‬‬ ‫‪2 τ2 σ2‬‬ ‫‪τ σ‬‬

‫⎫⎞‬ ‫⎪⎟‬ ‫⎪⎟‬ ‫⎬⎟‬ ‫⎪⎟‬ ‫⎪⎟‬ ‫⎭⎠‬

‫‪1‬‬

‫‪−‬‬

‫‪=e‬‬

‫⎫‪2‬‬

‫⎪‬ ‫⎪⎪‬ ‫⎬‬ ‫⎪‬ ‫⎪‬ ‫⎪⎭‬

‫‪e‬‬

‫‪1‬‬ ‫‪2‬‬

‫‪2πτ‬‬

‫‪θ‬‬ ‫‪nθ 2‬‬ ‫‪x − 2‬‬ ‫‪2∑ i‬‬ ‫‪2σ‬‬ ‫‪eσ‬‬

‫⎧‬ ‫⎛‬ ‫⎞ ‪⎛σ2‬‬ ‫‪μ ⎜ ⎟ + τ 2x‬‬ ‫⎪‬ ‫⎜‬ ‫‪n‬‬ ‫‪1‬‬ ‫‪⎪ 1 n‬‬ ‫‪= exp ⎨ − ( 2 + 2 ) ⎜⎜ θ 2 − 2θ ⎝ ⎠ 2‬‬ ‫‪τ‬‬ ‫‪σ‬‬ ‫‪⎪ 2 σ‬‬ ‫⎜‬ ‫‪τ2 +‬‬ ‫⎪‬ ‫⎜‬ ‫‪n‬‬ ‫⎝‬ ‫⎩‬ ‫⎞‬ ‫⎟‬ ‫⎟‬ ‫⎟‬ ‫⎟‬ ‫⎟‬ ‫⎠‬

‫‪2τ‬‬

‫‪−‬‬

‫= ) ‪π (θ | x ) ∝ π (θ )L (θ‬‬ ‫‪θ2 μ‬‬ ‫‪+ θ‬‬ ‫‪2τ 2 τ 2‬‬

‫‪−‬‬

‫‪μ nx‬‬ ‫‪+ 2‬‬ ‫‪2‬‬ ‫‪1 n 1‬‬ ‫‪2‬‬ ‫‪τ‬‬ ‫] ‪σ‬‬ ‫‪− ( 2 + 2 )[θ −2θ‬‬ ‫‪1 n‬‬ ‫‪2 σ τ‬‬ ‫‪+‬‬ ‫‪τ2 σ2‬‬

‫‪∝ e‬‬

‫‪= e‬‬

‫⎧‬ ‫⎛‬ ‫⎞ ‪⎛σ2‬‬ ‫⎪‬ ‫‪μ ⎜ ⎟ + τ 2x‬‬ ‫⎜‬ ‫‪n‬‬ ‫‪1‬‬ ‫‪⎪⎪ 1 n‬‬ ‫‪∝ exp ⎨− ( 2 + 2 ) ⎜⎜ θ − ⎝ ⎠ 2‬‬ ‫‪τ‬‬ ‫‪σ‬‬ ‫‪⎪ 2 σ‬‬ ‫⎜‬ ‫‪τ2 +‬‬ ‫⎪‬ ‫⎜‬ ‫‪n‬‬ ‫⎝‬ ‫⎪⎩‬

‫‪⎛ ⎛σ2 ⎞ 2‬‬ ‫⎞‬ ‫‪⎜ μ ⎜ ⎟ +τ x‬‬ ‫⎟‬ ‫‪n‬‬ ‫‪1‬‬ ‫⎜‬ ‫⎟‬ ‫‪,‬‬ ‫⎠ ‪θ |x ~ N ⎜ ⎝ 2‬‬ ‫⎟ ‪1‬‬ ‫‪n‬‬ ‫‪σ‬‬ ‫⎟‪+ 2‬‬ ‫⎜‬ ‫‪+τ 2‬‬ ‫‪2‬‬ ‫⎟ ‪σ τ‬‬ ‫⎜‬ ‫‪n‬‬ ‫⎝‬ ‫⎠‬

‫∴‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭼﻬﺎرم‪ :‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬

‫‪σ2‬‬

‫‪τ2‬‬

‫‪x‬‬ ‫‪2‬‬

‫‪+τ‬‬

‫‪110‬‬

‫‪σ2‬‬

‫‪μ+‬‬

‫‪n‬‬ ‫‪2‬‬

‫‪n‬‬

‫‪+τ‬‬

‫‪π‬‬

‫= ) ‪⇒ δ (x ) = E (θ | x‬‬

‫‪σ2‬‬ ‫‪n‬‬

‫ﻳﻌﻨﻲ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺑﺼﻮرت ﻳﻚ ﻣﻴﺎﻧﮕﻴﻦ وزﻧﻲ از ﻣﻴﺎﻧﮕﻴﻦ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ) ‪ ( μ‬و ﻣﻴﺎﻧﮕﻴﻦ ﻧﻤﻮﻧﻪ ‪x‬‬

‫)ﺑﺮآورد ﻋﺎدي ‪ ( θ‬ﻣﻲﺑﺎﺷﺪ و ﺑﻪ ﺳﺎدﮔﻲ دﻳﺪه ﻣﻲﺷﻮد ﻛﻪ ﻧﺎارﻳﺐ ﻧﻴﺴﺖ‪.‬‬

‫■‬

‫ﻣﺜﺎل ‪ :4-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ ‪ n‬ﺗﺎﻳﻲ از ﺗﻮزﻳﻊ ) ‪ U (0,θ‬ﺑﺎﺷﻨﺪ اﮔﺮ‬ ‫)‪,‬‬ ‫‪ θ ~ U (01‬ﺑﺎﺷﺪ و ﺗﺎﺑﻊ زﻳﺎن ﺑﺼﻮرت‬

‫‪(δ − θ )2‬‬

‫‪θ2‬‬

‫= ) ‪ L (θ , δ‬ﺑﺎﺷﺪ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﭘﺎراﻣﺘﺮ ‪ θ‬را ﺑﺪﺳﺖ‬

‫آورﻳﺪ‪.‬‬ ‫ﺣﻞ‪:‬‬ ‫‪1‬‬

‫‪1‬‬

‫‪n‬‬

‫) ‪π (θ | x ) ∝ π (θ )L (θ ) = I (01, ) (θ )∏ I (0,θ ) (x i ) = I (01, ) (θ ) n I ( x ( n ) ,+∞ ) (θ‬‬ ‫‪θ‬‬ ‫‪i =1 θ‬‬ ‫) ‪I ( x ( n ) ,1) (θ‬‬ ‫‪|1‬‬ ‫) ‪n x (n‬‬

‫‪1‬‬

‫‪1‬‬

‫‪θn‬‬

‫‪−‬‬

‫‪nθ‬‬ ‫‪−1‬‬ ‫‪|1‬‬ ‫) ‪n +1 x ( n‬‬ ‫‪( n + 1)θ‬‬

‫■‬

‫) ‪I ( x ( n ) ,1) (θ ) ⇒ π (θ | x ) = c (x‬‬ ‫‪1‬‬

‫=‬

‫‪dθ‬‬ ‫‪n +1‬‬ ‫‪dθ‬‬

‫‪1‬‬

‫‪θ‬‬

‫) ‪(n‬‬

‫‪1‬‬

‫‪θ n +2‬‬

‫‪∫x‬‬

‫‪1‬‬ ‫) ‪(n‬‬

‫‪∫x‬‬

‫‪1‬‬ ‫‪n‬‬

‫‪θ‬‬

‫=‬

‫‪1‬‬ ‫)‪E( |x‬‬

‫] ‪E [θw (θ ) | x‬‬ ‫‪θ‬‬ ‫= ) ‪⇒ δ π (x‬‬ ‫=‬ ‫=‬ ‫) ‪E [w (θ ) | x ] E ( 1 | x‬‬ ‫‪2‬‬

‫‪θ‬‬

‫‪1‬‬ ‫‪1‬‬ ‫] ‪[−1 + n‬‬ ‫⎤ ) ‪⎡ 1 − x (nn‬‬ ‫‪n‬‬ ‫) ‪x (n‬‬ ‫‪n +1‬‬ ‫=‬ ‫=‬ ‫⎢ ) ‪x (n‬‬ ‫⎥‬ ‫‪n +1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪n‬‬ ‫‪−‬‬ ‫‪x‬‬ ‫‪1‬‬ ‫⎢‬ ‫⎦⎥‬ ‫‪n‬‬ ‫(‬ ‫)‬ ‫] ‪[−1 + n +1‬‬ ‫⎣‬ ‫‪n +1‬‬ ‫) ‪x (n‬‬

‫ﻧﻜﺎﺗﻲ در ﻣﻮرد ﺑﺮآوردﮔﺮ ﺑﻴﺰ‪:‬‬ ‫ﻧﻜﺘﻪ‪ :1‬در راﺑﻄﻪ ﺑﺎ ﺑﺮآوردﮔﺮﻫﺎي ﺑﻴﺰ اﻳﻦ ﺳﻮال ﻣﻄﺮح ﻣﻲﺷﻮد ﻛﻪ ﭼﻪ ﺧﺎﻧﻮاده از ﺗﻮزﻳﻊﻫﺎي ﭘﻴﺸﻴﻦ را‬ ‫ﺑﺮاي ﻳﻚ ﻣﺴﺌﻠﻪ اﻧﺘﺨﺎب ﻛﻨﻴﻢ‪ .‬ﻳﻜﻲ از روشﻫﺎي اﻧﺘﺨﺎب ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ﭘﻴﺸﻴﻦ‪ ،‬اﺳﺘﻔﺎده از ﺧﺎﻧﻮاده‬ ‫ﺗﻮزﻳﻊﻫﺎي ﻣﺰدوج اﺳﺖ‪.‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭼﻬﺎرم‪ :‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬

‫‪111‬‬

‫ﺗﻌﺮﻳﻒ‪ :1-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ F‬ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ) ‪ f ( x | θ‬ﺑﺎﺷﺪ ﻳﻌﻨﻲ }‪= {f ( x | θ ) | θ ∈ Θ‬‬

‫‪.F‬‬

‫ﺧﺎﻧﻮاده ‪ Π‬از ﺗﻮزﻳﻌﻬﺎي ﭘﻴﺸﻴﻦ ﺑﺮاي ‪ θ‬را ﻳﻚ ﺧﺎﻧﻮاده ﻣﺰدوج ﺑﺮاي ‪ F‬ﮔﻮﺋﻴﻢ ﻫﺮﮔﺎه ﺑﺮاي ﻫﺮ‬ ‫‪ f ∈ F‬و ﻫﺮ ‪ π ∈ Π‬و ﻫﺮ ‪ x ∈ χ‬ﺗﻮزﻳﻊﻫﺎي ﭘﺴﻴﻦ ﻧﻴﺰدر ﺧﺎﻧﻮاده ‪ Π‬ﻗﺮار ﮔﻴﺮﻧﺪ‪.‬‬

‫■‬

‫ﺑﺮاي ﻣﺜﺎل در ﻣﺜﺎل‪ 2-2‬ﺧﺎﻧﻮاده ) ‪ Be (α , β‬ﻳﻚ ﺧﺎﻧﻮاده ﻣﺰدوج ﺑﺮاي ) ‪ B (1,θ‬ﺑﻮد و در ﻣﺜﺎل‪3-2‬‬ ‫ﺧﺎﻧﻮاده ) ‪ N ( μ ,τ 2‬ﻳﻚ ﺧﺎﻧﻮاده ﻣﺰدوج ﺑﺮاي ) ‪ N (θ ,σ 2‬ﺑﻮد‪.‬‬ ‫ﻣﺜﺎل ‪ :5-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ﻧﻤﺎﻳﻲ ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ زﻳﺮ ﺑﺎﺷﻨﺪ‬ ‫‪ . f (x | θ ) = θe −θ x , x > 0‬اﮔﺮ ) ‪ θ ~ Γ(α , β‬ﺑﺎﺷﺪ ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺮآوردﮔﺮ ﺑﻴﺰ‬ ‫ﻣﻴﺎﻧﮕﻴﻦ ﺗﻮزﻳﻊ ﻳﻌﻨﻲ‬

‫‪1‬‬

‫‪θ‬‬

‫= ) ‪ γ (θ‬را ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬

‫ﺣﻞ‪:‬‬ ‫‪1‬‬

‫‪− ( nx + )θ‬‬ ‫‪−θ‬‬ ‫‪1‬‬ ‫‪β‬‬ ‫‪π (θ | x ) ∝ π (θ ) L (θ ) = α‬‬ ‫‪θ α −1e β θ n e − nθ x ∝ θ n +α −1e‬‬ ‫) ‪β Γ(α‬‬

‫‪1‬‬ ‫)‬ ‫‪nx + β −1‬‬ ‫)‪Γ( n + α − 1‬‬

‫) ‪( nx + β‬‬

‫‪−1 n +α −1‬‬

‫‪n +α‬‬

‫×‬

‫‪⇒ θ | x ~ Γ(n + α ,‬‬

‫) ‪( nx + β‬‬ ‫‪1‬‬ ‫= ] ‪δ π (x ) = E [γ (θ ) | x ] = E [ | x‬‬ ‫‪−1‬‬

‫) ‪Γ( n + α‬‬

‫‪θ‬‬

‫⎛ ⎞‬ ‫‪1‬‬ ‫⎛ ⎞ ‪nx + β −1 ⎛ α − 1‬‬ ‫‪n‬‬ ‫⎞‬ ‫⎜=‬ ‫⎜⎟‬ ‫⎜‪⎟+‬‬ ‫‪⎟x‬‬ ‫⎠ ‪n + α − 1 ⎝ n + α − 1 ⎠ ⎝ β (α − 1) ⎠ ⎝ n + α − 1‬‬ ‫‪1‬‬

‫=‬ ‫‪1‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآورد ﺑﻴﺰ‪ ،‬ﻳﻚ ﻣﻴﺎﻧﮕﻴﻦ وزﻧﻲ از ﻣﻴﺎﻧﮕﻴﻦ ﻧﻤﻮﻧﻪ ‪) x‬ﺑﺮآوردﮔﺮ ﻣﻌﻘﻮل ( و ﻣﻴﺎﻧﮕﻴﻦ‬ ‫‪θ‬‬ ‫‪θ‬‬ ‫⎞‬

‫‪1‬‬

‫⎛‬

‫⎜ ﻣﻲﺑﺎﺷﺪ‪.‬‬ ‫ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ⎟‬ ‫‪−‬‬ ‫(‬ ‫)‬ ‫‪β‬‬ ‫‪α‬‬ ‫‪1‬‬ ‫⎝‬ ‫⎠‬

‫در‬

‫■‬

‫ﻣﺜﺎل ‪ :6-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ) ‪ P (θ‬ﺑﺎﺷﻨﺪ اﮔﺮ ) ‪θ ~ Γ(α , β‬‬

‫ﺑﺎﺷﺪ ﺑﺮآورد ﺑﻴﺰ ﭘﺎراﻣﺘﺮ ‪ θ‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم را ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭼﻬﺎرم‪ :‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬

‫‪112‬‬

‫‪1‬‬

‫) ‪−θ ( n +‬‬ ‫‪− θ e − nθ θ nx‬‬ ‫‪1‬‬ ‫‪β‬‬ ‫‪∝ θ nx +α −1e‬‬ ‫‪π (θ | x ) ∝ π (θ ) L (θ ) = α‬‬ ‫‪θ α −1e β n‬‬ ‫) ‪β Γ(α‬‬ ‫! ‪∏x i‬‬ ‫‪i =1‬‬

‫‪1‬‬ ‫‪nx + α‬‬ ‫= ) ‪) ⇒ E (θ | x‬‬ ‫‪−1‬‬ ‫‪n +β‬‬ ‫‪n + β −1‬‬

‫‪⇒ θ | x ~ Γ(nx + α ,‬‬

‫‪β −1‬‬ ‫‪n‬‬ ‫‪(αβ ) +‬‬ ‫= ) ‪∴ δ (X‬‬ ‫‪X‬‬ ‫‪−1‬‬ ‫‪n +β‬‬ ‫‪n + β −1‬‬ ‫‪π‬‬

‫ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﻳﻚ ﻣﻴﺎﻧﮕﻴﻦ وزﻧﻲ از ﻣﻴﺎﻧﮕﻴﻦ ﻧﻤﻮﻧﻪ ‪) X‬ﺑﺮآوردﮔﺮ ﻣﻌﻘﻮل ‪ ( θ‬و ﻣﻴﺎﻧﮕﻴﻦ ﺗﻮزﻳﻊ‬ ‫ﭘﻴﺸﻴﻦ‪ αβ ،‬اﺳﺖ‪.‬‬

‫■‬

‫ﻧﻜﺘﻪ ‪ :2‬در ﻣﺜﺎلﻫﺎي ﻗﺒﻞ دﻳﺪﻳﻢ ﻛﻪ ﺑﺮآوردﮔﺮﻫﺎي ﺑﻴﺰ ﻧﺎارﻳﺐ ﻧﻤﻲﺑﺎﺷﻨﺪ ‪ .‬اﻳﻦ ﻣﻮﺿﻮع در ﻗﻀﻴﻪ زﻳﺮ‬ ‫اﺛﺒﺎت ﻣﻲﺷﻮد‪.‬‬

‫ﻗﻀﻴﻪ ‪ :3-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ θ‬داراي ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ) ‪ π (θ‬ﺑﺎﺷﺪ و ) ‪ f (x | θ‬ﺗﻮزﻳﻊ ﺷﺮﻃﻲ ‪ X‬ﺑﻪ ﺷﺮط ‪θ‬‬ ‫ﺑﺎﺷﺪ‪ .‬در ﺑﺮآورد ﭘﺎراﻣﺘﺮ ) ‪ γ (θ‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم‪ ،‬ﻫﻴﭻ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ) ‪ δ (X‬ﻧﻤﻲﺗﻮاﻧﺪ‬ ‫ﻳﻚ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺑﺎﺷﺪ‪ ،‬ﺑﺠﺰ اﻳﻨﻜﻪ‬

‫‪2‬‬ ‫‪r (π , δ ) = E X ,θ ⎡(δ (X ) − θ ) ⎤ = 0‬‬ ‫⎣‬ ‫⎦‬

‫اﻳﻦ اﻣﻴﺪ رﻳﺎﺿﻲ ﻧﺴﺒﺖ ﺑﻪ ﭼﮕﺎﻟﻲ ﺗﻮام ‪ X‬و ‪ θ‬اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﻓﺮض ﻛﻨﻴﺪ ‪ δ‬ﻳﻚ ﺑﺮآوردﮔﺮ ﺑﻴﺰ و ﻧﺎارﻳﺐ ﺑﺮاي ) ‪ γ (θ‬ﺑﺎﺷﺪ‪ .‬در اﻳﻨﺼﻮرت ﭼﻮن ‪ δ‬ﺑﺮآوردﮔﺮ‬ ‫ﻧﺎارﻳﺐ ) ‪ γ (θ‬اﺳﺖ ﭘﺲ‬ ‫و ﭼﻮن ‪ δ‬ﺑﺮآوردﮔﺮ ﺑﻴﺰ ) ‪ γ (θ‬اﺳﺖ ﭘﺲ‬

‫) ‪E [δ (X ) | θ ] = γ (θ‬‬ ‫) ‪E [γ (θ ) | X ] = δ (X‬‬

‫ﻫﻤﭽﻨﻴﻦ ﻣﺤﺎﻃﺮه ﺑﻴﺰ ﻋﺒﺎرت اﺳﺖ از‬ ‫‪2‬‬ ‫)‪r (Π, δ ) = E ⎡(δ (X ) − γ (θ ) ) ⎤ = E [δ 2 (X )] − 2E ⎣⎡( γ (θ )δ (X ) ) ⎦⎤ + E ⎣⎡γ 2 (θ ) ⎦⎤ (1‬‬ ‫⎣‬ ‫⎦‬

‫از ﻃﺮﻓﻲ‬ ‫)‪E [γ (θ )δ (X )] = E ⎣⎡ E ( γ (θ )δ (X ) | X ) ⎦⎤ = E ⎡⎣δ (X )E [γ (θ ) | X ]⎤⎦ = E [δ 2 (X )] (2‬‬

‫)‪(3‬‬

‫]) ‪E [γ (θ )δ (X )] = E ⎡⎣ E ( γ (θ )δ (X ) | θ ) ⎤⎦ = E ⎡⎣γ (θ )E [δ (X ) | θ ]⎤⎦ = E [γ 2 (θ‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭼﻬﺎرم‪ :‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬

‫و در ﻧﺘﻴﺠﻪ از رواﺑﻂ )‪ (1‬و )‪ (2‬و )‪ (3‬ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد ﻛﻪ ‪ r (π , δ ) = 0‬اﺳﺖ‪.‬‬ ‫ﻣﺜﺎل ‪ :7-2‬در ﻣﺜﺎل‪ 3-2‬دﻳﺪﻳﻢ ﻛﻪ‬

‫‪X‬‬

‫‪τ2‬‬ ‫‪σ 2 n +τ 2‬‬

‫‪μ+‬‬ ‫‪2‬‬

‫‪σ2 n‬‬ ‫‪σ 2 n +τ‬‬

‫‪113‬‬

‫■‬

‫= ) ‪ δ π (X‬ﺑﺮآوردﮔﺮ ﺑﻴﺰ ‪ θ‬در‬

‫ﺗﻮزﻳﻊ ) ‪ N (θ ,σ 2‬ﺑﻮد‪ .‬ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ ‪ X‬ﺑﺮآوردﮔﺮ ‪ UMVU‬ﭘﺎراﻣﺘﺮ ‪ θ‬اﺳﺖ ﻧﻤﻲﺗﻮاﻧﺪ ﺑﺮآوردﮔﺮ ﺑﻴﺰ‬ ‫ﺑﺎﺷﺪ‪.‬‬

‫(‬

‫)‬

‫ﺣﻞ‪ :‬اﮔﺮ ‪ X‬ﺑﺨﻮاﻫﺪ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﺑﻴﺰ ﺑﺎﺷﺪ ﺑﺎﻳﺴﺘﻲ‪ E X ,θ (X ,θ )2 = 0‬ﺑﺎﺷﺪ‪ .‬اﻣﺎ‬ ‫‪⎡σ 2 ⎤ σ 2‬‬ ‫= ⎥ ‪E X ,θ ( X − θ )2 = E [E (X − θ )2 | θ ] = E ⎢ | θ‬‬ ‫‪≠0‬‬ ‫‪n‬‬ ‫‪n‬‬ ‫⎣‬ ‫⎦‬

‫)‬

‫(‬

‫ﭘﺲ ‪ X‬ﻧﻤﻲﺗﻮاﻧﺪ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺑﺎﺷﺪ‪.‬‬ ‫ﻣﺜﺎل ‪ :8-2‬در ﻣﺜﺎل‪ 2-2‬دﻳﺪﻳﻢ ﻛﻪ در ﺧﺎﻧﻮاده ﺗﻮزﻳﻊﻫﺎي ) ‪ B (1,θ‬ﺗﺤﺖ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ) ‪ Be (α , β‬و‬

‫ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺑﺮاﺑﺮ ‪α + nX‬‬ ‫‪α +β +n‬‬

‫= ) ‪ δ π (X‬ﺑﻮد‪ .‬ﺗﺤﺖ ﭼﻪ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻨﻲ ‪ X‬ﻳﻚ‬

‫ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺑﺮاي ‪ θ‬اﺳﺖ‪.‬‬ ‫ﺣﻞ‪ X :‬در ﺻﻮرﺗﻲ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ‪ θ‬اﺳﺖ ﻛﻪ‬ ‫⎤ ) ‪⎡θ (1 − θ‬‬ ‫⎢ ‪0 = E X ,θ ⎡⎣(X − θ )2 ⎤⎦ = E ⎡⎣ E ( X − θ )2 | θ ⎤⎦ = E ⎡⎣V ar ( X ) | θ ⎤⎦ = E‬‬ ‫⎥⎦ ‪⎣ n‬‬ ‫‪⎡ θ (1 − θ ) ⎤ 0≤θ ≤1‬‬ ‫⎢ ‪⇒E‬‬ ‫‪= 0 ⇒ P (θ (1 − θ ) = 0) = 1 ⇒ P (θ = 0 or θ = 1) = 1‬‬ ‫⎦⎥ ‪⎣ n‬‬

‫‪⇒ P (θ = 0) + P (θ = 1) = 1‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ در ﺻﻮرﺗﻲ ‪ X‬ﺑﺮآوردﮔﺮ ﺑﻴﺰ اﺳﺖ ﻛﻪ ‪ θ‬داراي ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺑﺮﻧﻮﻟﻲ ﺑﺎﺷﺪ و ﺑﺮاي ﭼﻨﻴﻦ ﺗﻮزﻳﻊ‬ ‫ﭘﻴﺸﻴﻨﻲ دارﻳﻢ ﻛﻪ‬ ‫)‪(4‬‬

‫‪δ π (1) = 1‬‬

‫‪ ) δ π (0) = 0‬ﭼﻮن ‪ 1‬ﻳﺎ ‪ θ = 0‬اﺳﺖ(‪.‬‬

‫و ﻫﺮ ﺑﺮآوردﮔﺮي ﻛﻪ در ﺷﺮط ﺑﺎﻻ ﺻﺪق ﻛﻨﺪ ﺑﺮاوردﮔﺮ ﺑﻴﺰ اﺳﺖ‪ .‬ﻣﺜﻼ ‪ δ π (X ) = X‬در اﻳﻦ ﺷﺮاﻳﻂ‬ ‫ﺻﺪق ﻣﻲﻛﻨﺪ‪ .‬اﻟﺒﺘﻪ اﻳﻦ ﭼﮕﺎﻟﻲ ﭘﻴﺸﻴﻦ ﻏﻴﺮﻣﻌﻘﻮل اﺳﺖ‪.‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭼﻬﺎرم‪ :‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬

‫‪114‬‬

‫ﻧﻜﺘﻪ ‪ :3‬در ﻣﺜﺎلﻫﺎي ﺑﺎﻻ اﻛﺜﺮ ﺑﺮآوردﮔﺮﻫﺎي ﺑﻴﺰ ﻳﻜﺘﺎ ﺑﻮدﻧﺪ و ﺗﻨﻬﺎ در ﻣﺜﺎل ‪ 8-2‬ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ﭘﻴﺸﻴﻦ‬ ‫ﻏﻴﺮﻣﻌﻘﻮل ‪ P (θ = 0) + P (θ = 1) = 1‬دﻳﺪﻳﻢ ﻛﻪ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﻳﻜﺘﺎ ﻧﺒﻮد‪ .‬ﺷﺮط ﻛﻠﻲ ﺑﺮاي ﻳﻜﺘﺎ ﺑﻮدن‬ ‫ﺑﺮآوردﮔﺮ ﺑﻴﺰ در ﻗﻀﻴﻪ زﻳﺮ آورده ﺷﺪه اﺳﺖ‪.‬‬ ‫ﻗﻀﻴﻪ ‪ :4-2‬اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ) ‪ L (θ , δ‬درﺟﻪ دوم ﻳﺎ ﺑﻄﻮر ﻛﻠﻲ اﻛﻴﺪا ﻣﺤﺪب ﺑﺎﺷﺪ و‬

‫‪ P‬ﻛﻼس ﻛﻠﻴﻪ‬

‫ﺗﻮزﻳﻊﻫﺎي ‪ Pθ‬ﺑﺎﺷﺪ‪ ،‬آﻧﮕﺎه ﺑﺮآورد ﺑﻴﺰ ‪ δ π‬ﻳﻜﺘﺎ ) ‪ (a.e . P‬اﺳﺖ ﻫﺮﮔﺎه‬ ‫اﻟﻒ‪ -‬ﻣﺨﺎﻃﺮه ﺑﻴﺰ آن ﻧﺴﺒﺖ ﺑﻪ ‪ π‬ﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ ∞ < ) ‪r (π , δ π‬‬ ‫ب‪ -‬اﮔﺮ ‪ Q‬ﺗﻮزﻳﻊ ﻛﻨﺎري ‪ X‬ﺑﺎﺷﺪ ﻳﻌﻨﻲ ) ‪Q ( A ) = ∫ Pθ (X ∈ A )d Π (θ‬‬ ‫‪a.e .Q ⇒ a.e . P‬‬

‫آﻧﮕﺎه‬

‫)ﺑﻪ ﻋﺒﺎرﺗﻲ ‪ Q (N ) = 0 ⇒ P (N ) = 0‬و ﻳﺎ ‪( P (X ∈ A ) = 0 ⇒ P (X ∈ A | θ ) = 0‬‬ ‫اﺛﺒﺎت‪ :‬ﺑﺮاي ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم از ﻗﻀﻴﻪ‪ 2-2‬ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد ﻛﻪ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺑﺎ ﻣﺨﺎﻃﺮه ﻣﺘﻨﺎﻫﻲ ﺑﺎﻳﺴﺘﻲ‬ ‫در راﺑﻄﻪ‬

‫]‬

‫‪ δ π (X ) = E [γ (θ ) | X‬ﺻﺪق ﻛﻨﺪ ﺑﺠﺰ روي ﻣﺠﻤﻮﻋﻪاي از ﻧﻘﺎط ‪ x‬ﻣﺎﻧﻨﺪ ‪ N‬ﻛﻪ‬

‫‪ Q (N ) = 0‬و اﻳﻦ ﺑﺪان ﻣﻌﻨﻲ اﺳﺖ ﻛﻪ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﻳﻜﺘﺎ اﺳﺖ‪ .‬در ﺣﺎﻟﺖ ﺗﺎﺑﻊ زﻳﺎن اﻛﻴﺪا ﻣﺤﺪب ﻧﻴﺰ‬ ‫ﻧﺘﻴﺠﻪ ﺑﻪ ﺻﻮرت ﻓﻮق اﺳﺖ زﻳﺮا اﻳﻦ ﻧﻮع ﺗﻮاﺑﻊ داراي ﻧﻘﻄﻪ ﻣﻴﻨﻴﻤﻢ ﻳﻜﺘﺎ ﻣﻲﺑﺎﺷﻨﺪ‪.‬‬

‫■‬

‫ﻣﺜﺎل ‪ :9-2‬در ﻣﺜﺎل‪ 8-2‬دﻳﺪﻳﻢ ﻛﻪ ﺗﺤﺖ ﭼﮕﺎﻟﻲ ﭘﻴﺸﻴﻦ ‪ P (θ = 0) + P (θ = 1) = 1‬ﺑﺮآوردﮔﺮ ﺑﻴﺰ‬ ‫ﭘﺎراﻣﺘﺮ ‪ θ‬در ﺧﺎﻧﻮاده ) ‪ B (1,θ‬در ﺷﺮط ‪ δ π (0) = 0‬و ‪ δ π (1) = 1‬ﺻﺪق ﻣﻲﻛﺮد و ﻳﻜﺘﺎ ﻧﺒﻮد‪ .‬ﻋﻠﺖ‬ ‫ﻳﻜﺘﺎ ﻧﺒﻮدن آن ﺑﺮﻗﺮارﻧﺒﻮدن ﺷﺮط)ب(ﻗﻀﻴﻪ ‪ 4-2‬اﺳﺖ زﻳﺮا‬ ‫‪n‬‬

‫‪P (X 1 = 1,… , X n = 1 | θ ) = ∏ θ = θ n ≠ 0‬‬ ‫‪i =1‬‬

‫‪1‬‬

‫) ‪P (X 1 = 1,… , X n = 1) = ∑ P (X 1 = 1,… , X n = 1 | θ = t )P (θ = t‬‬ ‫‪t =0‬‬

‫)‬

‫‪=0× P (θ = 0) + 0× P (θ = 1) = 0‬‬

‫‪n− x‬‬ ‫‪(1 − θ ) ∑ i = 0 if θ = 1‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ‬

‫‪xi‬‬

‫∑ ‪( f (x | θ ) = θ‬‬

‫‪P (X 1 = 1,… , X n = 1) = 0 ⇒ P (X 1 = 1,… , X n = 1 | θ ) = 0‬‬

‫■‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭼﻬﺎرم‪ :‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬

‫‪115‬‬

‫ﻧﻜﺘﻪ ‪ :4‬در ﺑﻌﻀﻲ از ﻣﺴﺎﻳﻞ ﻣﻤﻜﻦ اﺳﺖ ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺑﺮآوردﮔﺮ ﺑﻴﺰ‪ ،‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ﭘﺴﻴﻦ را ﺑﻄﻮر‬ ‫ﻛﺎﻣﻞ ﻣﺤﺎﺳﺒﻪ ﻛﻨﻴﻢ‪ .‬ﺑﻪ ﻣﺜﺎل زﻳﺮ ﺗﻮﺟﻪ ﻛﻨﻴﺪ‪.‬‬ ‫ﻣﺜﺎل‪ :10-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ X‬داراي ﺗﻮزﻳﻊ ) ‪ U (0,θ‬ﺑﺎﺷﺪ و ‪ θ‬داراي ﭼﮕﺎﻟﻲ ﭘﻴﺸﻴﻦ ﺑﺼﻮرت‬ ‫‪⎧⎪θ e −θ θ > 0‬‬ ‫⎨ = ) ‪ π (θ‬ﺑﺎﺷﺪ‪ .‬ﺗﺤﺖ ﻫﺮ ﻳﻚ از ﺗﺎﺑﻊ زﻳﺎنﻫﺎي درﺟﻪ دوم‬ ‫‪O .W .‬‬ ‫‪⎪⎩ 0‬‬

‫و ﻗﺪرﻣﻄﻠﻖ ﺧﻄﺎ‬

‫ﺑﺮآوردﮔﺮﻫﺎي ﺑﻴﺰ را ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬ ‫ﺣﻞ‪:‬‬ ‫) ‪I ( x ,+∞ ) (θ‬‬

‫‪1‬‬

‫‪θ‬‬

‫) ‪π (θ )f (x | θ‬‬

‫‪= c (x )π (θ )f (x | θ ) = c (x )θ e −θ‬‬

‫‪c (x )e −θ d θ = c (x )[−e −θ ]x+∞ = c (x )e − x‬‬

‫) ‪m (x‬‬

‫∞‪+‬‬

‫∫ = ‪1 = ∫ π (θ | x )d θ ⇒ 1‬‬

‫‪x‬‬

‫) ‪∴π (θ | x ) = e − (θ − x ) I ( x , +∞ ) (θ‬‬

‫اﻟﻒ(‬

‫= ) ‪π (θ | x‬‬

‫‪⇒ c (x ) = e x‬‬

‫‪L (θ , δ ) = (δ − θ )2 ⇒ δ π (x ) = E (θ | x ) = x + 1 ⇒ δ π (X ) = X + 1‬‬

‫ب(‬ ‫‪m‬‬ ‫‪m‬‬ ‫‪1‬‬ ‫= ‪L (θ , δ ) =| δ − θ |⇒ ∫ π (θ | x )d θ = 1 ⇒ ∫ e − (θ − x )d θ‬‬ ‫‪2‬‬ ‫‪x‬‬ ‫‪x‬‬ ‫‪2‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫) ‪− ( m −x‬‬ ‫‪⇒ −e − (θ − x ) |m‬‬ ‫‪= ⇒ m − x = log 2 ⇒ m = x + log 2‬‬ ‫‪x = ⇒ 1− e‬‬ ‫‪2‬‬ ‫‪2‬‬

‫‪⇒ δ π (X ) = X + log 2‬‬

‫■‬

‫ﻧﻜﺘﻪ ‪ :5‬اﮔﺮ در ﻣﺴﺌﻠﻪاي ﻳﻚ آﻣﺎره ﺑﺴﻨﺪه ‪ T‬ﻣﻮﺟﻮد ﺑﺎﺷﺪ آﻧﮕﺎه ﺗﻮزﻳﻊ ﭘﺴﻴﻦ ﺑﻪ آﻣﺎره ‪ T‬واﺑﺴﺘﻪ اﺳﺖ و‬ ‫در ﺣﻘﻴﻘﺖ ) ‪ . π (θ | x ) = π (θ | t‬ﺑﺮاي اﺛﺒﺎت اﻳﻦ ﻣﻄﻠﺐ ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ از ﻗﻀﻴﻪ ﺗﺠﺰﻳﻪ ﺑﻪ ﻋﻮاﻣﻞ‬ ‫دارﻳﻢ ﻛﻪ‬ ‫ﭘﺲ‬

‫) ‪L (θ ) = f (x | θ ) = g (t | θ ) h (x‬‬

‫) ‪f ( x | θ )π (θ‬‬ ‫) ‪g (t | θ )π (θ‬‬ ‫=‬ ‫) ‪= π (θ | t‬‬ ‫‪′‬‬ ‫‪′‬‬ ‫‪′‬‬ ‫‪′‬‬ ‫(‬ ‫|‬ ‫‪θ‬‬ ‫)‬ ‫‪π‬‬ ‫(‬ ‫‪θ‬‬ ‫)‬ ‫(‬ ‫|‬ ‫‪θ‬‬ ‫)‬ ‫‪π‬‬ ‫(‬ ‫‪θ‬‬ ‫)‬ ‫‪f‬‬ ‫‪x‬‬ ‫‪d‬‬ ‫‪g‬‬ ‫‪t‬‬ ‫‪d‬‬ ‫∫‬ ‫∫‬

‫= ) ‪π (θ | x‬‬

‫ﻳﻌﻨﻲ ﺗﻮزﻳﻊ ﭘﺴﻴﻦ ) ‪ π (θ | t‬ﺑﺴﺘﮕﻲ ﺑﻪ ‪ x‬از ﻃﺮﻳﻖ ‪ t‬دارد و ﺑﻨﺎﺑﺮاﻳﻦ ﻣﺤﺎﺳﺒﻪ ﺗﻮزﻳﻊ ﭘﺴﻴﻦ ﺑﺮاﺳﺎس ‪x‬‬

‫ﻳﺎ ‪ t‬ﻳﻜﺴﺎن اﺳﺖ‪ .‬ﺑﺮاي ﻣﺜﺎل‪ ،‬در ﻣﺜﺎل‪ 3-2‬دارﻳﻢ ﻛﻪ‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭼﻬﺎرم‪ :‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬

‫) ‪, θ ~ N ( μ ,τ 2‬‬

‫)‬

‫‪θ2 1 n‬‬ ‫‪μ nx‬‬ ‫) ‪( + ) +θ ( 2 + 2‬‬ ‫‪2 τ2 σ2‬‬ ‫‪τ σ‬‬

‫‪σ2‬‬

‫‪−‬‬

‫‪n‬‬

‫‪,T = X ~ N (θ ,‬‬

‫‪∝e‬‬

‫‪(θ − μ )2‬‬

‫‪1‬‬ ‫‪2‬‬

‫‪2τ‬‬

‫‪( x −θ )2 −‬‬

‫‪e‬‬

‫‪116‬‬

‫) ‪X 1,… , X n i .i .d N ( μ ,σ 2‬‬

‫‪n‬‬ ‫‪2‬‬

‫‪2σ‬‬

‫‪−‬‬

‫‪π (θ | t ) ∝ f (t | θ )π (θ ) ∝ e‬‬

‫ﻛﻪ ﻫﻤﺎن ﺗﺎﺑﻊ ﺑﻪ دﺳﺖ آﻣﺪه در ﻣﺜﺎل‪ 3-2‬اﺳﺖ ﺑﻨﺎﺑﺮاﻳﻦ‬

‫■‬

‫‪⎛ ⎛σ2 ⎞ 2‬‬ ‫⎞‬ ‫‪⎜ μ ⎜ ⎟ +τ x‬‬ ‫⎟‬ ‫⎠ ‪n‬‬ ‫‪1‬‬ ‫⎜‬ ‫⎟‬ ‫⎝‬ ‫‪,‬‬ ‫⎜ ‪θ |T = t ~ N‬‬ ‫‪2‬‬ ‫‪n‬‬ ‫⎟ ‪1‬‬ ‫‪σ‬‬ ‫‪+‬‬ ‫⎜‬ ‫⎟‬ ‫‪+τ 2‬‬ ‫⎟ ‪σ2 τ2‬‬ ‫⎜‬ ‫‪n‬‬ ‫⎝‬ ‫⎠‬

‫ﺗﻮزﻳﻊﻫﺎي ﭘﻴﺸﻴﻦ ﻧﺎآﮔﺎﻫﻲ ﺑﺨﺶ ‪: 1‬‬ ‫ﻫﻤﺎﻧﮕﻮﻧﻪ ﻛﻪ ﻗﺒﻼ ﮔﻔﺘﻪ ﺷﺪ‪ ،‬ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ) ‪ π (θ‬ﺑﺮاﺳﺎس اﻋﺘﻘﺎدات و ﺗﺠﺮﺑﻴﺎت ﻗﺒﻠﻲ ﭘﮋوﻫﺸﮕﺮ ﺗﺸﻜﻴﻞ‬ ‫ﻣﻲﮔﺮدد‪ .‬ﺣﺎل اﮔﺮ ﻫﻴﭻ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻨﻲ در دﺳﺘﺮس ﻧﺒﺎﺷﺪ‪ ،‬ﻣﻲﺗﻮان از ﺗﻮزﻳﻊﻫﺎي ﭘﻴﺸﻦ ﻧﺎآﮔﺎﻫﻲ ﺑﺨﺶ‬ ‫‪1‬‬ ‫اﺳﺘﻔﺎده ﻛﺮد‪ .‬ﺑﺮاي ﻣﺜﺎل اﮔﺮ در ﻳﻚ ﻣﺴﺌﻠﻪ آزﻣﻮن ﻓﺮض ﺳﺎده در ﻣﻘﺎﺑﻞ ﺳﺎده اﺣﺘﻤﺎﻻت ﻳﻜﺴﺎن‬ ‫‪2‬‬

‫را ﺑﻪ‬

‫ﻓﺮض ﺻﻔﺮ و ﻣﻘﺎﺑﻞ ﻧﺴﺒﺖ دﻫﻴﻢ آﻧﮕﺎه اﻳﻦ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ‪ ،‬ﻧﺎآﮔﺎﻫﻲ ﺑﺨﺶ اﺳﺖ‪.‬‬ ‫ﻳﻜﻲ از روشﻫﺎي ﺑﺪﺳﺖ آوردن ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﻧﺎآﮔﺎﻫﻲ ﺑﺨﺶ ﺗﻮﺳﻂ ﺟﻔﺮﻳﺰ ‪ (1961) 2‬اراﻳﻪ ﺷﺪه اﺳﺖ‪،‬‬ ‫ﻛﻪ در اﻳﻦ روش ﭼﮕﺎﻟﻲ ﭘﻴﺸﻴﻦ را ﺑﻪ ﺻﻮرت | ) ‪ π (θ ) ∝ | I (θ‬در ﻧﻈﺮ ﻣﻲﮔﻴﺮد ﻛﻪ در آن | ) ‪| I (θ‬‬

‫دﺗﺮﻣﻴﻨﺎن ﻣﺎﺗﺮﻳﺲ اﻃﻼع ﻓﻴﺸﺮ ﻣﻲﺑﺎﺷﺪ‪.‬‬ ‫ﻣﺜﺎل ‪ :11-2‬اﮔﺮ )‪ X ~ N (θ ,1‬آﻧﮕﺎه ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺟﻔﺮﻳﺰ را ﺑﺮاي ‪ θ‬ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬ ‫‪1‬‬

‫) ‪1 − 2( x −θ‬‬ ‫= ) ‪f (x | θ‬‬ ‫‪e‬‬ ‫∞‪⇒ I (θ ) = 1 ⇒ π (θ ) = 1 − ∞ < θ < +‬‬ ‫‪2π‬‬ ‫‪2‬‬

‫■‬

‫ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺑﻪ دﺳﺖ آﻣﺪه در ﻣﺜﺎل ‪ 11-2‬ﻳﻚ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ﻧﻴﺴﺖ‪ .‬اﮔﺮ در ﻣﺴﺌﻠﻪاي‬ ‫اﻧﺪازه ﭘﻴﺸﻴﻦ در ﺷﺮط ∞ = ) ‪ ∫ d Π (θ‬ﺻﺪق ﻛﻨﺪ آﻧﮕﺎه ﭘﻴﺸﻴﻦ ﺣﺎﺻﻞ را ﻧﺎﺳ‪‬ﺮه ‪ 3‬ﮔﻮﻳﻨﺪ و ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ‬ ‫‪١‬‬

‫‪Noninformative Priors‬‬ ‫‪Jeffreys‬‬ ‫‪٣‬‬ ‫‪Improper Prior‬‬ ‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭼﻬﺎرم‪ :‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬

‫‪117‬‬

‫ﻛﻪ در ﺷﺮط ‪ ∫ d Π (θ ) = 1‬ﺻﺪق ﻛﻨﺪ را ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺳ‪‬ﺮه ‪ 1‬ﮔﻮﻳﻨﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺑﺪﺳﺖ آﻣﺪه‬ ‫در ﻣﺜﺎل ‪ 11-2‬ﻧﺎﺳﺮه اﺳﺖ‪.‬‬ ‫ﺑﺎﻳﺴﺘﻲ ﺗﻮﺟﻪ ﻛﺮد ﻛﻪ اﮔﺮ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻨﻲ ﻧﺎﺳﺮه ﺑﺎﺷﺪ آﻧﮕﺎه ﻣﻤﻜﻦ اﺳﺖ ﻣﺨﺎﻃﺮه ﺑﺮاﺳﺎس اﻳﻦ ﺗﻮزﻳﻊ‬ ‫ﭘﻴﺸﻴﻦ ﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ و ﺑﺮآوردﮔﺮ ﺑﻴﺰ آن ﻗﺎﺑﻞ ﻣﺤﺎﺳﺒﻪ ﺑﺎﺷﺪ‪ .‬ﺑﺮاي ﻣﺜﺎل‪ ،‬در ﻣﺜﺎل ‪ 11-2‬دارﻳﻢ ﻛﻪ‬ ‫‪2‬‬

‫‪1‬‬

‫) ‪1 − 2 ( x −θ‬‬ ‫‪e‬‬ ‫‪2π‬‬

‫= ) ‪π (θ | x ) ∝ f ( x | θ )π (θ ) = f ( x | θ‬‬

‫ﭘﺲ ﺗﻮزﻳﻊ ﭘﺴﻴﻦ ﺳﺮه اﺳﺖ و )‪ θ | x ~ N ( x ,1‬در ﻧﺘﻴﺠﻪ ‪ . δ π (X ) = E (θ | X ) = X‬ﺑﺮآوردﮔﺮ‬ ‫ﺑﻴﺰ ﺣﺎﺻﻞ را ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ ﮔﻮﻳﻨﺪ‪.‬‬ ‫ﺗﻌﺮﻳﻒ‪ :2-2‬ﻳﻚ ﺑﺮآوردﮔﺮ ) ‪ δGπ (x‬را ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ ‪ 2‬ﻧﺴﺒﺖ ﺑﻪ اﻧﺪازه ) ‪ π (θ‬ﮔﻮﻳﻨﺪ اﮔﺮ‬ ‫ﻣﺨﺎﻃﺮه ﭘﺴﻴﻦ ⎦⎤ ‪ E ⎡⎣ L (θ , δ (x ) ) | X = x‬در ‪ δ = δGπ‬ﺑﺮاي ﻫﺮ ‪ x‬ﻣﻴﻨﻴﻤﻢ ﺷﻮد‪■ .‬‬ ‫ﻣﺜﺎل ‪ :12-2‬در ﻣﺜﺎل ‪ 2-2‬ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺟﻔﺮﻳﺰ را ﺑﺪﺳﺖ آورده وﺳﭙﺲ ﺑﺮاﺳﺎس ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ‬ ‫‪1‬‬ ‫) ‪θ (1 − θ‬‬

‫= ) ‪ ، π (θ‬ﺑﺮآوردﮔﺮ ﺑﻴﺰ)ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ( ‪ θ‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم را ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬

‫ﺣﻞ‪:‬‬ ‫‪n‬‬ ‫) ‪θ (1 − θ‬‬

‫= ) ‪f P (x ) = θ x (1 − θ )1− x ⇒ I (θ‬‬

‫ﺗﻮزﻳﻊ ﺳﺮه اﺳﺖ‬

‫‪1‬‬ ‫‪θ (1 − θ )1 2‬‬ ‫‪12‬‬

‫‪1‬‬ ‫ﺑﺮاﺳﺎس ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﻧﺎﺳﺮه‬ ‫) ‪θ (1 − θ‬‬ ‫‪0< θ <1‬‬

‫‪i = 1, 2,..., n‬‬

‫) ‪X i ~ B (1,θ‬‬

‫∝ ) ‪π (θ ) ∝ | I (θ ) | ⇒ Π (θ‬‬

‫= ) ‪ π (θ‬دارﻳﻢ‬

‫‪1‬‬ ‫‪= θ nx −1 (1 − θ ) n − nx −1‬‬ ‫) ‪θ (1 − θ‬‬

‫‪π (θ | x ) ∝ θ nx (1 − θ ) n − nx‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ اﮔﺮ ‪ x ≠ 0‬ﻳﺎ ‪ x ≠ 1‬آﻧﮕﺎه ﺗﻮزﻳﻊ ﭘﺴﻴﻦ ﺳﺮه اﺳﺖ و‬ ‫ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ ‪ θ‬ﻋﺒﺎرت اﺳﺖ از‬

‫‪nx‬‬ ‫‪=x‬‬ ‫‪n‬‬

‫)‬

‫‪ θ | x ~ Be ( nx , n − nx‬و‬

‫= ) ‪δGπ (x ) = E (θ | x‬‬

‫‪Proper‬‬

‫‪١‬‬

‫‪Generalized Bayes‬‬

‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭼﻬﺎرم‪ :‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬

‫‪118‬‬

‫ﺣﺎل اﮔﺮ ‪ x = 0‬ﺑﺎﺷﺪ آﻧﮕﺎه ﻃﺒﻖ ﻗﻀﻴﻪ ‪ 1-2‬ﺑﺮآوردﮔﺮ ﺑﻴﺰ آن ﻣﻘﺪاري از ‪ a‬اﺳﺖ ﻛﻪ اﻧﺘﮕﺮال زﻳﺮ را‬ ‫‪1‬‬

‫ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ‬

‫‪E [(θ − a )2 | x ] = c (x ) ∫ (θ − a )2θ −1(1 − θ ) n −1d θ‬‬ ‫‪0‬‬

‫اﻧﺘﮕﺮال ﻓﻮق در ﺻﻮرﺗﻲ ﻫﻤﮕﺮا اﺳﺖ ﻛﻪ ‪ a = 0‬ﺑﺎﺷﺪ)ﺑﺨﺎﻃﺮ وﺟﻮد ‪ ( θ −1‬ﭘﺲ در اﻳﻦ ﺣﺎﻟﺖ ﺑﺮآورد ﺑﻴﺰ‬ ‫ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ ﻋﺒﺎرت اﺳﺖ از ‪ . δGπ ( x ) = a = 0 = x‬ﺑﻪ ﻫﻤﻴﻦ ﺗﺮﺗﻴﺐ ﺑﺮاي ‪ x = 1‬ﻣﻲﺗﻮان ﻧﺸﺎن داد ﻛﻪ‬ ‫ﺑﺮآورد ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ ﻋﺒﺎرت اﺳﺖ از ‪ . δGπ ( x ) = a = 1 = x‬ﺑﻨﺎﺑﺮاﻳﻦ در ﻫﺮ ﺣﺎﻟﺖ ﺑﺮآورد ﺑﻴﺰ ﺗﻌﻤﻴﻢ‬ ‫ﻳﺎﻓﺘﻪ ﺑﺮاﺑﺮ ‪ δGπ (x ) = x‬اﺳﺖ‪.‬‬ ‫ﻫﻤﭽﻨﻴﻦ ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ در ﻣﺜﺎل‪ 2-2‬ﺗﺤﺖ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺳﺮه ) ‪ Be (α , β‬ﺑﺮآورد ﺑﻴﺰ ‪ θ‬ﻋﺒﺎرت ﺑﻮد از‬ ‫‪α + nx‬‬ ‫‪α +β +n‬‬

‫= ) ‪δ π (x‬‬

‫ﺣﺎل اﮔﺮ ‪ α → 0‬و‪ β → 0‬آﻧﮕﺎه ‪ δ π (x ) → x‬ﻳﻌﻨﻲ ) ‪ δ π (x‬ﺑﻪ ﺳﻤﺖ ﺑﺮآورد ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ ‪ θ‬ﺗﺤﺖ‬ ‫ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺟﻔﺮﻳﺰ ﻣﻴﻞ ﻣﻲﻛﻨﺪ‪.‬‬

‫■‬

‫ﺗﻌﺮﻳﻒ‪ :3-2‬ﻳﻚ ﺑﺮآوردﮔﺮ ) ‪ δ L (x‬را ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺣﺪي ‪ 1‬ﮔﻮﻳﻨﺪ اﮔﺮ دﻧﺒﺎﻟﻪاي از ﺗﻮزﻳﻊﻫﺎي‬ ‫ﭘﻴﺸﻴﻦ ‪ π m‬و ﺑﺮآوردﮔﺮﻫﺎي ﺑﻴﺰ ) ‪ δ π m (X‬ﻣﻮﺟﻮد ﺑﺎﺷﺪ ﺑﻄﻮري ﻛﻪ‬ ‫∞ → ‪δ π m (x ) → δ (x ) (a.e .) as m‬‬

‫■‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ ‪ δ L (X ) = X‬در ﺗﻮزﻳﻊ ) ‪ B (1,θ‬ﻳﻚ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺣﺪي ﺑﺮاي ‪ θ‬اﺳﺖ‪.‬‬ ‫ﻣﺜﺎل ‪ :13-2‬اﮔﺮ ‪ X 1, X 2 ,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪ N (θ ,σ 2‬ﺑﺎﺷﻨﺪ ﻛﻪ ‪ σ 2‬ﻣﻌﻠﻮم اﺳﺖ‪ ،‬آﻧﮕﺎه‬ ‫ﺗﺤﺖ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﻧﺎﺳ‪‬ﺮه ‪) π (θ ) =1‬ﺟﻔﺮﻳﺰ( ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ ‪ θ‬ﺑﺮاﺑﺮ ‪ δGπ ( x ) = x‬اﺳﺖ و‬

‫ﺗﺤﺖ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺳﺮه ) ‪ N ( μ ,τ 2‬ﺑﺮآوردﮔﺮ ﺑﻴﺰ‬

‫‪⎛σ2 ⎞ 2‬‬ ‫‪μ ⎜ ⎟ +τ x‬‬ ‫‪n‬‬ ‫‪π‬‬ ‫⎠ ‪ δ (x ) = ⎝ 2‬اﺳﺖ و در ﻧﺘﻴﺠﻪ‬ ‫‪σ‬‬ ‫‪+τ 2‬‬ ‫‪n‬‬

‫ﺑﺮآوردﮔﺮ ‪ δ L (x ) = x‬ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺣﺪي ‪ θ‬ﻣﻮﻗﻌﻲ ﻛﻪ ∞ → ‪ τ‬ﻣﻲﺑﺎﺷﺪ‪.‬‬

‫■‬

‫‪Limit of Bayes Estimator‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭼﻬﺎرم‪ :‬ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬

‫‪119‬‬

‫ﺗﻮﺟﻪ‪ :‬از دﻳﺪﮔﺎه ﺑﻴﺰ‪ ،‬ﺑﺮآوردﮔﺮﻫﺎي ﺑﻴﺰ ﺣﺪي ﻣﻄﻠﻮﺑﺘﺮ از ﺑﺮآوردﮔﺮﻫﺎي ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ ﻫﺴﺘﻨﺪ‪ .‬زﻳﺮا ﺣﺪ‬ ‫دﻧﺒﺎﻟﻪﻫﺎي ﺑﻴﺰ ﺑﺎﻳﺴﺘﻲ ﺑﻪ ﻳﻚ ﺑﺮآوردﮔﺮ ﺑﻴﺰ )ﺳﺮه( ﻧﺰدﻳﻚ ﺑﺎﺷﺪ‪ ،‬اﻣﺎ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ ﻣﻤﻜﻦ اﺳﺖ‬ ‫ﺑﻪ ﻫﻴﭻ ﺑﺮاوردﮔﺮ ﺑﻴﺰي )ﺳﺮه( ﻧﺰدﻳﻚ ﻧﺒﺎﺷﺪ )ﻣﺴﺌﻠﻪ ‪ 15-2‬را ﺑﺒﻴﻨﻴﺪ(‪.‬‬ ‫ﻣﺜﺎل ‪ :14-2‬ﻓﺮض ﻛﻨﻴﺪ ) ‪ X ~ N ( μ ,σ 2‬ﻛﻪ ‪ μ‬و ‪ σ 2‬ﻧﺎﻣﻌﻠﻮم ﻫﺴﺘﻨﺪ‪ .‬ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺟﻔﺮﻳﺰ را‬ ‫ﺑﺮاي ) ‪ θ = ( μ ,σ‬ﺑﻪ دﺳﺖ آورﻳﺪ‪.‬‬ ‫‪⎡ ∂2‬‬ ‫⎤‬ ‫⎢ ‪I ij (θ ) = −E θ‬‬ ‫⎥ ) ‪logf (x | θ‬‬ ‫‪⎢⎣ ∂θi ∂θ j‬‬ ‫⎦⎥‬ ‫‪(X − μ )2‬‬ ‫‪1‬‬ ‫‪logf (x | θ ) = − log(2π ) − log σ −‬‬ ‫‪2‬‬ ‫‪2σ 2‬‬ ‫) ‪2( μ − X‬‬

‫‪1‬‬ ‫⎡‬ ‫‪⎢ −σ2‬‬ ‫⎢ ‪I (θ ) = − E θ‬‬ ‫) ‪⎢ 2( μ − X‬‬ ‫⎢‬ ‫‪⎣ σ3‬‬

‫‪⎤ ⎡ 1‬‬ ‫⎤‬ ‫⎥‪0‬‬ ‫⎥‬ ‫‪2‬‬ ‫⎢‬ ‫‪σ‬‬ ‫‪⎥ = ⎢σ‬‬ ‫⎥‬ ‫‪2‬‬ ‫⎥ ‪2‬‬ ‫⎢ ⎥ ) ‪1 3( X − μ‬‬ ‫‪− 2−‬‬ ‫⎦⎥ ‪⎥ ⎢⎣0 σ 2‬‬ ‫‪4‬‬ ‫‪σ‬‬ ‫‪σ‬‬ ‫⎦‬ ‫‪3‬‬

‫‪1‬‬

‫‪σ2‬‬

‫ﻛﻪ ﺗﻮزﻳﻌﻲ ﻧﺎﺳﺮه اﺳﺖ‪.‬‬

‫∝ ) ‪⇒ π (θ‬‬

‫‪2‬‬

‫‪σ2‬‬

‫‪1‬‬ ‫= ‪|2‬‬

‫‪2‬‬

‫‪σ4‬‬

‫‪1‬‬ ‫|= ‪(θ ) |2‬‬

‫‪π (θ ) ∝| I‬‬

‫■‬

‫ﻣﺜﺎل ‪ :15-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪ N (0, σ 2‬ﺑﺎﺷﻨﺪ ‪ .‬ﺑﺮآوردﮔﺮ ﺑﻴﺰ ‪σ 2‬‬

‫را ﺑﺮاﺳﺎس ﺗﻮاﺑﻊ زﻳﺎن‬

‫‪(δ − σ 2 )2‬‬

‫‪σ4‬‬

‫= ) ‪ A ) L (σ , δ ) = (δ − σ ) B ) L (σ , δ‬ﺑﺪﺳﺖ آورﻳﺪ‪ .‬اﮔﺮ‬ ‫‪2‬‬

‫‪2‬‬

‫‪2‬‬

‫ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺟﻔﺮﻳﺰ را ﺑﻜﺎر ﺑﺒﺮﻳﻢ‪ ،‬ﺑﺮآوردﮔﺮ ﺑﻴﺰ ‪ σ 2‬را ﺗﺤﺖ ﺗﻮاﺑﻊ زﻳﺎن ﻓﻮق ﺑﻪ دﺳﺖ آورﻳﺪ‪.‬‬ ‫ﺣﻞ‪:‬‬ ‫‪n‬‬ ‫‪2 e −τ y‬‬

‫اﻟﻒ‪-‬‬ ‫ﻛﻪ در آن‬

‫‪1‬‬ ‫‪2σ 2‬‬

‫‪n‬‬

‫= ‪ τ‬و ‪ y = ∑ x i2‬ﻗﺮار ﻣﻲدﻫﻴﻢ‬ ‫‪i =1‬‬

‫‪n‬‬

‫‪+‬‬

‫‪= cτ‬‬

‫‪n − 1 ∑ x i2‬‬ ‫‪2‬‬ ‫‪2 e 2σ i =1‬‬

‫‪−‬‬

‫) ‪f (x | σ ) = (2πσ‬‬ ‫‪2‬‬

‫‪1‬‬ ‫) ‪= τ ~ Γ( g ,‬‬

‫‪α‬‬

‫‪2‬‬

‫‪1‬‬ ‫‪2σ 2‬‬

www.riazisara.ir

120

E(

1

τ

)= 2

‫ ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬:‫ﻓﺼﻞ ﭼﻬﺎرم‬

α2

g ( g + 1) 1 α g ‫ و‬E( )= ، E (τ 2 ) = ، E ( τ ) = ( g − 1)( g − 2) g −1 α τ α2

π (τ | x ) ∝ τ

n 2 e −τ y τ g −1e −ατ

⇒ τ | x ~ Γ( g +

n g + −1 = τ 2 e − (α + y )τ

‫ﭘﺲ‬ ‫ﺑﻨﺎﺑﺮاﻳﻦ‬

n 1 ) , 2 α+y

A ) ⇒ δ π (x ) = E (σ 2 | x ) = E (

1

1 1 α+y α+y = |x)= 2τ 2 g + n − 1 n + 2g − 2 2

n ( g + ) (α + y ) 2 1 ( τ | ) E x 2 σ = = B ) ⇒ δ π (x ) = 2 1 E (4τ | x ) 2 ( g + n )( g + n + 1) (α + y )2 E( 4 |x) 2 2 σ E (σ 2

=

4

|x)

α+y n + 2g − 2

⎡ ∂2 n ⎤ I (τ ) = − E ⎢ 2 ( ln τ − τ y ) ⎥ = −E ⎣ ∂τ 2 ⎦

π (τ ) ∝ | I (τ ) | ∝

1

τ



π (τ ) =

⎡ n ⎤ n ⎢⎣ − 2τ 2 ⎥⎦ = 2τ 2

1

τ

-‫ب‬

τ >0

.‫ﻛﻪ ﻳﻚ ﭘﻴﺸﻴﻦ ﻧﺎﺳﺮه اﺳﺖ‬ n −1 2 e −τ y

n 1 ⇒τ | x ~ Γ ( , ) 2 y y 1 1 y A ) ⇒ δGπ (x ) = E (σ 2 | x ) = E ( | x ) = = 2τ 2 n −1 n − 2 2 1 E (σ 2 4 | x ) y E (2τ | x ) 1 (n 2) / y σ = = = B ) ⇒ δGπ (x ) = 2 1 E (4τ | x ) 2 ( n )( n + 1) / y 2 n + 2 E( 4 |x) 2 2 σ

π (τ | x ) ∝ τ

‫ و‬α →0 ‫ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ ﺑﺮآوردﮔﺮﻫﺎي ﺑﻴﺰ ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ در اﻳﻦ ﺣﺎﻟﺖ ﻫﻤﺎن ﺑﺮاوردﮔﺮﻫﺎي ﺑﻴﺰ ﺣﺪي ﺑﺎ‬ ■

.‫ ﻣﻲ ﺑﺎﺷﻨﺪ‬g →0

121

www.riazisara.ir

‫ ﺗﺼﻤﻴﻢ ﺑﻴﺰي‬:‫ﻓﺼﻞ ﭼﻬﺎرم‬

‫ و‬θ ‫ ﺑﺎﺷﻨﺪ ﻛﻪ در آن‬N (θ ,σ 2 ) ‫ ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از‬X 1, X 2 ,… , X n ‫ ﻓﺮض ﻛﻨﻴﺪ‬:16-2 ‫ﻣﺜﺎل‬ ‫ را ﺗﺤﺖ‬σ 2 ‫ ﺑﺮآوردﮔﺮ ﺑﻴﺰ‬، π (θ ) = 1;θ ∈ R ‫ و‬τ =

1 2σ

2

~ Γ(α , g ) ‫ اﮔﺮ‬.‫ ﻫﺮ دو ﻧﺎﻣﻌﻠﻮم ﻫﺴﺘﻨﺪ‬σ 2

.‫ را ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﻪ دﺳﺖ آورﻳﺪ‬θ ‫ ﻣﺜﺎل ﻗﺒﻞ و ﺑﺮآوردﮔﺮ ﺑﻴﺰ‬B ‫ و‬A ‫ﺗﻮاﺑﻊ زﻳﺎن‬

f (x | θ ,σ ) = 2

n n − 1 ∑ ( x i −θ )2 − 2 (2πσ 2 ) 2 e i =1

∝τ

n −τ ⎡ ( x − x )2 + n ( x −θ )2 ⎤ ⎦ 2 e ⎣∑ i

:‫ﺣﻞ‬ n

‫ آﻧﮕﺎه‬Z = ∑ (x i − x )2 ‫اﮔﺮ‬

π (θ ,τ ) ∝ τ g −1e −ατ

i =1

∴π (θ ,τ | x ) ∝ τ

n 2 2 e −τ ( Z + n ( x −θ ) )τ g −1e −ατ

⇒ π (θ ,τ | x ) = C τ

π (τ | x ) = ∫

+∞

−∞



n + g −1 −τ ⎡α + Z + n ( x −θ )2 ⎤ ⎦ 2 e ⎣

n + g −1 −τ ⎡α + Z + n ( x −θ )2 ⎤ ⎦ 2 e ⎣ *

π (θ ,τ | x )d θ = C τ

n −1 + g −1 2 e −τ (α + Z )

1 ⎞ ⎛ n −1 ⇒τ | x ~ Γ⎜ + g, α + Z ⎠⎟ ⎝ 2

α +Z ⎛ 1 ⎞ 1 α +Z = (A ) ⇒ δGπ (x ) = E ⎡⎣σ 2 | x ⎤⎦ = E ⎜ | x ⎟ = ⎝ 2τ ⎠ 2 n − 1 + g − 1 n + 2g − 3 2 ⎛ n −1 ⎞ + g ⎟ (α + Z ) ⎜ E (2τ | x ) 1 α +Z ⎝ 2 ⎠ (B ) ⇒ δGπ (x ) = = = E (4τ 2 | x ) 2 ⎛ n − 1 + g ⎞⎛ n − 1 + g + 1⎞ (α + Z )2 n + 2g + 1 ⎜ ⎟⎜ ⎟ ⎝ 2 ⎠⎝ 2 ⎠

π (θ | x ) = ∫

+∞

0



⎛n ⎞ Γ⎜ + g ⎟ ⎝2 ⎠

π (θ ,τ | x )d τ = C

n 2 ⎤ 2 +g

⎡α + Z + n (x − θ ) ⎣ ⎦

δGπ (x ) = E (θ | x ) = x

‫ ﻣﺘﻘﺎرن اﺳﺖ ﭘﺲ‬x ‫اﻳﻦ ﺗﻮزﻳﻊ ﺣﻮل‬

‫‪١٢٢‬‬

‫داﻧﻠﻮد از ﺳﺎﻳﺖ رﻳﺎﺿﻲ ﺳﺮا‬

‫‪www.riazisara.ir‬‬

‫ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن‬ ‫و ﻣﺠﺎز ﺑﻮدن‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫ﺑﺨﺶ ‪:1‬ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ‬

‫‪123‬‬

‫‪1‬‬

‫در ﻓﺼﻞ ﻗﺒﻞ ﺗﺼﻤﻴﻢ ﺑﻴﺰ را از ﻃﺮﻳﻖ ﻣﻴﻨﻴﻤﻢ ﻛﺮدن ﻣﺨﺎﻃﺮه ﺑﻴﺰ )ﻛﻪ ﻫﻤﺎن ﻣﻴﺎﻧﮕﻴﻦ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﻧﺴﺒﺖ ﺑﻪ‬ ‫ﻳﻚ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ‪ θ‬ﻳﻌﻨﻲ ) ‪ ∫ R (θ , δ )d Π (θ‬ﺑﻮد( ﺑﺪﺳﺖ آوردﻳﻢ‪.‬‬ ‫‪Θ‬‬

‫ﻣﺰﻳﺘﻲ ﻛﻪ روش ﺑﻴﺰ داﺷﺖ اﻳﻦ ﺑﻮد ﻛﻪ اﻃﻼﻋﺎت ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه در ﻳﻚ ﻋﺪد)ﻣﺨﺎﻃﺮه ﺑﻴﺰ( ﺧﻼﺻﻪ ﻣﻲﺷﺪ و‬ ‫دو ﺗﺼﻤﻴﻢ ﺑﻮﺳﻴﻠﻪ ﻣﻘﺎﻳﺴﻪ اﻳﻦ ﻣﺨﺎﻃﺮه ﺑﻴﺰﺷﺎن ﺑﺎ ﻳﻜﺪﻳﮕﺮ ﻣﻘﺎﻳﺴﻪ ﻣﻲﺷﺪﻧﺪ‪ .‬در اﻳﻦ ﻓﺼﻞ روش دﻳﮕﺮي‬ ‫ﺑﺮاي ﺑﺪﺳﺖ آوردن ﻳﻚ ﺗﺼﻤﻴﻢ ﺑﻬﻴﻨﻪ در ﻧﻈﺮ ﻣﻲﮔﻴﺮﻳﻢ ﻛﻪ در اﻳﻦ روش آن ﺗﺼﻤﻴﻤﻲ را اﻧﺘﺨﺎب ﻣﻲﻛﻨﻴﻢ‬ ‫ﻛﻪ ﻣﺎﻛﺴﻴﻤﻢ )ﺳﻮﭘﺮﻳﻤﻢ( ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﻧﺴﺒﺖ ﺑﻪ ﻛﻠﻴﻪ ﻣﻘﺎدﻳﺮ ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ‪ Θ‬را در ﺑﻴﻦ ﻛﻠﻴﻪ ﺗﻮاﺑﻊ‬ ‫ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ‪.‬‬ ‫ﺗﻌﺮﻳﻒ ‪ :1-1‬ﻓﺮض ﻛﻨﻴﺪ ﻛﻪ ‪ D‬ﻣﺠﻤﻮﻋﻪ ﻛﻠﻴﻪ ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ و ) ‪ R (θ , δ‬ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﺑﺎﺷﺪ‪ .‬ﺗﺼﻤﻴﻢ‬ ‫‪ δ m ∈ D‬را ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ ﮔﻮﻳﻨﺪ ﻫﺮﮔﺎه ﺑﺮاي ﻫﺮ ‪ δ ∈ D‬داﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ‬ ‫) ‪Sup R (θ , δ m ) ≤ Sup R (θ , δ‬‬ ‫‪θ ∈Θ‬‬

‫‪θ ∈Θ‬‬

‫و ﻳﺎ ﺑﻪ ﻋﺒﺎرﺗﻲ ‪ δ m ∈ D‬را ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ ﮔﻮﻳﻨﺪ ﻫﺮﮔﺎه‬

‫)‬ ‫ﺑﻪ ﺷﻜﻞﻫﺎي زﻳﺮ ﺗﻮﺟﻪ ﻛﻨﻴﺪ‪.‬‬

‫) ‪Sup R (θ , δ m ) = inf Sup R (θ , δ‬‬ ‫‪θ ∈Θ‬‬ ‫‪δ ∈ D θ ∈Θ‬‬ ‫) ‪= min max R (θ , δ‬‬ ‫‪θ ∈Θ‬‬ ‫‪δ ∈D‬‬

‫‪ δ 2‬و ‪ δ 3‬ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‬

‫)‪m‬‬

‫‪( max R (θ ,δ‬‬ ‫‪θ ∈Θ‬‬

‫‪ δ 3‬ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‬ ‫‪Minimax Decision‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪124‬‬

‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺷﻜﻞﻫﺎي ﺑﺎﻻ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻣﻤﻜﻦ اﺳﺖ ﻳﻜﺘﺎ ﻧﺒﺎﺷﺪ‪ .‬ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ آن ﺗﺼﻤﻴﻤﻲ‬ ‫اﺳﺖ ﻛﻪ در ﺑﺪﺗﺮﻳﻦ ﺣﺎﻟﺖ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ) ‪ R (θ , δ‬ﻧﺴﺒﺖ ﺑﻪ ‪ ، θ‬ﺑﻬﺘﺮﻳﻦ ﺣﺎﻟﺖ را اﻧﺘﺨﺎب ﻣﻲﻛﻨﺪ و در‬ ‫ﺣﻘﻴﻘﺖ ﻳﻚ ﺣﺎﻟﺖ ﻣﺤﺎﻓﻈﻪ ﻛﺎراﻧﻪ را ﺑﺮاي اﻧﺘﺨﺎب ﺑﻬﺘﺮﻳﻦ ﺗﺼﻤﻴﻢ در ﭘﻴﺶ ﻣﻲﮔﻴﺮد‪ .‬ﺑﺎ اﻳﻦ وﺟﻮد در‬ ‫ﺑﻴﺸﺘﺮ ﻣﻮارد ﺗﺼﻤﻴﻢﻫﺎي ﻣﻌﻘﻮﻻﻧﻪاي را ﺑﺪﺳﺖ ﻣﻲدﻫﺪ‪ .‬ﻣﺜﻼ در ﺑﻌﻀﻲ از ﻣﺴﺎﺋﻞ ﺑﺮآورد ﻧﻘﻄﻪاي ﺑﺮآورد‬ ‫ﻣﻴﻨﻴﻤﺎﻛﺲ ﻫﻤﺎن ﺑﺮآورد ﭘﺎﻳﺎ و ‪ UMVU‬ﻧﻴﺰ ﻣﻲﺑﺎﺷﺪ‪.‬‬ ‫ﺗﺼﻤﻴﻢﻫﺎي ﻣﻴﻨﻴﻤﺎﻛﺲ واﺑﺴﺘﮕﻲ زﻳﺎدي ﺑﻪ ﺗﺼﻤﻴﻢﻫﺎي ﺑﻴﺰ دارﻧﺪ‪ .‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮﺳﻴﻠﻪ ﻣﻴﻨﻴﻤﻢ‬ ‫ﻛﺮدن‪ ،‬ﻣﺎﻛﺴﻴﻤﻢ ﻣﺨﺎﻃﺮه ﻣﻲﺧﻮاﻫﺪ ﺑﻬﺘﺮﻳﻦ ﺗﺼﻤﻴﻢ را در ﺑﺪﺗﺮﻳﻦ ﺣﺎﻟﺖ اﻧﺘﺨﺎب ﻛﻨﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ اﻧﺘﻈﺎر‬ ‫ﻣﻲرود ﻛﻪ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻫﻤﺎن ﺗﺼﻤﻴﻢ ﺑﻴﺰ ﺑﺎ ﺑﺪﺗﺮﻳﻦ ﺣﺎﻟﺖ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺑﺎﺷﺪ‪ .‬ﭼﻨﻴﻦ ﺗﻮزﻳﻌﻲ را‬ ‫ﻧﺎﻣﺴﺎﻋﺪﺗﺮﻳﻦ ﺗﻮزﻳﻊ ‪ 1‬ﮔﻮﻳﻨﺪ‪ .‬ﺑﻪ ﻋﺒﺎرت دﻗﻴﻘﺘﺮ اﻳﻨﻜﻪ اﮔﺮ ‪ π‬ﻳﻚ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ و ‪ δ π‬ﺗﺼﻤﻴﻢ ﺑﻴﺰ ﻧﺴﺒﺖ ﺑﻪ‬ ‫اﻳﻦ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ و ) ‪ r (π , δ π‬ﻣﺨﺎﻃﺮه ﺑﻴﺰ آن ﺑﺎﺷﺪ‪ ،‬در اﻳﻦ ﺻﻮرت ﺗﻮزﻳﻊ ‪ π‬را ﻧﺎﻣﺴﺎﻋﺪﺗﺮﻳﻦ ﮔﻮﻳﻨﺪ‬ ‫اﮔﺮ ﺑﺮاي ﻫﺮ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ دﻳﮕﺮ ‪ π ′‬ﺑﺎ ﺗﺼﻤﻴﻢ ﺑﻴﺰ ‪ δ π ′‬داﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ‬

‫) ‪. r (π , δ π ) ≥ r (π ′, δ π ′‬‬

‫در ﻗﻀﻴﻪ زﻳﺮ ﺷﺮط ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن ﻳﻚ ﺗﺼﻤﻴﻢ ﺑﻴﺰ را ﻣﻲآورﻳﻢ‪.‬‬ ‫ﻗﻀﻴﻪ ‪ :1-1‬ﻓﺮض ﻛﻨﻴﺪ ‪ π‬ﻳﻚ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ روي ‪ Θ‬ﺑﺎﺷﺪ و ‪ δ0π‬ﺗﺼﻤﻴﻢ ﺑﻴﺰ ﻧﺴﺒﺖ ﺑﻪ اﻳﻦ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ‬ ‫ﺑﺎﺷﺪ‪ .‬اﮔﺮ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﺗﺼﻤﻴﻢ ‪ δ π‬در ﺷﺮط‬ ‫) ‪r (π , δ π ) = ∫ R (θ , δ π )d Π (θ ) = Sup R (θ , δ π‬‬

‫)‪(1‬‬

‫‪θ ∈Θ‬‬

‫ﺻﺪق ﻛﻨﺪ آﻧﮕﺎه‬ ‫اﻟﻒ‪ δ π -‬ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‬ ‫ب‪ -‬اﮔﺮ ‪ δ π‬ﺗﺼﻤﻴﻢ ﺑﻴﺰ ﻳﻜﺘﺎ ﻧﺴﺒﺖ ﺑﻪ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ‪ π‬ﺑﺎﺷﺪ‪ ،‬آﻧﮕﺎه ‪ δ0π‬ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻳﻜﺘﺎ اﺳﺖ‪.‬‬ ‫ج‪ -‬ﺗﻮزﻳﻊ ‪ π‬ﻧﺎﻣﺴﺎﻋﺪﺗﺮﻳﻦ ﺗﻮزﻳﻊ اﺳﺖ‬ ‫اﺛﺒﺎت‪ :‬اﻟﻒ‪-‬‬ ‫)‪(1‬‬

‫) ‪Sup R (θ , δ π ) = ∫ R (θ , δ π )d Π (θ ) = r (π , δ π ) ≤ r (π , δ ) = ∫ R (θ , δ )d Π (θ‬‬ ‫‪θ ∈Θ‬‬

‫‪Least Favorable Distribution‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪125‬‬

‫⎡‬ ‫⎤‬ ‫) ‪≤ ∫ ⎢Sup R (θ , δ ) ⎥ d Π (θ ) = Sup R (θ , δ‬‬ ‫‪θ ∈Θ‬‬ ‫‪⎣ θ∈Θ‬‬ ‫⎦‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ‪ δ π‬ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‬ ‫ب‪ -‬ﭼﻮن ‪ δ π‬ﺗﺼﻤﻴﻢ ﺑﻴﺰ ﻳﻜﺘﺎ اﺳﺖ ﭘﺲ ‪ r (π , δ π ) < r (π , δ ) ، ∀δ ∈ D‬و ﺑﺎ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ <‬ ‫ﺑﺠﺎي ≤ در اﺛﺒﺎت )اﻟﻒ( ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد ﻛﻪ ﺗﺼﻤﻴﻢ ‪ δ π‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻳﻜﺘﺎ اﺳﺖ‪.‬‬ ‫ج‪ -‬ﻓﺮض ﻛﻨﻴﺪ ‪ π ′‬ﻫﺮ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ دﻳﮕﺮ ﺑﺎ ﺗﺼﻤﻴﻢ ﺑﻴﺰ ‪ δ π ′‬ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت‬ ‫*‬

‫) ‪r (π ′, δ π ′ ) = ∫ R (θ , δ π ′ )d Π′(θ ) ≤ ∫ R (θ , δ π )d Π′(θ ) ≤ SupR (θ , δ π‬‬ ‫)‪(1‬‬

‫) ‪= ∫ R (θ , δ π )d Π (θ ) = r (π , δ π‬‬

‫ﻛﻪ در آن * از اﻳﻦ واﻗﻌﻴﺖ ﻧﺎﺷﻲ ﻣﻲﮔﺮدد ﻛﻪ ‪ δ π ′‬ﺗﺼﻤﻴﻢ ﺑﻴﺰ ﻧﺴﺒﺖ ﺑﻪ ‪ π ′‬اﺳﺖ‪ .‬ﭘﺲ ﺗﻮزﻳﻊ ‪δ π‬‬

‫■‬

‫ﻧﺎﻣﺴﺎﻋﺪﺗﺮﻳﻦ ﺗﻮزﻳﻊ اﺳﺖ‪.‬‬

‫ﺷﺮط)‪ (1‬ﺑﻴﺎن ﻣﻲﻛﻨﺪ ﻛﻪ ﻣﻴﺎﻧﮕﻴﻦ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ) ‪ R (θ , δ π‬ﺑﺎ ﻣﺎﻛﺴﻴﻤﻢ اﻳﻦ ﺗﺎﺑﻊ ﺑﺮاﺑﺮ ﺑﺎﺷﺪ ﻳﻜﻲ از‬ ‫ﺣﺎﻟﺖﻫﺎﻳﻲ ﻛﻪ اﻳﻦ ﺷﺮط ﺑﺮﻗﺮار ﻣﻲﺷﻮد‪ ،‬اﻳﻦ اﺳﺖ ﻛﻪ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﺛﺎﺑﺖ ﺑﺎﺷﺪ‪ ،‬ﺑﻨﺎﺑﺮاﻳﻦ‪:‬‬ ‫ﻧﺘﻴﺠﻪ ‪ :1-1‬اﮔﺮ ﺗﺼﻤﻴﻢ ﺑﻴﺰ ‪ δ π‬ﻧﺴﺒﺖ ﺑﻪ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ‪ π‬داراي ﻣﺨﺎﻃﺮه ﺛﺎﺑﺖ ﺑﺎﺷﺪ‪ ،‬آﻧﮕﺎه ‪ δ π‬ﺗﺼﻤﻴﻢ‬ ‫ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪:‬‬ ‫‪⎧ Sup R (θ , δ π ) = C‬‬ ‫⎫‬ ‫‪⎪ θ ∈Θ‬‬ ‫⎪‬ ‫⎨ ⇒ ‪∀θ ∈ Θ‬‬ ‫⎬‬ ‫⎪ ‪⎪ ∫ R (θ , δ π )d Π (θ ) = C ∫ d Π (θ ) = C‬‬ ‫⎩‬ ‫⎭‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﺷﺮط)‪ (1‬ﺑﺮﻗﺮار اﺳﺖ‪.‬‬

‫‪R (θ , δ π ) = C‬‬

‫■‬

‫ﻧﺘﻴﺠﻪ ‪ :2-1‬ﻓﺮض ﻛﻨﻴﺪ ‪ w π‬ﻣﺠﻤﻮﻋﻪ ﻧﻘﺎﻃﻲ از ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ﺑﺎﺷﺪ ﻛﻪ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ‪ δ π‬در روي آن‬ ‫ﻣﺎﻛﺴﻴﻤﻢ ﺧﻮد را ﺑﻪ دﺳﺖ ﻣﻲآورد‪ ،‬ﻳﻌﻨﻲ‬ ‫⎧‬ ‫⎫‬ ‫⎬ ) ‪w π = ⎨θ : R (θ , δ π ) = Sup R (θ ′, δ π‬‬ ‫‪θ′‬‬ ‫⎩‬ ‫⎭‬

‫در اﻳﻦ ﺻﻮرت ﺗﺼﻤﻴﻢ ﺑﻴﺰ ‪ δ π‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ اﮔﺮ ‪. Π (w π ) = 1‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪126‬‬

‫)ﺑﻪ ﻋﺒﺎرت دﻳﮕﺮ ﻳﻚ ﺷﺮط ﻛﺎﻓﻲ ﺑﺮاي آﻧﻜﻪ ﺑﺮآوردﮔﺮ ‪ δ π‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺎﺷﺪ آن اﺳﺖ ﻛﻪ ﻳﻚ ﻣﺠﻤﻮﻋﻪ ‪w‬‬

‫وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﻛﻪ ‪ Π(w ) =1‬و ) ‪ R (θ , δ π‬ﻣﺎﻛﺴﻴﻤﻢ ﺧﻮد را در ﺗﻤﺎم ﻧﻘﺎط ‪ w‬ﺑﺪﺳﺖ آورد‪(.‬‬ ‫اﺛﺒﺎت‪ :‬ﻓﺮض ﻛﻨﻴﺪ ‪ δ‬ﻫﺮ ﺗﺼﻤﻴﻢ دﻳﮕﺮ ﺑﻪ ﻏﻴﺮ از ‪ δ π‬ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت‬ ‫)**(‬

‫) ‪R (θ , δ π )d Π (θ ) = ∫ R (θ , δ π )d Π (θ‬‬

‫)*(‬

‫∫ = ) ‪Sup R (θ , δ π‬‬

‫‪wπ‬‬

‫‪Θ‬‬

‫) ‪≤ ∫ R (θ , δ )d Π (θ ) ≤ Sup R (θ , δ‬‬ ‫‪Θ‬‬

‫ﻛﻪ در آن ﺗﺴﺎوي )*( ﺑﻪ اﻳﻦ ﻋﻠﺖ اﺳﺖ ﻛﻪ روي ‪ w π‬ﻣﺨﺎﻃﺮه ﺑﺎ ﺳﻮﭘﺮﻳﻤﻢ ﺑﺮاﺑﺮ ﻣﻲﺷﻮد و ﺗﺴﺎوي‬ ‫)**( ﻧﻴﺰ از اﻳﻦ ﻣﻄﻠﺐ ﻧﺎﺷﻲ ﻣﻲﮔﺮدد ﻛﻪ ‪ . Π (w πc ) = 0‬ﭘﺲ ‪ δ π‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‪.‬‬

‫■‬

‫در ﺣﺎﻟﺖ ﺑﺮآورد ﻧﻘﻄﻪاي ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ را ﺑﺮآورد ﻧﻘﻄﻪاي ﻣﻴﻨﻴﻤﺎﻛﺲ ﮔﻮﻳﻨﺪ‪.‬‬ ‫ﻣﺜﺎل ‪ :1-1‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ) ‪ B (1,θ‬ﺑﺎﺷﻨﺪ‪ ،‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن‬ ‫درﺟﻪ دوم ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ‪ θ‬را ﺑﺪﺳﺖ آورﻳﺪ‪.‬‬ ‫ﺣﻞ‪ :‬در ﻣﺜﺎل ‪ 2-2‬ﻓﺼﻞ ﻗﺒﻞ ﺗﺤﺖ ﭼﮕﺎﻟﻲ ﭘﻴﺸﻴﻦ ) ‪ Be (α , β‬ﺑﺮآوردﮔﺮ ﻳﻜﺘﺎي ﺑﻴﺰ ﻋﺒﺎرت ﺑﻮد از‬ ‫‪α + ∑x i‬‬ ‫‪α +β +n‬‬

‫= ) ‪ δ π (x‬ﻛﻪ ﻣﺨﺎﻃﺮه آن ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫}‬

‫‪2‬‬

‫{‬

‫‪2‬‬

‫] ‪R (θ , δ π ) = E θ ⎣⎡δ π ( x ) − θ ⎦⎤ =V θ (δ π (X )) + E [δ π (X ) − θ‬‬ ‫‪⎡α + ∑ X i‬‬ ‫⎫⎪ ⎤‬ ‫‪−‬‬ ‫‪θ‬‬ ‫⎢‬ ‫⎬⎥‬ ‫‪⎣α +β +n‬‬ ‫⎭⎪ ⎦‬

‫‪2‬‬

‫⎧⎪ ⎞‬ ‫‪⎟ + ⎨E‬‬ ‫⎪⎩ ⎠‬

‫‪⎛α + ∑X i‬‬ ‫⎜ ‪=V θ‬‬ ‫‪⎝ α +β +n‬‬

‫‪2‬‬

‫⎞ ‪⎛ α + nθ − αθ − βθ − nθ‬‬ ‫) ‪nθ (1 − θ‬‬ ‫=‬ ‫‪+‬‬ ‫⎟‬ ‫⎜ ‪2‬‬ ‫‪α +β +n‬‬ ‫⎝ ) ‪(α + β + n‬‬ ‫⎠‬ ‫‪1‬‬ ‫⎤ ‪⎡ nθ (1 − θ ) + (α − (α + β )θ )2‬‬ ‫=‬ ‫⎣‪2‬‬ ‫⎦‬ ‫) ‪(α + β + n‬‬ ‫‪1‬‬

‫⎤ ‪⎡ nθ − nθ 2 + α 2 + (α + β )2θ 2 − 2α (α + β )θ‬‬ ‫⎦‬ ‫⎣ ) ‪(α + β + n‬‬ ‫‪2‬‬

‫‪1‬‬

‫⎤ ‪⎡{(α + β )2 − n }θ 2 + {n − 2α (α + β )}θ + α 2‬‬ ‫⎦‬ ‫⎣ ) ‪(α + β + n‬‬ ‫‪2‬‬

‫=‬ ‫=‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪127‬‬

‫در ﺻﻮرﺗﻲ ) ‪ R (θ , δ π‬ﺑﻪ ﭘﺎراﻣﺘﺮ ‪ θ‬ﺑﺴﺘﮕﻲ ﻧﺪارد ﻛﻪ‬ ‫‪2α ⎧⎪ (α + β )2 − n = 0‬‬ ‫‪⇒ (α + β )n − 2α n = 0 ⇒ β − α = 0 ⇒ α = β‬‬ ‫⎨‬ ‫‪(α + β ) ⎪⎩n − 2α (α + β ) = 0‬‬ ‫‪n‬‬ ‫‪=β‬‬ ‫‪2‬‬

‫ﻛﻪ ﺑﺎ ﺟﺎﻳﮕﺬاري در ﻣﻌﺎدﻟﻪ اول ﺑﺪﺳﺖ ﻣﻲدﻫﺪ‪:‬‬

‫= ‪⇒ (2α )2 − n = 0 ⇒ α‬‬

‫‪n‬‬ ‫‪+ ∑X i‬‬ ‫‪ δ m (X ) = 2‬ﺑﺮآوردﮔﺮ ﻳﻜﺘﺎي ﺑﻴﺰ ﺑﺎ ﻣﺨﺎﻃﺮه ﺛﺎﺑﺖ اﺳﺖ و در ﻧﺘﻴﺠﻪ‬ ‫ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ‬ ‫‪n+ n‬‬

‫ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻳﻜﺘﺎ اﺳﺖ‪.‬‬ ‫ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ ﺑﺮآوردﮔﺮ ‪ UMVU‬ﭘﺎراﻣﺘﺮ ‪ θ‬ﺑﺮاﺑﺮ ‪ δ * (X ) = X‬اﺳﺖ و ﺑﻪ راﺣﺘﻲ ﻣﻲﺗﻮان ﻧﺸﺎن داد‬ ‫ﻛﻪ‬ ‫) ‪θ (1 − θ‬‬ ‫‪n‬‬

‫= ) * ‪R (θ , δ‬‬

‫‪,‬‬

‫‪1‬‬ ‫) ‪4(1 + n‬‬

‫‪2‬‬

‫= ) ‪R (θ , δ m‬‬

‫اﻳﻦ دو ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه در زﻳﺮ رﺳﻢ ﺷﺪهاﻧﺪ‪.‬‬ ‫دﻳﺪه ﻣﻲﺷﻮد ﻛﻪ در ﺑﻴﺸﺘﺮ ﻓﺎﺻﻠﻪ ) ‪,‬‬ ‫‪ θ ∈ (01‬ﺑﺮآوردﮔﺮ‬

‫ﻣﻴﻨﻴﻤﺎﻛﺲ از ﺑﺮآوردﮔﺮ ‪ UMVU‬ﺑﻬﺘﺮ ﻋﻤﻞ ﻣﻲﻛﻨﺪ وﻟﻲ‬ ‫ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻫﻤﻮاره از ﺑﺮآوردﮔﺮﻫﺎي دﻳﮕﺮ ﺑﻬﺘﺮ‬ ‫ﻧﻴﺴﺖ‪ .‬ﭼﻮن‬ ‫‪1‬‬ ‫‪1‬‬ ‫>‬ ‫) ‪= Sup R (θ , δ m‬‬ ‫) ‪4n 4(1 + n )2 θ ∈(01,‬‬

‫=‬

‫) ‪θ (1 − θ‬‬ ‫‪n‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ‪ X‬ﻧﻤﻲﺗﻮاﻧﺪ ﺑﺮاوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺎﺷﺪ‪.‬‬

‫‪Sup R (θ , X ) = Sup‬‬

‫‪θ ∈(01‬‬ ‫)‪,‬‬

‫‪θ ∈(01‬‬ ‫)‪,‬‬

‫■‬

‫ﻣﺜﺎل ‪ :2-1‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪ B (1,θ‬ﺑﺎﺷﻨﺪ‪ ،‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن‬ ‫‪(δ − θ )2‬‬ ‫) ‪θ (1 − θ‬‬

‫= ) ‪ L (θ , δ‬و ﭼﮕﺎﻟﻲ ﭘﻴﺸﻴﻦ )‪ Be (1,1) = U (0,1‬ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﭘﺎراﻣﺘﺮ ‪ θ‬را ﺑﺪﺳﺖ اورده و‬

‫ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ ﻳﻚ ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‪.‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪128‬‬

‫ﺣﻞ‪ :‬اﺑﺘﺪا ﺑﺮآوردﮔﺮ ﺑﻴﺰ را ﺑﺪﺳﺖ ﻣﻲآورﻳﻢ‬ ‫‪π (θ | x ) ∝ π (θ )L (θ ) = I (01, ) (θ )θ ∑ x i (1 − θ ) n −∑ x i‬‬ ‫)‪⇒ θ | x ~ Be (nx + 1, n − nx + 1‬‬ ‫‪1 nx‬‬ ‫‪θ (1 − θ ) n −nx −1d θ‬‬ ‫‪0‬‬ ‫‪1 nx −1‬‬ ‫‪(1 − θ ) n −nx −1d θ‬‬ ‫‪θ‬‬ ‫‪0‬‬

‫∫‬ ‫∫‬

‫‪⎡ θ‬‬ ‫⎤‬ ‫⎢‪E‬‬ ‫⎥ ‪|x‬‬ ‫⎦ ) ‪θ (1 − θ‬‬ ‫⎣ = ) ‪δ π (x‬‬ ‫=‬ ‫‪⎡ 1‬‬ ‫⎤‬ ‫⎥ ‪|x‬‬ ‫⎢‪E‬‬ ‫(‬ ‫)‬ ‫‪θ‬‬ ‫‪θ‬‬ ‫‪−‬‬ ‫‪1‬‬ ‫⎣‬ ‫⎦‬

‫‪n‬‬

‫ﻗﺮار ﻣﻲ دﻫﻴﻢ ‪ y = nx = ∑ x i‬در اﻳﻦ ﺻﻮرت اﮔﺮ ‪ y ≠ 0‬و ‪ y ≠ n‬آﻧﮕﺎه‬ ‫‪i =1‬‬

‫) ‪Be (nx + 1, n − nx ) Γ(nx + 1)Γ(n − nx‬‬ ‫‪nx‬‬ ‫) ‪Γ( n‬‬ ‫=‬ ‫×‬ ‫=‬ ‫‪=x‬‬ ‫)‪Γ(n + 1‬‬ ‫‪Γ(nx )Γ(n − nx ) n‬‬ ‫) ‪Be (nx , n − nx‬‬

‫= ) ‪δ π (x‬‬

‫اﮔﺮ ‪ y = 0‬ﺑﺎﺷﺪ اﻧﮕﺎه ﻃﺒﻖ ﻗﻀﻴﻪ ‪ 1-2‬ﻓﺼﻞ ﻗﺒﻞ ﺑﺮآوردﮔﺮ ﺑﻴﺰ آن ﻣﻘﺪاري از ‪ a‬اﺳﺖ ﻛﻪ اﻧﺘﮕﺮال زﻳﺮ را‬ ‫ﻣﻴﻨﻴﻤﻢ ﻛﻨﺪ‬ ‫⎤ ‪⎡ (θ − a )2‬‬ ‫‪1 (θ − a )2‬‬ ‫‪1‬‬ ‫⎢‪E‬‬ ‫∫= ⎥ ‪|x‬‬ ‫‪(1 − θ ) n d θ = ∫ (θ − a )2θ −1(1 − θ ) n −1d θ‬‬ ‫) ‪0 θ (1 − θ‬‬ ‫‪0‬‬ ‫⎦ ) ‪⎣ θ (1 − θ‬‬

‫و اﻳﻦ اﻧﺘﮕﺮال ﺑﺨﺎﻃﺮ وﺟﻮد ‪ θ −1‬ﻧﺎﻣﺘﻨﺎﻫﻲ ﻣﻲﺷﻮد ﺑﺠﺰ اﻳﻨﻜﻪ ‪ a = 0‬ﺑﺎﺷﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ در اﻳﻦ ﺣﺎﻟﺖ ﺑﺮآورد‬ ‫‪0 y‬‬ ‫ﺑﻴﺰ ﻋﺒﺎرت اﺳﺖ از ‪= = x‬‬ ‫‪n n‬‬

‫= ‪ . δ π (x ) = a = 0‬ﺑﻪ ﻫﻤﻴﻦ ﺗﺮﺗﻴﺐ ﺑﺮاي ‪ y = n‬ﻣﻲﺗﻮان ﻧﺸﺎن داد‬

‫‪n y‬‬ ‫ﻛﻪ ﺑﺮآورد ﺑﻴﺰ ﻋﺒﺎرت اﺳﺖ از ‪= = x‬‬ ‫‪n n‬‬

‫= ‪ δ π (x ) = a = 1‬ﺑﻨﺎﺑﺮاﻳﻦ در ﻫﺮ ﺣﺎﻟﺖ ‪δ π ( x ) = x‬‬

‫ﺑﺮآورد ﺑﻴﺰ اﺳﺖ ‪ .‬ﻫﻤﭽﻨﻴﻦ‬ ‫⎤ ‪⎡ ( X − θ )2‬‬ ‫‪1‬‬ ‫‪1 θ (1 − θ ) 1‬‬ ‫=⎥‬ ‫⎢ ‪R (θ , δ ) = E‬‬ ‫= ) ‪V θ (X‬‬ ‫=‬ ‫) ‪⎢ θ (1 − θ ) ⎥ θ (1 − θ‬‬ ‫‪n‬‬ ‫‪θ (1 − θ ) n‬‬ ‫⎣‬ ‫⎦‬ ‫‪π‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ‪ δ π (X ) = X‬ﻳﻚ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺑﺎ ﻣﺨﺎﻃﺮه ﺛﺎﺑﺖ اﺳﺖ و در ﻧﺘﻴﺠﻪ ﻳﻚ ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ‬ ‫اﺳﺖ‪.‬‬

‫■‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪129‬‬

‫ﻟﻢ ‪ :1-1‬ﻓﺮض ﻛﻨﻴﺪ ‪ δ‬ﻳﻚ ﺑﺮآوردﮔﺮ ﺑﻴﺰ )ﻳﺎ ‪ UMVU‬ﻳﺎ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻳﺎ ﻣﺠﺎز( ﺑﺮاي ) ‪ g (θ‬ﺗﺤﺖ ﺗﺎﺑﻊ‬ ‫زﻳﺎن درﺟﻪ دوم ﺑﺎﺷﺪ‪ .‬در اﻳﻦﺻﻮرت ‪ aδ + b‬ﻳﻚ ﺑﺮآوردﮔﺮ ﺑﻴﺰ )ﻳﺎ ‪ UMVU‬ﻳﺎ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻳﺎ ﻣﺠﺎز(‬ ‫ﺑﺮاي ‪ ag (θ ) + b‬اﺳﺖ‬ ‫) ‪R (ag (θ ) + b , aδ + b ) = a2R ( g (θ ), δ‬‬

‫اﺛﺒﺎت‪ :‬ﭼﻮن‬

‫■‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﻧﺘﻴﺠﻪ ﺑﻪ راﺣﺘﻲ ﺣﺎﺻﻞ ﻣﻲﮔﺮدد‪.‬‬

‫ﻣﺜﺎل‪ :3-1‬ﻓﺮض ﻛﻨﻴﺪ )‪ Y ~ B ( n , p2 ) ، X ~ B (n , p1‬و ‪ X‬و ‪ Y‬از ﻳﻜﺪﻳﮕﺮ ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ‪ .‬ﺑﺎ‬ ‫اﺳﺘﻔﺎده از ﻧﺘﻴﺠﻪ ‪ 2-1‬ﻳﮓ ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺮاي ‪ p2 − p1‬ﺑﻪ دﺳﺖ آورﻳﺪ‪.‬‬ ‫ﺣﻞ‪ :‬ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﺜﺎل ‪ 1-1‬ﺑﻪ دﻧﺒﺎل ﺑﺮآوردﮔﺮﻫﺎﻳﻲ ﺑﻪ ﻓﺮم ) ‪) C (Y − X‬اﻳﻦ ﺑﺮآوردﮔﺮ ﺗﺤﺖ ﻳﻚ ﺗﺒﺪﻳﻞ‬ ‫ﺧﺎص ﭘﺎﻳﺎ اﺳﺖ( ﻫﺴﺘﻴﻢ ﻛﻪ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺎﺷﻨﺪ‪ .‬ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮهي اﻳﻦ ﺑﺮآوردﮔﺮﻫﺎ ﻋﺒﺎرﺗﻨﺪ از‬ ‫] )‪R (C (Y − X ), p1, p2 ) = E [C (Y − X ) − ( p2 − p1‬‬

‫‪2‬‬ ‫‪2‬‬

‫⎤⎦ )‪=V (C (Y − X ) ) + ⎣⎡ E (C (Y − X ) ) − ( p2 − p1‬‬

‫‪= C 2n ( p1(1 − p1) + p2 (1 − p2 ) ) + (Cn − 1)2 ( p2 − p1)2‬‬

‫ﻣﻲﺧﻮاﻫﻴﻢ ﻣﺠﻤﻮﻋﻪاي از ﻧﻘﺎط ‪ w‬را ﭘﻴﺪا ﻛﻨﻴﻢ ﻛﻪ ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﻓﻮق در اﻳﻦ ﻧﻘﺎط ﻣﺎﻛﺴﻴﻤﻢ ﺑﺎﺷﺪ‪.‬‬ ‫ﺑﻨﺎﺑﺮاﻳﻦ از ﺗﺎﺑﻊ ﻓﻮق ﻧﺴﺒﺖ ﺑﻪ ‪ p1‬و ‪ p 2‬ﻣﺸﺘﻖ ﺟﺰﺋﻲ ﻣﻲ ﮔﻴﺮﻳﻢ‪.‬‬

‫)‪(1‬‬

‫‪∂R‬‬ ‫‪= 0 ⇒ ⎡⎣2(Cn − 1)2 − 2C 2n ⎤⎦ p1 − 2(Cn − 1)2 p2 = −C 2n‬‬ ‫‪∂P1‬‬ ‫‪∂R‬‬ ‫‪= 0 ⇒ −2(Cn − 1)2 p1 + [2(Cn − 1)2 − 2C 2n ] p2 = −C 2n‬‬ ‫‪∂P2‬‬

‫اﮔﺮ اﻳﻦ دﺳﺘﮕﺎه ‪ 2‬ﻣﻌﺎدﻟﻪ و ‪ 2‬ﻣﺠﻬﻮل ﺗﺮﻛﻴﺐ ﺧﻄﻲ از ﻳﻜﺪﻳﮕﺮ ﻧﺒﺎﺷﻨﺪ آﻧﮕﺎه اﻳﻦ دﺳﺘﮕﺎه ﺗﻨﻬﺎ داراي ﻳﻚ‬ ‫ﺟﻮاب ) ‪ ( p1o , p2o‬اﺳﺖ و ﺑﻨﺎﺑﺮاﻳﻦ ‪ π‬اﺣﺘﻤﺎل ‪ 1‬را ﺑﻪ ﻧﻘﻄﻪ ) ‪ ( p1o , p2o‬ﺑﺎﻳﺴﺘﻲ ﻧﺴﺒﺖ دﻫﺪ و ﺑﺮآوردﮔﺮ‬ ‫ﺑﻴﺰ ﻧﺴﺒﺖ ﺑﻪ اﻳﻦ ﭘﻴﺸﻴﻦ ﺑﺮآوردﮔﺮ ‪ δ ( X ,Y ) = p2o − p1o‬اﺳﺖ ﻛﻪ داراي ﻣﺎﻛﺴﻴﻤﻢ ﻣﺨﺎﻃﺮه در ﻧﻘﻄﻪ‬ ‫) ‪ ( p1o , p2o‬ﻧﻴﺴﺖ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ در اﻳﻦ ﺣﺎﻟﺖ ﻧﻤﻲﺗﻮان از ﻧﺘﻴﺠﻪ ‪ 2-1‬اﺳﺘﻔﺎده ﻛﺮد‪.‬‬ ‫ﺣﺎل اﮔﺮ دو ﻣﻌﺎدﻟﻪي دﺳﺘﮕﺎه ﻓﻮق ﻳﻚ ﺗﺮﻛﻴﺐ ﺧﻄﻲ از ﻳﻜﺪﻳﮕﺮ ﺑﺎﺷﻨﺪ آﻧﮕﺎه‬ ‫‪2n‬‬ ‫]‪n [ 2n ± 1‬‬

‫= ‪2(Cn − 1)2 − 2C 2n = 2(Cn − 1)2 ⇒ C 2n = 2(Cn − 1)2 ⇒ C‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪130‬‬

‫ﭼﻮن ‪ −1 < p2 − p1 < 1‬ﻣﻲﺑﺎﺷﺪ ﭘﺲ ﺣﺎﻟﺖ ﻣﻨﻔﻲ در ﻣﺨﺮج ﻛﻪ ﺑﺮآوردﮔﺮ ﺧﺎرج از ﻓﻀﺎي ﭘﺎراﻣﺘﺮي را‬ ‫ﻣﻲدﻫﺪ ﻗﺎﺑﻞ ﻗﺒﻮل ﻧﻴﺴﺖ‪ .‬ﺑﺎ ﻗﺮار دادن اﻳﻦ ﻣﻘﺪار ‪ C‬در ﻣﻌﺎدﻟﻪ )‪ (1‬ﺑﻪ ﻣﻌﺎدﻟﻪ ‪ p1 + p2 = 1‬ﻣﻲرﺳﻴﻢ و‬ ‫ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ‬

‫‪2n‬‬ ‫) ‪(Y − X‬‬ ‫)‪n ( 2n + 1‬‬

‫= ) ‪δ (X ,Y‬‬

‫روي ﻣﺠﻤﻮﻋﻪ }‪w = {( p1, p2 ) | p1 + p2 = 1‬داراي ﻣﺨﺎﻃﺮه ﻣﺎﻛﺴﻴﻤﻢ اﺳﺖ‪ .‬ﺣﺎل اﮔﺮ ﻧﺸﺎن دﻫﻴﻢ ﻛﻪ‬ ‫) ‪ δ (x , y‬ﺑﺮآوردﮔﺮ ﺑﻴﺰ ‪ p2 − p1‬ﻧﺴﺒﺖ ﺑﻪ ﭘﻴﺸﻴﻨﻲ اﺳﺖ ﻛﻪ اﺣﺘﻤﺎل ‪ 1‬ﺑﻪ ﻣﺠﻤﻮﻋﻪ ‪ w‬ﻧﺴﺒﺖ ﻣﻲدﻫﺪ‬ ‫آﻧﮕﺎه ﻃﺒﻖ ﻧﺘﻴﺠﻪ ‪ δ (x , y ) ،2-1‬ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‪ .‬اﻣﺎ ‪ p1 + p2 = 1‬ﻧﺘﻴﺠﻪ ﻣﻲ دﻫﺪ ﻛﻪ‬ ‫‪ p2 − p1 = 2 p2 − 1‬ﭘﺲ ﻃﺒﻖ ﻟﻢ ‪ 1-1‬ﻛﺎﻓﻲ اﺳﺖ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ‪ p 2‬را ﻧﺴﺒﺖ ﺑﻪ اﻳﻦ ﭘﻴﺸﻴﻦ ﺑﻪ دﺳﺖ‬ ‫آورﻳﻢ‪ .‬ﺣﺎل ﭼﻮن ‪ p2 = 1 − p1‬ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮاي ﺑﺮآورد ‪ p 2‬ﺑﺮ اﺳﺎس ‪ n‬آزﻣﺎﻳﺶ ﺑﺎ اﺣﺘﻤﺎل ﻣﻮﻓﻘﻴﺖ‬ ‫‪) p 2‬ﺑﺮ اﺳﺎس ‪ (Y‬و ‪ n‬آزﻣﺎﻳﺶ ﺑﺎ اﺣﺘﻤﺎل ﻣﻮﻓﻘﻴﺖ ‪) p2 = 1 − p1‬ﺑﺮ اﺳﺎس ‪ ( n − X‬ﺑﺮآوردﮔﺮ ﻳﻜﺘﺎي‬ ‫ﺑﻴﺰ ﻃﺒﻖ ﻣﺜﺎل ‪ 1-1‬ﻋﺒﺎرت اﺳﺖ از‪:‬‬ ‫‪2n‬‬ ‫‪2‬‬

‫‪[Y + (n − X )] +‬‬ ‫‪2n + 2n‬‬

‫ﭘﺲ ﺑﺮآوردﮔﺮ ﻳﻜﺘﺎي ﺑﻴﺰ ‪ p2 − p1 = 2 p2 − 1‬ﻃﺒﻖ ﻟﻢ ‪ 1-1‬ﻋﺒﺎرت اﺳﺖ از‬ ‫⎧‬ ‫⎫ ‪2n‬‬ ‫(‬ ‫)‬ ‫‪+‬‬ ‫‪−‬‬ ‫‪+‬‬ ‫‪Y‬‬ ‫‪n‬‬ ‫‪X‬‬ ‫⎪⎪‬ ‫⎪‬ ‫] ‪2 ⎪ − 1 = [2(Y − X ) + 2n + 2n ] − [2n + 2n‬‬ ‫⎨‪2‬‬ ‫⎬‬ ‫‪2n + 2n‬‬ ‫)‪2n ( 2n + 1‬‬ ‫⎪‬ ‫⎪‬ ‫⎩⎪‬ ‫⎭⎪‬ ‫‪2n‬‬ ‫) ‪(Y − X ) = δ (X ,Y‬‬ ‫)‪n ( 2n + 1‬‬

‫ﭘﺲ ) ‪ δ (X ,Y‬ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻳﻜﺘﺎي ‪ p2 − p1‬اﺳﺖ‪.‬‬

‫=‬

‫■‬

‫ﻧﻜﺎت‪ (1 :‬ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ ﻗﻀﻴﻪ ‪ 1-1‬ﻣﻲﮔﻮﻳﺪ ﻛﻪ اﮔﺮ ﺑﺮاي ﻳﻚ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺷﺮط‬ ‫) ‪ ∫ R (θ , δ π )d Π (θ ) = Sup R (θ , δ π‬ﺑﺮﻗﺮار ﺑﺎﺷﺪ آﻧﮕﺎه آن ﺑﺮآوردﮔﺮ ﺑﻴﺰ‪ ،‬ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‪ .‬ﻳﻜﻲ از‬ ‫‪θ ∈Θ‬‬

‫راهﻫﺎي ﺑﺮﻗﺮاري ﺷﺮط ﻓﻮق ﺛﺎﺑﺖ ﺑﻮدن ﻣﺨﺎﻃﺮه ‪ δ π‬اﺳﺖ ﻛﻪ در ﻧﺘﻴﺠﻪ ‪ 1-1‬و ﻣﺜﺎلﻫﺎي ﻗﺒﻞ ﻣﻮرد‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪131‬‬

‫ﺑﺮرﺳﻲ ﻗﺮار ﮔﺮﻓﺖ‪ .‬اﻣﺎ ﻣﺜﺎلﻫﺎﻳﻲ ﻧﻴﺰ وﺟﻮد دارد ﻛﻪ در آﻧﻬﺎ ﻣﺨﺎﻃﺮه ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﺛﺎﺑﺖ ﻧﻴﺴﺖ اﻣﺎ ﺷﺮط‬ ‫ﺑﺎﻻ ﺑﺮﻗﺮار ﻣﻲﺑﺎﺷﺪ و در ﻧﺘﻴﺠﻪ ﺑﺮآودرﮔﺮ ﺑﻴﺰ ﺣﺎﺻﻠﻪ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺧﻮاﻫﺪ ﺑﻮد‪ .‬ﺑﻪ ﺗﻤﺮﻳﻦ زﻳﺮ ﺗﻮﺟﻪ ﻛﻨﻴﺪ‪.‬‬ ‫ﺗﻤﺮﻳﻦ‪ :‬ﻓﺮض ﻛﻨﻴﺪ )‪ X ~ N (θ ,1‬ﻛﻪ ] ‪ θ ∈ [ − m , m‬و ‪ m‬ﻋﺪدي ﺛﺎﺑﺖ و ‪ 0 < m < 1‬اﮔﺮ‬ ‫‪e mx − e − mx‬‬ ‫‪δ (x ) = mtgh (mx ) = m mx‬‬ ‫‪e + e − mx‬‬ ‫‪m‬‬

‫اﻟﻒ‪ -‬ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ ) ‪ δ m (x‬ﺑﺮآورد ﺑﻴﺰ ﭘﺎراﻣﺘﺮ ‪ θ‬ﺗﺤﺖ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ زﻳﺮ اﺳﺖ‪.‬‬ ‫‪θ =m‬‬ ‫‪θ = −m‬‬

‫‪⎧1‬‬ ‫⎪⎪‬ ‫‪. π (θ ) = ⎨ 2‬‬ ‫‪⎪1‬‬ ‫‪⎪⎩ 2‬‬

‫ب‪ -‬ﻣﺨﺎﻃﺮه ي ﺑﻴﺰ ‪ δ m‬را ﻣﺤﺎﺳﺒﻪ ﻛﻨﻴﺪ و ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ ) ‪r (π , δ m ) = R (m , δ m‬‬ ‫ج‪ -‬ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ ) ‪Sup R (θ , δ m ) = R (m , δ m‬‬

‫‪− m ≤θ ≤ m‬‬

‫و ﺑﻨﺎﺑﺮاﻳﻦ ﻃﺒﻖ ﺷﺮط ﻗﻀﻴﻪ ‪δ m 1-1‬‬

‫ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ‪ θ‬اﺳﺖ‪.‬‬ ‫‪2‬‬

‫ﺣﻞ ﺗﻤﺮﻳﻦ‪:‬‬

‫‪1‬‬

‫) ‪1 − 2 ( x −θ‬‬ ‫‪e‬‬ ‫) ‪π (θ‬‬ ‫‪2π‬‬ ‫) ‪m (x‬‬

‫=‬

‫) ‪π (θ )L (θ‬‬ ‫) ‪m (x‬‬

‫= ) ‪π (θ | x‬‬

‫)اﻟﻒ‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪2‬‬ ‫⎫ ‪− ( x + m )2‬‬ ‫) ‪1 1 ⎧⎪ − 2 ( x −m‬‬ ‫⎪‬ ‫‪+e 2‬‬ ‫= ) ‪m (x ) = ∑ π (θ )L (θ‬‬ ‫‪⎨e‬‬ ‫⎬‬ ‫⎩⎪ ‪2θ 2‬‬ ‫‪θ =− m ,m‬‬ ‫⎭⎪‬ ‫‪1‬‬ ‫⎧‬ ‫‪− ( x − m )2‬‬ ‫‪e 2‬‬ ‫⎪‬ ‫‪θ =m‬‬ ‫⎧‬ ‫‪e mx‬‬ ‫‪⎪ − 1 ( x −m )2‬‬ ‫‪1‬‬ ‫‪2‬‬ ‫‪θ =m‬‬ ‫) ‪− (x +m‬‬ ‫⎪‬ ‫‪⎪⎪e 2‬‬ ‫‪⎪e mx + e − mx‬‬ ‫‪+e 2‬‬ ‫⎨ = ) ‪∴ π (θ | x‬‬ ‫⎨=‬ ‫‪1‬‬ ‫‪− mx‬‬ ‫‪2‬‬ ‫(‬ ‫)‬ ‫‪−‬‬ ‫‪x‬‬ ‫‪+‬‬ ‫‪m‬‬ ‫⎪‬ ‫‪⎪ e‬‬ ‫‪2‬‬ ‫‪θ = −m‬‬ ‫‪e‬‬ ‫⎪‬ ‫‪⎪⎩e mx + e − mx‬‬ ‫‪m‬‬ ‫=‬ ‫‪−‬‬ ‫‪θ‬‬ ‫‪1‬‬ ‫‪⎪ − 1 ( x −m )2‬‬ ‫‪− ( x + m )2‬‬ ‫‪⎪⎩e 2‬‬ ‫‪+e 2‬‬ ‫‪e mx‬‬ ‫‪e − mx‬‬ ‫‪δ m (x ) = E [θ | x ] = m mx‬‬ ‫‪−‬‬ ‫) ‪= mtgh (mx‬‬ ‫‪m‬‬ ‫‪e + e − mx‬‬ ‫‪e mx + e − mx‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫) ‪R (θ , δ m ) = R (m , δ m ) + R (−m , δ m‬‬ ‫∑‬ ‫‪2 θ =− m ,m‬‬ ‫‪2‬‬ ‫‪2‬‬

‫‪132‬‬

‫= ) ‪) r (π , δ m‬ب‬

‫‪1‬‬ ‫‪1‬‬ ‫⎤⎦ ‪= E θ =m ⎣⎡(mtgh (mX ) − m )2 ⎦⎤ + E θ =− m ⎣⎡(mtgh (mX ) − m )2‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪−‬‬ ‫‪mX‬‬ ‫‪⎡ 4m e‬‬ ‫‪⎤ 1‬‬ ‫⎤ ‪⎡ 4m 2e +2mX‬‬ ‫‪1‬‬ ‫‪= E θ =m ⎢ mX‬‬ ‫‪+ E θ =− m ⎢ mX‬‬ ‫⎥‬ ‫⎥ ‪− mX 2‬‬ ‫‪2‬‬ ‫‪+‬‬ ‫⎦ ‪+ e − mX )2‬‬ ‫‪e‬‬ ‫‪e‬‬ ‫(‬ ‫)‬ ‫⎣‬ ‫‪⎦ 2‬‬ ‫‪⎣ (e‬‬ ‫]) ‪, γ = E θ =n [ g n (x‬‬

‫‪e −2nx‬‬ ‫‪= nx‬‬ ‫)‪, X ∼ N (n ,1‬‬ ‫‪(e + e − nx )2‬‬

‫) ‪(x‬‬

‫‪gn‬‬

‫}]) ‪∴ r (π , δ m ) = 2m 2 {E θ =m [ g m (X )] + E θ =− m [ g − m (X‬‬ ‫⎡‬ ‫⎤‬ ‫‪e −2mX‬‬ ‫‪= 4m 2E θ =m [ g m (X )] = 4m 2E ⎢ mX‬‬ ‫) ‪= R (m , δ m‬‬ ‫⎥ ‪− mX 2‬‬ ‫⎦ )‬ ‫‪+e‬‬ ‫‪⎣ (e‬‬ ‫‪m‬‬

‫) ‪) R (θ , δ ) = E θ ⎡⎣(mtgh (mX ) − θ )2 ⎤⎦ ≤ R (m , δ m‬ج‬ ‫ﻛﻪ ﻧﺎﻣﺴﺎوي آﺧﺮ از اﻳﻦ واﻗﻌﻴﺖ ﻧﺎﺷﻲ ﻣﻲﮔﺮدد ﻛﻪ اﻳﻦ ﻧﺎﻣﻌﺎدﻟﻪي درﺟﻪ دوم ﺑﺮ ﺣﺴﺐ ‪ θ‬در ﻓﺎﺻﻠﻪي‬ ‫] ‪ ، [ − m , m‬ﻣﻴﻨﻴﻤﻢ ﺧﻮد را در ]) ‪ θ = E [ mtgh (mX‬اﺧﺘﻴﺎر ﻣﻲﻛﻨﺪ‪.‬‬ ‫‪ (2‬از ﻗﻀﻴﻪ ‪ 1-1‬ﻣﻮﻗﻌﻲ ﻣﻲﺗﻮان اﺳﺘﻔﺎده ﻛﺮد ﻛﻪ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺳﺮه ﺑﺎﺷﺪ‪ .‬ﺣﺎل اﮔﺮ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﻧﺎﺳﺮه‬ ‫ﺑﺎﺷﺪ ﺑﻪ دو ﺻﻮرت زﻳﺮ ﻣﻲﺗﻮان ﻗﻀﻴﻪ ‪ 1-1‬را ﺗﻌﻤﻴﻢ داد‪.‬‬ ‫اﻟﻒ‪ -‬اﮔﺮ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﻧﺎﺳﺮه ﺑﺎﺷﺪ آﻧﮕﺎه ﻣﻤﻜﻦ اﺳﺖ ﺗﻮزﻳﻊ ﭘﺴﻴﻦ ﺳﺮه ﺑﺎﺷﺪ و ﺑﺘﻮان ﺑﺮآوردﮔﺮ ﺑﻴﺰ‬ ‫ﺗﻌﻤﻴﻢ ﻳﺎﻓﺘﻪ را ﺑﻪ دﺳﺖ آورد و اﻣﻴﺪوار ﺑﻮد ﻛﻪ اﻳﻦ ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺎﺷﺪ )ﻳﻌﻨﻲ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن آن‬ ‫ﻣﻮرد ﺑﺮرﺳﻲ ﻗﺮار ﮔﻴﺮد(‪.‬‬ ‫ب‪ -‬دﻧﺒﺎﻟﻪاي از ﺗﻮزﻳﻊﻫﺎي ﭘﻴﺸﻴﻦ ﻧﺎﺳﺮه را ﻳﺎﻓﺖ ﻛﻪ ﺑﻪ ﺳﻤﺖ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺳﺮه ﻣﻮرد ﻧﻈﺮ ﻣﻴﻞ ﻛﻨﻨﺪ و‬ ‫از روش ﺑﻴﺰ ﺣﺪي ﻛﻪ در زﻳﺮآورد ﻣﻲﺷﻮد ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ را ﺑﻪ دﺳﺖ آورد‪.‬‬

‫ﺗﻌﺮﻳﻒ‪ :2-1‬دﻧﺒﺎﻟﻪاي از ﺗﻮزﻳﻊﻫﺎي ﭘﻴﺸﻴﻦ } ‪ {π n‬را ﻧﺎﻣﺴﺎﻋﺪﺗﺮﻳﻦ ﮔﻮﻳﻨﺪ اﮔﺮ ﺑﺮاي ﻫﺮ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ‪π‬‬ ‫داﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ‬ ‫)‪(1‬‬

‫‪rπ ≤ r = lim rπ n‬‬ ‫∞→ ‪n‬‬

‫ﻛﻪ در آن ) ‪ rn = rπ n = r (π n , δ π n ) = ∫ R (θ , δ π n )d Π n (θ‬ﻣﺨﺎﻃﺮهي ﺑﻴﺰ ﻧﺴﺒﺖ ﺑﻪ ‪ π n‬اﺳﺖ‪.‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪133‬‬

‫ﻗﻀﻴﻪ ‪) 2-1‬روش ﺑﻴﺰ ﺣﺪي(‪ :‬ﻓﺮض ﻛﻨﻴﺪ ‪ π1, π 2 , π 3 ,...‬دﻧﺒﺎﻟﻪاي از ﺗﻮزﻳﻊﻫﺎي ﭘﻴﺸﻴﻦ ﺑﺎﺷﻨﺪ و ‪δ π n‬‬ ‫ﺗﺼﻤﻴﻢ ﺑﻴﺰ ﻧﺴﺒﺖ ﺑﻪ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ‪ π n‬ﺑﺎ ﻣﺨﺎﻃﺮه ﺑﻴﺰ ) ‪rn = r (π n , δ π n ) = ∫ R (θ , δ π n )d Π n (θ‬‬

‫ﺑﺎﺷﺪ‪ .‬اﮔﺮ ‪ lim rn = r‬و ‪ δ m‬ﺗﺼﻤﻴﻤﻲﺑﺎﺷﺪ ﻛﻪ ‪ Sup R (θ , δ m ) = r‬آﻧﮕﺎه‬ ‫∞→ ‪n‬‬

‫‪θ ∈Θ‬‬

‫اﻟﻒ( ‪ δ m‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‪.‬‬ ‫ب( دﻧﺒﺎﻟﻪي } ‪ {π n‬ﻧﺎﻣﺴﺎﻋﺪﺗﺮﻳﻦ اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪ :‬اﻟﻒ( ﺑﺮاي ﻫﺮ ﺗﺼﻤﻴﻢ ‪ δ‬دارﻳﻢ ﻛﻪ‬ ‫) ‪rn = r (π n , δ π n ) = ∫ R (θ , δ π n )d Π n (θ ) ≤ ∫ R (θ , δ )d Π n (θ ) ≤ Sup R (θ , δ‬‬ ‫)*(‬

‫‪θ ∈Θ‬‬

‫) ‪⇒ lim rn ≤ Sup R (θ , δ‬‬ ‫∞→ ‪n‬‬

‫‪θ ∈Θ‬‬

‫ﻛﻪ ﻧﺎﻣﺴﺎوي )*( از اﻳﻦ ﻣﻄﻠﺐ ﺑﺪﺳﺖ ﻣﻲآﻳﺪ ﻛﻪ ‪ δ π n‬ﺗﺼﻤﻴﻢ ﺑﻴﺰ ﻧﺴﺒﺖ ﺑﻪ ‪ π n‬اﺳﺖ‪.‬‬ ‫‪∀δ‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ‪:‬‬

‫) ‪Sup R (θ , δ m ) = r = lim rn ≤ Sup R (θ , δ‬‬ ‫‪θ ∈Θ‬‬

‫∞→ ‪n‬‬

‫‪θ ∈Θ‬‬

‫ﻳﻌﻨﻲ ‪ δ m‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‪.‬‬ ‫ب( ﻓﺮض ﻛﻨﻴﺪ ‪ π‬ﻫﺮ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺑﺎﺷﺪ‪.‬‬ ‫‪rn = ∫ R (θ , δ π )d Π (θ ) ≤ ∫ R (θ , δ )d Π (θ ) ≤ Sup R (θ , δ ) = r = lim rn‬‬ ‫∞→ ‪n‬‬

‫‪θ ∈Θ‬‬

‫‪Θ‬‬

‫ﭘﺲ دﻧﺒﺎﻟﻪي } ‪ {π n‬ﻧﺎﻣﺴﺎﻋﺪﺗﺮﻳﻦ اﺳﺖ‪.‬‬

‫‪Θ‬‬

‫■‬

‫ﻧﻜﺎت‪ (1 :‬در ﻗﺴﻤﺖ اﻟﻒ ﻗﻀﻴﻪ ﻓﻮق ﻛﺎﻓﻲ اﺳﺖ داﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ‬ ‫)‪(1‬‬

‫‪Sup R (θ , δ ) = r ≤ lim rn‬‬ ‫∞→ ‪n‬‬

‫‪Θ‬‬

‫‪ (2‬ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ اﮔﺮ ‪ δ π n → δ‬آﻧﮕﺎه دﻟﻴﻠﻲ ﻧﺪارد ﻛﻪ ‪ rπ n → r‬ﻣﻮﻗﻌﻲ ﻛﻪ ∞ → ‪ . n‬ﺑﺮاي ﻣﺸﺎﻫﺪه‬ ‫ﻳﻚ ﻣﺜﺎل ﻣﺸﺨﺺ ﺑﻪ ﺗﻤﺮﻳﻦ زﻳﺮ ﺗﻮﺟﻪ ﻛﻨﻴﺪ‪.‬‬ ‫ﺗﻤﺮﻳﻦ‪ :‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,...., X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از )‪ N (θ ,1‬ﺑﺎﺷﻨﺪ و ) ‪θ ∼ N (bσ 2 , σ 2‬‬

‫ﻛﻪ‪ . b ≠ 0‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم‪ ،‬ﺑﺮآوردﮔﺮ ﺑﻴﺰ ‪ δ π σ‬و ﻣﺨﺎﻃﺮهي ﺑﻴﺰ آن ﻳﻌﻨﻲ ‪ rπσ = rσ‬را ﺑﻪ‬ ‫دﺳﺖ آورﻳﺪ و ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ اﮔﺮ ∞ → ‪ σ‬آﻧﮕﺎه ‪ δσ → δ‬ﻛﻪ ‪ δ‬ﺑﺮآوردﮔﺮي ﺑﺎ ﻣﺨﺎﻃﺮه ﺛﺎﺑﺖ ‪ r‬اﺳﺖ‪،‬‬ ‫→ ‪. rσ‬‬ ‫اﻣﺎ ‪/ r‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪1 b2‬‬ ‫‪nx +b‬‬ ‫‪b‬‬ ‫‪b‬‬ ‫‪→x +‬‬ ‫‪=r‬‬ ‫‪, R ( X + ,θ ) = +‬‬ ‫‪1‬‬ ‫‪n‬‬ ‫‪n‬‬ ‫‪n‬‬ ‫‪n‬‬ ‫‪n+ 2‬‬

‫‪134‬‬

‫= ‪δσ‬‬

‫‪σ‬‬

‫‪1 1 b2‬‬ ‫‪≠ +‬‬ ‫‪n n n‬‬

‫→‬

‫‪1‬‬ ‫‪1‬‬

‫‪n+‬‬

‫= ‪rσ‬‬

‫■‬

‫‪σ2‬‬ ‫‪ (3‬ﻗﻀﻴﻪ ‪ 2-1‬داراي ﻣﻄﻠﻮﺑﻴﺖ ﻛﻤﺘﺮي ﻧﺴﺒﺖ ﺑﻪ ﻗﻀﻴﻪ ‪ 1-1‬اﺳﺖ زﻳﺮا‬

‫اﻟﻒ‪ -‬در ﻗﻀﻴﻪ ‪ 2-1‬اﮔﺮ ‪ δ π n‬ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﻳﻜﺘﺎ ﺑﺎﺷﺪ آﻧﮕﺎه دﻟﻴﻠﻲ ﻧﺪارد ﻛﻪ ‪ δ m‬ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ‬ ‫ﻳﻜﺘﺎ ﺑﺎﺷﺪ‪.‬‬ ‫ب‪ -‬ﺑﺮاي اﺳﺘﻔﺎده از ﻗﻀﻴﻪ ‪ 2-1‬ﻧﺎﮔﺰﻳﺮ ﻫﺴﺘﻴﻢ ﻛﻪ ‪ r‬و ﻣﺨﺎﻃﺮه ي ﺑﻴﺰ ‪ rπ n‬را ﻣﺤﺎﺳﺒﻪ ﻛﻨﻴﻢ ﻛﻪ در ﺑﻌﻀﻲ‬ ‫ﻣﻮارد ﻣﺸﻜﻞ اﺳﺖ‪ .‬در ﺑﻌﻀﻲ ﻣﻮارد ﻣﻲﺗﻮان ﺑﺮاي ﻣﺤﺎﺳﺒﻪ ‪ rπ n‬از ﻟﻢ زﻳﺮ اﺳﺘﻔﺎده ﻛﺮد‪.‬‬ ‫ﺑﺎ وﺟﻮد ﻣﺸﻜﻼت ﻓﻮق در ﺑﺴﻴﺎري ﻣﻮارد ﻧﺎﮔﺰﻳﺮ ﻫﺴﺘﻴﻢ ﻛﻪ از اﻳﻦ ﻗﻀﻴﻪ ﻳﻌﻨﻲ روش ﺑﻴﺰ ﺣﺪي اﺳﺘﻔﺎده‬ ‫ﻛﻨﻴﻢ‪.‬‬ ‫ﻟﻢ‪ :2-1‬اﮔﺮ ‪ δ π‬ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﭘﺎراﻣﺘﺮ ) ‪ γ (θ‬ﻧﺴﺒﺖ ﺑﻪ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ‪ π‬ﺑﺎﺷﺪ و اﮔﺮ‬

‫(‬

‫⎦)‬

‫‪2‬‬ ‫⎥⎤ ) ‪ rπ = E ⎡⎢ δ π (X ) − γ (θ‬ﻣﺨﺎﻃﺮهﺑﻴﺰ آن ﺑﺎﺷﺪ‪ ،‬آﻧﮕﺎه ) ‪ rπ = ∫V ar [γ (θ ) | x ]dP (x‬و اﮔﺮ‬

‫⎣‬

‫وارﻳﺎﻧﺲ ﭘﺴﻴﻦ ﺑﻪ ‪ x‬ﺑﺴﺘﮕﻲ ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ آﻧﮕﺎه ] ‪. rπ =V a r[γ (θ ) | x‬‬

‫(‬

‫)‬

‫‪2‬‬ ‫⎧‬ ‫⎫‬ ‫) ‪rπ = E [(δ π (x ) − γ (θ ))2 ] = ∫ ⎨ E ⎡⎢ γ (θ ) − δ π ( x ) | x ⎤⎥ ⎬ dP (x‬‬ ‫⎭⎦‬ ‫⎣ ⎩‬

‫اﺛﺒﺎت‪:‬‬

‫) ‪= ∫V ar (γ (θ ) | x )dP (x‬‬

‫■‬

‫ﻣﺜﺎل ‪ :4-1‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,...., X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪ N (θ ,σ 2‬ﺑﺎﺷﺪ ﻛﻪ در آن ‪ σ 2‬ﻣﻌﻠﻮم‬ ‫اﺳﺖ‪ .‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ ‪ X‬ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﭘﺎراﻣﺘﺮ ‪ θ‬اﺳﺖ‪.‬‬ ‫ﺣﻞ‪ :‬دﻧﺒﺎﻟﻪ ﺗﻮزﻳﻊﻫﺎي ﭘﻴﺸﻴﻦ ‪ N (0, m 2 ), m = 1, 2, 3,...‬را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﺪ‪ ،‬در اﻳﻦﺻﻮرت‬ ‫∞→ ‪m‬‬

‫‪→ x‬‬

‫‪m 2x‬‬

‫‪σ2‬‬ ‫‪n‬‬

‫‪m +‬‬ ‫‪2‬‬

‫= ) ‪(x‬‬

‫‪πm‬‬

‫‪δ‬‬

‫)‬

‫‪1‬‬ ‫‪n‬‬

‫‪1‬‬ ‫‪+ 2‬‬ ‫‪2‬‬ ‫‪m‬‬ ‫‪σ‬‬

‫‪,‬‬

‫‪m 2x‬‬

‫‪σ2‬‬ ‫‪n‬‬

‫‪m +‬‬ ‫‪2‬‬

‫( ‪θ |x ∼N‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪135‬‬

‫ﻣﺨﺎﻃﺮه ﺑﻴﺰ ‪ δ π m‬ﻋﺒﺎرت اﺳﺖ از‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪m2‬‬

‫‪+‬‬

‫‪n‬‬ ‫‪2‬‬

‫= ) ‪dP (x‬‬

‫‪σ‬‬

‫‪1‬‬ ‫‪1‬‬ ‫‪m2‬‬

‫‪+‬‬

‫∫ = ) ‪rm = r (π m , δ π m ) = ∫V (θ | x )dP (x‬‬

‫‪n‬‬ ‫‪2‬‬

‫‪σ‬‬

‫) ‪= R (θ , x ) = Sup R (θ , x‬‬

‫‪σ2‬‬ ‫‪n‬‬

‫‪Θ‬‬

‫=‬

‫‪1‬‬ ‫‪n‬‬

‫‪1‬‬ ‫‪+ 2‬‬ ‫‪2‬‬ ‫‪σ‬‬ ‫‪m‬‬

‫‪lim rm = lim‬‬

‫∞→ ‪m‬‬

‫∞→ ‪m‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﻃﺒﻖ ﻗﻀﻴﻪ ‪ X ،2-1‬ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﭘﺎراﻣﺘﺮ ‪ θ‬اﺳﺖ‪.‬‬

‫■‬

‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﺜﺎل ﻗﺒﻞ ﺑﺮاي ﻫﺮ ‪ σ 2‬ﻣﻌﻠﻮم دارﻳﻢ ﻛﻪ‬ ‫‪∀δ‬‬ ‫‪∀δ‬‬

‫) ‪Sup R (θ , σ 2 , X ) ≤ Sup R (θ , σ 2 , δ‬‬ ‫‪θ‬‬

‫‪θ‬‬

‫) ‪⇒ Sup Sup R (θ , σ 2 , X ) ≤ Sup Sup R (θ , σ 2 , δ‬‬ ‫‪θ‬‬

‫‪2‬‬

‫‪θ‬‬

‫‪σ‬‬

‫‪2‬‬

‫‪σ‬‬

‫ﺣﺎل اﮔﺮ ‪ σ 2‬ﻧﺎﻣﻌﻠﻮم ﺑﺎﺷﺪ از راﺑﻄﻪ ﻓﻮق ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد ﻛﻪ‬ ‫‪∀δ‬‬

‫) ‪= Sup [Sup R (θ , σ 2 , X )] ≤ Sup Sup R (θ , σ 2 , δ‬‬ ‫‪θ‬‬

‫‪θ‬‬

‫‪σ2‬‬

‫‪σ2‬‬

‫‪σ2‬‬ ‫‪n‬‬

‫‪∞ = Sup‬‬ ‫‪σ2‬‬

‫ﻳﻌﻨﻲ ﻣﺨﺎﻃﺮه ﺗﻤﺎم ﺑﺮآوردﮔﺮﻫﺎ ﻧﺎﻣﺘﻨﺎﻫﻲ اﺳﺖ ﺑﺠﺰ اﻳﻨﻜﻪ ‪ σ 2‬ﻣﺘﻨﺎﻫﻲ ﺑﺎﺷﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﻓﺮض ﻣﻲﻛﻨﻴﻢ ‪σ 2‬‬ ‫‪M‬‬ ‫ﻧﺎﻣﻌﻠﻮم و ‪ σ 2 ≤ M‬ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت‬ ‫‪n‬‬

‫= ) ‪ . Sup Sup R (θ , σ 2 , X‬در اﻳﻦ ﺣﺎﻟﺖ ﻣﻴﻨﻴﻤﺎﻛﺲ‬ ‫‪θ‬‬

‫‪σ2‬‬

‫ﺑﻮدن ﺑﺮآوردﮔﺮ ‪ X‬از ﻗﻀﻴﻪ زﻳﺮ ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد‪.‬‬ ‫ﻗﻀﻴﻪ‪ :3-1‬ﻓﺮض ﻛﻨﻴﺪ ‪ X‬ﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﺑﺎ ﺗﻮزﻳﻊ ‪ F‬از‬ ‫ﺑﺎﺷﺪ و‬

‫‪1‬‬

‫‪ . F o ⊂ F‬اﮔﺮ ‪ δo‬ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ) ‪ g (F‬در‬

‫ﺧﺎﻧﻮاده ‪1‬‬ ‫‪o‬‬

‫‪ F‬و ) ‪ g (F‬ﭘﺎراﻣﺘﺮ ﻣﻮرد ﻧﻈﺮ‬

‫‪ F‬ﺑﺎﺷﺪ و‬

‫)‪Sup R (F , δ0) = Sup R (F , δ0‬‬

‫آﻧﮕﺎه ‪ δo‬ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ) ‪ g (F‬در‬

‫‪1‬‬

‫‪1‬‬

‫‪F∈ F‬‬

‫‪ F‬اﺳﺖ‪.‬‬

‫‪o‬‬

‫‪F ∈F‬‬

‫اﺛﺒﺎت‪ :‬ﺑﺮاي ﻫﺮ ﺑﺮآوردﮔﺮ ‪ δ‬دارﻳﻢ ﻛﻪ‬

‫) ‪Sup R (F , δ ) ≥ Sup R (F , δ ) ≥ Sup R (F , δo ) = Sup R (F , δo‬‬ ‫∈ ‪(*) F‬‬ ‫‪(**) F ∈F‬‬ ‫‪F ∈F‬‬ ‫‪F∈F‬‬ ‫‪Fo‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪o‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫ﻛﻪ در آن ﻧﺎﻣﺴﺎوي )*( از ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن ‪ δo‬در‬ ‫ﭘﺲ ‪ δo‬در ‪ F 1‬ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‪.‬‬

‫‪o‬‬

‫‪136‬‬

‫‪ F‬و ﺗﺴﺎوي )**( از ﻓﺮض ﺣﺎﺻﻞ ﻣﻲﮔﺮدد‪.‬‬

‫■‬

‫اﮔﺮ ﻗﺮار دﻫﻴﻢ‬ ‫}∞〈 ‪= {N (θ ,σ 2 ) : θ ∈ R ,σ 2 ≤ M‬‬

‫‪1‬‬

‫‪ F‬و }∞ < ‪= {N (θ , M ) : θ ∈ R , M‬‬

‫‪o‬‬

‫‪F‬‬

‫‪M‬‬

‫= ) ‪ . SupR (θ , σ 2 , X‬ﺑﻨﺎﺑﺮاﻳﻦ ﻃﺒﻖ ﻗﻀﻴﻪ ‪3-1‬‬ ‫آﻧﮕﺎه ‪ F o ⊂ F 1‬و ) ‪= SupR (θ , σ 2 , X‬‬ ‫‪nF‬‬ ‫‪Fo‬‬ ‫‪F1‬‬ ‫‪Fo‬‬ ‫‪1‬‬ ‫ﻛﺎﻓﻲاﺳﺖ ﻧﺸﺎندﻫﻴﻢ ﻛﻪ ‪ X‬در ‪ F o‬ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ و در ﻧﺘﻴﺠﻪ ‪ X‬در ‪ F 1‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺧﻮاﻫﺪ ﺑﻮد‪.‬‬ ‫اﻣﺎ ﺗﺤﺖ‬

‫‪o‬‬

‫‪F‬‬ ‫‪M‬‬ ‫) ‪= R (θ , X ) = Sup R (θ , X‬‬ ‫‪n‬‬ ‫‪θ‬‬

‫ﭘﺲ ﻃﺒﻖ ﻗﻀﻴﻪ ‪ X 2-1‬در‬

‫‪o‬‬

‫‪ F‬ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‪.‬‬

‫∞→ ‪m‬‬

‫‪1‬‬

‫→‬

‫‪n‬‬ ‫‪1‬‬ ‫‪+ 2‬‬ ‫‪M m‬‬

‫= ‪rm‬‬

‫■‬

‫ﻣﺜﺎل ‪) 5-1‬ﻧﺎﭘﺎراﻣﺘﺮي(‪ :‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,..., X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ ﺑﺎ ﺗﻮزﻳﻊ ﻳﻜﺴﺎن ‪ F‬ﻛﻪ داراي‬ ‫ﻣﻴﺎﻧﮕﻴﻦ ﻣﺘﻨﺎﻫﻲ ‪ θ‬اﺳﺖ‪ ،‬ﺑﺎﺷﺪ‪ .‬ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﭘﺎراﻣﺘﺮ ‪ θ‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم را در ﻫﺮ ﻳﻚ‬ ‫از ﺣﺎﻻت زﻳﺮ ﺑﻪ دﺳﺖ آورﻳﺪ‪.‬‬ ‫اﻟﻒ‪ -‬وارﻳﺎﻧﺲ ﻛﺮاﻧﺪار ∞ < ‪V F ( X i ) ≤ M‬‬ ‫ب‪ -‬ﺣﺪود ﻛﺮاﻧﺪار ∞‪−∞ < a < X i < b < +‬‬

‫)ﺗﻮﺟﻪ ﻛﻨﻴﺪ اﮔﺮ ﻣﺎﻛﺴﻴﻤﻢ ﻣﺨﺎﻃﺮه ﻫﺮ ﺑﺮآوردﮔﺮ ﺑﻲﻧﻬﺎﻳﺖ ﺷﻮد آﻧﮕﺎه ﻣﺴﺌﻠﻪ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻣﻨﺘﻔﻲ اﺳﺖ ﭘﺲ‬ ‫ﺷﺮاﻳﻂ ﻓﻮق را ﺑﺮاي ﮔﺮﻳﺰ از اﻳﻦ ﻣﻮﺿﻮع در ﻣﺴﺌﻠﻪ اﻋﻤﺎل ﻛﺮده اﻳﻢ(‬ ‫ﺣﻞ ‪ :‬اﻟﻒ‪ -‬اﮔﺮ ﻗﺮار دﻫﻴﻢ‬

‫}‬

‫{‬

‫∞ < ‪= N (θ ,σ 2 ) | σ 2 ≤ M‬‬

‫‪o‬‬

‫‪F‬‬

‫}∞ < ‪F 1 = {F | E F (X i ) = θ , V F (X i ) ≤ M‬‬

‫در اﻳﻦ ﺻﻮرت ‪ F o ⊂ F 1‬و ﻃﺒﻖ ﺑﺤﺚ ﻗﺒﻞ از اﻳﻦ ﻣﺜﺎل ‪ X‬در‬

‫‪o‬‬

‫‪ F‬ﺑﺮآوردﮔﺮي ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ و‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪137‬‬

‫‪M‬‬ ‫⎧‬ ‫‪2‬‬ ‫‪⎪Sup R (θ ,σ , X ) = n‬‬ ‫‪⎪ Fo‬‬ ‫⎨‬ ‫‪2‬‬ ‫‪⎪Sup R (θ , σ 2 , X ) = Sup V (X ) = Sup σ = M‬‬ ‫‪⎪ F1‬‬ ‫‪n‬‬ ‫‪F1‬‬ ‫‪F1 n‬‬ ‫⎩‬

‫ﭘﺲ ﺷﺮاﻳﻂ ﻗﻀﻴﻪ ‪ 3-1‬ﺑﺮﻗﺮار اﺳﺖ‪ ،‬ﻳﻌﻨﻲ ‪ X‬در ‪ F 1‬ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‪.‬‬ ‫ب‪ -‬ﺑﺪون از دﺳﺖ دادن ﻛﻠﻴﺖ ﻣﺴﺌﻠﻪ ﻓﺮض ﻣﻲ ﻛﻨﻴﻢ ‪ b = 1‬و ‪ ، a = 0‬ﻗﺮار ﻣﻲ دﻫﻴﻢ‬ ‫}‪o = {B (1, θ ) | 0 < θ < 1‬‬

‫‪F‬‬

‫}‪F 1 = {F | F (1) − F (0) = 1‬‬

‫ﭘﺲ ‪ F o ⊂ F 1‬و در ﻣﺜﺎل ‪ 1-1‬دﻳﺪﻳﻢ ﻛﻪ‬ ‫‪1‬‬ ‫) ‪2(1 + n‬‬

‫ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ در‬

‫‪o‬‬

‫‪X +‬‬

‫‪n‬‬ ‫‪1+ n‬‬

‫=‬

‫‪n‬‬ ‫‪n‬‬ ‫‪+ ∑X i‬‬ ‫‪2 i =1‬‬

‫= ) ‪δo ( X‬‬

‫‪n+ n‬‬

‫‪ F‬ﻣﻲﺑﺎﺷﺪ‪ .‬ﺣﺎل ﻃﺒﻖ ﻗﻀﻴﻪ ‪ 3-1‬ﻛﺎﻓﻲ اﺳﺖ ﻧﺸﺎن دﻫﻴﻢ ﻛﻪ ﻣﺎﻛﺴﻴﻤﻢ‬

‫ﻣﺨﺎﻃﺮه ‪ δo‬در ‪ F o‬و ‪ F 1‬ﻳﻜﻲ اﺳﺖ‪.‬‬ ‫‪1‬‬ ‫‪4(1 + n )2‬‬ ‫‪2‬‬

‫= ) ‪⇒ Sup R (θ , δo‬‬ ‫‪o‬‬

‫‪F‬‬

‫‪1‬‬ ‫‪2‬‬

‫) ‪4(1 + n‬‬

‫= ) ‪ : R (θ , δo‬ﺗﺤﺖ‬

‫‪⎡ n‬‬ ‫⎤‬ ‫‪1‬‬ ‫⎢ ‪ : R (θ , δo ) = E‬ﺗﺤﺖ‬ ‫⎥ ‪−θ‬‬ ‫‪X +‬‬ ‫) ‪2(1 + n‬‬ ‫‪⎣1 + n‬‬ ‫⎦‬ ‫‪n‬‬

‫‪o‬‬

‫‪F‬‬

‫‪F1‬‬

‫‪n‬‬ ‫‪1‬‬ ‫( ‪V (X ) +‬‬ ‫‪θ+‬‬ ‫‪− θ )2‬‬ ‫‪1+ n‬‬ ‫) ‪2(1 + n‬‬ ‫) ‪(1 + n‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫=‬ ‫] ‪[V F ( X 1) + ( − θ )2‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫) ‪(1 + n‬‬ ‫‪2‬‬

‫=‬

‫‪V F (X 1) = E (X − θ )2 = E (X 2 ) − θ 2 ≤ E (X ) − θ 2 = θ − θ 2‬‬ ‫زﻳﺮا ‪0 ≤ X ≤ 1 ⇒ X 2 ≤ X‬‬ ‫‪1‬‬

‫‪1‬‬ ‫‪1‬‬ ‫= ] ‪[(θ − θ 2 ) + ( − θ )2‬‬ ‫‪2‬‬ ‫) ‪(1 + n‬‬ ‫‪4(1 + n )2‬‬ ‫‪2‬‬

‫) ‪= Sup R (θ , δo‬‬

‫‪1‬‬ ‫‪4(1 + n )2‬‬

‫‪Fo‬‬ ‫ﭘﺲ ﻃﺒﻖ ﻗﻀﻴﻪ ‪ δo (X ) ، 3-1‬در ‪ F 1‬ﺑﺮاي ‪ θ‬ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‪.‬‬

‫■‬

‫≤ ) ‪∴ R (δo ,θ‬‬

‫= ) ‪⇒ Sup R (θ , δo‬‬ ‫‪1‬‬

‫‪F‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪138‬‬

‫ﺑﺨﺶ ‪ : 2‬ﺗﺼﻤﻴﻢﻫﺎي ﻣﺠﺎز ‪) 1‬ﭘﺬﻳﺮﻓﺘﻨﻲ(‬ ‫در ﻳﻚ ﻣﺴﺌﻠﻪ ﺗﺼﻤﻴﻢ ﻛﻼس ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ ‪ D‬ﻣﻌﻤﻮﻻً ﻛﻼس ﺑﺰرﮔﻲ اﺳﺖ و اﻧﺘﺨﺎب اﻳﻨﻜﻪ ﻛﺪام ﺗﺼﻤﻴﻢ‬ ‫‪ δ ∈ D‬را ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار دﻫﻴﻢ ﻛﺎر ﻣﺸﻜﻠﻲ ﻣﻲ ﺑﺎﺷﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺎﻳﺴﺘﻲ ﻳﻚ زﻳﺮ ﻛﻼس ‪ C‬از ‪ D‬ﭘﻴﺪا‬ ‫ﻛﻨﻴﻢ ﻛﻪ در اﻳﻦ ﻛﻼس ﻛﻠﻴﻪ ﺗﺼﻤﻴﻢﻫﺎي ﺧﻮب ﻗﺮار داﺷﺘﻪ ﺑﺎﺷﻨﺪ‪ .‬ﺣﺎل ﭼﻮن اﻳﻦ ﻛﻼس ‪ C‬ﻳﻚ ﻛﻼس‬ ‫ﻛﻮﭼﻜﺘﺮ اﺳﺖ‪ ،‬ﭘﻴﺪا ﻛﺮدن ﻳﻚ ﺗﺼﻤﻴﻢ ﺧﻮب در آن راﺣﺖﺗﺮ ﻣﻲ ﺑﺎﺷﺪ‪ .‬در اﻳﻦ ﻗﺴﻤﺖ ﻛﻼﺳﻲ از ﺗﻮاﺑﻊ‬ ‫ﺗﺼﻤﻴﻢ ﺧﻮب را ﺑﺎ اﺳﺘﻔﺎده از ﻣﺤﻚ ﻣﺠﺎز ﺑﻮدن ‪ 2‬ﺗﻌﺮﻳﻒ ﻣﻲﻛﻨﻴﻢ و ﻧﺤﻮهي ﺑﺪﺳﺖ آوردن اﻳﻦ ﺗﺼﻤﻴﻢﻫﺎ‬ ‫را اراﺋﻪ ﻣﻲدﻫﻴﻢ‪.‬‬

‫ﻣﻘﺎﻳﺴﻪ ﺗﺼﻤﻴﻢﻫﺎ‪:‬‬ ‫ﺗﻌﺮﻳﻒ ‪ : 1-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ δ1‬و ‪ δ 2‬دو ﺗﺼﻤﻴﻢ ﺑﺎ ﺗﻮاﺑﻊ ﻣﺨﺎﻃﺮه )‪ R (θ , δ1‬و ) ‪ R (θ , δ2‬ﺑﺎﺷﻨﺪ‪.‬‬ ‫اﻟﻒ‪ -‬ﺗﺼﻤﻴﻢ ‪ δ1‬را ﺑﻪ ﺧﻮﺑﻲ ‪ δ 2 3‬ﮔﻮﻳﻨﺪ اﮔﺮ‪:‬‬

‫‪R (θ , δ1) ≤ R (θ , δ 2 ) ∀θ ∈ Θ‬‬

‫ب‪ -‬ﺗﺼﻤﻴﻢ ‪ δ1‬را ﺑﻬﺘﺮ از ‪ δ 2 4‬ﮔﻮﻳﻨﺪ اﮔﺮ ‪:‬‬

‫‪R (θ , δ1) ≤ R (θ , δ 2 ) ∀θ ∈ Θ‬‬

‫و ﺑﺮاي ﺑﻌﻀﻲ ‪ θ ∈ Θ‬داﺷﺘﻪ ﺑﺎﺷﻴﻢ ﻛﻪ‪:‬‬

‫) ‪. R (θ , δ1) < R (θ , δ 2‬‬ ‫‪R (θ , δ1) = R (θ , δ 2 ) ∀θ ∈ Θ‬‬

‫ج – ﺗﺼﻤﻴﻢ ‪ δ1‬را ﻫﻢ ارز ‪ δ 2 5‬ﮔﻮﻳﻨﺪ اﮔﺮ‪:‬‬

‫د‪ -‬ﺗﺼﻤﻴﻢﻫﺎي ‪ δ1‬و ‪ δ 2‬را ﻏﻴﺮﻗﺎﺑﻞ ﻣﻘﺎﻳﺴﻪ ﮔﻮﻳﻨﺪ ﻫﺮﮔﺎه ﻫﻴﭽﻜﺪام از ﺳﻪ ﺣﺎﻟﺖ ﺑﺎﻻ ﺑﺮﻗﺮار ﻧﺒﺎﺷﺪ‪.‬‬ ‫ﻣﺜﺎل ‪ :1-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,..., X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪ N ( μ ,σ 2‬ﺑﺎﺷﺪ‪ .‬ﻣﻲ داﻧﻴﻢ ﻛﻪ ‪S 2‬‬

‫ﺑﺮآوردﮔﺮ ‪ UMVU‬ﺑﺮاي ﭘﺎراﻣﺘﺮ ‪ σ 2‬اﺳﺖ‪ .‬ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ در ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ‪ cS 2‬ﺑﺮآوردﮔﺮي‬ ‫ﺑﻬﺘﺮ از ‪ S 2‬وﺟﻮد دارد‪.‬‬ ‫ﺣﻞ‪:‬‬

‫در‬

‫ﻓﺼﻞ‬

‫ﻣﺮﺑﻮط‬

‫ﺑﺮآوردﮔﺮﻫﺎي‬

‫ﺑﻪ‬

‫ﻧﺎارﻳﺐ‬

‫ﻧﺸﺎن‬

‫دادﻳﻢ‬

‫ﻛﻪ‬

‫ﺑﺮآوردﮔﺮ‬

‫‪n −1 2‬‬ ‫‪1 n‬‬ ‫= ‪ S‬ﻛﻪ ﻳﻚ ﺑﺮآوردﮔﺮ ‪ MRE‬اﺳﺖ داراي ﻣﺨﺎﻃﺮه ﻛﻤﺘﺮي‬ ‫= ‪S‬‬ ‫‪( X i − X )2‬‬ ‫∑‬ ‫‪n +1‬‬ ‫‪n + 1 i =1‬‬ ‫‪2‬‬

‫‪١‬‬

‫‪Admissible Decisions‬‬ ‫‪Admissibility‬‬ ‫‪٣‬‬ ‫‪As Good As‬‬ ‫‪٤‬‬ ‫‪Better Than‬‬ ‫‪٥‬‬ ‫‪Equivalent‬‬ ‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫ﻧﺴﺒﺖ ﺑﻪ ‪ S 2‬اﺳﺖ ﻳﻌﻨﻲ ‪∀σ 2‬‬

‫‪139‬‬

‫‪ R (σ 2 , S 2 ) < R (σ 2 , S 2 ),‬ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ ‪ S 2‬در ﻛﻼس ‪cS 2‬‬

‫■‬

‫ﺑﻬﺘﺮﻳﻦ ﺑﺮآوردﮔﺮ اﺳﺖ‪.‬‬

‫ﻣﺜﺎل ‪ :2-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2‬ﻧﻤﻮﻧﻪ اي ﺗﺼﺎدﻓﻲ از ) ‪ N ( μ ,σ 2‬ﺑﺎﺷﻨﺪ ﺑﺮآوردﮔﺮﻫﺎي زﻳﺮ را ﺑﺮاي‬ ‫ﭘﺎراﻣﺘﺮ ‪ μ‬در ﻧﻈﺮ ﺑﮕﻴﺮﻳﺪ‪.‬‬ ‫‪1‬‬ ‫‪2‬‬

‫‪1‬‬ ‫‪2‬‬

‫‪3‬‬ ‫‪4‬‬

‫‪1‬‬ ‫‪4‬‬

‫‪3‬‬ ‫‪4‬‬

‫‪1‬‬ ‫‪2‬‬

‫‪1‬‬ ‫‪4‬‬

‫‪1‬‬ ‫‪2‬‬

‫‪δ1 = X 1 + X 2 , δ 2 = X 1 + X 2 , δ 3 = X 1 + X 2 , δ 4 = X 1 + X 2 + 1‬‬

‫اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺎﺷﺪ اﻳﻦ ‪ 4‬ﺑﺮآوردﮔﺮ را ﺑﺎ ﻳﻜﺪﻳﮕﺮ ﻣﻘﺎﻳﺴﻪ ﻛﻨﻴﺪ‪.‬‬ ‫ﺣﻞ‪:‬‬ ‫‪1‬‬ ‫‪1 9‬‬ ‫‪5‬‬ ‫‪R ( μ , δ1) =V (δ1) = σ 2‬‬ ‫‪R ( μ , δ 2 ) =V (δ 2 ) = ( + )σ 2 = σ 2‬‬ ‫‪2‬‬ ‫‪16 16‬‬ ‫‪8‬‬ ‫‪9 1‬‬ ‫‪5‬‬ ‫‪1‬‬ ‫‪R ( μ , δ 3 ) =V (δ 3 ) = ( + )σ 2 = σ 2‬‬ ‫‪R ( μ , δ 4 ) =V (δ 4 ) = σ 2 + 1‬‬ ‫‪16 16‬‬ ‫‪8‬‬ ‫‪2‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ‪ δ1‬ﺑﻬﺘﺮ از ‪ δ 2‬و ‪ δ 3‬و ‪ δ 4‬اﺳﺖ و ‪ δ 2‬ﻫﻢ ارز ‪ δ 3‬اﺳﺖ و ‪ δ 4‬ﺑﺎ ‪ δ 2‬و ‪ δ 3‬ﻗﺎﺑﻞ ﻣﻘﺎﻳﺴﻪ‬ ‫ﻧﻴﺴﺖ‬

‫زﻳﺮا‬

‫اﮔﺮ‬

‫‪σ2 ≥ 8‬‬

‫) ‪. R (μ ,δ 4 ) > R (μ ,δ2‬‬

‫) ‪R (μ ,δ 4 ) ≤ R (μ , δ2‬‬

‫آﻧﮕﺎه‬

‫و‬

‫اﮔﺮ‬

‫‪σ2 < 8‬‬

‫آﻧﮕﺎه‬

‫■‬

‫ﺗﻌﺮﻳﻒ ‪ 1-2‬ﻣﻘﺎﻳﺴﻪاي را ﺑﻴﻦ ﺗﻤﺎم ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ ﺑﻮﺟﻮد ﻧﻤﻲآورد و ﺗﻨﻬﺎ ﻳﻚ ﺗﺮﺗﻴﺐ را روي ﻛﻼس‬ ‫ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ ‪ D‬ﺗﻌﺮﻳﻒ ﻣﻲ ﻛﻨﺪ‪.‬‬ ‫ﺗﻌﺮﻳﻒ ‪ :2-2‬ﻳﻚ ﺗﺼﻤﻴﻢ ‪ δ‬را ﻣﺠﺎز ‪ 1‬ﮔﻮﻳﻨﺪ ﻫﺮﮔﺎه ﺗﺼﻤﻴﻢ دﻳﮕﺮي ﻣﺎﻧﻨﺪ ‪ δ ′ ∈ D‬وﺟﻮد ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ‬ ‫ﻛﻪ از ‪ δ‬ﺑﻬﺘﺮ ﺑﺎﺷﺪ‪ .‬ﻳﻚ ﺗﺼﻤﻴﻢ ‪ δ‬را ﻏﻴﺮ ﻣﺠﺎز ‪ 2‬ﮔﻮﻳﻨﺪ اﮔﺮ ﺗﺼﻤﻴﻢ دﻳﮕﺮي ﻣﺎﻧﻨﺪ ‪ δ ′ ∈ D‬وﺟﻮد‬ ‫داﺷﺘﻪ ﺑﺎﺷﺪ ﻛﻪ از ‪ δ‬ﺑﻬﺘﺮ ﺑﺎﺷﺪ‪.‬‬

‫■‬

‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﺜﺎل ‪ 1-2‬در ﺧﺎﻧﻮاده ) ‪ N ( μ ,σ 2‬ﺑﺮآوردﮔﺮ ‪ S 2‬ﺑﺮاي ‪ σ 2‬ﻏﻴﺮ ﻣﺠﺎز اﺳﺖ زﻳﺮا‬ ‫‪n −1 2‬‬ ‫ﺑﺮآوردﮔﺮ ‪S‬‬ ‫‪n +1‬‬

‫= ‪ S 2‬از آن ﺑﻬﺘﺮ اﺳﺖ‪ .‬اﻣﺎ ﺧﻮد ﺑﺮآوردﮔﺮ ‪ S 2‬ﻧﻴﺰ ﻣﺠﺎز ﻧﻴﺴﺖ و ﺗﻮﺳﻂ‬

‫)‪ Brewster and Zidek (1974‬ﺑﺮآوردﮔﺮ ﺑﻬﺘﺮ از آن ﭘﻴﺪا ﺷﺪه اﺳﺖ‪.‬‬ ‫‪admissible‬‬ ‫‪inadmissible‬‬

‫‪١‬‬ ‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪140‬‬

‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺗﻌﺮﻳﻒ ‪ 3-2‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز ﺗﺼﻤﻴﻢ ﺧﻮﺑﻲ اﺳﺖ زﻳﺮا ﻫﻴﭻ ﺗﺼﻤﻴﻢ دﻳﮕﺮي ﺑﺮ آن ارﺟﺤﻴﺖ‬ ‫ﻧﺪارد و ﻳﻚ ﺗﺼﻤﻴﻢ ﻏﻴﺮﻣﺠﺎز ﺗﺼﻤﻴﻢ ﺑﺪي اﺳﺖ زﻳﺮا ﺗﺼﻤﻴﻢ دﻳﮕﺮي وﺟﻮد دارد ﻛﻪ ﺑﺮ آن ارﺟﺤﻴﺖ‬ ‫دارد‪ .‬ﺑﺎ اﻳﻦ وﺟﻮد ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ ﻣﺠﺎز ﺑﻮدن واﻗﻌﺎً ﻳﻚ ﺧﺎﺻﻴﺖ ﻣﺜﺒﺖ ﻧﻴﺴﺖ و ﻫﻤﭽﻨﻴﻦ ﺧﺎﺻﻴﺖ ﻣﻨﻔﻲ‬ ‫ﻧﻴﺰ ﻧﻴﺴﺖ‪ ،‬ﻳﻌﻨﻲ ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز ﻟﺰوﻣﺎً ﺑﻪ ﻃﻮر ﻳﻜﻨﻮاﺧﺖ ﺧﻮب ﻧﻴﺴﺖ و ﻫﻤﭽﻨﻴﻦ ﺑﻪ ﻃﻮر ﻳﻜﻨﻮاﺧﺖ‬ ‫ﻧﻴﺰ ﺑﺪ ﻧﻤﻲ ﺑﺎﺷﺪ‪ .‬اﮔﺮ ﺑﺪاﻧﻴﻢ ﻛﻪ ﻳﻚ ﺗﺼﻤﻴﻢ ﻏﻴﺮ ﻣﺠﺎز اﺳﺖ‪ ،‬در اﻳﻦ ﺻﻮرت ﺑﺎﻳﺴﺘﻲ دﻧﻴﺎل ﺗﺼﻤﻴﻤﻲ‬ ‫ﺑﮕﺮدﻳﻢ ﻛﻪ از آن ﺑﻬﺘﺮ ﺑﺎﺷﺪ‪ .‬اﻣﺎ اﮔﺮ ﺑﺪاﻧﻴﻢ ﻛﻪ ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز اﺳﺖ دﻟﻴﻞ ﺑﺮ آن ﻧﻴﺴﺖ ﻛﻪ ﺣﺘﻤﺎً از اﻳﻦ‬ ‫ﺗﺼﻤﻴﻢ اﺳﺘﻔﺎده ﻛﻨﻴﻢ زﻳﺮا در ﺧﻴﻠﻲ از ﻣﻮارد ﺗﺼﻤﻴﻢﻫﺎي ﻣﺠﺎز زﻳﺎدي وﺟﻮد دارد )ﻣﺜﺎل ‪ 4-2‬را ﻣﻼﺣﻈﻪ‬ ‫ﻛﻨﻴﺪ( ﻛﻪ ﺑﻌﻀﻲ ﻣﻌﻘﻮل و ﺑﻌﻀﻲ ﻏﻴﺮﻣﻌﻘﻮل ﻫﺴﺘﻨﺪ و ﺑﻌﻀﻲ ﺑﻪ ﺳﺨﺘﻲ ﻗﺎﺑﻞ ﻣﺤﺎﺳﺒﻪ ﻫﺴﺘﻨﺪ‪ .‬ﺑﻪ ﻣﺜﺎل زﻳﺮ‬ ‫ﺗﻮﺟﻪ ﻛﻨﻴﺪ‪.‬‬ ‫‪1‬‬ ‫ﻣﺜﺎل ‪ :3-2‬ﻓﺮض ﻛﻨﻴﺪ ) ‪ X ~ B (10,θ‬ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ‬ ‫‪3‬‬

‫= ) ‪ δ (X‬ﺑﺮآوردﮔﺮي ﻣﺠﺎز ﺑﺮاي ‪ θ‬ﺗﺤﺖ‬

‫‪X‬‬ ‫ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم اﺳﺖ و آن را ﺑﺎ ﺑﺮآوردﮔﺮ ‪ UMVU‬ﭘﺎراﻣﺘﺮ ‪ θ‬ﻳﻌﻨﻲ‬ ‫‪10‬‬ ‫‪1‬‬ ‫ﺣﻞ‪ :‬ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ﺑﺮآورد ‪ δ‬در = ‪ p‬ﻋﺒﺎرت اﺳﺖ از‬ ‫‪3‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫] ‪R ( , δ ) = E [(δ (x ) − )2‬‬ ‫‪3‬‬ ‫‪3‬‬

‫= ) ‪ δ ∗ (X‬ﻣﻘﺎﻳﺴﻪ ﻛﻨﻴﺪ‪.‬‬

‫‪10‬‬

‫‪10‬‬ ‫‪1 2‬‬ ‫‪1 1‬‬ ‫‪= ∑ (δ ( x ) − ) P 1 ( X = x ) = ∑ ( − )2 P 1 ( X = x ) = 0‬‬ ‫=‪P‬‬ ‫=‪P‬‬ ‫‪3‬‬ ‫‪3‬‬ ‫‪x =0‬‬ ‫‪x =0 3‬‬ ‫‪3‬‬ ‫‪3‬‬

‫ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ ) ‪ δ ′(x‬ﺑﺮآوردﮔﺮ دﻳﮕﺮ ﺑﻪ ﺧﻮﺑﻲ ) ‪ δ (x‬ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت‬ ‫‪1‬‬

‫‪R ( ,δ ′)≥0‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪3‬‬ ‫‪→ R ( , δ ′) = 0 ⇒ E [(δ ′(x ) − )2 ] = 0‬‬ ‫⎯⎯⎯⎯ ‪R ( , δ ′) ≤ R ( , δ ) = 0‬‬ ‫‪3‬‬ ‫‪3‬‬ ‫‪3‬‬ ‫‪3‬‬

‫‪1‬‬ ‫‪1‬‬ ‫⎛‬ ‫⎞‬ ‫‪⇒ P ⎜ (δ ′(x ) − )2 = 0⎟ = 1 ⇒ P (δ ′(x ) = ) = 1‬‬ ‫‪3‬‬ ‫‪3‬‬ ‫⎝‬ ‫⎠‬

‫ﺑﻨﺎﺑﺮاﻳﻦ اﮔﺮ ‪ δ ′‬ﺑﺨﻮاﻫﺪ ﺑﻪ ﺧﻮﺑﻲ ‪ δ‬ﺑﺎﺷﺪ ﺑﺎﻳﺴﺘﻲ ﺑﺎ اﺣﺘﻤﺎل ﻳﻚ ﺑﺎ ‪ δ‬ﺑﺮاﺑﺮ ﺑﺎﺷﺪ‪ .‬ﺣﺎل اﮔﺮ ‪ δ ′‬ﺑﻬﺘﺮ از‬ ‫‪ δ‬ﺑﺎﺷﺪ آﻧﮕﺎه ﺑﻪ ﺧﻮﺑﻲ ‪ δ‬اﺳﺖ و در ﻧﺘﻴﺠﻪ ﺑﺎز ﻫﻢ ﺑﺎﻳﺴﺘﻲ ‪ δ ′‬و ‪ δ‬ﺑﺎ اﺣﺘﻤﺎل ﻳﻚ ﺑﺎ ﻫﻢ ﺑﺮاﺑﺮ ﺑﺎﺷﻨﺪ و‬ ‫در ﻧﺘﻴﺠﻪ ﻫﻴﭻ ﺑﺮآوردﮔﺮي ﺑﻬﺘﺮ از ‪ δ‬وﺟﻮد ﻧﺪارد و در ﻧﺘﻴﺠﻪ ‪ δ‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻣﺠﺎز اﺳﺖ‪.‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪141‬‬

‫‪1‬‬ ‫‪1‬‬ ‫ﺗﻨﻬﺎ ﻣﺰﻳﺖ ﺑﺮآوردﮔﺮ ﻣﺠﺎز = ) ‪ δ (X‬اﻳﻦ اﺳﺖ ﻛﻪ در‬ ‫‪3‬‬ ‫‪3‬‬ ‫‪X‬‬ ‫اﺳﺖ و در ﻣﻘﺎﻳﺴﻪ ﺑﺎ ﺑﺮآوردﮔﺮ ‪UMVU‬ي = ) ‪ δ * (X‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻏﻴﺮﻣﻌﻘﻮل اﺳﺖ‪ .‬ﻣﻘﺎﻳﺴﻪ‬ ‫‪10‬‬

‫= ‪ θ‬ﻣﺨﺎﻃﺮه آن از ﻫﺮ ﺑﺮآوردﮔﺮي ﻛﻤﺘﺮ‬

‫ﻣﺨﺎﻃﺮه اﻳﻦ دو ﺑﺮآوردﮔﺮ ﻧﺸﺎن ﻣﻲ دﻫﺪ ﻛﻪ در ﺑﻴﺸﺘﺮ ﻧﻘﺎط‬ ‫‪1‬‬ ‫ﻓﺎﺻﻠﻪ ) ‪,‬‬ ‫‪ θ ∈ (01‬ﺑﺮآوردﮔﺮ ‪ UMVU‬ﺑﻬﺘﺮ از‬ ‫‪3‬‬

‫= ) ‪δ (X‬‬

‫‪1‬‬ ‫ﻋﻤﻞ ﻣﻲ ﻛﻨﺪ و ﺑﺮآوردﮔﺮ ‪ δ‬ﺗﻨﻬﺎ در ﻧﻘﻄﻪ ي‬ ‫‪3‬‬

‫ﺧﻮب ﻋﻤﻞ ﻣﻲ ﻛﻨﺪ‪.‬‬

‫=‪θ‬‬

‫) ‪R (θ , δ‬‬

‫‪1‬‬ ‫‪R (θ , δ ) = ( − θ )2‬‬ ‫‪3‬‬ ‫) ‪θ (1 − θ‬‬ ‫= ) * ‪R (θ , δ‬‬ ‫‪10‬‬

‫■‬ ‫ﺑﺎ اﺳﺘﻔﺎده از ﺗﻌﺮﻳﻒ ‪ 1-2‬در زﻳﺮ ﻛﻼﺳﻲ از ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ را ﻣﻌﺮﻓﻲ ﻣﻲ ﻛﻨﻴﻢ ﻛﻪ ﺷﺎﻣﻞ ﺗﻤﺎم ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ‬ ‫ﺧﻮب اﺳﺖ‪.‬‬ ‫ﺗﻌﺮﻳﻒ ‪ :3-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ D‬ﻛﻼﺳﻲ ﻛﻠﻴﻪ ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ ﺑﺎﺷﺪ و ‪ C‬ﻛﻼﺳﻲ از ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ و زﻳﺮ ﻛﻼﺳﻲ‬ ‫از ‪ D‬ﺑﺎﺷﺪ ‪. C ⊂ D‬‬ ‫اﻟﻒ‪ -‬ﻛﻼس ‪ C‬را ﻳﻚ ﻛﻼس ﻛﺎﻣﻞ ‪ 1‬ﮔﻮﻳﻨﺪ اﮔﺮ ﺑﺮاي ﻫﺮ ﺗﺼﻤﻴﻢ ‪ δ ′ ∉ C‬ﻳﻚ ﺗﺼﻤﻴﻢ ‪ δ ∈ C‬وﺟﻮد‬ ‫داﺷﺘﻪ ﻛﻪ ‪ δ‬ﺑﻬﺘﺮ از ‪ δ ′‬ﺑﺎﺷﺪ‪.‬‬

‫ب‪ -‬ﻛﻼس ‪ C‬را ﻳﻚ ﻛﻼس اﺳﺎﺳﺎ ﻛﺎﻣﻞ ‪ 2‬ﮔﻮﻳﻨﺪ اﮔﺮ ﺑﺮاي ﻫﺮ ﺗﺼﻤﻴﻢ ‪ δ ′ ∉ C‬ﻳﻚ ﺗﺼﻤﻴﻢ ‪δ ∈ C‬‬ ‫وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﻛﻪ ‪ δ‬ﺑﻪ ﺧﻮﺑﻲ ‪ δ ′‬ﺑﺎﺷﺪ‪.‬‬

‫■‬

‫ﻗﻀﻴﻪﻫﺎي زﻳﺮ راﺑﻄﻪ ﺗﺼﻤﻴﻢﻫﺎي ﻣﺠﺎز و ﻛﻼسﻫﺎي ﻛﺎﻣﻞ و اﺳﺎﺳﺎ ﻛﺎﻣﻞ را ﻧﺸﺎن ﻣﻲدﻫﺪ‪.‬‬ ‫ﻗﻀﻴﻪ‪ :1-2‬اﮔﺮ ‪ C‬ﻳﻚ ﻛﻼس ﻛﺎﻣﻞ ﺑﺎﺷﺪ آﻧﮕﺎه ﻛﻼس ﻛﻠﻴﻪ ﺗﺼﻤﻴﻢﻫﺎي ﻣﺠﺎز ‪ A‬درون ‪ C‬ﻗﺮار دارد‬ ‫) ‪.(A ⊂ C‬‬ ‫‪complete‬‬ ‫‪essentially complete‬‬

‫‪١‬‬ ‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪142‬‬

‫اﺛﺒﺎت‪ :‬ﻓﺮض ﻛﻨﻴﺪ ‪ δ ′‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز ﺑﺎﺷﺪ) ‪ (δ ′ ∈A‬وﻟﻲ ‪ . δ ′ ∉ C‬در اﻳﻦﺻﻮرت ﻃﺒﻖ ﺗﻌﺮﻳﻒ‬ ‫ﺑﺎﻳﺴﺘﻲ ﻳﻚ ‪ δ ∈ C‬وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﻛﻪ ‪ δ‬از ‪ δ ′‬ﺑﻬﺘﺮ ﺑﺎﺷﺪ و ﭼﻮن ‪ δ ′‬ﻣﺠﺎز اﺳﺖ اﻳﻦ اﻣﻜﺎن ﻧﺪارد‬ ‫ﭘﺲ ﺑﺎﻳﺴﺘﻲ ‪ δ ′ ∈ C‬ﺑﺎﺷﺪ و در ﻧﺘﻴﺠﻪ ‪ δ ′ ∈ A ⇒ δ ′ ∈C‬ﭘﺲ ‪.A ⊂ C‬‬ ‫ﻗﻀﻴﻪ‪ :2-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ C‬ﻳﻚ ﻛﻼس اﺳﺎﺳﺎ ﻛﺎﻣﻞ ﺑﺎﺷﺪ ‪ .‬اﮔﺮ ‪ δ ′ ∉ C‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز ﺑﺎﺷﺪ آﻧﮕﺎه ﻳﻚ‬ ‫ﺗﺼﻤﻴﻢ ‪ δ ∈ C‬وﺟﻮد دارد ﺑﻄﻮري ﻛﻪ ﻫﻢ ارز ‪ δ ′‬اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﭼﻮن ‪ C‬اﺳﺎﺳﺎ ﻛﺎﻣﻞ اﺳﺖ و ‪ δ ′ ∉ C‬ﭘﺲ ﻳﻚ ﺗﺼﻤﻴﻢ‬ ‫‪∀θ ∈ Θ‬‬

‫‪ R (θ , δ ) ≤ R (θ , δ ′),‬وﭼﻮن ‪ δ ′‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز اﺳﺖ ﭘﺲ ﻧﺎﻣﺴﺎوي ﻓﻮق ﺑﻄﻮر اﻛﻴﺪ‬

‫ﺑﺮاي ﻫﻴﭻ ‪ θ ∈ Θ‬ﺑﺮﻗﺮار ﻧﻴﺴﺖ ﭘﺲ ‪∀θ ∈ Θ‬‬

‫ﻫﺴﺘﻨﺪ‪.‬‬

‫‪ δ ∈ C‬وﺟﻮد دارد ﺑﻄﻮري ﻛﻪ‬

‫‪ R (θ , δ ) = R (θ , δ ′),‬ﻳﻌﻨﻲ ‪ δ‬و ‪ δ ′‬ﻫﻢ ارز‬

‫■‬

‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺗﻌﺮﻳﻒ و ﻗﻀﺎﻳﺎي ﺑﺎﻻ ﺑﺎﻳﺴﺘﻲ ﺗﻮﺟﻪ ﺧﻮد را ﺑﻪ ﻛﻼس ﺗﻮاﺑﻊ ﺗﺼﻤﻴﻢ ﻛﺎﻣﻞ ﻣﻌﻄﻮف ﻛﻨﻴﻢ و در‬ ‫اﻳﻦ ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ﻣﺠﺎز را ﭘﻴﺪا ﻛﻨﻴﻢ‪.‬‬

‫روشﻫﺎي ﺑﺪﺳﺖ آوردن ﺑﺮآوردﮔﺮﻫﺎ و ﺗﺼﻤﻴﻢﻫﺎي ﻣﺠﺎز‬ ‫در زﻳﺮ ﻗﻀﺎﻳﺎﻳﻲ را ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺗﺼﻤﻴﻢﻫﺎي ﻣﺠﺎز و ﻏﻴﺮﻣﺠﺎز ﻣﻲآورﻳﻢ ﻛﻪ ﻋﻤﺪه اﻧﻬﺎ در ﻣﻮرد‬ ‫ﺑﺮآوردﮔﺮﻫﺎي ﻣﺠﺎز اﺳﺖ‪.‬‬ ‫ﻗﻀﻴﻪ‪ :3-2‬اﮔﺮ ‪ δ π‬ﻳﻚ ﺗﺼﻤﻴﻢ ﺑﻴﺰ ﻳﻜﺘﺎ ﻧﺴﺒﺖ ﺑﻪ ﭼﮕﺎﻟﻲ ﭘﻴﺸﻴﻦ ) ‪ π (θ‬و ﺗﺎﺑﻊ زﻳﺎن ) ‪ L (θ , δ‬ﺑﺎﺷﺪ‬ ‫آﻧﮕﺎه ‪ δ π‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﻓﺮض ﻛﻨﻴﺪ ‪ δ π‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز ﻧﺒﺎﺷﺪ در اﻳﻦ ﺻﻮرت ﻳﻚ ﺗﺼﻤﻴﻢ ‪ δ‬وﺟﻮد دارد ﺑﻄﻮري ﻛﻪ ‪:‬‬ ‫)‪R (θ , δ ) ≤ R (θ , δ π ) ∀θ ∈ Θ, R (θ ′, δ ) < R (θ ′, δ π ) for some θ ′ ∈ Θ (1‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ‬ ‫)‪(2‬‬

‫) ‪r (π , δ ) = ∫ R (θ , δ )d Π (θ ) ≤ ∫ R (θ , δ π )d Π (θ ) = r (π , δ π‬‬ ‫)‪(1‬‬

‫از ﻃﺮﻓﻲ ﭼﻮن ‪ δ π‬ﺑﺮآوردﮔﺮ ﺑﻴﺰ اﺳﺖ ﭘﺲ‬ ‫)‪(3‬‬

‫) ‪r (π , δ π ) ≤ r (π , δ‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪143‬‬

‫) ‪(2),(3) ⇒ r (π , δ π ) = r (π , δ‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ‬

‫ﻳﻌﻨﻲ ‪ δ‬ﻧﻴﺰ ﻳﻚ ﺗﺼﻤﻴﻢ ﺑﻴﺰ اﺳﺖ ﻛﻪ اﻳﻦ ﺑﺎ ﻳﻜﺘﺎ ﺑﻮدن ﺗﺼﻤﻴﻢ ﺑﻴﺰ ﻣﺘﻨﺎﻗﺾ اﺳﺖ‪ .‬ﭘﺲ ‪ δ π‬ﻳﻚ ﺗﺼﻤﻴﻢ‬ ‫ﻣﺠﺎز اﺳﺖ‪.‬‬

‫■‬

‫ﻗﻀﻴﻪ ‪ :4-2‬ﻓﺮض ﻛﻨﻴﺪ ) ‪ γ (θ‬ﭘﺎراﻣﺘﺮ ﻣﻮرد ﻧﻈﺮ ﻣﺎ ﺑﺎﺷﺪ و ] ‪ γ (θ ) ∈ [a,b‬و ﺗﺎﺑﻊ زﻳﺎن ) ‪ L (θ , δ‬ﺑﺮاي‬ ‫) ‪ δ ≠ γ (θ‬ﻣﺜﺒﺖ و ﺑﺮاي ) ‪ δ = γ (θ‬ﺻﻔﺮ ﺑﺎﺷﺪ و ﺗﺎﺑﻊ زﻳﺎن ) ‪ L (θ , δ‬ﺑﺎ دور ﺷﺪن ‪ δ‬از ) ‪ γ (θ‬ﻳﻚ‬ ‫ﺗﺎﺑﻊ ﺻﻌﻮدي ﺑﺎﺷﺪ‪ .‬در اﻳﻦ ﺻﻮرت ﻫﺮ ﺑﺮآوردﮔﺮ ‪ δ‬ﻛﻪ ﻣﻘﺎدﻳﺮي را در ﺧﺎرج از ﻓﺎﺻﻠﻪي ] ‪ [a,b‬ﺑﺎ‬ ‫اﺣﺘﻤﺎل ﻣﺜﺒﺖ ﺑﮕﻴﺮﻳﺪ ﻏﻴﺮﻣﺠﺎز اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﺑﺮآوردﮔﺮ ‪ δ ′‬را ﺑﻪ ﺻﻮرت زﻳﺮ ﺗﻌﺮﻳﻒ ﻣﻲ ﻛﻨﻴﻢ‪.‬‬ ‫‪δ b‬‬

‫‪⎧a‬‬ ‫⎪‬ ‫‪δ ′ = ⎨δ‬‬ ‫‪⎪b‬‬ ‫⎩‬

‫در اﻳﻦ ﺻﻮرت ﺑﻨﺎﺑﺮ ﻓﺮض ﻗﻀﻴﻪ اﮔﺮ ‪ δ < a‬آﻧﮕﺎه ) ‪ L (θ , a ) < L (θ , δ‬و اﮔﺮ ‪ δ > b‬آﻧﮕﺎه‬ ‫) ‪ L (θ ,b ) < L (θ , δ‬ﺑﻨﺎﺑﺮاﻳﻦ‬ ‫] ‪R (θ , δ ′) = E [L (θ , a )I δ b‬‬ ‫] ‪≤ E [L (θ , δ )I δ b‬‬

‫) ‪= E [L (θ , δ )] = R (θ , δ‬‬

‫ﭘﺲ ‪ δ‬ﺑﺮآوردﮔﺮي ﻏﻴﺮﻣﺠﺎز اﺳﺖ‪.‬‬

‫■‬

‫ﻗﻀﻴﻪ ‪ :5-2‬ﻓﺮض ﻛﻨﻴﺪ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺎﺷﺪ و ‪ X‬ﻳﻚ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ ‪ θ‬و وارﻳﺎﻧﺲ‬ ‫‪ σ 2‬ﺑﺎﺷﺪ در اﻳﻦ ﺻﻮرت ‪ aX + b‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻏﻴﺮﻣﺠﺎز ﺑﺮاي ‪ θ‬اﺳﺖ وﻗﺘﻲ ﻛﻪ‬ ‫‪(iii ) a = 1, b ≠ 0‬‬

‫ﻳﺎ‬

‫‪(ii ) a < 0‬‬

‫ﻳﺎ‬

‫‪(i ) a > 1‬‬

‫اﺛﺒﺎت‪f (a, b) = R(θ , aX + b) = E[(aX + b − θ )2 ] = Var (aX + b) + [ E (aX + b) − θ ]2 :‬‬ ‫‪= a 2V ar (x ) + (aθ + b − θ )2 = a 2σ 2 + [(a − 1)θ + b ]2‬‬ ‫) ‪f (a , b ) ≥ a 2σ 2 > σ 2 = f (1,0) = R (θ , X‬‬

‫⇒‬

‫‪a >1‬‬

‫) ‪(i‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪144‬‬

‫ﭘﺲ ‪ aX + b‬ﺑﻪ وﺳﻴﻠﻪ ‪ X‬ﻣﻐﻠﻮب ‪ 1‬ﻣﻲﺷﻮد )ﻳﻌﻨﻲ ) ‪( (R (θ , X ) < R (θ , aX + b‬‬ ‫‪b 2‬‬ ‫]‬ ‫‪a −1‬‬ ‫‪b 2‬‬ ‫‪−b‬‬ ‫‪−b‬‬ ‫‪> [θ +‬‬ ‫‪] = f (0,‬‬ ‫‪) = R (θ ,‬‬ ‫)‬ ‫‪a −1‬‬ ‫‪a −1‬‬ ‫‪a −1‬‬ ‫‪−b‬‬ ‫= ‪ δ‬ﻣﻐﻠﻮب ﻣﻲﺷﻮد‪.‬‬ ‫ﺑﻨﺎﺑﺮاﻳﻦ ‪ aX + b‬ﺑﻪ وﺳﻴﻠﻪ ﺑﺮآوردﮔﺮ ﺛﺎﺑﺖ‬ ‫‪a −1‬‬

‫‪a < 0⇒ (a − 1)2 > 1 ⇒ f (a , b ) ≥ [(a − 1)θ + b ]2 = (a − 1)2[θ +‬‬

‫) ‪(ii‬‬

‫‪a = 1, b ≠ 0‬‬

‫) ‪(iii‬‬

‫) ‪⇒ f (a , b ) = f (1, b ) = σ 2 + b 2 > σ 2 = f (1,0) = R (θ , X‬‬

‫ﭘﺲ ‪ aX + b‬ﺑﻪ وﺳﻴﻠﻪ ‪ X‬ﻣﻐﻠﻮب ﻣﻲﺷﻮد‪.‬‬

‫■‬

‫ﻣﺜﺎل ‪ :4-2‬ﻓﺮضﻛﻨﻴﺪ ‪ X 1, X 2 ,..., X n‬ﻳﻚ ﻧﻤﻮﻧﻪﺗﺼﺎدﻓﻲ از ) ‪ N (θ ,σ 2‬ﺑﺎﺷﻨﺪ ﻛﻪ در آن ‪ σ 2‬ﻣﻌﻠﻮم‬ ‫اﺳﺖ‪ .‬ﺑﺮاي ﭼﻪ ﻣﻘﺎدﻳﺮ از ‪ a‬و ‪ b‬ﻛﻼس ﺑﺮآوردﮔﺮﻫﺎي ﺧﻄﻲ ‪ aX + b‬ﻣﺠﺎز ﻣﻲﺑﺎﺷﺪ‪.‬‬ ‫ﺣﻞ‪ :‬در ﻓﺼﻞ ﻗﺒﻞ دﻳﺪﻳﻢ ﻛﻪ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﻳﻜﺘﺎي ‪ θ‬ﺗﺤﺖ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ) ‪ N ( μ ,τ 2‬ﻋﺒﺎرت اﺳﺖ از‪:‬‬ ‫‪nτ 2‬‬ ‫‪σ2‬‬ ‫‪μ‬‬ ‫‪X‬‬ ‫‪+‬‬ ‫‪σ 2 + nτ 2‬‬ ‫‪σ 2 + nτ 2‬‬

‫= ) ‪δ π (X‬‬

‫ﻛﻪ ﻣﺨﺎﻃﺮه ﺑﻴﺰ اﻳﻦ ﺑﺮآوردﮔﺮ ﻣﺘﻨﺎﻫﻲ اﺳﺖ زﻳﺮا‬ ‫‪2‬‬

‫⎤‬ ‫‪nτ 2 2 σ 2 ⎡ nτ 2θ + μσ 2‬‬ ‫‪π‬‬ ‫‪π‬‬ ‫‪+‬‬ ‫‪−‬‬ ‫‪θ‬‬ ‫‪R (θ , δ ) = ( 2‬‬ ‫)‬ ‫⎢‬ ‫∞ < ) ‪⎥ ⇒ r (π , δ ) = ∫Θ R (θ , δ )d Π (θ‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪n ⎣ σ + nτ‬‬ ‫‪σ + nτ‬‬ ‫⎦‬

‫‪μσ 2‬‬ ‫‪nτ 2‬‬ ‫و‬ ‫‪0‬‬ ‫<‬ ‫∞‪+‬‬ ‫<‬ ‫ﺣﺎل ﭼﻮن ‪< 1‬‬ ‫‪σ 2 + nτ 2‬‬ ‫‪σ 2 + nτ 2‬‬

‫‪π‬‬

‫< ∞‪ −‬ﭘﺲ‬

‫ﺑﺮآوردﮔﺮ ‪ aX + b‬ﺑﺮاي ‪ b ∈ R ,0 < a < 1‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻣﺠﺎز‬ ‫اﺳﺖ‪.‬‬ ‫ﭼﻮن ‪ E (X ) = θ‬ﭘﺲ ﻃﺒﻖ ﻗﻀﻴﻪ ‪ 5-2‬ﺑﺮآوردﮔﺮ ‪ aX + b‬ﺑﺮاي‬ ‫‪) a > 1‬ﺣﺎﻟﺖ )‪ ((i‬و ‪) a <0‬ﺣﺎﻟﺖ )‪ ((ii‬و ‪) a = 1,b ≠ 0‬ﺣﺎﻟﺖ‬ ‫)‪ ((iii‬ﻣﺠﺎز ﻧﻴﺴﺖ‪.‬‬

‫‪Dominate‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪145‬‬

‫ﺑﺮاي ﺣﺎﻟﺖ ‪ a = 0‬ﺑﺮآوردﮔﺮ ‪ δ (X ) = b‬ﻣﺠﺎز اﺳﺖ زﻳﺮا اﻳﻦ ﺑﺮآوردﮔﺮ ﺗﻨﻬﺎ ﺑﺮآوردﮔﺮي اﺳﺖ ﻛﻪ در‬ ‫‪ θ = b‬داراي ﻣﺨﺎﻃﺮه ﺻﻔﺮ اﺳﺖ‪) R (b , δ ) = 0 ،‬ﻣﺜﺎل ‪ 3-2‬را ﻣﻼﺣﻈﻪ ﻛﻨﻴﺪ(‪.‬‬ ‫ﺗﻨﻬﺎ ﻧﻘﻄﻪاي از ﺻﻔﺤﻪ ﻣﺨﺘﺼﺎت ) ‪ (a, b‬ﻛﻪ ﺑﺎﻗﻲ ﻣﺎﻧﺪه اﺳﺖ ﻧﻘﻄﻪ )‪ (a,b ) = (0,1‬ﻣﺮﺑﻮط ﺑﻪ ﺑﺮآوردﮔﺮ‬ ‫‪ MRE ,UMV U , ML‬و ﻣﻲﻧﻴﻤﺎﻛﺲ ‪ X‬اﺳﺖ‪ .‬ﻛﻪ از دو روش‪ ،‬ﻳﻜﻲ روش ﺑﻠﻴﺖ ‪ (1951) 1‬ﻳﺎ روش‬ ‫ﺑﻴﺰي ﺣﺪي ‪ 2‬و دﻳﮕﺮي روش ﻧﺎﻣﺴﺎوي اﻃﻼع ﻣﺠﺎز ﺑﻮدن آن را ﺛﺎﺑﺖ ﻣﻲ ﻛﻨﻴﻢ‪.‬‬

‫اﻟﻒ‪ -‬روش ﺑﻴﺰ ﺣﺪي‬ ‫ﻗﻀﻴﻪ ‪ :6-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ θ ∈ Θ ⊂ R‬و ‪ δ0‬ﻳﻚ ﺗﺎﺑﻊ ﺗﺼﻤﻴﻢ ﺑﺎﺷﺪ‪ .‬ﻓﺮض ﻛﻨﻴﺪ ﻛﻪ ) ‪ R (θ , δ‬ﺑﺮاي ﻫﺮ ‪δ‬‬ ‫ﺛﺎﺑﺖ ﻳﻚ ﺗﺎﺑﻊ ﭘﻴﻮﺳﺘﻪ از ‪ θ‬ﺑﺎﺷﺪ‪ .‬ﻓﺮض ﻛﻨﻴﺪ دﻧﺒﺎﻟﻪاي از ﺗﻮزﻳﻊﻫﺎي ﭘﻴﺸﻴﻦ ‪ π m‬ﺑﺎ ﺗﺼﻤﻴﻢﻫﺎي ﺑﻴﺰ‬ ‫ﻣﺘﻨﺎﻇﺮ ‪ δ m = δ π m‬و ﻣﺨﺎﻃﺮهﻫﺎي ﺑﻴﺰ ﻣﺘﻨﺎﻇﺮ ) ‪ rm = r (π m , δ m‬ﻣﻮﺟﻮد ﺑﺎﺷﻨﺪ‪ .‬ﻫﻤﭽﻨﻴﻦ ﻓﺮض ﻛﻨﻴﺪ‬ ‫*‪ rm‬ﻣﺨﺎﻃﺮه ﺑﻴﺰ ﺗﺼﻤﻴﻢ ‪ δ0‬ﻧﺴﺒﺖ ﺑﻪ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ‪ π m‬ﺑﺎﺷﺪ‪ .‬اﮔﺮ ﺑﺮاي ﻫﺮ‪ η > 0‬و ‪ θ ∈ Θ‬داﺷﺘﻪ‬ ‫ﺑﺎﺷﻴﻢ ﻛﻪ‪:‬‬ ‫∞→ ‪m‬‬

‫‪as‬‬

‫) ‪Π m (θ + η ) − Π m (θ − η‬‬ ‫∞→‬ ‫‪rm* − rm‬‬

‫)ﻛﻪ ‪ Π m‬ﺗﺎﺑﻊ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ﺑﺎ ﭼﮕﺎﻟﻲ ﭘﻴﺸﻴﻦ ‪ π m‬اﺳﺖ( آﻧﮕﺎه ‪ δ0‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﻓﺮض ﻛﻨﻴﺪ ‪ δ0‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز ﻧﺒﺎﺷﺪ در اﻳﻦ ﺻﻮرت ﻳﻚ ﺗﺼﻤﻴﻢ * ‪ δ‬وﺟﻮد دارد ﺑﻪ ﻃﻮري ﻛﻪ‬ ‫‪∀θ ∈ Θ‬‬

‫)‪R (θ , δ * ) ≤ R (θ , δ0‬‬

‫‪R (θ0, δ * ) < R (θ0, δ0) for some θ0 ∈ Θ‬‬

‫ﻗﺮار ﻣﻲدﻫﻴﻢ‬

‫‪ε = R (θ0, δ0) − R (θ0, δ * ) > 0‬‬

‫ﭼﻮن ﺗﺎﺑﻊ ﻣﺨﺎﻃﺮه ) ‪ R (θ , δ‬ﺑﺮاي ‪ δ‬ﺛﺎﺑﺖ ﻳﻚ ﺗﺎﺑﻊ ﭘﻴﻮﺳﺘﻪ از ‪ θ‬اﺳﺖ ﭘﺲ‬ ‫‪⎧ R (θ , δ * ) − R (θ0, δ * ) < ε‬‬ ‫⎪‬ ‫‪4‬‬ ‫⎨ ⇒ ‪∀ε > 0 ∃η > 0 ∋| θ − θ0 |≤ η‬‬ ‫‪⎪⎩ R (θ , δ0) − R (θ0, δ0) < ε 4‬‬

‫‪Blyth‬‬ ‫‪Limiting Bayes Method‬‬

‫‪١‬‬ ‫‪٢‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪146‬‬

‫⎛ ⎞‪ε‬‬ ‫⎞‪ε‬‬ ‫⎛‬ ‫⎟ ‪⇒ R (θ , δ0) − R (θ , δ * ) > ⎜ R (θ0, δ0) − ⎟ − ⎜ R (θ0, δ * ) +‬‬ ‫⎝ ⎠‪4‬‬ ‫⎠‪4‬‬ ‫⎝‬ ‫‪ε‬‬ ‫‪2‬‬

‫در ﻧﺘﻴﺠﻪ‬

‫=‬

‫‪ε‬‬ ‫‪2‬‬

‫‪=ε −‬‬

‫‪ε‬‬ ‫‪2‬‬

‫‪= R (θ0, δ0) − R (θ0, δ * ) −‬‬

‫‪ε‬‬

‫] ‪∀θ ∈ [θ0 − η ,θ0 + η‬‬

‫> ) * ‪R (θ , δ0) − R (θ , δ‬‬

‫‪2‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ اﮔﺮ **‪ rm‬ﻣﺨﺎﻃﺮه ﺑﻴﺰ ﺗﺼﻤﻴﻢ * ‪ δ‬ﺑﺎﺷﺪ ﻳﻌﻨﻲ ) ‪ rm** = ∫ R (θ , δ * )d Π m (θ‬در اﻳﻦ ﺻﻮرت‬ ‫) ‪⎡ R (θ , δ0) − R (θ , δ * ) ⎤ d Π m (θ‬‬ ‫⎣‬ ‫⎦‬ ‫) ‪⎡ R (θ , δ0) − R (θ , δ * ) ⎤ d Π m (θ‬‬ ‫⎣‬ ‫⎦‬

‫‪ε‬‬

‫∞‪+‬‬

‫∫ = **‪rm* − rm‬‬

‫∞‪−‬‬

‫‪θ0+η‬‬

‫∫≥‬

‫‪θ0−η‬‬

‫‪θ0+η‬‬

‫‪ε‬‬

‫]) ‪d Π m (θ ) = [Π m (θ0 + η ) − Π m (θ0 − η‬‬ ‫‪2 ∫θ0−η‬‬ ‫‪2‬‬ ‫∞ → ‪as m‬‬ ‫ﺑﻨﺎﺑﺮاﻳﻦ ‪ m0‬ي وﺟﻮد دارد ﻛﻪ ‪> 1‬‬

‫∞→‬

‫‪rm*0 − rm**0‬‬ ‫‪rm*0 − rm0‬‬

‫]) ‪[Π m (θ0 + η ) − Π m (θ0 − η‬‬ ‫‪rm* − rm‬‬

‫و ﻳﺎ ﻣﻌﺎدﻻً‬

‫‪rm**0‬‬

‫‪ε‬‬

‫‪≥ 2‬‬

‫≥‬

‫**‪− rm‬‬ ‫‪− rm‬‬

‫*‪rm‬‬ ‫*‪rm‬‬

‫> ‪ rm0‬ﻛﻪ اﻳﻦ ﺑﺎ ﺗﺼﻤﻴﻢ ﺑﻴﺰ ﺑﻮدن‬

‫ﻧﺴﺒﺖ ﺑﻪ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ‪ π m0‬ﻣﺘﻨﺎﻗﺾ اﺳﺖ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ‪ δ0‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز اﺳﺖ‪.‬‬

‫⇒‬

‫‪m0‬‬

‫‪δ‬‬

‫■‬

‫ﻣﺜﺎل ‪ :5-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪ N (θ ,σ 2‬ﺑﺎﺷﻨﺪ ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ ‪X‬‬

‫ﻳﻚ ﺑﺮآوردﮔﺮ ﻣﺠﺎز ﺑﺮاي ‪ θ‬اﺳﺖ‪.‬‬ ‫ﺣﻞ‪ :‬اﮔﺮ ﺗﻮزﻳﻊ ﭘﻴﺸﻴﻦ ) ‪ N (0, m 2‬را ﺑﺮاي ‪ θ‬در ﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ آﻧﮕﺎه‬ ‫‪nm 2‬‬ ‫‪X‬‬ ‫‪= 2‬‬ ‫‪σ + nm 2‬‬

‫‪πm‬‬

‫‪=δ‬‬

‫‪m‬‬

‫‪δ‬‬

‫‪1‬‬ ‫‪1‬‬ ‫‪m2‬‬

‫‪+‬‬

‫‪n‬‬ ‫‪2‬‬

‫‪σ‬‬

‫⎛‬ ‫⎞‬ ‫‪⎜ nm 2x‬‬ ‫⎟‬ ‫‪1‬‬ ‫‪,‬‬ ‫‪θ |x ~ N ⎜ 2‬‬ ‫⎟‬ ‫‪2‬‬ ‫⎟⎟ ‪⎜⎜ σ + nm n + 1‬‬ ‫⎠ ‪σ2 m2‬‬ ‫⎝‬ ‫= ]) ‪rm = r (π m , δ π m ) = E X [V (θ | X‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪147‬‬

‫ﻫﻤﭽﻨﻴﻦ ﻣﺨﺎﻃﺮه ﺑﻴﺰ ﺑﺮآوردﮔﺮ ‪ δ0(X ) = X‬ﻋﺒﺎرت اﺳﺖ از‬ ‫‪⎛σ2 ⎞ σ2‬‬ ‫= ⎟⎟ ⎜⎜ ‪rm* = r (π m , δ0) = E [E ( X − θ ) | θ ] = E‬‬ ‫‪⎝ n ⎠ n‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ‬ ‫‪t2‬‬

‫‪dt‬‬

‫‪1‬‬ ‫‪2m 2‬‬

‫‪−‬‬

‫‪e‬‬

‫‪θ +η‬‬

‫‪1‬‬

‫‪∫θ −η‬‬

‫‪2π m‬‬ ‫‪−1‬‬ ‫⎤ ‪1‬‬ ‫‪σ ⎡n‬‬ ‫⎥‪−⎢ 2 + 2‬‬ ‫‪n ⎣σ‬‬ ‫⎦ ‪m‬‬ ‫‪2‬‬

‫‪2‬‬

‫‪t2‬‬ ‫‪1‬‬

‫‪n (nm 2 + σ 2 ) θ +η − 2m 2 t‬‬ ‫‪e‬‬ ‫‪dt‬‬ ‫=‬ ‫‪m 2πσ 4 ∫θ −η‬‬ ‫‪2‬‬

‫‪dt‬‬

‫‪1‬‬ ‫‪2m 2‬‬

‫‪θ +η −‬‬

‫‪∫θ −η e‬‬ ‫‪σ4‬‬

‫) ‪Π m (θ + η ) − Π m (θ − η‬‬ ‫=‬ ‫‪rm* − rm‬‬

‫‪1‬‬ ‫‪= m 2π‬‬

‫) ‪n (nm 2 + σ 2‬‬

‫‪dt =(θ + η ) − (θ − η ) = 2η‬‬

‫‪t2‬‬

‫‪1‬‬ ‫‪2‬‬

‫∞‪as m → +‬‬

‫‪2m‬‬

‫‪−‬‬

‫‪lim e‬‬

‫‪θ +η‬‬

‫∫ = ‪dt‬‬

‫∞‪θ −η m →+‬‬

‫‪t2‬‬

‫‪1‬‬ ‫‪2‬‬

‫‪2m‬‬

‫‪θ +η −‬‬

‫‪e‬‬

‫∫‬

‫‪= 1 ⇒ lim‬‬

‫‪m →+∞ θ −η‬‬

‫) ‪Π m (θ + η ) − Π m (θ − η‬‬ ‫∞‪→ +‬‬ ‫‪rm* − rm‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﻃﺒﻖ ﻗﻀﻴﻪ ‪) 6-2‬روش ﺑﻠﻴﺖ( ‪ δ0(X ) = X‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻣﺠﺎز اﺳﺖ‪.‬‬

‫‪t2‬‬

‫‪1‬‬ ‫‪2‬‬

‫‪2m‬‬

‫‪−‬‬

‫‪lim e‬‬

‫∞‪m →+‬‬

‫∴‬

‫■‬

‫ﻧﺘﻴﺠﻪ‪ :‬از ﻣﺜﺎل ﻫﺎي ‪ 4-2‬و ‪ 5-2‬ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد ﻛﻪ در ﺗﻮزﻳﻊ ) ‪ N (θ ,σ 2‬ﺑﺮآوردﮔﺮ ‪ aX + b‬ﺑﺮاي ‪θ‬‬ ‫ﻣﺠﺎز اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ‬ ‫‪a = 1, b = 0‬‬

‫) ‪ (ii‬ﻳﺎ ‪0 ≤ a < 1‬‬

‫) ‪. (i‬‬

‫■‬

‫ب‪ -‬روش ﻧﺎﻣﺴﺎوي اﻃﻼع ‪:1‬‬ ‫از اﻳﻦ روش ﻣﻲﺗﻮان ﺑﺮاي اﺛﺒﺎت ﻣﺠﺎز ﺑﻮدن ﻳﺎ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن ﺑﺮآوردﮔﺮ اﺳﺘﻔﺎده ﻛﺮد ) & ‪Hodges‬‬ ‫)‪(Lehmann (1951‬‬ ‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﻳﻨﻜﻪ‬

‫) ‪R (θ , δ ) = E [(δ − θ )2 ] =V θ (δ ) + b 2 (θ‬‬

‫ﻛﻪ در آن ) ‪ b (θ ) = Bias (δ‬ﺑﻨﺎﺑﺮاﻳﻦ از ﻧﺎﻣﺴﺎوي اﻃﻼع ﺑﺎ ‪ γ (θ ) = θ‬دارﻳﻢ ﻛﻪ‬ ‫‪The Information Inequality Method‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪[1 + b ′(θ )]2‬‬ ‫) ‪+ b 2 (θ‬‬ ‫) ‪nI (θ‬‬

‫)‪(1‬‬ ‫‪1‬‬

‫‪148‬‬

‫≥ ) ‪R (θ , δ‬‬

‫= ) ‪ I (θ‬ﻣﻲﺑﺎﺷﺪ‪ .‬ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ ‪ X‬ﺑﺮآوردﮔﺮي ﻣﺠﺎز ﻧﺒﺎﺷﺪ در اﻳﻦ ﺻﻮرت‬

‫ﻛﻪ در آن‬ ‫‪σ2‬‬ ‫ﺑﺮآوردﮔﺮي ﻣﺎﻧﻨﺪ ‪ δ‬وﺟﻮد دارد ﻛﻪ‬

‫‪∀θ ∈ Θ‬‬

‫)‪(2‬‬

‫‪σ2‬‬ ‫‪n‬‬

‫= ) ‪R (θ , δ ) ≤ R (θ , X‬‬

‫و ﺑﻨﺎﺑﺮاﻳﻦ‬ ‫)‪(3‬‬

‫‪∀θ‬‬

‫‪σ2‬‬ ‫‪n‬‬

‫≤ ) ‪+ b (θ ) ≤ R (θ , δ‬‬ ‫‪2‬‬

‫‪σ 2[1 + b ′(θ )]2‬‬ ‫‪n‬‬

‫ﻣﻲﺧﻮاﻫﻴﻢ ﻧﺸﺎن دﻫﻴﻢ ﻛﻪ‪ b (θ ) ≡ 0‬ﻳﻌﻨﻲ ‪ δ‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ اﺳﺖ‪.‬‬ ‫ﺗﺎﺑﻊ ‪ b‬ﻛﺮاﻧﺪار اﺳﺖ ⇒‬

‫‪σ‬‬ ‫‪n‬‬

‫≤| ) ‪⇒| b (θ‬‬

‫‪⇒ [1 + b ′(θ )]2 ≤ 1 ⇒ b ′(θ ) ≤ 0‬‬

‫‪σ2‬‬ ‫‪n‬‬

‫‪σ2‬‬

‫≤‬

‫‪n‬‬

‫≤ ) ‪b 2 (θ‬‬

‫⇒ ) ‪(3‬‬

‫‪σ 2[1 + b ′(θ )]2‬‬ ‫‪n‬‬

‫⇒ ) ‪(3‬‬

‫ﭘﺲ ‪ b‬ﻳﻚ ﺗﺎﺑﻊ ﻏﻴﺮﺻﻌﻮدي اﺳﺖ‪.‬‬ ‫ﺣﺎل ﻓﺮض ﻛﻨﻴﺪ ‪ . b (θ ) ≡ 0‬در اﻳﻦ ﺻﻮرت دو ﺣﺎﻟﺖ زﻳﺮ را دارﻳﻢ‪:‬‬ ‫)‪ (i‬ﻓﺮض ﻛﻨﻴﺪ ‪ θ0‬ي وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﻛﻪ ‪ b (θ0) < 0‬در اﻳﻦ ﺻﻮرت‬ ‫‪∀θ ≥ θ0‬‬ ‫‪∀θ ≥ θ0‬‬

‫‪b (θ ) < 0‬‬

‫‪(3) ⇒ nb 2 (θ ) + σ 2b ′2 (θ ) + 2σ 2b ′(θ ) ≤ 0‬‬ ‫) ‪−b ′(θ‬‬ ‫‪n‬‬ ‫‪⇒ nb 2 (θ ) + 2σ 2b ′(θ ) ≤ 0 ⇒ 2‬‬ ‫‪≥ 2‬‬ ‫‪b (θ ) 2σ‬‬ ‫‪θ‬‬

‫) ‪−b ′(t‬‬ ‫‪n θ‬‬ ‫‪1‬‬ ‫‪n‬‬ ‫⇒ ‪⇒ ∫ 2 dt ≥ 2 ∫ dt‬‬ ‫)‪≥ 2 (θ − θ0‬‬ ‫) ‪θ0 b (t‬‬ ‫‪b (t ) θ 2σ‬‬ ‫‪2σ θ0‬‬ ‫‪0‬‬ ‫‪θ‬‬

‫‪n‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪−‬‬ ‫)‪≥ 2 (θ − θ0‬‬ ‫‪b (θ ) b (θ0) 2σ‬‬

‫⇒‬ ‫‪b (θ )<0‬‬

‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪n‬‬ ‫>‬ ‫‪−‬‬ ‫)‪≥ 2 (θ − θ0‬‬ ‫‪b (θ0) b (θ ) b (θ0) 2σ‬‬ ‫‪1‬‬ ‫‪→ ∞ # ⇒ b (θ0) = 0‬‬ ‫‪θ →∞⇒−‬‬ ‫)‪b (θ0‬‬ ‫‪⇒ −‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪149‬‬

‫)‪ (ii‬ﻓﺮض ﻛﻨﻴﺪ ‪ θ0‬ي وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﻛﻪ ‪ b (θ0) > 0‬در اﻳﻦ ﺻﻮرت ‪b (θ ) > 0 ، ∀θ ≤ θ0‬‬

‫و ﻫﻤﺎﻧﻨﺪ ﻗﺴﻤﺖ )‪ (i‬ﻣﻲﺗﻮان ﺑﻪ ﻳﻚ ﺗﻨﺎﻗﺾ رﺳﻴﺪ ﭘﺲ ‪ b (θ0) = 0‬اﺳﺖ‪.‬‬ ‫ﺑﻨﺎﺑﺮاﻳﻦ ‪b (θ ) = b ′(θ ) = 0 ∀θ‬‬ ‫) ‪= R (θ , X‬‬

‫‪σ2‬‬ ‫‪n‬‬

‫)‪(1‬‬

‫و‬

‫ﻧﺘﻴﺠﻪ‬

‫ﻛﻪ‬

‫ﻣﻲدﻫﺪ‬

‫‪σ2‬‬ ‫‪n‬‬

‫≥ ) ‪R (θ , δ‬‬

‫و‬

‫ﺑﻨﺎﺑﺮاﻳﻦ‬

‫= ) ‪ R (θ , δ‬ﻳﻌﻨﻲ ‪ X‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻣﺠﺎز و ﻫﻤﭽﻨﻴﻦ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺮاي ‪ θ‬اﺳﺖ‪.‬‬

‫)ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن ﺑﻪ اﻳﻦ دﻟﻴﻞ اﺳﺖ ﻛﻪ اﮔﺮ ﺑﺮآوردﮔﺮي ﻣﺎﻧﻨﺪ ‪ δ‬ﻣﻮﺟﻮد ﺑﺎﺷﺪ ﻛﻪ‬ ‫‪σ2‬‬ ‫‪n‬‬

‫= ) ‪ Sup R (θ , δ ) ≤ Sup R (θ , X‬آﻧﮕﺎه‬ ‫‪Θ‬‬

‫‪Θ‬‬

‫‪, ∀θ‬‬

‫‪σ2‬‬ ‫‪n‬‬

‫≤ ) ‪R (θ , δ‬‬

‫و ﻃﺒﻖ ﻣﺮاﺣﻞ ﺑﺎﻻ‬

‫) ‪ R (θ , δ ) = R (θ , X‬ﭘﺲ ‪ X‬ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‪(.‬‬ ‫ﻫﻤﭽﻨﻴﻦ ‪ X‬ﺗﻨﻬﺎ ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺮاي ‪ θ‬اﺳﺖ ﻛﻪ اﻳﻦ ﻣﻮﺿﻮع از ﻟﻢ زﻳﺮ ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد‪.‬‬ ‫ﻟِﻢ ‪ :1-2‬اﮔﺮ ﺗﺎﺑﻊ زﻳﺎن ) ‪ L (θ , δ‬اﻛﻴﺪاً ﻣﺤﺪب ﺑﺎﺷﺪ و ‪ δ‬ﺑﺮآوردﮔﺮي ﻣﺠﺎز ﺑﺮاي ) ‪ γ (θ‬ﺑﺎﺷﺪ و ‪ δ ′‬ﻫﺮ‬ ‫ﺑﺮآوردﮔﺮ دﻳﮕﺮي ﺑﺎﺷﺪ ﻛﻪ ‪ R (θ , δ ) = R (θ , δ ′) ∀θ‬آﻧﮕﺎه ‪. P (δ ′ = δ ) = 1‬‬ ‫اﺛﺒﺎت‪ :‬اﮔﺮ‬

‫‪δ +δ′‬‬ ‫‪2‬‬

‫= * ‪ δ‬آﻧﮕﺎه ) ‪[ R (θ , δ ) + R (θ , δ ′)] = R (θ , δ‬‬

‫‪(*) 1‬‬

‫‪2‬‬

‫< ) * ‪R (θ , δ‬‬

‫ﺑﺠﺰ اﻳﻨﻜﻪ ﺑﺎ اﺣﺘﻤﺎل ﻳﻚ ‪ δ = δ ′‬ﺑﺎﺷﺪ‪).‬ﻧﺎﻣﺴﺎوي )*( از اﻛﻴﺪا ﻣﺤﺪب ﺑﻮدن ﺗﺎﺑﻊ زﻳﺎن ﻧﺘﻴﺠﻪ ﻣﻲﮔﺮدد‪(.‬‬ ‫ﺑﻨﺎﺑﺮاﻳﻦ راﺑﻄﻪ ﻓﻮق ﻣﺘﻨﺎﻗﺾ ﺑﺎ ﻣﺠﺎز ﺑﻮدن ‪ δ‬اﺳﺖ ﺑﺠﺰ اﻳﻨﻜﻪ ‪P (δ = δ ′) = 1‬‬

‫ﻣﺜﺎل ‪ :6-2‬ﻣﻴﺎﻧﮕﻴﻦ ﻧﺮﻣﺎل ﺑﺮﻳﺪه ﺷﺪه‬

‫■‬

‫‪1‬‬

‫ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪ N (θ ,σ 2‬ﺑﺎﺷﻨﺪ ﻛﻪ ‪ σ 2‬ﻣﻌﻠﻮم و ﺣﺎﻻت زﻳﺮ را‬ ‫ﺑﺮاي ‪ θ‬در ﻧﻈﺮ ﺑﮕﻴﺮﻳﺪ‪.‬‬ ‫اﻟﻒ‪ -‬اﮔﺮ ‪ θ > θ0‬ﺑﺎﺷﺪ آﻧﮕﺎه ﻃﺒﻖ ﻗﻀﻴﻪ ‪ X ،4-2‬ﻏﻴﺮﻣﺠﺎز اﺳﺖ و ﺑﻪ وﺳﻴﻠﻪ ﺑﺮآوردﮔﺮ‬ ‫‪X < θ0‬‬ ‫) ‪= max(θ0, X‬‬ ‫‪X ≥ θ0‬‬

‫‪⎧ θ0‬‬

‫⎨ = ) ‪ δ (X‬ﻣﻐﻠﻮب ﻣﻲﺷﻮد‪ .‬اﻣﺎ در زﻳﺮ ﺑﻪ وﺳﻴﻠﻪ روش ﻧﺎﻣﺴﺎوي‬

‫‪⎩X‬‬

‫اﻃﻼع ﻧﺸﺎن ﻣﻲ دﻫﻴﻢ ﻛﻪ ‪ X‬ﺑﺮآوردﮔﺮي ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺮاي ‪ θ‬اﺳﺖ‪.‬‬

‫‪Truncated Normal mean‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪150‬‬

‫اﮔﺮ ‪ X‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﻧﺒﺎﺷﺪ آﻧﮕﺎه ﺑﺮآوردﮔﺮي ﻣﺎﻧﻨﺪ ‪ δ‬و ‪ ε > 0‬وﺟﻮد دارﻧﺪ ﺑﻪ ﻃﻮري ﻛﻪ‬ ‫‪∀θ > θ0‬‬

‫‪n‬‬

‫‪n‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ‬

‫‪(3) σ 2‬‬

‫⇒‬

‫‪n‬‬

‫⇒ ‪−ε‬‬

‫‪ b‬ﻛﺮاﻧﺪار اﺳﺖ‬ ‫‪εn‬‬ ‫‪σ2‬‬

‫= ‪R (θ , δ ) ≤ R (θ , X ) − ε‬‬

‫‪[1 + b ′(θ )]2 + b 2 (θ ) ≤ σ 2 − ε‬‬

‫‪∀θ > θ0‬‬

‫)‪(4‬‬

‫‪−ε‬‬

‫‪σ2‬‬

‫‪σ2‬‬

‫‪− ε ⇒ [1 + b ′(θ ) ] ≤ 1 −‬‬ ‫‪2‬‬

‫‪εn‬‬ ‫‪εn‬‬ ‫‪⇒ 2b ′(θ ) ≤ − 2‬‬ ‫‪2‬‬ ‫‪σ‬‬ ‫‪σ‬‬

‫‪n‬‬

‫‪σ2‬‬ ‫‪n‬‬

‫≤ ) ‪(4) ⇒ b 2 (θ‬‬

‫] ) ‪σ 2 [1 + b ′(θ‬‬

‫‪2‬‬

‫≤‬

‫‪n‬‬

‫⇒ )‪(4‬‬

‫‪⇒ 1 + b ′2 (θ ) + 2b ′(θ ) ≤ 1 −‬‬

‫‪∀θ > θ0‬‬

‫‪−ε n‬‬ ‫‪<0‬‬ ‫‪2σ 2‬‬

‫≤ ) ‪⇒ b ′(θ‬‬

‫ﻛﺮاﻧﺪار ﺑﻮدن ‪ b‬و اﻛﻴﺪاً ﻧﺰوﻟﻲ ﺑﻮدن ‪ b‬در ﺗﻨﺎﻗﺾ ﻣﻲﺑﺎﺷﺪ‪ ،‬ﭘﺲ ‪ X‬ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‪ .‬ﺗﻮﺟﻪ ﻛﻨﻴﺪ‬ ‫ﺑﺮآوردﮔﺮ ) ‪ δ (X ) = max(θ0, X‬ﺑﺮآوردﮔﺮي ﺑﻬﺘﺮ از ‪ X‬اﺳﺖ و ﻣﻲﺗﻮان ﻧﺸﺎن داد ﻛﻪ ) ‪ δ (X‬ﻧﻴﺰ‬ ‫ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ)اﺛﺒﺎت‪ :‬ﺗﻤﺮﻳﻦ( و ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻳﻜﺘﺎ ﻧﻴﺴﺖ‪.‬‬ ‫⎛‬ ‫‪σ2‬‬ ‫⎞ ‪σ2‬‬ ‫= ) ‪, X > θ0 ⇒ R (θ , δ ) = R (θ , X‬‬ ‫= ) ‪⎜ R (θ , δ ) ≤ R (θ , X‬‬ ‫⎟‬ ‫‪n‬‬ ‫⎟ ‪n‬‬ ‫⎜‬ ‫⎜‬ ‫⎟‬ ‫‪σ2‬‬ ‫⇒‬ ‫=‬ ‫‪θ‬‬ ‫‪δ‬‬ ‫(‬ ‫‪,‬‬ ‫)‬ ‫‪Sup‬‬ ‫‪R‬‬ ‫⎜⎜‬ ‫⎟⎟‬ ‫‪n‬‬ ‫‪θ >θ0‬‬ ‫⎝‬ ‫⎠‬

‫ب‪-‬‬

‫اﮔﺮ‬

‫‪X b‬‬

‫‪a ≤θ ≤b‬‬

‫ﺑﺎﺷﺪ‬

‫آﻧﮕﺎه ‪X‬‬

‫ﻗﻀﻴﻪ‬

‫ﻃﺒﻖ‬

‫‪4-2‬‬

‫ﺑﻪ‬

‫وﺳﻴﻠﻪ‬

‫ﺑﺮآوردﮔﺮ‬

‫‪⎧a‬‬ ‫⎪⎪‬ ‫‪ δ * (X ) = ⎨X‬ﻣﻐﻠﻮب ﻣﻲﺷﻮد ﭘﺲ ﻏﻴﺮﻣﺠﺎز اﺳﺖ‪ .‬ﺣﺎل اﮔﺮ ‪ X‬ﺑﺨﻮاﻫﺪ ﺑﺮآوردﮔﺮ‬ ‫⎪‬ ‫‪⎪⎩ b‬‬

‫ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺎﺷﺪ آﻧﮕﺎه ﺑﺎﻳﺴﺘﻲ ﻣﻐﻠﻮب ﻛﻨﻨﺪه آن ﻧﻴﺰ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺎﺷﺪ ﻳﻌﻨﻲ‬ ‫‪σ2‬‬ ‫‪n‬‬

‫*‬

‫= ) ‪Sup R (θ , δ ) = Sup R (θ , X‬‬ ‫‪a ≤θ ≤b‬‬

‫‪a ≤θ ≤b‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫اﻣﺎ ] ‪, ∀θ ∈ [a , b‬‬

‫‪σ2‬‬ ‫‪n‬‬

‫‪151‬‬

‫= ) ‪ . R (θ , δ * ) < R (θ , X‬ﺑﻪ ﻋﻼوه ) * ‪ R (θ , δ‬ﻳﻚ ﺗﺎﺑﻊ ﭘﻴﻮﺳﺘﻪ از ‪ θ‬اﺳﺖ‪،‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ) * ‪ R (θ , δ‬ﻣﺎﻛﺴﻴﻤﻢ ﺧﻮد را در ﻳﻚ ﻧﻘﻄﻪ ‪ a ≤ θ0 ≤ b‬اﺧﺘﻴﺎر ﻣﻲﻛﻨﺪ‪ .‬در ﻧﺘﻴﺠﻪ‬ ‫‪σ2‬‬ ‫‪n‬‬

‫< ) * ‪ Sup R (θ , δ * ) = R (θ0, δ‬ﻛﻪ ﺑﺎ راﺑﻄﻪ ﻗﺒﻞ در ﺗﻨﺎﻗﺾ اﺳﺖ ﭘﺲ ‪ X‬ﻧﻤﻲﺗﻮاﻧﺪ ﻣﻴﻨﻴﻤﺎﻛﺲ‬ ‫‪a ≤θ ≤b‬‬

‫ﺑﺎﺷﺪ‪.‬‬ ‫ج‪-‬‬

‫اﮔﺮ ‪−m ≤ θ ≤ m‬‬

‫‪e + mx − e − mx‬‬ ‫‪= mtghmx‬‬ ‫‪e mx + e − mx‬‬

‫آﻧﮕﺎه‬

‫در‬

‫ﺑﺨﺶ‬

‫ﻗﺒﻞ‬

‫ﻧﺸﺎن‬

‫‪ δ m ( x ) = m‬ﺑﺮاي ‪ θ‬ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‪.‬‬

‫ﻛﻪ‬

‫دادﻳﻢ‬

‫ﺑﺮآوردﮔﺮ‬

‫■‬

‫ﻣﺜﺎل ‪) :7-2‬وارﻳﺎﻧﺲ ﺗﻮزﻳﻊ ﻧﺮﻣﺎل( ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,… , X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪N (0,σ 2‬‬ ‫‪n‬‬

‫‪1‬‬ ‫‪1‬‬ ‫‪n‬‬ ‫‪1‬‬ ‫ﺑﺎﺷﻨﺪ‪ .‬اﮔﺮ ) ‪ τ = 2 ~ Γ( g ,‬آﻧﮕﺎه )‬ ‫‪2 α+y‬‬ ‫‪α‬‬ ‫‪2σ‬‬

‫‪ τ | x ~ Γ( g + ,‬ﻛﻪ ‪ . Y = ∑ X i2‬اﮔﺮ ﻗﺮار‬

‫‪n‬‬ ‫دﻫﻴﻢ‬ ‫‪2‬‬

‫‪i =1‬‬

‫= ‪ r‬و ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﺑﺎﺷﺪ آﻧﮕﺎه ﺑﺮآوردﮔﺮ ﺑﻴﺰ ‪= 2σ 2‬‬

‫‪1‬‬

‫‪τ‬‬

‫ﻋﺒﺎرت اﺳﺖ از‬

‫‪1‬‬ ‫‪α+y‬‬ ‫= ) ‪δ π (x ) = E ( | x‬‬ ‫‪τ‬‬ ‫‪r + g −1‬‬

‫ﻣﻲﺧﻮاﻫﻴﻢ ﺑﺮآوردﮔﺮﻫﺎي ﻣﺠﺎز و ﻏﻴﺮﻣﺠﺎز ﺧﻄﻲ‬ ‫‪1‬‬ ‫‪α‬‬ ‫ﭼﻮن‬ ‫‪Y +‬‬ ‫‪r + g −1‬‬ ‫‪r + g −1‬‬

‫‪1‬‬ ‫‪2σ 2‬‬

‫= ‪ τ‬ﺑﻪ ﻓﺮم ‪ aY + b‬را ﺗﻌﻴﻴﻦ ﻛﻨﻴﻢ‪.‬‬

‫= ) ‪ δ π (X‬ﭘﺲ ﻃﺒﻖ ﻗﻀﻴﻪ ‪ 3-2‬ﺑﻪ ﻧﻈﺮ ﻣﻲرﺳﺪ ﻛﻪ ‪ aY + b‬ﺑﺮاي‬

‫‪1‬‬ ‫ﻣﻘﺎدﻳﺮ ‪ b > 0‬و‬ ‫‪r −1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪r‬‬ ‫ﻣﺠﺎز ‪ Y + b‬ﻣﻲﺑﺎﺷﺪ‪ .‬از ﻃﺮﻓﻲ = ‪ E (Y ) = nσ 2‬ﭘﺲ ‪ Y‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻧﺎارﻳﺐ ﺑﺮاي اﺳﺖ‪.‬‬ ‫‪τ‬‬ ‫‪τ‬‬ ‫‪r‬‬ ‫‪r‬‬ ‫‪1‬‬ ‫ﺑﻨﺎﺑﺮاﻳﻦ ﭼﻮن ‪ Y + b‬ﻛﻪ ﺑﺮآوردﮔﺮي ارﻳﺐدار اﺳﺖ در راﺑﻄﻪ‬ ‫‪r‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫) ‪R (2σ 2 , Y + b ) = R (2σ 2 , Y ) + b 2 > R (2σ 2 , Y‬‬ ‫‪r‬‬ ‫‪r‬‬ ‫‪r‬‬

‫< ‪ ( g > 0) ،0 < a‬ﻣﺠﺎز ﺑﺎﺷﺪ‪ .‬ﻳﻜﻲ از ﺣﺎﻟﺖﻫﺎي اﻳﻦ ﺑﺮآوردﮔﺮﻫﺎي‬

‫ﺻﺪق ﻣﻲﻛﻨﺪ ﭘﺲ ﺑﺮآوردﮔﺮي ﻏﻴﺮﻣﺠﺎز اﺳﺖ‪ .‬ﺑﻪ ﻧﻈﺮ ﻣﻲرﺳﺪ ﻛﻪ اﺷﻜﺎﻟﻲ در اﻳﻦ ﺧﺼﻮص وﺟﻮد دارد‪.‬‬ ‫ﻗﻀﻴﻪ ‪ 3-2‬ﺑﻴﺎن ﻣﻲﻛﺮد ﻛﻪ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﻳﻜﺘﺎ‪ ،‬ﺑﺮآوردﮔﺮي ﻣﺠﺎز اﺳﺖ‪ .‬و دو ﺷﺮط ﺑﺮاي ﻳﻜﺘﺎ ﺑﻮدن‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪152‬‬

‫ﺑﺮآوردﮔﺮ ﺑﻴﺰ وﺟﻮد داﺷﺖ ﻛﻪ در اﻳﻦ ﺟﺎ ﺷﺮط اول ﻳﻌﻨﻲ ﻣﺘﻨﺎﻫﻲ ﺑﻮدن ﻣﺨﺎﻃﺮه ﺑﻴﺰ ﺑﻪ ازاي ﻫﺮ ‪ b > 0‬و‬ ‫‪1‬‬ ‫‪r −1‬‬

‫< ‪ 0 < a‬ﺑﺮﻗﺮار ﻧﻴﺴﺖ زﻳﺮا‬ ‫‪2‬‬

‫⎡‬ ‫‪1‬‬ ‫⎤‪1‬‬ ‫‪Y +α‬‬ ‫‪Y +α‬‬ ‫‪Y +α‬‬ ‫‪Y +α‬‬ ‫‪R (2σ ,‬‬ ‫(‪)=E‬‬ ‫( ‪) − ⎢E‬‬ ‫⎥ ‪)−‬‬ ‫( ‪− )2 = V‬‬ ‫‪r + g −1‬‬ ‫‪r + g −1 τ‬‬ ‫⎦ ‪r + g −1 ⎣ r + g −1 τ‬‬ ‫‪2‬‬

‫‪2‬‬

‫‪⎡ r‬‬ ‫⎤‬ ‫‪+‬‬ ‫(‬ ‫)‬ ‫‪α‬‬ ‫‪1‬‬ ‫⎥‪1‬‬ ‫‪1‬‬ ‫⎫ ‪g −1 2‬‬ ‫‪⎡r ⎤ ⎢ τ‬‬ ‫‪⎧r‬‬ ‫=‬ ‫‪−‬‬ ‫= ⎥ ‪−‬‬ ‫‪− (α −‬‬ ‫⎬ )‬ ‫⎢ ⎥‪2 ⎢ 2‬‬ ‫‪2⎨ 2‬‬ ‫‪τ‬‬ ‫⎥ ‪(r + g − 1) ⎣τ ⎦ ⎢ r + g − 1 τ‬‬ ‫‪(r + g − 1) ⎩τ‬‬ ‫⎭‬ ‫⎣‬ ‫⎦‬

‫‪1‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﻣﺨﺎﻃﺮه ﺑﻴﺰ ﻣﺘﻨﺎﻫﻲ ﺧﻮاﻫﺪ ﺑﻮد اﮔﺮ ∞ < ) ‪ E ( 2‬و اﻳﻦ اﻣﻴﺪ رﻳﺎﺿﻲ ﻣﻮﻗﻌﻲ ﻣﺘﻨﺎﻫﻲ اﺳﺖ ﻛﻪ‬ ‫‪τ‬‬ ‫⎛‬ ‫⎞‬ ‫‪α2‬‬ ‫‪1‬‬ ‫= ) ‪ . ⎜⎜ E ( 2‬ﺑﺎ اﻋﻤﺎل اﻳﻦ ﺷﺮط روي ﺑﺮآوردﮔﺮ ﺑﻴﺰ ) ‪ δ (X‬دﻳﺪه‬ ‫‪ g > 2‬ﺑﺎﺷﺪ ⎟⎟‬ ‫‪1‬‬ ‫‪2‬‬ ‫‪−‬‬ ‫‪−‬‬ ‫(‬ ‫‪g‬‬ ‫()‬ ‫‪g‬‬ ‫)‬ ‫‪τ‬‬ ‫⎝‬ ‫⎠‬ ‫‪π‬‬

‫ﻣﻲﺷﻮد ﻛﻪ ﺑﺮآوردﮔﺮ ﺑﻴﺰ ﻳﻜﺘﺎ در ﺷﺮط زﻳﺮ ﺻﺪق ﻣﻲﻛﻨﺪ‪.‬‬ ‫‪1‬‬ ‫‪ b >0‬و‬ ‫‪r +1‬‬

‫< ‪0< a‬‬

‫و ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮاي اﻳﻦ ﻣﻘﺎدﻳﺮ ) ‪ (a,b‬ﺑﺮآوردﮔﺮ ‪ aY + b‬ﺑﺮاي ‪= 2σ 2‬‬

‫ﻫﻤﭽﻨﻴﻦ ﺑﺮاي ‪ b < 0‬ﺗﻮﺳﻂ ﻗﻀﻴﻪ ‪ 4-2‬ﺑﺮآوردﮔﺮ‬ ‫‪ aY + b‬ﻏﻴﺮﻣﺠﺎز اﺳﺖ‪) (B) .‬زﻳﺮا ﻣﻘﺎدﻳﺮي ﺧﺎرج‬ ‫از داﻣﻨﻪ ﭘﺎراﻣﺘﺮ )∞‪ (0, +‬را ﻣﻲﮔﻴﺮد‪ (.‬ﺣﺎﻟﺖ‪a = 0‬‬

‫ﺑﺮ آوردﮔﺮ ‪ δ (X ) = b , b > 0‬ﻣﺠﺎز اﺳﺖ زﻳﺮا‬ ‫‪1‬‬

‫اﻳﻦ ﺑﺮآوردﮔﺮ ﺗﻨﻬﺎ ﺑﺮآوردﮔﺮي اﺳﺖ ﻛﻪ در ‪= b‬‬ ‫‪τ‬‬ ‫داراي ﻣﺨﺎﻃﺮه ﺻﻔﺮ اﺳﺖ ‪) . R (b , δ ) = 0‬ﻣﺜﺎل ‪3-2‬‬

‫را ﻣﻼﺣﻈﻪ ﻛﻨﻴﺪ(‪(C) .‬‬ ‫‪1‬‬ ‫ﺑﺮاي ﺣﺎﻟﺖ‬ ‫‪r +1‬‬

‫> ‪) a‬ﻣﺴﺌﻠﻪ ‪ (2,12‬ﻣﻲﺗﻮان ﻧﺸﺎن‬

‫داد ﻛﻪ ﺑﺮآوردﮔﺮ ﻓﻮق ﻏﻴﺮﻣﺠﺎز اﺳﺖ‪ (D) .‬ﻫﻤﭽﻨﻴﻦ‬

‫‪1‬‬

‫‪τ‬‬

‫ﻣﺠﺎز اﺳﺖ‪ (A) .‬ﺑﺮاي‪ a < 0‬و‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬ ‫‪2‬‬

‫‪153‬‬

‫⎤‪1‬‬ ‫⎡‬ ‫⎥ ‪R (2σ , aY + b ) = E [(aY + b − ) ] = a V (Y ) + ⎢aE (Y ) + b −‬‬ ‫‪τ‬‬ ‫⎦‪τ‬‬ ‫⎣‬ ‫‪2‬‬

‫‪2‬‬

‫ﭘﺲ ﺑﺮاي ‪ b = 0‬دارﻳﻢ ﻛﻪ ‪a ≠ 0‬‬

‫‪2‬‬

‫⎤‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪⎡ ar‬‬ ‫⎡‬ ‫⎤‬ ‫⎥ ‪+ ⎢ + b − ⎥ = a 2r ( 2 ) + ⎢(ar − 1) + b‬‬ ‫⎦‪τ‬‬ ‫‪τ‬‬ ‫‪τ‬‬ ‫‪⎣τ‬‬ ‫⎣‬ ‫⎦‬

‫‪= f (a ),‬‬

‫‪1‬‬ ‫‪r +1‬‬

‫‪2‬‬

‫‪1‬‬

‫‪2‬‬

‫‪1‬‬

‫‪τ2‬‬

‫‪a 2r‬‬

‫‪τ2‬‬

‫=‬

‫] ‪R (2σ 2 , aY ) = [a 2r + (ar − 1)2‬‬

‫= ‪= 0 ⇒ a ( r + 1) − 1 = 0 ⇒ a‬‬

‫‪1‬‬ ‫‪2‬‬

‫‪τ‬‬

‫])‪f ′(a ) = [2ar + 2r (ar − 1‬‬ ‫‪>0‬‬

‫‪1‬‬

‫‪τ2‬‬

‫) ‪f ′′(a ) = (2r + 2r 2‬‬

‫‪1‬‬ ‫‪1 1‬‬ ‫‪1‬‬ ‫‪ R ( ,‬ﺑﺮاي ﻫﺮ ‪ a ≠ 0‬ﻳﻌﻨﻲ ‪ aY + b‬ﺑﺮاي ‪ b = 0‬و‬ ‫ﭘﺲ ) ‪Y ) < R ( , aY‬‬ ‫‪r +1‬‬ ‫‪τ r +1‬‬ ‫‪τ‬‬

‫≠‪ a‬و‬

‫‪ a ≠ 0‬ﺑﺮآوردﮔﺮي ﻏﻴﺮﻣﺠﺎز اﺳﺖ‪ (E).‬ﺑﺮاي ‪ b = 0‬و ‪ a = 0‬دارﻳﻢ ﻛﻪ‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪R ( , aY ) < R ( ,0) ⇔ a 2r + (ar − 1)2 < 1 ⇔ a 2r (1 + r ) − 2ar < 0‬‬

‫‪τ‬‬

‫‪2‬‬ ‫‪1+ r‬‬

‫‪τ‬‬

‫< ‪⇔ a (1 + r ) − 2 < 0 ⇔ a‬‬

‫ﭘﺲ ﺑﺮآوردﮔﺮ ‪ δ = 0‬ﺑﻪ وﺳﻴﻠﻪ ﺑﺮآوردﮔﺮ‬

‫‪2‬‬ ‫‪ δ * = aY‬ﻛﻪ‬ ‫‪1+ r‬‬

‫‪1‬‬ ‫اﺳﺖ)‪ .(F‬ﺗﻨﻬﺎ ﺣﺎﻟﺖ ‪ b ≥ 0‬و ‪Y + b‬‬ ‫‪r +1‬‬

‫ﺑﺎﻗﻲ ﻣﺎﻧﺪه اﺳﺖ ﻛﻪ در زﻳﺮ ﺗﻮﺳﻂ ﻗﻀﻴﻪ ﻛﺎرﻟﻴﻦ ‪ 1‬ﻣﺠﺎز‬

‫< ‪ a‬ﻣﻐﻠﻮب ﻣﻲﺷﻮد ﭘﺲ ﻏﻴﺮﻣﺠﺎز‬

‫■‬

‫ﺑﻮدن آن را ﺛﺎﺑﺖ ﻣﻲ ﻛﻨﻴﻢ‪.‬‬ ‫ﻓﺮض ﻛﻨﻴﺪ ‪ X‬داراي ﺗﻮزﻳﻌﻲ از ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ‬ ‫)‪(1‬‬

‫) ‪pθ (x ) = β (θ )e θT ( x‬‬

‫ﻧﺴﺒﺖ ﺑﻪ اﻧﺪازه ‪ μ‬ﺑﺎﺷﺪ و ‪ Θ‬ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ﻃﺒﻴﻌﻲ ﺑﺎﺷﺪ‪ .‬در اﻳﻦ ﺻﻮرت ‪ Θ‬داراي ﻧﻘﺎط اﻧﺘﻬﺎﻳﻲ‬ ‫ﻣﺎﻧﻨﺪ ‪ θ‬و ‪ θ‬اﺳﺖ )∞‪ . (−∞ ≤ θ ≤ θ ≤ +‬ﺑﺮاي ﺑﺮآورد ) ‪ E θ (T‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم‪،‬‬ ‫ﺑﺮآوردﮔﺮ ‪ aT + b‬ﺑﺮاي ‪ a < 0‬ﻳﺎ ‪ a > 1‬ﻏﻴﺮ ﻣﺠﺎز اﺳﺖ و ﺑﺮاي ‪ a = 0‬ﻣﻘﺪاري ﺛﺎﺑﺖ دارد ﭘﺲ ﻣﺠﺎز‬

‫)‪Karlin (1958‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪154‬‬

‫اﺳﺖ‪ .‬ﺑﺮاي اﻳﻨﻜﻪ ﺑﺘﻮاﻧﻴﻢ ﺷﺮط ﻗﻀﻴﻪ ﻛﺎرﻟﻴﻦ را ﺑﻴﺎن ﻛﻨﻴﻢ راﺣﺖﺗﺮ اﺳﺖ ﻛﻪ اﻳﻦ ﺑﺮآوردﮔﺮ را ﺑﻪ ﺻﻮرت‬ ‫زﻳﺮ ﺑﻨﻮﻳﺴﻴﻢ‪.‬‬ ‫‪γλ‬‬ ‫‪1‬‬ ‫‪T +‬‬ ‫‪1+ λ‬‬ ‫‪1+ λ‬‬

‫)‪(2‬‬

‫= ) ‪δ λ ,γ (x‬‬

‫ﻛﻪ در آن ∞ < ‪ 0 ≤ λ‬ﻣﻌﺎدل ‪ 0 < a ≤ 1‬اﺳﺖ‪.‬‬ ‫ﻗﻀﻴﻪ‪) :7-2‬ﻗﻀﻴﻪ ﻛﺎرﻟﻴﻦ( ﺗﺤﺖ ﻓﺮﺿﻴﺎت ﺑﺎﻻ‪ ،‬ﺷﺮط ﻛﺎﻓﻲ ﺑﺮاي آﻧﻜﻪ ﺑﺮآوردﮔﺮ )‪ (2‬ﺑﺮاي‬ ‫) ‪ g (θ ) = E θ (T‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﻣﺠﺎز ﺑﺎﺷﺪ اﻳﻦ اﺳﺖ ﻛﻪ اﻧﺘﮕﺮال ﺗﺎﺑﻊ‬

‫‪−λ‬‬

‫] ) ‪e −γλθ [ β (θ‬‬

‫در ‪ θ‬و ‪ θ‬واﮔﺮا ﺑﺎﺷﺪ‪ .‬ﻳﻌﻨﻲ ﺑﺮاي ﻳﻚ ‪ θ < θ0 < θ‬اﻧﺘﮕﺮالﻫﺎي‬ ‫‪e −γλθ‬‬

‫‪θ‬‬

‫‪∫θ [ β (θ )]−λ d θ‬‬ ‫*‬

‫‪e −γλθ‬‬

‫*‪θ‬‬

‫‪∫θ [ β (θ )]−λ d θ‬‬

‫‪and‬‬

‫‪0‬‬

‫ﻣﻮﻗﻌﻲ ﻛﻪ ﺑﻪ ﺗﺮﺗﻴﺐ ‪ θ * → θ‬و ‪ θ * → θ‬ﺑﻪ ﺳﻤﺖ ﺑﻲﻧﻬﺎﻳﺖ ﻣﻴﻞ ﻛﻨﻨﺪ‪.‬‬ ‫اﺛﺒﺎت‪ :‬از روش ﻧﺎﻣﺴﺎوي اﻃﻼع ﻗﻀﻴﻪ را ﺛﺎﺑﺖ ﻣﻲﻛﻨﻴﻢ‪ .‬ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﻳﻨﻜﻪ در ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ )‪ (1‬دارﻳﻢ ﻛﻪ‬ ‫) ‪g ′(θ ) =V θ (T ) = I (θ‬‬

‫‪,‬‬

‫) ‪β ′(θ‬‬ ‫) ‪β (θ‬‬

‫‪g (θ ) = E θ (T ) = −‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ﻃﺒﻖ ﻧﺎﻣﺴﺎوي اﻃﻼع ﺑﺮاي ﻫﺮ ﺑﺮآوردﮔﺮ ‪ δ‬دارﻳﻢ ﻛﻪ‬ ‫]) ‪[ g ′(θ ) + b ′(θ‬‬ ‫‪2‬‬ ‫≥ ) ‪E θ ⎡(δ (X ) − g (θ ) ) ⎤ =V θ (δ (X )) + b 2 (θ‬‬ ‫) ‪+ b 2 (θ‬‬ ‫⎣‬ ‫⎦‬ ‫) ‪I (θ‬‬ ‫‪2‬‬

‫)‪(3‬‬

‫‪[I (θ ) + b ′(θ )]2‬‬ ‫=‬ ‫) ‪+ b 2 (θ‬‬ ‫) ‪I (θ‬‬

‫ﻛﻪ در آن ) ‪ . b (θ ) = E θ [δ (X )] − γ (θ‬ﭼﻮن در ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ﻳﻚ ﭘﺎراﻣﺘﺮي ﻫﺴﺘﻴﻢ ﭘﺲ ﺑﺮاي‬ ‫ﺑﺮآوردﮔﺮ ‪ δ = δ λ ,γ‬ﻧﺎﻣﺴﺎوي ﻓﻮق ﺑﻪ ﺗﺴﺎوي ﺗﺒﺪﻳﻞ ﻣﻲﺷﻮد و اﮔﺮ ) ‪ bλ ,γ (θ‬ارﻳﺒﻲ ﺑﺮآوردﮔﺮ ‪δ λ ,γ‬‬

‫ﺑﺎﺷﺪ آﻧﮕﺎه‬ ‫‪λ‬‬ ‫⎧‬ ‫]) ‪⎪⎪bλ ,γ (θ ) = 1 + λ [γ − g (θ‬‬ ‫⎨‬ ‫) ‪⎪ b ′ (θ ) = − λ g ′(θ‬‬ ‫‪λ ,γ‬‬ ‫‪1+ λ‬‬ ‫⎪⎩‬

www.riazisara.ir

155

‫ ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬:‫ﻓﺼﻞ ﭘﻨﺠﻢ‬

[I (θ ) + bλ′ ,γ (θ )] 2 E θ ⎡ bλ ,γ ( X ) − g (θ ) ⎤ = + [bλ ,γ (θ )]2 ⎢⎣ ⎥⎦ I (θ )

(

2

)

(4)

‫ ﺑﺮآوردﮔﺮي ﺑﺎﺷﺪ ﻛﻪ‬δ0 ‫ﺣﺎل اﮔﺮ‬

(

)

2 2 E ⎡(δ0(X ) − g (θ ) ) ⎤ ≤ E θ ⎡ δ λ ,γ (X ) − g (θ ) ⎤ ⎢⎣ ⎣ ⎦ ⎦⎥

(5)

‫( دارﻳﻢ ﻛﻪ‬4) ‫( و‬3) ‫ ارﻳﺒﻲ آن ﺑﺎﺷﺪ آن ﮔﺎه از رواﺑﻂ‬b0(θ ) ‫و‬

[ I (θ ) + b0′(θ )]2 + b 2 (θ ) ≤ E ⎡ δ (X ) − g (θ ) 2 ⎤ ≤ E ⎡ δ (X ) − g (θ ) 2 ⎤ ( ) ⎦ θ ⎢( λ ,γ ) ⎥⎦ 0 ⎣ 0 ⎣ I (θ )

2

⎡ I (θ ) + bλ′ ,γ (θ ) ⎤⎦ =⎣ + [bλ ,γ (θ )]2 I (θ )

‫ از ﻧﺎﻣﺴﺎوي ﻓﻮق دارﻳﻢ ﻛﻪ‬h (θ ) = b0(θ ) − bλ ,γ (θ ) ‫اﮔﺮ ﻗﺮار دﻫﻴﻢ‬

{

}

b02 (θ ) − bλ2 ,γ (θ ) +

(b0′(θ ) − bλ′ ,γ (θ ) )(2I (θ ) + b0′(θ ) − bλ′ ,γ (θ ) ) ≤ 0 I (θ )

⇒ [h (θ )] + 2bλ ,γ (θ ) ⎡⎣b0(θ ) − bλ ,γ (θ ) ⎤⎦ + 2

(

)

h ′(θ ) ⎣⎡ h ′(θ ) + 2 I (θ ) + bλ′ ,γ (θ ) ⎦⎤ ≤0 I (θ )

[h ′(θ )]2 2λ 2 ′ h (θ ) + ⇒ h (θ ) − ≤0 (γ − g (θ ) ) h (θ ) + I (θ ) 1+ λ 1+ λ 2

⇒ h 2 (θ ) −

2λ 2 h ′(θ ) ≤ 0 (γ − g (θ ) ) h (θ ) + 1+ λ 1+ λ

(6) ‫ﻗﺮار ﻣﻲدﻫﻴﻢ‬

k (θ ) = h (θ ) β + λ (θ )e γλθ

(7) ‫در اﻳﻦ ﺻﻮرت‬

k ′(θ ) = h ′(θ ) β λ (θ )e γλθ + λ h (θ ) β λ −1(θ ) β ′(θ )e γλθ + γλ h (θ ) β λ (θ )e γλ −θ ⎧ h ′(θ ) ⎫ β ′(θ ) = k (θ ) ⎨ +λ + γλ ⎬ β (θ ) ⎩ h (θ ) ⎭ ⎧ h ′(θ ) ⎫ k (θ ) = k (θ ) ⎨ + λ ( g (θ ) − γ ) ⎬ = {h ′(θ ) − λ h (θ )( g (θ ) − γ )} ⎩ h (θ ) ⎭ h (θ ) 2 h (θ )k ′(θ ) 2 h (θ ) ≤0⇒ (6) ⇒ h 2 (θ ) + [ h (θ )k (θ ) + k ′(θ )] ≤ 0 1 + λ k (θ ) 1+ λ k (θ )

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪2‬‬ ‫‪k ′(θ ) ≤ 0‬‬ ‫‪1+ λ‬‬

‫)‪(8‬‬

‫‪k 2 (θ ) β − λ (θ )e −γλθ +‬‬

‫‪156‬‬

‫‪h (θ ) − λ‬‬ ‫‪= β (θ )e − γλθ >0‬‬ ‫) ‪k (θ‬‬

‫⇒‬

‫از اﻳﻦ راﺑﻄﻪ ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد ﻛﻪ ‪ k ′(θ ) < 0‬ﻳﻌﻨﻲ ‪ k‬ﻳﻚ ﺗﺎﺑﻊ ﻧﺰوﻟﻲ از ‪ θ‬اﺳﺖ‪ .‬ﺣﺎل ﻧﺸﺎن ﻣﻲدﻫﻴﻢ ﻛﻪ‬ ‫‪. k (θ ) = 0 ∀θ‬‬ ‫ﻓﺮض ﻛﻨﻴﺪ ﻛﻪ ﻣﻘﺪاري از ‪ θ‬وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ﻛﻪ ‪ k (θ ) ≠ 0‬ﺑﺎﺷﺪ‪ .‬ﻳﻌﻨﻲ ﻳﻚ ﻣﻘﺪار ‪ θ0‬وﺟﻮد دارد ﻛﻪ‬ ‫) ‪ k (θ0) < 0(i‬ﻳﺎ ) ‪ k (θ0) > 0(ii‬اﺳﺖ‪.‬‬ ‫ﺣﺎﻟﺖ )‪ :(i‬اﮔﺮ ‪ k (θ0) < 0‬آﻧﮕﺎه ‪ k (θ ) < 0, ∀θ ≥ θ0‬ﺣﺎل از راﺑﻄﻪ )‪ (8‬دارﻳﻢ ﻛﻪ‬ ‫‪1‬‬ ‫‪d‬‬ ‫‪− k ′(θ ) 1 + λ − λ‬‬ ‫[‬ ‫‪]= 2‬‬ ‫‪β (θ )e −γλθ‬‬ ‫≥‬ ‫) ‪d θ k (θ‬‬ ‫‪2‬‬ ‫) ‪k (θ‬‬ ‫‪d‬‬ ‫‪1‬‬ ‫‪1 + λ θ * −λ‬‬ ‫‪β (t )e −γλt dt‬‬ ‫[‬ ‫≥ ‪]dt‬‬ ‫∫‬ ‫‪θ‬‬ ‫‪0‬‬ ‫) ‪d θ k (t‬‬ ‫‪2‬‬

‫*‪θ‬‬

‫‪θ0‬‬

‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪1 + λ θ * −1‬‬ ‫>‬ ‫‪−‬‬ ‫≥‬ ‫‪β (t )e γλθ dt‬‬ ‫∫‬ ‫*‬ ‫‪θ‬‬ ‫‪2 0‬‬ ‫)‪k (θ0) k (θ ) k (θ0‬‬ ‫‪1‬‬ ‫ﺣﺎل اﮔﺮ ∞ → * ‪ θ‬آﻧﮕﺎه ﺳﻤﺖ راﺳﺖ ﺑﻪ ∞ ﻣﻴﻞ ﻣﻲﻛﻨﺪ ﻛﻪ ﺑﺎ ﻛﻤﺘﺮ ﺑﻮدن آن از‬ ‫)‪k (θ0‬‬

‫∫⇒‬

‫‪⇒−‬‬

‫‪ −‬در ﺗﻨﺎﻗﺾ‬

‫اﺳﺖ ﺑﺠﺰ اﻳﻨﻜﻪ ‪. k (θ0) = 0‬‬ ‫)‪ (ii‬ﺑﻪ ﻃﻮر ﻣﺸﺎﺑﻪ ﻣﻲﺗﻮان ﻧﺸﺎن داد ﻛﻪ ﻧﻤﻲﺗﻮاﻧﺪ ‪ k (θ0) > 0‬ﺑﺎﺷﺪ‪.‬‬ ‫ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮاي ﻫﺮ ‪ k (θ ) = 0 ، θ‬و ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮاي ﻫﺮ ‪ h (θ ) = 0 ، θ‬ﺧﻮاﻫﺪ ﺑﻮد‪ ،‬ﻳﻌﻨﻲ در ﻧﺎﻣﺴﺎوي )‪(6‬‬ ‫ﺣﺎﻟﺖ ﺗﺴﺎوي ﺑﺮﻗﺮار ﻣﻲﺷﻮد و در ﻧﺘﻴﺠﻪ در ﻧﺎﻣﺴﺎوي )‪ (5‬ﻧﻴﺰ ﺣﺎﻟﺖ ﺗﺴﺎوي ﺧﻮاﻫﻴﻢ داﺷﺖ و اﻳﻦ ﻧﺸﺎن‬ ‫‪T + γλ‬‬ ‫ﻣﻲدﻫﺪ ﻛﻪ ﺑﺮآوردﮔﺮ‬ ‫‪1+ λ‬‬

‫= ) ‪ δ λ ,γ (X‬ﺑﺮآوردﮔﺮي ﻣﺠﺎز اﺳﺖ‪.‬‬

‫■‬

‫ﻣﺜﺎل‪) 7-2‬اداﻣﻪ(‪ :‬ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﻳﻨﻜﻪ در ﺗﻮزﻳﻊ ) ‪ N (0,σ 2‬دارﻳﻢ ﻛﻪ‬ ‫‪1‬‬ ‫‪2σ 2‬‬

‫= ‪y = ∑ x i2 ,τ‬‬

‫‪n‬‬ ‫‪2 τ r e −τ y‬‬

‫‪−‬‬

‫‪=π‬‬

‫‪n − 1‬‬ ‫‪∑ x i2‬‬ ‫‪2 e 2σ 2‬‬

‫‪−‬‬

‫) ‪f σ 2 (x ) = (2πσ‬‬ ‫‪2‬‬

‫ﭘﺲ اﻳﻦ ﺗﻮزﻳﻊ ﺑﻪ ﻓﺮم ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ)‪ (1‬ﺑﺎ ﻣﻘﺎدﻳﺮ زﻳﺮ اﺳﺖ‬ ‫‪−θ‬‬ ‫‪Y‬‬ ‫‪, θ = − rτ , β (θ ) = ( ) r , θ = −∞, θ = 0‬‬ ‫‪r‬‬ ‫‪r‬‬

‫= ) ‪T (X‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫)ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ ﭘﺎراﻣﺘﺮﻫﺎي ﺑﮕﻮﻧﻪاي اﻧﺘﺨﺎب ﺷﺪهاﻧﺪ ﻛﻪ‬ ‫‪1 Y‬‬ ‫‪γλ‬‬ ‫ﺑﺮآوردﮔﺮ‬ ‫‪+‬‬ ‫‪1+ λ r 1+ λ‬‬

‫ﺑﺮاي‬

‫‪1‬‬

‫‪τ‬‬

‫∞‬

‫‪1‬‬

‫‪τ‬‬

‫‪157‬‬

‫= )) ‪ E (T (X‬ﺑﺎﺷﺪ(‪ .‬ﺣﺎل ﻃﺒﻖ ﻗﻀﻴﻪ ﻛﺎرﻟﻴﻦ‬

‫ﻣﺠﺎز اﺳﺖ اﮔﺮ اﻧﺘﮕﺮالﻫﺎي‬

‫‪−θ − r λ‬‬ ‫‪) d θ = k ∫ e γλθ θ − r λ d θ‬‬ ‫‪r‬‬ ‫‪c‬‬

‫‪−c‬‬

‫‪c‬‬

‫‪−γλθ‬‬ ‫( ‪∫e‬‬

‫‪−γλθ − r λ‬‬ ‫‪∫e θ d θ‬‬

‫و‬

‫∞‪−‬‬

‫‪0‬‬

‫ﻫﺮ دو واﮔﺮا ﺑﺎﺷﻨﺪ‪ .‬اﻧﺘﮕﺮال اوﻟﻲ ﻣﻮﻗﻌﻲ واﮔﺮا اﺳﺖ ﻛﻪ ‪ r λ ≤ 1‬و‪ γ = 0‬ﻳﺎ ‪ γλ > 0‬ﺑﺎﺷﺪ‪ .‬و در اﻧﺘﮕﺮال‬ ‫دوم ﻋﺎﻣﻞ ‪ e γλθ‬ﻧﻘﺸﻲ در اﻧﺘﮕﺮال ﻧﺪارد و ﻣﻮﻗﻌﻲ واﮔﺮا اﺳﺖ ﻛﻪ ‪ r λ ≥ 1‬ﺑﺎﺷﺪ‪ .‬اﮔﺮ اﻳﻦ ﺷﺮاﻳﻂ را ﺑﺎ‬ ‫‪1 Y‬‬ ‫‪γλ‬‬ ‫ﻫﻢ ادﻏﺎم ﻛﻨﻴﻢ آﻧﮕﺎه ﺑﺮآوردﮔﺮ‬ ‫‪+‬‬ ‫‪1+ λ r 1+ λ‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪ (ii ) λ ≥ , γ > 0‬ﻳﺎ‬ ‫= ‪(i ) γ = 0, λ‬‬ ‫‪r‬‬ ‫‪r‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪γλ‬‬ ‫اﮔﺮ ﻗﺮار دﻫﻴﻢ‬ ‫= ‪ b‬آﻧﮕﺎه ﺑﺮآوردﮔﺮ ‪ aY + b‬ﺑﺮاي ﻣﺠﺎز اﺳﺖ اﮔﺮ‬ ‫=‪ a‬و‬ ‫‪τ‬‬ ‫‪1+ λ‬‬ ‫‪(1 + λ )r‬‬

‫ﻣﺠﺎز اﺳﺖ اﮔﺮ‬

‫‪1‬‬ ‫‪1‬‬ ‫≤ ‪ (ii ) 0 < a‬ﻳﺎ ‪, b = 0‬‬ ‫‪, b >0‬‬ ‫‪1+ r‬‬ ‫‪1+ r‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫ﺑﺮاي ﻣﺠﺎز اﺳﺖ‪ .‬ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻧﻮاﺣﻲ ﺑﺪﺳﺖ آﻣﺪه در اﻳﻦ ﻣﺜﺎل‬ ‫ﻳﻌﻨﻲ ﺑﺮآوردﮔﺮ‪Y + b , b ≥ 0‬‬ ‫‪1+ r‬‬ ‫‪τ‬‬ ‫‪1‬‬ ‫ﻣﻲﺗﻮان ﮔﻔﺖ ﻛﻪ ﺑﺮآوردﮔﺮ ‪ aY + b‬ﺑﺮاي = ‪ 2σ 2‬ﻣﺠﺎز اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ‬ ‫= ‪(i ) a‬‬

‫‪τ‬‬

‫‪1‬‬ ‫‪, b =0‬‬ ‫‪r +1‬‬

‫=‪a‬‬

‫‪1‬‬ ‫ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮآوردﮔﺮ ‪ cY + d‬ﺑﺮاي‬ ‫‪2τ‬‬

‫) ‪(ii‬‬

‫‪1‬‬ ‫‪, b >0‬‬ ‫‪r +1‬‬

‫≤ ‪0≤ a‬‬

‫) ‪(i‬‬

‫= ‪ σ 2‬ﻣﺠﺎز اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ‬

‫‪1‬‬ ‫‪n‬‬ ‫‪a‬‬ ‫‪b‬‬ ‫) = ‪, d = 0 (r = ) (c = , d‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪n +2‬‬ ‫‪1‬‬ ‫= ) ‪ δ * ( X‬ﺑﺮاي ‪ σ 2‬ﻣﺠﺎز اﺳﺖ‪.‬‬ ‫ﻳﻌﻨﻲ ﺑﺮآوردﮔﺮ ‪X i2 ، MRE‬‬ ‫∑‬ ‫‪n +2‬‬ ‫=‪c‬‬

‫) ‪(ii‬‬

‫‪1‬‬ ‫‪, d >0‬‬ ‫‪n +2‬‬

‫≤ ‪0≤ c‬‬

‫■‬

‫) ‪(i‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪158‬‬

‫ﻣﺜﺎل ‪) :8-2‬وارﻳﺎﻧﺲ ﻧﺮﻣﺎل ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ ﻣﺠﻬﻮل(‬ ‫ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,..., X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ) ‪ N ( μ ,σ 2‬ﺑﺎﺷﻨﺪ‪ .‬در ﻣﺜﺎل )‪ (7‬دﻳﺪﻳﻢ ﻛﻪ‬ ‫‪1 n 2‬‬ ‫اﮔﺮ ‪ μ = 0‬ﺑﺎﺷﺪ‪ ،‬آﻧﮕﺎه ﺑﺮآوردﮔﺮ ‪∑ X i ،MRE‬‬ ‫‪n + 2 i =1‬‬

‫ﺑﺮاي ‪ σ 2‬ﻣﺠﺎز اﺳﺖ‪ .‬ﺣﺎل اﮔﺮ ‪ μ‬ﻧﺎﻣﻌﻠﻮم‬

‫‪1 n‬‬ ‫ﺑﺎﺷﺪ آﻳﺎ ﺑﺮآوردﮔﺮ ‪ MRE‬ﭘﺎراﻣﺘﺮ ‪ σ 2‬ﻳﻌﻨﻲ ‪(X i − X )2‬‬ ‫∑‬ ‫‪n + 1 i =1‬‬

‫ﺑﺮاي ‪ σ 2‬ﻣﺠﺎز اﺳﺖ‪.‬‬

‫‪1 n‬‬ ‫‪1‬‬ ‫ﺣﻞ‪ :‬اﺷﺘﺎﻳﻦ )‪ (1964‬ﻧﺸﺎن داد ﻛﻪ ﺑﺮآوردﮔﺮ ‪(X i − X )2‬‬ ‫∑‬ ‫‪n + 1 i =1‬‬

‫‪Xi2‬‬ ‫∑‬ ‫‪,‬‬ ‫)‬

‫‪− X )2‬‬

‫‪n +2‬‬

‫‪n‬‬

‫‪∑ (X i‬‬

‫‪n +1‬‬

‫ﻣﺠﺎز ﻧﻴﺴﺖ و ﺑﻮﺳﻴﻠﻪ ﺑﺮآوردﮔﺮ‬

‫‪i =1‬‬

‫*‬

‫(‪ δ = min‬ﻣﻐﻠﻮب ﻣﻲﺷﻮد )اﺛﺒﺎت ﺗﻤﺮﻳﻦ( دﻟﻴﻞ ﺗﻮﺟﻴﻬﻲ اﻳﻦ ﺑﺮآوردﮔﺮ‬

‫اﻳﻦ اﺳﺖ ﻛﻪ ﻓﺮض ﻛﻨﻴﺪ ﺑﺨﻮاﻫﻴﻢ آزﻣﻮن ‪ H 0 : μ0 = 0 vs H 1 : μ ≠ 0‬را آزﻣﻮن ﻛﻨﻴﻢ در اﻳﻦ ﺻﻮرت‬ ‫ﻓﺮض ‪ H 0‬را ﻗﺒﻮل ﻣﻲﻛﻨﻴﻢ اﮔﺮ‬

‫‪1 n‬‬ ‫‪Xi2‬‬ ‫∑‬ ‫‪n + 2 i =1‬‬

‫‪
‫| ‪| nX‬‬ ‫‪1 n‬‬ ‫‪(X i − X )2‬‬ ‫∑‬ ‫‪n − 1 i =1‬‬

‫و در ﻧﺘﻴﺠﻪ ‪ σ 2‬را ﺑﺎ‬

‫ﺑﺮآورد ﻣﻲﻛﻨﻴﻢ و در ﻏﻴﺮ اﻳﻦ ﺻﻮرت ﻓﺮض ‪ H 1‬را ﻗﺒﻮل ﻣﻲﻛﻨﻴﻢ و ‪ σ 2‬را ﺑﺎ‬

‫‪n −1‬‬ ‫‪1 n‬‬ ‫ﺑﺮآورد ﻣﻲﻛﻨﻴﻢ‪ .‬اﮔﺮ ﻗﺮار دﻫﻴﻢ‬ ‫‪( X i − X )2‬‬ ‫∑‬ ‫‪n +1‬‬ ‫‪n + 1 i =1‬‬

‫= ‪C‬آﻧﮕﺎه ﻧﺎﻣﺴﺎوي ﻓﻮق ﺑﻪ ﻧﺎﻣﺴﺎوي‬

‫‪1 n‬‬ ‫‪1 n‬‬ ‫‪2‬‬ ‫ﺗﺒﺪﻳﻞ ﻣﻲﺷﻮد و ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ آزﻣﻮن ﻓﻮق‬ ‫< ‪Xi‬‬ ‫‪( X i − X )2‬‬ ‫∑‬ ‫∑‬ ‫‪n + 2 i =1‬‬ ‫‪n + 1 i =1‬‬

‫ﺑﺮآوردﮔﺮ * ‪ δ‬ﺣﺎﺻﻞ ﻣﻲﮔﺮدد‪.‬‬ ‫‪2‬‬

‫‪1 n‬‬ ‫‪1 n‬‬ ‫‪n‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫< ‪nX‬‬ ‫< ‪(X i − X ) ⇒ nX‬‬ ‫‪Xi2−‬‬ ‫‪X‬‬ ‫∑‬ ‫∑‬ ‫‪n + 1 i =1‬‬ ‫‪n + 1 i =1‬‬ ‫‪n +1‬‬ ‫‪2‬‬

‫‪1 n 2‬‬ ‫‪n (n + 2) 2‬‬ ‫⇒‬ ‫< ‪X‬‬ ‫‪∑X i‬‬ ‫‪n +1‬‬ ‫‪n + 1 i =1‬‬ ‫‪n‬‬ ‫‪n‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪)∑ X i2‬‬ ‫<‪X2‬‬ ‫( = ‪X i2‬‬ ‫‪−‬‬ ‫∑‬ ‫‪n +1‬‬ ‫‪n +1 n + 2‬‬ ‫‪(n + 1)(n + 2) i =1‬‬

‫⇒‬

‫‪Stein‬‬

‫‪١‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪1 n‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫<‪Xi2‬‬ ‫= ] ‪[∑ X i2 − nX 2‬‬ ‫‪( X i − X )2‬‬ ‫∑‬ ‫∑‬ ‫‪n + 2 i =1‬‬ ‫‪n +1‬‬ ‫‪n +1‬‬

‫‪159‬‬

‫⇒‬

‫‪x‬‬ ‫‪s‬‬

‫ﺑﺮآوردﮔﺮ * ‪ δ‬در رده ﺑﺰرﮔﺘﺮي از ﻛﻼسﻫﺎ ﺑﻪ ﺻﻮرت ‪ δ ( x , s ) = ϕ ( )S 2‬ﻗﺮار دارد زﻳﺮا‬ ‫‪2‬‬ ‫‪S 2 ∑X i‬‬ ‫‪1 S 2 + nX 2 2‬‬ ‫(‪δ = min‬‬ ‫‪,‬‬ ‫(‪) = min‬‬ ‫‪,‬‬ ‫‪)S‬‬ ‫‪n +1 n + 2‬‬ ‫‪n + 1 (n + 2)S 2‬‬ ‫*‬

‫‪⎛ 1‬‬ ‫‪1‬‬ ‫‪n X 2⎞ 2‬‬ ‫‪X‬‬ ‫‪,‬‬ ‫‪( ) ⎟ S = ϕ ( )S 2‬‬ ‫⎜ ‪= min‬‬ ‫‪+‬‬ ‫‪S‬‬ ‫⎠ ‪⎝ n +1 n + 2 n + 2 S‬‬ ‫‪1‬‬ ‫ﺑﺮآوردﮔﺮﻫﺎي ﺑﻪ ﻓﺮم ) ‪ δ (X , S‬ﻧﻴﺰ ﺑﺮ ﺑﺮآوردﮔﺮ ‪( X i − X )2‬‬ ‫∑‬ ‫‪n +1‬‬

‫ﻏﻠﺒﻪ دارﻧﺪ)اﺛﺒﺎت‪ :‬ﺗﻤﺮﻳﻦ( ■‬

‫ﻣﺜﺎل ‪) :9-2‬ﺗﻮزﻳﻊ دو ﺟﻤﻠﻪاي( ﻓﺮض ﻛﻨﻴﺪ ) ‪ X ∼ B (n , p‬ﺑﺎﺷﺪ‪ .‬ﺑﺮاي ﭼﻪ ﻣﻘﺎدﻳﺮاز ‪ a‬و ‪ b‬ﺑﺮآوردﮔﺮ‬ ‫‪X‬‬ ‫‪) +b‬‬ ‫‪n‬‬

‫( ‪ a‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﻣﺠﺎز و ﺑﺮاي ﭼﻪ ﻣﻘﺎدﻳﺮ ﻏﻴﺮﻣﺠﺎز اﺳﺖ‪.‬‬ ‫‪x‬‬

‫‪p‬‬

‫‪n ln‬‬ ‫⎞ ‪⎛n‬‬ ‫⎞ ‪⎛n‬‬ ‫‪f X (x ) = p (X = x ) = ⎜ ⎟ p x (1 − p ) n −x = ⎜ ⎟ (1 − p ) n e n 1− p‬‬ ‫⎠ ‪⎝x‬‬ ‫⎠ ‪⎝x‬‬

‫ﻗﺮار ﻣﻲدﻫﻴﻢ‬ ‫‪θ‬‬

‫‪p‬‬ ‫‪X‬‬ ‫‪θ = n ln‬‬ ‫‪, T (X ) = , β (θ ) = (1 − p ) n = (1 + e n ) − n‬‬ ‫‪n‬‬ ‫‪1− p‬‬ ‫‪θ‬‬

‫‪X‬‬ ‫‪en‬‬ ‫= ‪)= p‬‬ ‫‪θ‬‬ ‫‪n‬‬ ‫‪1+ e n‬‬

‫( ‪g (θ ) = E θ (T (X )) = E θ‬‬

‫∞‪0 < p < 1 ⇒ θ = −∞, θ = +‬‬

‫‪γλ‬‬ ‫‪X‬‬ ‫‪+‬‬ ‫ﻃﺒﻖ ﻗﻀﻴﻪ ﻛﺎرﻟﻴﻦ ﺑﺮآوردﮔﺮ‬ ‫‪n (1 + λ ) 1 + λ‬‬

‫= ) ‪ δ λ ,γ (x‬ﺑﺮاي ‪ p‬ﻣﺠﺎز اﺳﺖ اﮔﺮ دو اﻧﺘﮕﺮال زﻳﺮ‬

‫واﮔﺮا ﺑﺎﺷﻨﺪ‬ ‫‪λn‬‬

‫)‪(1‬‬

‫‪dθ‬‬

‫⎞‬ ‫⎟‬ ‫⎟⎟‬ ‫⎠‬

‫⎛‬ ‫‪1‬‬ ‫⎜ ‪γλθ‬‬ ‫‪1+ θ‬‬ ‫‪dθ =∫e‬‬ ‫⎜⎜‬ ‫‪c‬‬ ‫‪⎝ en‬‬ ‫∞‬

‫‪λn‬‬

‫⎞‬ ‫⎟‬ ‫⎟‬ ‫⎠‬

‫‪θ‬‬ ‫⎛‬ ‫‪−γλθ‬‬ ‫‪∫ e ⎜⎜1 + e n‬‬ ‫∞‪−‬‬ ‫⎝‬ ‫‪−c‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬ ‫‪λn‬‬

‫‪dθ‬‬

‫)‪(2‬‬ ‫‪λn‬‬

‫اﮔﺮ ‪ λ < 0‬ﺑﺎﺷﺪ‪ ،‬آﻧﮕﺎه ‪≤ e −γλθ‬‬

‫⎞‬ ‫⎟‬ ‫⎟‬ ‫⎠‬

‫⎞‬ ‫⎟‬ ‫⎟‬ ‫⎠‬

‫‪160‬‬

‫‪θ‬‬ ‫⎛‬ ‫‪−γλθ‬‬ ‫‪∫ e ⎜⎜1 + e n‬‬ ‫‪c‬‬ ‫⎝‬

‫∞‬

‫‪θ‬‬ ‫⎛‬ ‫‪−γλθ‬‬ ‫‪⎜1 + e n‬‬ ‫‪ e‬و ﺑﻨﺎﺑﺮاﻳﻦ ﻫﺮ دو اﻧﺘﮕﺮال ﻧﻤﻲﺗﻮاﻧﻨﺪ ﻫﻤﺰﻣﺎن واﮔﺮا‬ ‫⎜‬ ‫⎝‬

‫ﺑﺎﺷﻨﺪ‪ .‬اﮔﺮ ‪ λ = 0‬آﻧﮕﺎه ﻫﺮ دو اﻧﺘﮕﺮال واﮔﺮا ﻫﺴﺘﻨﺪ‪ .‬اﮔﺮ ‪ λ > 0‬ﺑﺎﺷﺪ آﻧﮕﺎه‬ ‫‪λn‬‬

‫⎞‬ ‫⎟‬ ‫⎟‬ ‫⎠‬

‫‪⎛ θ‬‬ ‫‪> ⎜e n‬‬ ‫⎜‬ ‫⎝‬

‫‪λn‬‬

‫⎞‬ ‫⎟‬ ‫⎟‬ ‫⎠‬

‫‪θ‬‬

‫‪θ‬‬ ‫⎛‬ ‫‪n‬‬ ‫‪> e ⇒ ⎜1 + e n‬‬ ‫⎜‬ ‫⎝‬ ‫‪λn‬‬

‫‪> e λθ e −γλθ = e (1−γ ) λθ‬‬ ‫در اﻳﻦ ﺻﻮرت اﻧﺘﮕﺮال دوم ﺑﻪ ازاي ‪1 − γ ≥ 0‬‬ ‫‪λn‬‬

‫⎞‬ ‫⎟‬ ‫⎟‬ ‫⎠‬

‫⎞‬ ‫⎟‬ ‫⎟‬ ‫⎠‬

‫‪θ‬‬

‫‪1+ e n‬‬

‫‪θ‬‬ ‫⎛‬ ‫‪−γλθ‬‬ ‫‪⎜1 + e n‬‬ ‫‪⇒e‬‬ ‫⎜‬ ‫⎝‬

‫ﻳﺎ ‪ γ ≤ 1‬واﮔﺮاﺳﺖ و در اﻧﺘﮕﺮال اول ﻋﺎﻣﻞ‬

‫‪θ‬‬ ‫⎛‬ ‫‪−‬‬ ‫‪ ⎜1 + e n‬در ﻫﻤﮕﺮاﻳﻲ ﻳﺎ واﮔﺮاﻳﻲ ﺗﺎﺛﻴﺮ ﻧﻤﻲﮔﺬارد ﭘﺲ اﻳﻦ اﻧﺘﮕﺮال ﺑﻪ ازاي‪ γλ ≥ 0‬ﻳﺎ ‪ γ ≥ 0‬واﮔﺮا‬ ‫⎜‬ ‫⎝‬

‫اﺳﺖ‪.‬‬ ‫‪1‬‬ ‫ﺑﻨﺎﺑﺮاﻳﻦ در اﻧﺘﮕﺮال در ﺻﻮرﺗﻲ ﻫﻤﺰﻣﺎن واﮔﺮا ﻫﺴﺘﻨﺪ ﻛﻪ )‪ (λ > 0,0 ≤ γ ≤ 1‬ﻳﺎ ‪ . λ = 0‬ﺑﺎ‬ ‫‪1+ λ‬‬ ‫‪γλ‬‬ ‫‪X‬‬ ‫= ‪ b‬ﻧﺘﻴﺠﻪ ﻣﻲﺷﻮد ﻛﻪ ﺑﺮآوردﮔﺮ ‪ a ( ) + b‬ﺑﺮاي ‪ p‬ﻣﺠﺎز اﺳﺖ‬ ‫‪1+ λ‬‬ ‫‪n‬‬ ‫‪1 + γλ‬‬ ‫= ‪ (0 < a < 1, b ≥ 0, a + b‬ﻳﺎ ‪a = 1, b = 0‬‬ ‫)‪≤ 1‬‬ ‫‪1+ λ‬‬

‫=‪ a‬و‬ ‫اﮔﺮ‬

‫ﻛﻪ ﺑﺎ ادﻏﺎم اﻳﻦ دو ﺣﺎﻟﺖ دارﻳﻢ ﻛﻪ ‪0 < a ≤ 1, b ≥ 0, a + b ≤ 1‬‬

‫ﺑﺮاي ‪ 0 ≤ b ≤ 1‬و ‪ a = 0‬ﺑﺮآوردﮔﺮ ‪ δ = b‬ﻣﺠﺎز اﺳﺖ )زﻳﺮا اﻳﻦ ﺑﺮآوردﮔﺮ ﺗﻨﻬﺎ‬ ‫ﺑﺮآوردﮔﺮي اﺳﺖ ﻛﻪ در ‪ p = b‬داراي ﻣﺨﺎﻃﺮه ﺻﻔﺮ اﺳﺖ(‪ .‬ﺑﻪ راﺣﺘﻲ ﻣﻲﺗﻮان‬ ‫‪X‬‬ ‫ﻧﺸﺎن داد ﻛﻪ ﺑﺮاي ﺳﺎﻳﺮ ﻣﻘﺎدﻳﺮ ‪ a‬و ‪ b‬ﺑﺮآوردﮔﺮ ‪) + b‬‬ ‫‪n‬‬ ‫‪X‬‬ ‫ﺑﺮآوردﮔﺮ ‪ a ( ) + b‬ﺑﺮاي ‪ p‬ﻣﺠﺎز اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ ) ‪ (a,b‬در ﻣﺜﻠﺚ ﺑﺴﺘﻪ زﻳﺮ ﻗﺮار ﮔﻴﺮﻧﺪ‪:‬‬ ‫‪n‬‬

‫( ‪ a‬ﻏﻴﺮﻣﺠﺎز اﺳﺖ )ﻣﺴﺌﻠﻪ‪ .(4-2‬ﺑﻨﺎﺑﺮاﻳﻦ‬

‫}‪{(a,b ) | a ≥ 0,b ≥ 0, a + b ≤ 1‬‬

‫■‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪161‬‬

‫از ﻗﻀﻴﻪ ‪ 7-2‬ﻧﺘﻴﺠﻪ زﻳﺮ ﺣﺎﺻﻞ ﻣﻲﺷﻮد‪.‬‬ ‫ﻧﺘﻴﺠﻪ ‪ :1-2‬اﮔﺮ ﻓﻀﺎي ﭘﺎراﻣﺘﺮي ﻃﻴﺒﻌﻲ در ﺧﺎﻧﻮاده ﻧﻤﺎﻳﻲ ) ‪ β (θ )e θT ( x‬ﺗﻤﺎم اﻋﺪاد ﺣﻘﻴﻘﻲ ﺑﺎﺷﺪ‪ ،‬ﻳﻌﻨﻲ‬ ‫∞‪ θ = +‬و ∞‪ θ = −‬آﻧﮕﺎه ‪ T‬ﺑﺮاي ﺑﺮآورد ) ‪ E θ (T‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم ﻣﺠﺎز اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﺑﺎ ‪ λ = 0‬و ‪ γ = 1‬ﻫﺮ دو اﻧﺘﮕﺮال ﻗﻀﻴﻪ ﻛﺎرﻟﻴﻦ واﮔﺮا ﻣﻲﺷﻮﻧﺪ ﻣﻮﻗﻌﻲ ﻛﻪ ∞‪θ * → ±‬‬ ‫‪n μ2‬‬

‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻧﺘﻴﺠﻪ ﻓﻮق در ﺗﻮزﻳﻊ ﻧﺮﻣﺎل ) ‪ N ( μ ,σ 2‬ﺑﺎ ‪ σ 2‬ﻣﻌﻠﻮم‬

‫‪2σ 2‬‬

‫‪X‬‬ ‫‪ X‬ﺑﺮاي ‪ μ‬ﻣﺠﺎز اﺳﺖ و در ﺗﻮزﻳﻊ دوﺟﻤﻠﻪاي )ﻣﺜﺎل‪(9-2‬‬ ‫‪n‬‬

‫‪x+‬‬

‫■‬

‫‪nμ‬‬ ‫‪2‬‬

‫‪f μ (x ) ∝ e σ‬‬

‫ﺑﺮاي ‪ p‬ﻣﺠﺎز اﺳﺖ و در ﺗﻮزﻳﻊ‬

‫ﭘﻮاﺳﻮن ‪ f θ (x ) = e − μe n ln μ x‬ﻛﻪ )∞‪ θ = n ln μ ∈ (−∞, +‬ﺑﺮآوردﮔﺮ ‪ X‬ﺑﺮاي ‪ μ‬ﻣﺠﺎز اﺳﺖ‪.‬‬

‫راﺑﻄﻪ ﺑﺮآوردﮔﺮﻫﺎي ﻣﺠﺎز و ﻣﻴﻨﻴﻤﺎﻛﺲ‬ ‫ﻗﻀﻴﻪ‪ :8-2‬اﮔﺮ ‪ δ‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز ﺑﺎ ﻣﺨﺎﻃﺮه ﺛﺎﺑﺖ ﺑﺎﺷﺪ اﻧﮕﺎه ‪ δ‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﻓﺮض ﻛﻨﻴﺪ ‪ δ‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻧﺒﺎﺷﺪ در اﻳﻦ ﺻﻮرت ﺗﺼﻤﻴﻢ دﻳﮕﺮي ﻣﺎﻧﻨﺪ * ‪ δ‬وﺟﻮد دارد‬ ‫‪Sup R (θ , δ * ) < Sup R (θ , δ ) = c‬‬

‫ﻛﻪ‬ ‫ﺑﻨﺎﺑﺮاﻳﻦ‬

‫‪Θ‬‬

‫‪∀θ ∈ Θ‬‬

‫‪Θ‬‬

‫) ‪R (θ , δ * ) ≤ SupR (θ , δ * ) < c = R (θ , δ‬‬

‫و اﻳﻦ ﺑﺎ ﻣﺠﺎز ﺑﻮدن ‪ δ‬در ﺗﻨﺎﻗﺾ اﺳﺖ ﭘﺲ ‪ δ‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‪.‬‬ ‫‪(δ − g (θ ))2‬‬ ‫ﻧﺘﻴﺠﻪ ‪ :2-2‬ﺗﺤﺖ ﻓﺮﺿﻴﺎت ﻧﺘﻴﺠﻪ ‪ 1-2‬و ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن‬ ‫) ‪V θ (T‬‬

‫■‬ ‫ﺑﺮآوردﮔﺮ ‪ T‬ﺑﺮاي‬

‫) ‪ g (θ ) = E θ (T‬ﺑﺮآوردﮔﺮ ﻳﻜﺘﺎي ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‪.‬‬ ‫اﺛﺒﺎت‪ :‬ﻃﺒﻖ ﻧﺘﻴﺠﻪ ‪ T ،1-2‬ﺑﺮاي ) ‪ g (θ‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن ‪ (δ − g (θ ))2‬ﻣﺠﺎز اﺳﺖ ﭘﺲ ﺗﺤﺖ ﺗﺎﺑﻊ‬ ‫‪(δ − g (θ ))2‬‬ ‫زﻳﺎن‬ ‫ﻧﻴﺰ ﻣﺠﺎز اﺳﺖ‪ .‬ﺣﺎل ﭼﻮن ﺗﺤﺖ اﻳﻦ ﺗﺎﺑﻊ زﻳﺎن ‪ T‬داراي ﻣﺨﺎﻃﺮه ﺛﺎﺑﺖ اﺳﺖ ﭘﺲ‬ ‫) ‪V θ (T‬‬

‫ﻃﺒﻖ ﻗﻀﻴﻪ ‪ T ،8-2‬ﺑﺮاي ) ‪ g (θ‬ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‪ .‬ﻳﻜﺘﺎﻳﻲ اﻳﻦ ﺑﺮاورد از ﻟﻢ‪ 1-2‬ﺣﺎﺻﻞ ﻣﻲﺷﻮد)ﺗﺎﺑﻊ‬ ‫زﻳﺎن اﻛﻴﺪا ﻣﺤﺪب اﺳﺖ(‪.‬‬

‫■‬

‫ﻗﻀﻴﻪ ‪ :9-2‬اﮔﺮ ‪ δ m‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ ﻳﻜﺘﺎ ﺑﺎﺷﺪ آﻧﮕﺎه ‪ δ m‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز اﺳﺖ‪.‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪162‬‬

‫اﺛﺒﺎت‪ :‬اﮔﺮ ‪ δ m‬ﻣﺠﺎز ﻧﺒﺎﺷﺪ آﻧﮕﺎه ﺗﺼﻤﻴﻢ دﻳﮕﺮي ﻣﺎﻧﻨﺪ ‪ δ‬وﺟﻮد دارد ﻛﻪ ﺑﺮ آن ﻏﻠﺒﻪ ﻣﻲﻛﻨﺪ و در ﻧﺘﻴﺠﻪ‬ ‫) ‪ . Sup R (θ , δ ) ≤ Sup R (θ , δ m‬ﻳﻌﻨﻲ ‪ δ‬ﻧﻴﺰ ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ و اﻳﻦ ﺑﺎ ﻳﻜﺘﺎ ﺑﻮدن‬ ‫‪Θ‬‬

‫‪Θ‬‬

‫ﺑﺮآوردﮔﺮ ﻣﻴﻨﻴﻤﺎﻛﺲ ‪ δ m‬در ﺗﻨﺎﻗﺾ اﺳﺖ‪ .‬ﭘﺲ ‪ δ m‬ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﺠﺎز اﺳﺖ‪■ .‬‬ ‫‪(δ − p )2‬‬ ‫‪X‬‬ ‫ﻳﻚ‬ ‫ﺑﺮآوردﮔﺮ‬ ‫ﻣﺜﺎل‪ :10-2‬اﮔﺮ ) ‪ X ∼ B (n , p‬آﻧﮕﺎه ﻃﺒﻖ ﻧﺘﻴﺠﻪ ‪ 2-2‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن‬ ‫‪pq‬‬ ‫‪n‬‬

‫ﺑﺮآوردﮔﺮ ﻳﻜﺘﺎي ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ ﭘﺲ ﻃﺒﻖ ﻗﻀﻴﻪ ‪ 9-2‬ﻳﻚ ﺑﺮآوردﮔﺮ ﻣﺠﺎز اﺳﺖ‪.‬‬

‫■‬

‫ﻣﺜﺎل‪ :11-2‬ﻓﺮض ﻛﻨﻴﺪ ‪ X 1, X 2 ,..., X n‬ﻳﻚ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از ﺗﻮزﻳﻊ ) ‪ N (θ ,σ 2‬ﺑﺎ ‪ σ 2‬ﻣﻌﻠﻮم‬ ‫ﺑﺎﺷﻨﺪ‪ .‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم‬ ‫اﻟﻒ‪ -‬در ﻣﺜﺎلﻫﺎي ﻗﺒﻞ دﻳﺪﻳﻢ ﻛﻪ ‪ X‬ﺑﺮآوردﮔﺮ ﻳﻜﺘﺎي ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﺮاي ‪ θ‬اﺳﺖ ﭘﺲ ‪ X‬ﺑﺮاي ‪ θ‬ﻣﺠﺎز‬ ‫اﺳﺖ‪.‬‬ ‫ب‪ -‬در ﻣﺜﺎلﻫﺎي ﻗﺒﻞ دﻳﺪﻳﻢ ﻛﻪ ‪ X‬ﺑﺮآوردﮔﺮ ﻣﺠﺎز ﺑﺎ ﻣﺨﺎﻃﺮه ﺛﺎﺑﺖ‬ ‫ﺑﺮاي ‪ θ‬ﻣﻴﻨﻴﻤﺎﻛﺲ اﺳﺖ‪.‬‬

‫‪σ2‬‬ ‫‪n‬‬

‫= ) ‪ R (θ , X‬اﺳﺖ ﭘﺲ‬

‫■‬

‫ﻣﺜﺎل‪) :12-2‬دو ﺗﻮزﻳﻊ دو ﺟﻤﻠﻪاي( ﻓﺮض ﻛﻨﻴﺪ ) ‪ X ∼ B (m , p‬و ) ‪ Y ∼ B (n , π‬از ﻳﻜﺪﻳﮕﺮ‬ ‫‪X‬‬ ‫‪Y‬‬ ‫ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ‪ .‬ﻧﺸﺎن دﻫﻴﺪ ﻛﻪ ﺑﺮآوردﮔﺮ ‪+ b + c‬‬ ‫‪m‬‬ ‫‪n‬‬

‫‪ a‬ﺗﺤﺖ ﺗﺎﺑﻊ زﻳﺎن درﺟﻪ دوم و ﺗﺤﺖ ﺷﺮاﻳﻂ‬

‫زﻳﺮ ﺑﺮاي ‪ p‬ﻣﺠﺎز اﺳﺖ‪.‬‬ ‫)‪ (a = 1, b = c = 0‬ﻳﺎ )‪(0 ≤ a < 1, 0 ≤ c ≤ 1, 0 ≤ a + c ≤ 1, 0 ≤ b + c ≤ 1, 0 ≤ a + b + c ≤ 1‬‬

‫اﺛﺒﺎت‪ :‬ﻓﺮض ﻛﻨﻴﺪ ﺑﺮآوردﮔﺮ دﻳﮕﺮي ﻣﺎﻧﻨﺪ ) ‪ δ (X ,Y‬ﻣﻮﺟﻮد ﺑﺎﺷﺪ ﻛﻪ‬ ‫‪X‬‬ ‫‪Y‬‬ ‫‪+ b + c − p )2 ≥ E [(δ (X ,Y ) − p )2 ] ∀p‬‬ ‫‪m‬‬ ‫‪n‬‬

‫)‪(1‬‬

‫‪x‬‬ ‫‪k‬‬ ‫) ‪+ b + c − p )2 P (X = x ,Y = k‬‬ ‫‪m‬‬ ‫‪n‬‬ ‫‪n‬‬

‫‪m‬‬

‫) ‪≥ ∑∑ (δ (x , k ) − p )2 P (X = x ,Y = k‬‬ ‫‪x =0 k =0‬‬

‫ﺣﺎل اﮔﺮ ‪ π →0‬آﻧﮕﺎه )‪ (1‬ﻧﺘﻴﺠﻪ ﻣﻲدﻫﺪ ﻛﻪ‬

‫‪n‬‬

‫‪m‬‬

‫‪E (a‬‬

‫‪⇒ ∑∑ (a‬‬ ‫‪x =0 k =0‬‬

‫‪www.riazisara.ir‬‬

‫ﻓﺼﻞ ﭘﻨﺠﻢ‪ :‬ﻣﻴﻨﻴﻤﺎﻛﺲ ﺑﻮدن وﻣﺠﺎز ﺑﻮدن‬

‫‪163‬‬

‫⎞ ‪⎛m‬‬ ‫⎞ ‪⎛n‬‬ ‫) ‪ p ( X = x ,Y = k ) = ⎜ ⎟ p x q m −x ⎜ ⎟ π k (1 − π ) n −k‬ﻛﻪ ﺑﻪ ازاي ‪ k = 0‬ﺑﺮاﺑﺮ ) ‪p (X = x‬‬ ‫⎠ ‪⎝x‬‬ ‫⎠ ‪⎝k‬‬

‫اﺳﺖ‪(.‬‬ ‫‪m‬‬

‫‪m‬‬ ‫‪x‬‬ ‫‪2‬‬ ‫) ‪∑ (a m + c − p ) P (X = x ) ≥∑ (δ (x ,0) − p )2 P (X = x‬‬ ‫‪x =0‬‬ ‫‪x =0‬‬

‫‪x‬‬ ‫‪x‬‬ ‫ﻃﺒﻖ ﻣﺜﺎل ‪ a + c ،9-2‬ﺗﺤﺖ ﺷﺮاﻳﻂ اﻳﻦ ﻣﺜﺎل ﻣﺠﺎز اﺳﺖ ﭘﺲ ﺑﺎﻳﺴﺘﻲ ‪+ c‬‬ ‫‪m‬‬ ‫‪m‬‬

‫‪ δ ( x ,0) = a‬ﺑﺮاي‬

‫ﻫﺮ ‪ . x = 0,1,..., m‬ﺑﻨﺎﺑﺮاﻳﻦ ﻋﺒﺎرت ‪ k = 0‬در )‪ (1‬ﺣﺬف ﻣﻲﺷﻮد‪ .‬ﻋﺒﺎرات دﻳﮕﺮ ﺷﺎﻣﻞ ﻳﻚ ﻋﺎﻣﻞ ‪π‬‬ ‫ﻫﺴﺘﻨﺪ ﻛﻪ ﻣﻲﺗﻮاﻧﺪ ﺣﺬف ﺷﻮد و ﺑﻨﺎﺑﺮاﻳﻦ )‪ (1‬ﻧﺘﻴﺠﻪ ﻣﻲدﻫﺪ ﻛﻪ‬ ‫‪⎛ m ⎞ x m −x ⎛ n ⎞ k −1‬‬ ‫‪n −k‬‬ ‫≥‬ ‫‪⎟p q‬‬ ‫) ‪⎜ ⎟ π (1 − π‬‬ ‫‪k‬‬ ‫⎠ ⎝‬ ‫⎠ ⎝‬ ‫‪m n‬‬ ‫⎞ ‪⎛m‬‬ ‫⎞ ‪⎛n‬‬ ‫‪∑∑ (δ (x , k ) − p )2 ⎜ x ⎟ p x q m −x ⎜ k ⎟ π k −1(1 − π )n −k‬‬ ‫⎠ ⎝‬ ‫⎠ ⎝‬ ‫‪x =0 k =1‬‬ ‫‪k‬‬

‫‪n‬‬

‫‪x‬‬

‫‪m‬‬

‫‪∑∑ (a m + b n + c − p )2 ⎜ x‬‬

‫)‪(2‬‬

‫‪x =0 k =1‬‬

‫دو ﻣﺮﺗﺒﻪ ﺑﺎ ‪ π →0‬راﺑﻄﻪ )‪ (2‬ﻧﺘﻴﺠﻪ ﻣﻲدﻫﺪ ﻛﻪ‬ ‫‪m‬‬ ‫‪x b‬‬ ‫) ‪+ + c − p )2 P (X = x ) ≥∑ (δ (x ,1) − p )2 P (X = x‬‬ ‫‪m n‬‬ ‫‪x =0‬‬

‫‪m‬‬

‫‪∑ (a‬‬ ‫‪x =0‬‬

‫‪x b‬‬ ‫‪b‬‬ ‫و ﭼﻮن ﺗﺤﺖ ﺷﺮاﻳﻂ اﻳﻦ ﻣﺴﺌﻠﻪ ‪ 0 ≤ a + + c ≤ 1‬ﭘﺲ ﻃﺒﻖ ﻣﺜﺎل‪ 9-2‬ﺑﺮآوردﮔﺮ ‪+ + c‬‬ ‫‪m n‬‬ ‫‪n‬‬ ‫‪x b‬‬ ‫‪ p‬ﻣﺠﺎز اﺳﺖ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ )‪ (2‬ﻧﺘﻴﺠﻪ ﻣﻲدﻫﺪ ﻛﻪ ﺑﺮاي ﻫﺮ ‪ . δ (x ,1) = a + + c ، x = 0,1,...., m‬ﺑﻪ‬ ‫‪m n‬‬

‫‪ a‬ﺑﺮاي‬

‫ﻫﻤﻴﻦ‬ ‫‪∀x =0,...,m‬‬ ‫‪k =01‬‬ ‫‪, ,....,n‬‬

‫ﺗﺮﺗﻴﺐ‬

‫اﮔﺮ‬

‫ﺑﺎ‬

‫اﺳﺘﻘﺮاء‬

‫روي‬

‫‪k‬‬

‫ﭘﻴﺶ‬

‫ﺑﺮوﻳﻢ‬

‫ﻧﺘﻴﺠﻪ‬

‫‪x‬‬ ‫‪k‬‬ ‫‪X‬‬ ‫‪Y‬‬ ‫‪ . δ ( x , k ) = a + b + c‬ﭘﺲ ﺑﺮآوردﮔﺮ ‪+ b + c‬‬ ‫‪m‬‬ ‫‪n‬‬ ‫‪m‬‬ ‫‪n‬‬

‫ﻣﻲﺷﻮد‬

‫ﻛﻪ‬

‫‪ δ ( X ,Y ) = a‬ﺗﺤﺖ‬

‫ﺷﺮاﻳﻂ ﻣﺴﺌﻠﻪ ﺑﺮآوردﮔﺮي ﻣﺠﺎز ﺑﺮاي ‪ p‬اﺳﺖ‪.‬‬ ‫در ﺧﺎرج از ﻧﺎﺣﻴﻪ داده ﺷﺪه در اﻳﻦ ﻣﺜﺎل ﻣﻲﺗﻮان ﻧﺸﺎن داد ﻛﻪ ﺑﺮآوردﮔﺮ ) ‪ δ (X ,Y‬ﻏﻴﺮﻣﺠﺎز‬ ‫اﺳﺖ)ﻣﺴﺌﻠﻪ ‪ .(2,21‬ﭘﺲ ) ‪ δ (X ,Y‬ﻣﺠﺎز اﺳﺖ اﮔﺮ و ﻓﻘﻂ اﮔﺮ در ﺷﺮاﻳﻂ اﻳﻦ ﻣﺴﺌﻠﻪ ﺻﺪق ﻛﻨﺪ‪.‬‬

‫■‬

164

www.riazisara.ir

‫ﻣﺮاﺟﻊ‬

1- Berger, J. O. (1985). Statistical Decision Theory and Bayesian Analysis, Second Edition, Springer-Verlag, New York. 2- Lehman E. L. and Casella G. (1998). Theory of Point Estimation, Second Edition, Springer, New York. 3- Casella, G. and Berger, R. L. (1990). Statistical Inference, Wodsworth & Brooks, California. .‫ اﻧﺘﺸﺎرات داﻧﺸﮕﺎه ﺷﻴﺮاز‬،‫ ﺗﺼﻤﻴﻢ آﻣﺎري‬.(1374) ‫ ﺟﻮاد‬،‫ ﺑﻬﺒﻮدﻳﺎن‬-4

‫ﺩﺭﺳﻨﺎﻣﻪ ﻫﺎ ﻭ ﺟﺰﻭﻩ ﻫﺎﻱ ﺩﺭﻭﺱ ﺭﻳﺎﺿﻴﺎﺕ‬ ‫ﺩﺍﻧﻠﻮﺩ ﻧﻤﻮﻧﻪ ﺳﻮﺍﻻﺕ ﺍﻣﺘﺤﺎﻧﺎﺕ ﺭﻳﺎﺿﻲ‬ ‫ﻧﻤﻮﻧﻪ ﺳﻮﺍﻻﺕ ﻭ ﭘﺎﺳﺨﻨﺎﻣﻪ ﻛﻨﻜﻮﺭ‬ ‫ﺩﺍﻧﻠﻮﺩ ﻧﺮﻡ ﺍﻓﺰﺍﺭﻫﺎﻱ ﺭﻳﺎﺿﻴﺎﺕ‬ ‫ﻭ‪...‬‬ ‫ﺳﺎﻳﺖ ﻭﻳﮋﻩ ﺭﻳﺎﺿﻴﺎﺕ‬

‫‪www.riazisara.ir‬‬