Rst Kordamiskusimused

  • December 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Rst Kordamiskusimused as PDF for free.

More details

  • Words: 6,567
  • Pages: 33
   

TTÜ   

RST kordamisküsimused    Marit 

 

Maris 

Andrus 

 

Lauri 

Juhan 

 

Gunnar 

Kalle  

 

Tanel 

Valdur 

 

Keio 

Tiit   

 

Toivo 

Erik   

 

Kaarel 

Mihkel 

 

 

 

 

07

Sisukord  Sisukord _____________________________________________________________________________________ 1  1.Süsteemiteooria põhilised mõisted: ______________________________________________________________ 2  2. Informatsioon  ______________________________________________________________________________ 3  3. Shannoni  valem _____________________________________________________________________________ 5  4. Juhtimine __________________________________________________________________________________ 5  5. Keerulised süsteemid. Probleemide vaatlemine süsteemidena. Süsteemne lahenemisviis. __________________ 6  6. Süsteemanalüüs ____________________________________________________________________________ 11  7 Modelleerimine. Lihtsustamise ja ratsionaalsuse printsiibid __________________________________________ 12  8. Juhusliku sündmuse tõenäosus, üksteist välistavad ja mittevälistavad sündmused. Juhuslike sündmuste täielik  süsteem (täisgrupp) ___________________________________________________________________________ 12  9. Tõenäosuste kaudne arvutamine (liitmine, korrutamine)  ___________________________________________ 12  12. Juhusliku suuruse arvkarakteristikud. Mõned tüüpilised jaotusseadused (ühtlane, normaalne jm.) _________ 14  13.Juhusliku vektori arvkarakteristikud. ___________________________________________________________ 15  14. Protsessid. Determineeritud protsesside klassifitseerimine ja kirjeldamisviisid. _________________________ 16  15. Polüharmoonilised ja peaaegu perioodilised protsessid ____________________________________________ 17  16. Juhuslikud protsessid ja nende karakteristikud. Statsionaarsed juhuslikud protsessid.  ___________________ 17  17. Ergoodilised protsessid, spektraaltihedus, juhuslike protsesside klassifitseerimine.______________________ 19  18. Määramatud ja ebamäärased protsessid. _______________________________________________________ 20  19. Optimaalsed determineeritud süsteemid. Kumerate sihifunktsioonidega ülesanded. Vajalikud ja piisavad  optimumitingimused.  _________________________________________________________________________ 21  20. Funktsiooni ja keha kumeruse määrang. Nõgusate sihifunktsioonidega ülesanded. Vajalikud ja piisavad  optimumitingimused.  _________________________________________________________________________ 23  21. Sadulpunkt. Minimaks ülesanded. _____________________________________________________________ 23  22. Sõltuvate muutujate elimineerimise meetod.  ___________________________________________________ 24  25. Mittelineaarse planeerimise Ulesannete isearasused. Gradient ja gradientmeetodid. ____________________ 26  26. Trahvifunktsioonide meetod. Lagrange`i meetod _________________________________________________ 27  29. Monte‐Carlo meetod. Juhuslike arvude tekitamine ja muundamine __________________________________ 32 

1 | P a g e    

1.Süsteemiteooria põhilised mõisted:  a. Süsteem – on selline objekt, mis koosneb osadest (elementidest), osade vahel on teatud seosed  ja kogu objekti vaadeldakse kui tervikud. Ehk süsteem on omavahel seostatud elementide hulk,  mida vaadeldakse kui tervikut.  Süsteem võib olla materiaalne või abstraktne, elus või elutu, looduslik või tehissüsteem.  Süsteemid on molekul, rakk, taim, inimene, perekond, riik jne.  Süsteemi võib tähistada S=(A,∑), kus A on süsteemi osade hulk ja ∑ tähistab seoseid osade  vahel.  b. Elemendid – operaator, sisendid, väljundid, olekuparameetrid, ülem‐ ja alamsüsteemid  c. Sisendid – süsteemi sisenditeks on need süsteemi elemendid, milliseid vaadeldakse kui  algressursse, algmaterjale, lähtesuurusi, algandmeid või –põhjuseid. Sisendid on süsteemi  sõltumatud muutujad. Sisendid võivad olla mittejuhitavad või juhitavad.  d. Väljundid – süsteemi väljunditeks on need elemendid, millieid vaadeldakse kui tegevuse  tulemusi või tagajärgi. Väljundid n süsteemi sõltuvad muutjad.  e. Operaator – (ehk protsess, funktsioon) nimetatakse eeskirja, algoritmi, tehnoloogiat, protsessi  või funktsiooni, mille põhjal süsteemi sisendite alusel saadakse süsteemi väljundid.  f. Olek – süsteem võib olla normaalolekus, häireolukorras, avariiolukorras, remondis jne).  Süsteemi olekute kirjeldamiseks on võetud kasutusele olekumuutujad ehk olekuparameetrid.   Üks reegel olekumuutujate valimiseks on see, et olekumuutujad tuleb valida nii, et nende  fikseerimisel muutuks sisendi ja väljundi vaheline seos üks‐üheseks.  g. Käitumine – kuidas süsteem talitleb    2. Süsteemide liigitamine:  Kirjanduses leidub palju erinevaid süsteemide liigitusi:  a. Füüsikalised, bioloogilised, sotsiaalsed ja immateriaalsed süsteemid  b. Avatud ja suletus süsteemid  c. Pideva ja diskreetaja süsteemid  d. Materiaalsed ja abstraktsed süsteemid  e. Juhitavad ja mitte juhitavad süsteemid  Kõige lihtsamal tasemel on võimalik süsteeme esimesel juhul liigitada staatilisteks ja  dünaamilisteks süsteemideks või teisel juhul liigitada lihtsateks ja keerukateks ehk suurteks  süsteemideks.  3. Süsteemide omadused:  a. Süsteemi juhitavus – süsteemi olek või väljund on juhitav intervallis (t0, t1), kui leidub  selline juhtiv protsess intervallis (t0, t1), mis viib süsteemi suvalisest algolekust x(t0)  soovitud lõppolekusse x(t1).  b. Süsteemi jälgitavus – süsteemi jälgitavuse all mõistetakse võimalust määrata süsteemi  olekut selle väljundite jälgimise järgi. Süsteem on jälgitav ajavahemikus (t0,t1), kui süsteemi  olek hetkel t0 on üheselt määratav väljundite kaudu intervallis (t0, t1).  c. Süsteemi tundlikus – süsteemi käitumisomaduste sõltuvus süsteemi parameetrite  muutustest. Tagasiside võimaldab vähendada süsteemi tunglikkust teatud parameetri  suhtes.  2 | P a g e    

4. Süsteemi struktuur – süsteemi struktuur kirjeldab süsteemi elementide ehk osade vahelisi seoseid.  See näitab, millise sisendi ja millise väljundi vahel seos on. Kuid struktuur ei näita selle seose  tugevust ega tegelikku sõltuvust.  Struktuure kirjeldatakse skeemide, jooniste või ühendusmaatriksite abil.  5. Süsteemi entroopia – Entroopia H(X) mõõdab juhusliku suuruse X "juhuslikkust". Mida suurem on  entroopia, seda "juhuslikum" on X.   Entroopiat võib ka interpreteerida kui informatsioonihulka, mida juhusliku suuruse väärtuse  teadasaamine meile annab. Mida "juhuslikum" on X, seda vähem oskame me ära arvata juhusliku  suuruse väärtust (juhusliku katse tulemust) ning seda enam informatsiooni selle väärtuse (katse  tulemuse) teadasaamine meile annab.   Esmakordselt defineeris entroopia ameerika matemaatik C. Shannon oma 1948.‐l aastal ilmunud  teedrajavas artiklis "A mathematical theory of communacation".    

2. Informatsioon    1. Informatsioonilised sidemed – Süsteemi üksikelementide ja erinevate süsteemide vahel  eksisteerivad, mille kaudu nad üksteist mõjutavad. Need seosed võivad energeetilised,  materiaalsed (ainevahetuslikud) või informatiivsed. Viimasel juhul toimub info edastamine või  vahetamine.  2. Informatsiooni liigid (vormid):  a. Deterministlik informatsioon  b. Tõenäosuslik informatsioon  c. Määramatu informatsioon  i. Määramatu deterministlik informatsioon  ii. Määramatu tõenäosuslik informatsioon  d. Ebamäärane informatsioon  i. Ebamäärane deterministlik informatsioon  ii. Ebamäärane tõenäosuslik info  3. Informatsiooni liikide (vormide selgitused)  a. Deterministlik süsteem – Deterministlik süsteem on selline süsteem, mille kõik elemendid on  deterministlikud  ja nende vahelised seosed on deterministlikud funktsioonid. Teisiti öeldes,  deterministlikud süsteemid on need, mis ei sisalda mittedeterministlikke elemente ega seoseid  ehk ei sisalda ühtki liiki juhuslikkust.  Deterministlik element – element, mille käitumine on rangelt determineeritud. Deterministliku  elemendi käitumist on võimalik täpselt ette prognoosida.  Deterministlik funktsioon on sõltuvus, kus üks muutuja määrab üheselt kindlaks teise muutuja  ehk funktsiooni argumendid määravad üheselt kindlaks funktsiooni väärtuse. 

Seega deterministliku süsteemi puhul: väljundid on determineeritud suurused või  protsessid; operaator on determineeritud funktsioon (vektorfunktsioon); sisendid on  determineeritud suurused või protsessid; olekumuutujad on determineeritud suurused  3 | P a g e    

või protsessid.  Deterministliku süsteemi väljundeid on võimalik mineviku alusel täpselt ette ennustada.   Näiteid: kellad, personaalarvutid, päikesesüsteem, täpsed automaatsüsteemid jt. Neid võib  teatud tinglikkusega lugeda deterministlikeks süsteemideks.  Kuid väga rangelt deterministlikke süsteeme pole üldse olemas.  b. Tõenäosuslik süsteem – Tõenäosuslik süsteem on selline stohhastiline süsteem, mille vähemalt  üks element või vähemalt üks seos elementide vahel on juhuslik, mida saab piisavalt täpselt  kirjeldada tõenäosuslike karakteristikute abil ning mille kõik ülejäänud elemendid ja seosed on  deterministlikud. Seega tõenäosuslik süsteem võib sisaldada deterministlikke elemente ja  seoseid. Üldjuhul võivad kõik tõenäosusliku süsteemi väljundid, operaatorid, sisendid ja  olekumuutujad olla tõenäosuslikult kirjeldatavad juhuslikud sündmused, suurused, protsessid  või funktsioonid. Tõenäosusliku süsteemi käitumist ei ole võimalik täpselt ette prognoosida.  Näiteid: täringu viskamine, elektrienergia tarbimine, energiasüsteem, tehas, riik jne.  Kõiki keerukamaid süsteeme võib vaadelda tõenäosuslike süsteemidena. Kuid ranges mõttes  tõenäosuslikke süsteeme leidub harva.  c. Määramatu süsteem  – Määramatu süsteem on selline stohhastiline süsteem, mille vähemalt  üks element või vähemalt üks seos elementide vahel on teatud intervallis määramatu ning mille  kõik ülejäänud elemendid ja seosed on deterministlikud või tõenäosuslikult määratud.  Määramatu süsteemi käitumist ei ole võimalik täpselt ette prognoosida ega tõenäosuslikult  täpselt kirjeldada.  i. Määramatu deterministlik süsteem – Määramatu deterministlik süsteem on selline  stohhastiline süsteem, mis sisaldab määramatuid deterministlikke elemente või seoseid,  kuid kõik ülejäänud elemendid ja seosed on deterministlikud või tõenäosuslikud.  Määramatu deterministliku süsteemi käitumist ei ole võimalik täpselt ette prognoosida  ega tõenäosuslikult täpselt kirjeldada.  ii. Määramatu tõenäosuslik süsteem – Määramatu tõenäosuslik süsteem on selline  stohhastiline süsteem, mis sisaldab määramatuid tõenäosuslikke elemente või seoseid,  kuid kõik ülejäänud elemendid ja seosed on deterministlikud, tõenäosuslikud või  määramatud deterministlikud elemendid ja seosed. Määramatu tõenäosusliku süsteemi  käitumist ei ole võimalik täpselt ette prognoosida ega tõenäosuslikult täpselt kirjeldada.  Näiteid: Määramatute süsteemide näideteks on keerukad stohhastilised süsteemid, mis  ei ole kirjeldatavad ainult deterministlike ja tõenäosuslike karakteristikute abil.   d. Ebamäärane süsteem  – Ebamäärane süsteem on selline stohhastiline süsteem, mille vähemalt  üks element või vähemalt üks seos elementide vahel on ebamäärane ning mille kõik ülejäänud  elemendid ja seosed on deterministlikud, tõenäosuslikud või intervallis määramatud.  Ebamäärase süsteemi käitumist ei ole võimalik täpselt ette prognoosida ega tõenäosuslikult  ning intervallide abil täpselt kirjeldada.   i. Ebamäärane deterministlik süsteem – Ebamäärane deterministlik süsteem on selline  stohhastiline süsteem, mis sisaldab ebamääraseid deterministlikke elemente või  seoseid, kuid kõik ülejäänud elemendid ja seosed on deterministlikud, tõenäosuslikud  või intervallis määramatud. Ebamäärase deterministliku süsteemi käitumist ei ole  4 | P a g e    

võimalik täpselt ette prognoosida ega tõenäosuslikult ja määramatuse tasandil täpselt  kirjeldada.  ii. Ebamäärane tõenäosuslik süsteem – Ebamäärane tõenäosuslik süsteem on selline  stohhastiline süsteem, mis sisaldab ebamääraseid tõenäosuslikke elemente või seoseid,  kuid kõik ülejäänud elemendid ja seosed on deterministlikud, tõenäosuslikud,  määramatud või ebamäärased deterministlikud elemendid ja seosed. Ebamäärase  tõenäosusliku süsteemi käitumist ei ole võimalik täpselt ette prognoosida ega  tõenäosuslikult täpselt kirjeldada.   Näiteid: Ebamääraste süsteemide näideteks on keerukad stohhastilised süsteemid, mis  ei ole kirjeldatavad ainult deterministlike, tõenäosuslike karakteristikute või  määramatuse intervallide abil. 

3. Shannoni  valem  Shannoni  valemit  kasutatakse  info  hulga  arvutamiseks.  Kusjuures  teates  sisalduv  keskmine  info  hulk  bittides leitakse järgmise valmi abil:  n

H ( X ) = −∑ p ( xi ) log 2 p( xi )   i =1

Sama  valmit  saab  kasutada  arvutmiseks: 0 < H < log 2 N  

ka 

sündmuse 

esialgse 

määramatuse 

ehk 

entroopia 

Kindlasti  toimuva  (p=1)  sündmuse  puhul  H=0  ja  kui  kõik  võimalikud  variandid  toimuvad  sama  tõenäosusega, siis on H maksimaalne.  H ( X ) = log 2 N = H max . 

4. Juhtimine  Juhtimine on üldmõiste.  Juhtimine – ühe objekti (süsteemi) sihipärane mõjutamine teise objekti (süsteemi) poolt.    Alati peab olema kaks komponenti: juhitav süsteem + juhtiv süsteem, need kokku on juhtimissüsteem.  Kui  juhtiv  süsteem  mõjutab  juhitavat  süsteemi,  siis  on  tegemist  juhttoime  või  otsesidega,  vastupidisel  juhul on tegu tagasisidega.    Juhtimisülesanne on määratud, kui on teada:   1. 2. 3. 4.

eesmärk,   juhitavad faktorid,   lisatingimused ja   mittejuhitavad faktorid.  

5 | P a g e    

Juhtimisülesanneteks on kõige sagedamini planeerimine, organiseerimine, eestvedamine, kontrollimine,  objekti stabiliseerimine, etteantud programmi täitmine, optimeerimine jne.  Kui  on  tegu  optimeerimisega  (minimeerimine,  maksimeerimine),  siis  sellist  juhtimist  nimetatakse  optimaaljuhtimiseks.    Juhtimisprotsess koosneb:   1. 2. 3. 4.

info kogumine ja töötlemine,   otsuse vastuvõtmine,   otsuse elluviimine,   tagasiside 

  Mittedetermineeritud objektide juhtimine on võimalik ainult tänu tagasisidele.    Juhtimine võib olla:   o o o

deterministlik,   mittedeterministlik ehk stohhastiline ja   adaptiivne. 

Juhtimissüsteemid võivad olla:   o o o

tsentraalsed  detsentraalsed  jaotatud funktsioonidega 

  Süsteemi  juhitavus  –  intervallis  (t0,  t1)  on  olemas  selline  funktsioon,  mis  viib  süsteemi  suvalisest  algolekust x(t0) soovitud lõppolekusse x(t1).  Süsteemi jälgitavus – süsteemi olekut on võimalik üheselt määrata tema väljundite jälgimise kaudu.  Süsteemi  tundlikkus  –  süsteemi  käitumisomaduste  sõltuvus  süsteemi  parameetrite  muutusest.  Tagasiside vähendab tundlikkust.    Hierarhiline  süsteem  –  ühed  süsteemid  on  teistele  (alamsüsteemidele)  ülemsüsteemideks.  On  alluvussuhted  või  ühed  süsteemid  kuuluvad  teistesse.  Neid  süsteeme  kasutatakse  organisatsioonide  juhtimisel  (nt  sõjavägi,  ülikool,  energeetika).  Nende  kasutamine  võimaldab  lihtsustada  süsteemide  modelleerimist, analüüsi, juhtimist ja sünteesi.   

5. Keerulised süsteemid. Probleemide vaatlemine süsteemidena. Süsteemne lahenemisviis.  Keerulisel süsteemil on:  1. suur elementide arv,  2. keerukad seosed elementide vahel,  6 | P a g e    

3. hierarhiline struktuur,  4. juhuslike faktorite suur mõju,  5. süsteem on isekohanev või sisaldab küberneetilisi süsteeme.  Keerulisteks süsteemideks on energiasüsteem, riigi majandus, suur firma jne.  Üksikkomponentide käitumine pole alati individuaalselt modelleeritud (või isegi mõistetav).  Keerulised  süsteemid  lammutatakse  väiksemateks  komponentideks  kuni  iga  komponent  on  piisavalt  lihtne selleks, et ta funktsioon on lihtsalt modelleeritav (ja arusaadav).  Keerulised  koosnevad  allsüsteemidest  ülemsüsteemidest.  Süsteeme    kus  ühed  süsteemid  on  teistele  ülemsüsteemideks, nimetatakse hierarhilisteks süsteemideks.  Hierarhilistes  süsteemides  kehtivad  alluvussuhted  all  ja  ülemsüsteemide  vahel  või  ühed  süsteemid  on  teistest üldisemad, hõlmates ka vastavaid allsüsteeme:  

A1 ⊂ A  ja  A2 ⊂ A   või 

A1 ⊂ A2 ⊂ A3 ⊂ A  jne.  Hierarhilisi  süsteeme  kasutatakse  organisatsioonide  juhtimisel.  Ranged  hierarhilised  süsteemid  on  kasutusel sõjaväes. Kuid hierarhilisi  süsteeme võib kasutada ka õppetöös ja teadustöös. Laialdane huvi  hierarhiliste süsteemide vastu on seletatav sellega, et süsteemide vaatlemine hierarhiliste süsteemidena  ja  hierarhiliste  süsteemide  loomine  võimaldab  lihtsustada  süsteemide  modelleerimist,  analüüsi,  juhtimist ja sünteesi. Seepärast on hierarhilised süsteemid muutunud väga aktuaalseks. Palju hierarhilisi  süsteeme on energeetikas.   

 

 

 

                 



 

 

 

 

 

 

 

 



  Joonis 1.8. Hierarhilised süsteemid    Probleemide vaatlemine süsteemina  7 | P a g e    

Süsteemide  kirjeldamiseks  kasutatav  keel  sobib  hästi  ka  probleemide  kirjeldamiseks.  Maailmas  on  lõpmata palju erinevaid probleeme ehk ülesandeid. Süsteemiteooria põhimõistete abil on neid võimalik  liigitada ja  kirjeldada.    Kasutades  süsteemide  kirjeldamise  3  komponenti  (sisend,  väljund  ja  operaator),  saame  järgmise  ülesannete liigituse.    1. 

Väljundi leidmise ülesanded 

On antud U ja F. Leida Y! 

  Sellesse  klassi  kuuluvad  tavalised  arvutusülesanded,  tootmise  korraldamine  jm.  mingi  toimingu  teostamise ülesanded.     2. 

Operaatori leidmise ülesanded 

On antud U ja Y. Leida F! 

  Siia kuuluvad ülesanded, kus on antud ressursid või lähteandmed ja on teada tulemused, mida soovime  saavutada. Leida tuleb operaator, tehnoloogia või meetod kuidas antud tulemust saada. Kui sisendid ja  väljundite kohta on kogutud infot, tuleb leida seos, kuidas väljundid sõltuvad sisenditest. Teisiti öeldes,  tuleb  objekt  ehk  selle  operaator  identifitseerida.  Seepärast  nimetatakse  antud  ülesannete  klassi  identifitseerimise ülesanneteks.    3. 

Sisendi leidmise ülesanded 

On antud F ja Y. Leida U! 

  8 | P a g e    

Selliste ülesannete puhul tuleb leida algpõhjus või viga, miks on süsteemil sellised väljundid. Selle klassi  ülesandeid nim. diagnostikaülesanneteks.      4. 

Operaatori ja väljundi leidmise ülesanded 

On antud ainult sisendid. Leida F ja Y! 

  On antud mingi materjal, mingid andmed või mingi seade. Kuidas seda kasutada ja mida sellega toota?  Selliste ülesannete lahendamisel on suur osa loomingul.    5. 

Sisendi ja väljundi leidmise ülesanded 

  On antud süsteemi operaator F. Leida U ja Y! 

  Need on loomingulised ülesanded. On antud mingi tehnoloogia, masin, andmebaas, spetsialist või muu  ja probleem on selles, milleks neid kasutada? Mida ja millest oleks otstarbekas toota?    6. 

Sisendi ja operaatori leidmise ülesanded 

  On antud väljund Y. Leida U ja F! 

  On  teada  milliseid  tulemusi  soovime  saada.  Probleem  on  selles  kuidas  soovitud  tulemusi  saada?  Suurt  rolli nendes ülesannetes mängib looming.    7. 

Puhtalt loomingulised ülesanded  9 | P a g e  

 

  Midagi pole antud. Leida U, F ja Y! 

  Sellised on suure vabadusega puhtloomingulised ülesanded.     8. 

Revisjoniülesanded 

  Kõik on antud. Midagi pole vaja leida, kuid kõike on tarvis kontrollida. 

  Esitatud 8 ülesannete klassi moodustavad täisgrupi. Rohkem ülesannete klasse ei saa olla.    Süsteemne lähenemisviis  Süsteemanalüüsi  aluseks  on  süsteemne  lähenemisviis.  Viimase  all  mõeldakse  keerukate  süsteemide  kompleksse analüüsi metodoloogiat.    Probleemide lahendamise üldine skeem on järgmine:  1. ülesande otstarbekohane püstitamine  2. matemaatilise mudeli koostamine ja selle adekvaatsuse kontroll  3. lahendi leidmine mudelil  4. lahendi sobivuse kontroll  5. lahendi realiseerimine (elluviimine).          Seejuures tuleb tähelepanu pöörata järgmistele aspektidele:  10 | P a g e    

1. 

Püstitage ülesanne õigesti  

Valesti  püstitatud  ülesande  alusel  ei  ole  võimalik  saada  õiget  tulemust.  Ülesande  püstitamisel  leidke  vastused  järgmistele  küsimustele:  Mis  on  eesmärgiks?  Mis  on  otsitavateks?  Mis  on  antud?  Millised  on  ülesande tingimused?  2. 

Probleemi tuleb vaadelda ja analüüsida kui süsteemi 

 

Arvestada tuleb kõiki olulisi faktoreid. 

3. 

Ülesande püstitamisel ja lahendamisel tuleb arvestada info mittetäielikkust. 

4.  

Tuleb uurida optimeerimise võimalusi ja kui võimalik püstitada optimeerimisülesanne 

5.  Kui  probleem  on  liiga  keeruline,  tuleb  see  jagada  osadeks  ja  moodustada  alamülesannetest  hierarhiline süsteem  6. 

Kasutada deduktiivset lähenemisviisi (üldiselt üksikule). 

7. 

Kasutada matemaatikat. 

Koostada matemaatiline mudel, kontrollida mudeli sobivust ja uurida probleemi mudeli abil.  8. 

Probleemi lahendamisel püüda lihtsuse ja fundamentaalsuse poole. 

      Kontrollida kõiki võimalikke lahendeid ja valida neist parim.      Vajaduse korral tuleb probleemi lahendamist uuesti algusest alustada.    Süsteemanalüüs,  baseerudes  teaduslikul  lähenemisviisil,  tõstab  oluliselt  inimese  mõtlemisvõimet  ja  probleemide lahendamise oskusi. 

6. Süsteemanalüüs    Eesmärk  Süsteemanalüüsi  eesmärgiks  on  probleemide  õige  püstitamine,  analüüs  ja  nende  optimaalne  lahendamine, süsteemide efektiivsuse analüüs ning efektiivsete süsteemide süntees.  Süsteemanalüüs on kunst anda halbu vastuseid nendele küsimustele, millele muul moel antakse veelgi  halvemaid vastuseid.    Süsteemne lähenemisviis  Süsteemanalüüsi  aluseks  on  süsteemne  lähenemisviis.  Viimase  all  mõeldakse  keerukate  süsteemide  kompleksse analüüsi metodoloogiat.  Siia alla vt ka ülevalt probleemide lahendamine.   

11 | P a g e    

7 Modelleerimine. Lihtsustamise ja ratsionaalsuse printsiibid    Modelleerimine  põhineb  süsteemide  või  objektide  sarnasusel,  kusjuures  objekti  ja  mudeli  sarnasust  hinnatakse kindlate kriteeriumide järgi. Originaali ja mudeli sarnasust tähistatakse A ~ B. Kuna sarnasus  on vastastikune, siis ka B ~ A.   Lähtesüsteemist  A  lihtustamise  teel  saadud  süsteemi  B  nimetatakse  süsteemi  A  homomorfeks  ehk  lihtsustatud mudeliks. Originaali A ja mudeli B vahelised suhted ei ole pööratavad.  Kaks  süsteemi  on  isomorfsed,  kui  neil  on  ühesugused  sisendid  ja  väljundid  ning  nad  reageerivad  välistoimetele ühtemoodi.  Deterministlik  süsteemimudel:  sisendid,  väljundid  ja  olekumuutujad  on  determineeritud  suurused  või  protsessid.  Süsteemimudelid  võivad  olla  staatilised  (ajas  muutumatud)  või  dünaamilised  (sisendid,  väljundid ja olekumuutujad on üldjuhul ajast sõltuvad protsessid).   

8.  Juhusliku  sündmuse  tõenäosus,  üksteist  välistavad  ja  mittevälistavad  sündmused.  Juhuslike sündmuste täielik süsteem (täisgrupp)    Juhuslikud  on  need  sündmused,  mis  katse  tulemusena  võivad  toimuda  või  mitte  toimuda.  Juhusliku  sündmuse  toimumist  iseloomustatakse  sündmuse  toimumise  tõenäosusega  P(A).  Ühe  katse  puhul  on  sündmuse tõenäosus selle sündmuse toimumise ja katsete arvu suhte piirväärtus.    Üksteist  välistavate  sündmuste  A  ja  B  korral  ei  saa  sündmused  A  ja  B  toimuda  samaaegselt.  Üksteist  välistavate  sündmuste  hulka,  millest  üks  sündmus  võib  katse  tulemusena  toimuda,  nimetatakse  elementaarsündmuste ruumiks.    Üksteist  mittevälistavad  sündmused  võivad  toimuda  samaaegselt.  Ehk  teisiti,  sündmusi  A  ja  B  nimetatakse  mittevälistavateks,  kui  leiduvad  elementaarsündmused,  mis  kuuluvad  üheaegselt  nii  sündmusele A kui ka sündmusele B.    Üksteist  välistavate  sündmuste  süsteemi  nimetatakse  täisgrupiks  (täielikuks  süsteemiks),  kui  katse  tulemusel toimub tingimata üks ja ainult üks nendest sündmustest.    

9. Tõenäosuste kaudne arvutamine (liitmine, korrutamine)  Sündmuste summa A∪B on sündmus, mis toimub siis, kui toimub sündmus A või sündmus B. 

12 | P a g e    

Kahe teineteist välistava sündmuse A ja B summa tõenäosus on võrdne nende sündmuste tõenäosuste  summaga  P(A∪B)=P(A)+P(B)    Kahe  mittevälistava  sündmuse  summa  tõenöosus  on  võrdne  nende  sündmuste  summa  ja  sündmuste  korrutise tõenäosuste vahega    P(A∪B)=P(A)+P(B)‐P(A∩B)     Sündmuste korrutis A∩B on sündmus, mis toimub siis kui toimuvad sündmused A ja B.  Kahe  sündmuse  korrutise  tõenäosus  on  võrne  ühe  sündmuse  tõenäosuse  ja  teise  sündmuse  tingliku  tõenäosuse korrutisega    P(A∩B)=P(A)*P(B/A)=P(B)*P(A/B)    Kui A ja B on sõltumatu sündmused, siis P(A∩B)=P(A)*P(B) 

13 | P a g e    

12.  Juhusliku  suuruse  arvkarakteristikud.  Mõned  tüüpilised  jaotusseadused  (ühtlane, normaalne jm.)    Juhusliku suuruse osaliseks kirjeldamiseks on kasutusele võetud mitmeid jaotusseadust iseloomustavaid  arvkarakteristikuid.    Keskväärtus (matemaatiline ootus)  Juhusliku suuruse keskväärtus ehk matemaatiline ootus on juhusliku suuruse tähtsaim arvkarakteristik,  mis näitab juhusliku suuruse kaalutud keskmist  Diskreetse juhusliku suuruse keskväärtus:  n

EX = ∑ xi ⋅ pi  

 

 

 

 

 

 

 

 

(4.19) 

 

 

 

 

 

 

(4.20) 

i =1

Pideva juhusliku suuruse keskväärtus:  ∞

EX =

∫ x ⋅ f ( x)dx  

 

 

−∞

  Dispersioon ja standardhälve  Juhusliku  suuruse  iseloomustamiseks  ei  piisa  ainult  keskväärtusest.  Tähtsuselt  järgmisteks  karakteristikuteks  on  dispersioon  ja  standardhälve.  Need  iseloomustavad  juhusliku  suuruse  hajuvust  keskväärtuse ümber.  Dispersiooniks nimetatakse juhusliku suuruse hälvete ruutude keskmist keskväärtusest: 

DX = E ( X − EX ) 2    

 

 

 

 

 

 

 

(4.21) 

 

 

 

 

 

 

(4.22) 

 

 

 

 

 

 

(4.23) 

Diskreetse juhusliku suuruse dispersioon:  n

DX = ∑ ( xi − EX ) 2 ⋅ pi  

 

i =1

Pideva juhusliku suuruse dispersioon:  ∞

DX =

∫ ( x − EX )

2

f ( x)dx .   

−∞

Kasutatakse ka mitmeid teisi arvkarakteristikuid: mood, mediaan asümmeetria tegur, ekstsess jne.    Standardhälve on ruutjuur dispersioonist: 

σ x = DX .   

 

 

 

 

 

 

 

 

(4.24)  14 | P a g e  

 

Normaaljaotus 

f ( x) =



1

σ 2π

∫ exp(−

−∞

( x − EX ) 2 )dx .  2σ 2

 

 

 

 

 

 

(4.25) 

Normaaljaotus  on  määratud  kahe  arvkarakteristikuga  –  keskväärtusega  ja  standardhälve  ehk  dispersiooniga. Normaaljaotus on piirjaotusseadus. Seepärast on ta väga laialt levinud.   

  Standardiseeritud normaaljaotuse tihedusfunktsioon

Normaaljaotuse jaotusfunktsioon

F(X)

1

f( )

0,9 0,8

0,4 0,35 0,3

0,7 0,25

0,6 0,5

0,2

0,4

0,15

0,3 0,2

0,1

0,1

0,05

0 -3

-2,7 -2,3

-2

0

-1,6 -1,3 -0,9 -0,6 -0,2 0,15 0,5 0,85 1,2 1,55 1,9 2,25 2,6 2,95

 

-3

-2,7 -2,3

-2

-1,6 -1,3 -0,9 -0,6 -0,2 0,15 0,5 0,85 1,2 1,55 1,9 2,25 2,6 2,95

X

X

Joonis 4.5.  

Normaaljaotuse jaotusfunktsioon                       Joonis 4.6.   Normaaljaotuse jaotustihedus 

 

13.Juhusliku vektori arvkarakteristikud.  Kahemõõtmelise  juhusliku  vektori  uurimisel  on  oluline  tähtsus  korrelatsioonimomendil  ehk  kovariatsioonil,  mis  iseloomustab  ligikaudu  juhuslike  suuruste  vahelist  sõltuvust.  Kovariatsiooniks  ehk  korrelatsioonimomendiks nimetatakse järgmist keskmist: 

cov( X , Y ) = E (( X − EX ) ⋅ (Y − EY ))   

 

 

 

 

 

(4.30) 

Seega kovariatsioon on kahe juhusliku suuruse hälvete korrutise keskmine. Kovariatsioon iseloomustab  mitte ainult sõltuvuse olemasolu, vaid ka sõltuvuse intensiivsust.  Sõltuvuse mõju tugevuse hindamiseks kasutatakse dimensioonita suhet: 

rxy =  

cov( X , Y )

σ xσ y



 

 

 

 

 

 

 

 

 

(4.31) 

mida nimetatakse korrelatsioonikordajaks.  Sõltumatute juhuslike suuruste X ja Y kovariatsioon ja korrelatsioonikordaja on võrdsed nulliga.  Juhuslike  suuruste  vahelist  regressioonifunktsiooniga: 

y = m x (x)  

sõltuvust 

iseloomustatakse 

ka 

regressioonivõrrandite 

                  Regressioonifunktsioon näitab Y keskväärtuse sõltuvust suuruse x väärtustest. 

või 

(4.32) 

15 | P a g e    

14. Protsessid. Determineeritud protsesside klassifitseerimine ja kirjeldamisviisid.     Protsessiks nimetatakse objekti (sündmuse, suuruse, funktsiooni, vektori, süsteemi või muu) muutumist  aja või mõne muu parameetri järgi. Tavaliselt on protsessi puhul muutujaks aeg:  x(t ) .  Protsessi minevikku nimetatakse realisatsiooniks ja tulevikku – prognoosiks.  Informatsiooni  protsessi  mineviku  kohta  nimetatakse  aposterioorseks  ehk  retrospektiivseks  infoks  ja  tuleviku kohta ka aprioorseks infoks.     Protsesside liigid:  o

pideva aja ja pideva väärtusega protsessid 

o

pideva aja ja diskreetse väärtusega protsessid 

o

diskreetse aja ja pideva väärtusega protsessid 

o

diskreetse aja ja diskreetse väärtusega protsessid. 

  Näiteid:  Pideva  aja  ja  pideva  väärtusega  protsessid:  taevakehade  liikumine,  elektri  tarbimine  (kuid  see  ei  ole  deterministlik protsess).  Pideva aja diskreetse väärtusega protsessid: signaalide edastamine sidekanalis kahendsüsteemis.  Diskreetse aja ja pideva väärtusega protsessid: õhutemperatuuri muutumine täistundidel, kõik väärtuse  järgi pidevad protsessid kui neid registreeritakse teatud ajaintervallide (tunni, ööpäeva, kuu jne) järel  Diskreetse  aja  ja  diskreetse  väärtusega  protsessid:  eksami  tulemused,  kui  igat  üliõpilast  eksamineeritakse täpselt 15 min.    Determineeritud  protsessiks  nimetatakse  sellist  protsessi,  mille  tulevikku  on  võimalik  täpselt  ette  prognoosida,  kui  on  teada  selle  protsessi  piisavalt  pikk  realisatsioon.  See  on  protsess,  mille  tulevik  on  ette määratud. D‐protsessid on: maakera pöörlemine, täpsed kellad jm.  Determineeritud protsessid jaotatakse kahte gruppi:  perioodilised protsessid  mitteperioodilised protsessid.  Determineeritud protsessi x(t) nimetatakse perioodiliseks protsessiks, kui mingi ajaperioodi T järel selle  protsessi väärtused korduvad: 

x(t ) = x(t ± nT ) , 

 

n=1, 2, 3, … 

 

 

 

 

 

 

(3.6) 

Protsessi,  mille  puhul  ei  leidu  sellist  ajaperioodi  T,  mille  puhul  kehtib  võrdus  (3.6),  nimetatakse  mitteperioodiliseks.   Ajaperioodi  T  nimetatakse  protsessi  perioodiks  ja  tsüklite  arvu  ajaühikus  –  sageduseks.  Sageduse  f  ja  perioodi T puhul kehtib järgmine seos:  16 | P a g e    

f =

1 .  T

 

 

 

 

 

 

 

 

 

 

(3.7) 

Perioodilised protsessid võivad olla 2 liiki:  o

harmoonilised protsessid 

o

polüharmoonilised protsessid. 

 

15. Polüharmoonilised ja peaaegu perioodilised protsessid    Polüharmoonilisteks protsessideks nimetatakse selliseid protsesse, mis on küll perioodilised, aga mis ei  ole harmoonilised.  Selliseid protsesse saab kirjeldada Fourier’ rea abil. 

x(t ) =

a0 ∞ + ∑ [a n cos(2πnf 0 t ) + bn sin(2πnf 0 t )]   2 n =1

Kõikide harmooniliste sagedused on mingid põhisageduse kordsed.  Polüharmoonilise  protsessi  näiteks  on  muusikalised  helid.  Neis  on  põhiharmooniline,  mis  määrab  heli  kõrguse ja kõrgemad harmoonilised, mis annavad helile tämbri.  Polüharmoonilise protsessi spektrit iseloomustab amplituudi ja sageduse karakteristik.    Peaaegu  perioodiliseks  nimetatakse  sellist  protsessi,  mis  ei  ole  perioodiline,  aga  mida  saab  ikkagi  kirjeldada kui perioodilist protsessi.  ∞

x(t ) = ∑ X n sin(2πnf n t + Θ)   n =1

Nt:  x(t ) = X 1 sin( 2t ) + X 2 sin( 2t ) + X 3 sin( 50t )   Erinevus  perioodiliste  protsessidega  seisneb  selles,  et  antud  juhul  võib  siinuse  argument  olla  irratsionaalarv.  Ratsionaalarv on arv, mille saab esitada kujul a/b, kus a ja b on täisarvud ning b ei võrdu nulliga.  Irratsionaalarv on reaalarv, mis pole ratsionaalarv.  Reaalarv – arv, mida saab esitada lõpliku või lõpmatu kümnendmurruna. 

16.  Juhuslikud  protsessid  ja  nende  karakteristikud.  Statsionaarsed  juhuslikud  protsessid.    17 | P a g e    

Juhusikuks  protsessiks  nimetatakse  protsessi,  mille  väärtus  argumendi  iga  väärtuse  korral  on  juhuslik  suurus. See on protsess, mille kulgu ei ole võimalik täpselt ette prognoosida. Apriori on võimalik teada  ainult  juhusliku  protsessi  võimalike  väärtuste  piirkonda  ja  protsessi  tõenäosuslikke  karakteristikuid.  Juhuslik protsess kulgeb iga kord isemoodi.    Selleks,  et  arvestada  protsessi  väärtuste  sõltuvusi  erinevatel  ajahetkedel,  ei  piisa  ühemõõtmelistest  jaotusseadustest. Kasutusele tuleb võtta mitmemõõtmelised jaotusseadused.    Juhusliku  protsessi  n‐mõõtmelised  jaotusseadusfunktsioon  (näitab  tõenäosust,  millega  juhuslik   protsess hetkel t1 võtab väiksema väärtuse kui x1 ja hetkel t2 väiksema väärtuse kui x2 jne)    Fn(x1;t1;…;xn;tn)=P((X(t1)<x1)∩…∩(X(tn)<xn))    ja jaotustihedus (n järku jaotusfunktsiooni n järku segatuletis)    fn(x1;t1;…;xn;tn)=δnFn(x1;t1;…;xn;tn)/δx1…δxn    Sageli  pole  vaja  juhuslikke  protsesse  kirjeldada  mitmemõõtmeliste  jaotusseaduste  tasemel,  piisab  mitmesugustest arvkarakteristikutest, nagu näiteks:    Juhusliku protsessi keskväärtus (matemaatiline ootus) EX(t)=∞‐∞∫x*f(x;t)dx    Juhusliku protsessi dispersioon DX(t)= ∞‐∞∫(x‐EX(t))2*f(x;t)dx    Juhusliku protsessi kovariatsioonifunktsioon  Kx(t1;t2)=E[(X(t1)‐EX(t1))(X(t2)‐EX(t2))]    Juhusliku protsessi korrelatsioonifunktsioon  Rx(t1;t2)= Kx(t1;t2)/σ1(t1)*σ2(t1)   

Juhuslikku  protsessi  nimetatakse  statsionaarseks,  kui  selle  keskväärtus  on  konstante  EX(t)=const, dispersioon on konstantne DX(t)=const ning kvariatsioonifunktsioon sõltub ainult  argumentide vahest Kx(t1;t2)= kx(τ)    Kehtivad järgmised võrdused  18 | P a g e    

o

Statsionaarse juhusliku protsessi dispersioon on konstantne ja võrdub kovariatsioonifunktsiooni  väärtusega punktis τ=0; kx(0)=DX(t) 

o

Statsionaarse juhusliku protsessi kovariatsioonifunktsioon on paarisfunktsioon; kx(‐τ)=kx(τ) 

o

⎢kx(τ)⎢≤kx(0) 

 

17.  Ergoodilised  klassifitseerimine. 

protsessid, 

spektraaltihedus, 

juhuslike 

protsesside 

Enamikul  statsionaarsetel  juhuslikel  protsessidel  on  praktika  seisukohast  tähtis  omadus,  mida  nimetatakse  ergoodilisuse  omaduseks  ja  mis  seisneb  selles,  et  küllalt  pika  ühe  realisatsiooni  järgi  on  võimalik määrata kõik statsionaarse juhusliku protsessi tõenäosuslikud karakteristikud. Teiste sõnadega,  ergoodilisuse  omadus  tähendab  seda,  et  statsionaarse  juhusliku  protsessi  faasikeskmised  võrduvad  ajakeskmisega:  ∞

T

1 EX (t ) = ∫ x ⋅ f ( x, t )dx = lim x(t )dt .  2T − T ∫ −∞ Juhusliku protsessi sageduslikuks kirjeldamiseks kasutatakse spektraaltihedust.  Statsionaarse  juhusliku  protsessi  spektraaltiheduseks  nimetatakse  funktsiooni  S,  mis  määrab  protsessi  harmoonikute dispersiooni jaotustiheduse sõltuvalt sagedusest: 

S X (ω ) =

1

π

∫k

X

(τ ) cos(ωτ )dτ   

 

 

 

Spektraaltiheduse integraal võrdub dispersiooniga:  ∞

D X = ∫ S X (ω )dω . 

 

 

 

 

 

 

 

 

0

Spektraaltiheduse graafik 

  Praktikas kasutatakse spektraalt‐e asemel normeeritud spektraaltihedust:  σ X (ω ) =  

 

 

 

 

 

 

S X (ω )   DX

 

 

Tõenäosuslikud juhuslikud protsessid on statsionaarsed või mittestatsionaarsed.  19 | P a g e    

Järelmõju järgi liigitatakse juhuslikke protsesse järgmiselt:  sõltumatu  juurdekasvuga  juhuslikud  protsessid  –  protsessid,  milliseid  saab  adekvaatselt  kirjeldada  ühemõõtmeliste jaotusseaduste abil  lihtsad  Markovi  protsessid  –  protsessid,  milliseid  saab  ammendavalt  kirjeldada  kahemõõtmeliste  jaotusseaduste abil  keerukad  Markovi  protsessid  ‐  protsessid,  milliseid  saab  ammendavalt  kirjeldada  n‐mõõtmeliste  jaotusseaduste abil (n>2)  eriti  keeruka  järelmõjuga  protsessid  –  protsessid,  milliseid  on  võimalik  ammendavalt  kirjeldada  ainult  lõpmatumõõtmeliste jaotusseaduste abil. 

18. Määramatud ja ebamäärased protsessid.    Intervallis  määramatud  juhuslikud  protsessid  on  sellised  juhuslikud  protsessid,  mille  tõenäosuslike  karakteristikute  kohta  on  teada  ainult  nende  võimalike  väärtuste  intervallid  või  pole  tõenäosuslikke  karakteristikuid üldse teada.  Näiteks,  kui  jaotusseadus  ei  ole  teada,  siis  võib  ette  anda  kõige  halvema  või  kõige  kahjulikuma  jaotusseaduse. Kõige suurema entroopiaga on ühtlane jaotusseadus.   Tavaliselt on teada ainult keskväärtuse ja dispersiooni (standardhälve) intervallid: 

X − (t ) ≤ EX (t ) ≤ X + (t )  

 

 

 

 

 

 

 

 

 

σ X− (t ) ≤ D X (t ) ≤ σ X+ (t ) . 

 

 

 

 

 

 

 

 

 

    Väärtused asuvad etteantud vahemikes.        Ebamäärased  protsessid  on  sellised  juhuslikud  protsessid,  mille  võimalike  väärtuste  ruum  on  ebamäärane  ja/või  info  protsessi  tõenäosuslike  karakteristikute  kohta  on  ebamäärane.  Seejuures  võib  juhuslik protsess sisaldada deterministlikke, tõenäosuslikke ja määramatuid komponente.  Näiteid.  1.  

Ebamäärane protsessi väärtuste ruum: 

~ X (t ) ∈ A(t ) ,   

 

 

 

 

 

 

 

 

 

(4.58)  

kus  

~ A(t ) = { A, μ ( x, t}  ‐ ebamäärane ruum.  20 | P a g e    

      ebamäärane protsess    2. 

Ebamäärase protsessi keskväärtus 

Protsessi keskväärtuse kohta on teada kuuluvusfunktsioon: 

~ B EX (t ) = {BEX , μ EX ( EX , t )}      Ebamäärase protsessi keskväärtus 

     

19.  Optimaalsed  determineeritud  süsteemid.  Kumerate  sihifunktsioonidega  ülesanded. Vajalikud ja piisavad optimumitingimused.    Optimaalse  süsteemi  all  mõistetakse  süsteemi,  mis  toimib  ja  areneb  teatud  kriteeriumi  või  kriteeriumide  ja  lisatingimuste  suhtes  optimaalselt  või  mille  struktuur  on  optimaalne.  Optimaalne  süsteem on ideaal, mille poole tuleb püüda, kuid mida alati ei saavutata.  Deterministlik  süsteem  on  selline  süsteem,  mille  kõik  elemendid  on  deterministlikud    ja  nende  vahelised seosed on deterministlikud funktsioonid. Teisiti öeldes, deterministlikud süsteemid on need,  mis ei sisalda mittedeterministlikke elemente ega seoseid ehk ei sisalda ühtki liiki juhuslikkust.   Deterministlik  element  –  element,  mille  käitumine  on  rangelt  determineeritud.  Deterministliku  elemendi käitumist on võimalik täpselt ette prognoosida.  Deterministlik  funktsioon  on  sõltuvus,  kus  üks  muutuja  määrab  üheselt  kindlaks  teise  muutuja  ehk  funktsiooni argumendid määravad üheselt kindlaks funktsiooni väärtuse.    Seega deterministliku süsteemi puhul:  o

väljundid on determineeritud suurused või protsessid 

o

operaator on determineeritud funktsioon (vektorfunktsioon). 

o

sisendid on determineeritud suurused või protsessid 

o

olekumuutujad on determineeritud suurused või protsessid  21 | P a g e  

 

  Deterministliku süsteemi väljundeid on võimalik mineviku alusel täpselt ette ennustada.    Näiteid:  kellad,  personaalarvutid,  päikesesüsteem,  täpsed  automaatsüsteemid  jt.  Neid  võib  teatud  tinglikkusega lugeda deterministlikeks süsteemideks.    Kuid väga rangelt deterministlikke süsteeme pole üldse olemas.    Süsteem 

Lihtne 

Keerukas 

 

 

 

Determineeritud 

Akna riiv 

Personaalarvuti 

Süsteemid 

‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐ 

‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐ 

Alajaama       projekt 

Automaatikasüstee mid 

  Kriitilisteks punktideks, kus võib asuda funktsiooni optimum, on:  o

punktid, kus on f(x) katkevuskoht 

o

punktid, kus f(x) on pidev, kuid tuletis puudub 

o

punktid, kus f’(x)=0. 

  Kui x0 on sileda funktsiooni miinimumkoht, siis f’(x0)=0.  Teoreem  Selleks, et funktsioon omaks punktis x0 lokaalse ekstreemumi on vajalik, et f’(x0)=0.    Teoreem  Kui  f(x)  on  rangelt  ülespoole  kumer  funktsioon,  siis  ta  omab  ainult  ühe  lokaalse  maksimumi,  mis  on  ühtlasi ka globaalseks maksimumkohaks.    Teoreem  Kui f(x) on rangelt allapoole kumer funktsioon, siis ta omab ainult ühe lokaalse miinimumi, mis on ühtlasi  ka globaalseks miinimumkohaks.    Teoreem  Olgu f(x) allapoole kumer funktsioon ja grad f(x0)=0, siis x0 on miinimumkoht.  Teoreem  22 | P a g e    

Olgu f(x) ülespoole kumer funktsioon ja grad f(x0)=0, siis x0 on maksimumkoht.    Rangelt  kumerate  funktsioonide  puhul  on  tingimus  grad  f(x0)=0  tarvilikuks  ja  piisavaks  miinimumi  /maksimumi tingimuseks. 

20.  Funktsiooni  ja  keha  kumeruse  määrang.  Nõgusate  sihifunktsioonidega  ülesanded. Vajalikud ja piisavad optimumitingimused.    Allapoole kumer funktsioon  Funktsiooni f nimetatakse kumeraks allapoole kui iga reaalarvu  α  (0< α <1)  ning iga x1  ja  x 2  korral kehtib võrratus: 

f (αx1 + (1 − α ) x 2 ≤ α ⋅ f ( x1 ) + (1 − α ) ⋅ f ( x 2 )  

 

 

 

 

 

 

 

 

  Kui kehtib range võrratus, siis nimetatakse funktsiooni rangelt kumeraks allapoole.    Ülespoole kumer funktsioon  Funktsiooni f nimetatakse kumeraks ülespoole kui iga reaalarvu  α  (0< α <1)  ning iga x1  ja  x 2  korral kehtib võrratus: 

f (αx1 + (1 − α ) x 2 ≥ α ⋅ f ( x1 ) + (1 − α ) ⋅ f ( x 2 )  

 

 

 

 

  Kui kehtib range võrratus, siis nimetatakse funktsiooni rangelt kumeraks ülespoole.    Kui f(x) on allapoole kumer, siis –f(x) on ülespoole kumer ja vastupidi.    Kehtib järgmine võrdus. 

max f ( x) = − min(− f ( x))    

 

Optimumtingimused toodud eelmises punktis. 

21. Sadulpunkt. Minimaks ülesanded. 

23 | P a g e    

Punkti  (x0,  y0)  nimetatakse  funktsiooni  f(x,y)  sadulpunktiks,  kui  x0  on  selle  funktsiooni  miinimumpunktiks ja y0 on maksimumpunktiks: 

f ( x0, y ) ≤ f ( x0, y 0) ≤ f ( x, y 0) . 

 

 

22. Sõltuvate muutujate elimineerimise meetod.   Barjäärfunktsioonide meetod(selle kohta ei olnud konspektis sõnagi kirjas, ega leidnud ka kuskilt mujalt  seda).    Iga  võrrand  määrab  ära  ühe  muutuja  kui  sõltuva  muutuja  teistest  muutujatest.  Seega  m  võrrandit  määravad m sõltuvat muutujat. Valime sõltuvateks muutujateks  x1 ,..., x m  ja sõltumatuteks muutujateks 

x m +1 ,..., x n .  Siis  võib  võrrandisüsteemi  (5.14)  asendada  järgmiste  funktsioonidega,  mis  üldjuhul  võivad  olla ilmutamata funktsioonid:   

x1 = h1 ( x m +1 ,..., x n )   …………………..   

 

 

 

 

 

 

 

 

(5.15) 

x m = hm ( x m +1 ,..., x n ) .    Viies need sõltuvused sihifunktsiooni (5.13), saame järgmise ilma lisatingimusteta ülesande: 

min f (h1 ( x m +1 ,..., x n ),..., hm ( x m +1 ,..., x n ), x m´1 ,..., x n ) ,   

 

 

 

(5.16) 

kus  x1 ,..., x m  asemel on sõltuvused (5.15).    Funktsioon  (5.16)  optimeeritakse  sõltumatute  muutujate  x m +1 ,..., x n   järgi.  Seega  selle  meetodi  puhul  sõltumatute  otsitavate  arv  väheneb.  Alul  oli  n  sõltumatut  otsitavat,  pärast  lisatingimuste  asendamist  sõltuvustega jääb ülesandesse n‐m sõltumatut muutujat.  Sihifunktsiooni gradiendi arvutamisel tuleb arvestada, et muutujad  x1 ,..., x m  on sõltuvad suurused.    Sihifunktsiooni gradient on järgmine vektor: 

∇f = gradf =

∂f ∂f ,  ,..., ∂x m +1 ∂x n

 

 

 

 

 

 

 

(5.17) 

  kus gradiendi komponendid arvutatakse arvestades sõltuvaid muutujaid  x1 ,..., x m :  24 | P a g e    

m ∂f ∂f ∂h j ∂f )+ .  = ∑( ∂xi ∂xi j =1 ∂x j ∂x i

 

 

 

 

 

 

 

 

(5.18) 

  Meetodi eeliseks on sõltumatute muutujate arvu vähenemine.  Meetodi puudusteks on:  1. vajadus korduvalt lahendada lisatingimuste võrrandisüsteemi (5.14),  2. gradiendi arvutamine on keerukas,  3. funktsioonid  h1 ,..., hm  on üldjuhul ilmutamata funktsioonid. 

25 | P a g e    

25.  Mittelineaarse  gradientmeetodid. 

planeerimise 

Ulesannete 

isearasused. 

Gradient 

ja 

Funktsiooni gradient  Funktsiooni gradient on vektor, mille  koordinaatideks on funktsiooni osatuletised vastavate muutujate  järgi: 

∂f ∂f    ,..., ∂x1 ∂x n

∇f = gradf =

 

 

 

 

 

 

 

(5.10) 

  Gradient  näitab  suunda,  milles  funktsioon  kasvab  kõige  kiiremini.  Antigradient  näitab  funktsiooni  väärtuste kõige kiirema vähenemise suunda.    Gradiendi pikkus  Gradiendi pikkus määratakse valemiga: 

⎛ ∂f ∇f = ∑ ⎜⎜ i =1 ⎝ ∂x i n

2

⎞ ⎟⎟ .  ⎠

  Gradientmeetod    Vaatleme ülesannet leida funktsiooni f miinimumkoht: 

min f ( x1 ,..., x n ) .    Ülesande lahendamise algoritm on järgmine:    1. 

Valitakse alglähend:   X 0 =< x10 ,..., x n 0 >  

2. 

Arvutatakse funktsiooni gradient selles punktis: 

gradf ( X i ) =<

∂f ( X i ) ∂f ( X i ) ,..., > ,  ∂x1 ∂x n

kus I on iteratsiooni number. Alglähendi puhul i=0.  3. 

Lähendi optimaalsuse kontroll: 

kontrollitakse kas optimaalsustingimused on täidetud või kas gradiendi pikkus on piisavalt väike:  26 | P a g e    

 

gradf ( X i ) ≤ ε , 

 

kus  ε  on lubatud lahendusviga. 

 

Jah korral ‐Æ  punkt 5 

 

Ei korral Æ punkt 4. 

4. 

Leitakse uus lähend 

 

x1i = x1i m s

 

………………….. 

 

x ni = x ni m s

∂f / ∂x1   gradf ∂f / ∂x n   gradf

kus i on iteratsiooni number ja s sammu tegur (s>0), mille väärtus valitakse eksperimentaalselt.    5.  

Lõpp. 

  Uue  lähendi  leidmisel  tuleb  kasutada  märki  miinus,  kui  soovime  leida  funktsiooni  miinimumkohta  ja  märki pluss, kui soovime leida maksimumkohta. Märk “‐“ tagab lähendi muutumise antigradiendi suunas  ja märk “+” – liikumise gradiendi suunas.   

26. Trahvifunktsioonide meetod. Lagrange`i meetod    Trahvifunk  T                                                            Trahvifunk. graafik 

x    27 | P a g e    

Kui muutujad lähevad lubatud piiridest välja, siis lisatakse sihifunk‐le trahv, mis on seda suurem, mida  suurem on rikkumine. Meetod sobib väga hästi võrratusekujuliste lisatingimuste arvestamiseks.   Trahvifunktsioonide  kasutamine  halvendab  sageli  esinevate  optimeerimismeetodite  koonduvust,  kui  optimeerimise algoritmid on küllaltki lihtsad.    N:  Vaatleme ül f(x1,...,xn)  Lisatingimusel  ai ≤ xi ≤ bi ; i = 1...n   Kasutades trahvifunk võime ül formuleerida kujule 

min{ f ( x1 ...x n ) + T ( x1 ...x n )}     kus T (...) on trahvifunk:  n

[

]

T ( x1 ...x n ) = Σ α i * E i ( xi − a i ) 2 + β i * Ei ( xi − bi ) 2     i =1

kus Ei on trahvitegur: 

⎧0 → x i ≥ ai ⎫ ⎬ ⎩1 → xi < ai ⎭

αi = ⎨

⎧0 → xi ≥ bi ⎫ βi = ⎨ ⎬ ⎩1 → xi < bi ⎭

 

  Ülesande optimaalsustingimused on järgmised: 

δf δT + = 0        i=1...n  δxi δxi Võrrandikujulisi lisatingimusi aitab arvestada järgmine trahvifunktsioon: 

(

)

m

[

]

T x1 ...x n = Σ g 2j ( x1 ...x n )   j =1

    Lagrange  Meetod  seisneb  selles,  et    ette  antud  tingimusliku  (piirangutega)  optimeerimisülesande  asemel  lahendatakse piiranguteta ül    Lagrange meetodi tuletamiseks vaatleme ühe vabadusastmega ülesannet: 

min F ( x1 , x 2 )    

 

 

 

 

 

 

 

 

 

(5.19) 

28 | P a g e    

lisatingimusel, et 

g ( x1 , x 2 ) = 0 .   

 

 

 

 

 

 

 

 

 

(5.20) 

 

 

 

 

 

(5.21) 

Vaatleme, et võrrand (5.20) määrab  x1  sõltuvana  x 2 : 

x1 = h1 ( x 2 ) .   

 

 

 

 

Viime selle sõltuvuse tagasi võrrandisse (5.20). Siis muutub see võrrand samasuseks: 

g (h1 ( x 2 ), x 2 ) ≡ 0 . 

 

 

 

 

 

 

 

 

 

(5.22) 

Samasuse korral on ka tuletis  x 2  järgi võrdne nulliga: 

dg dg dx1 dg = + = 0 .  dx 2 dx1 dx 2 dx 2

 

 

 

 

 

 

 

 

(5.23) 

 

 

 

 

 

 

 

 

(5.24) 

(5.25) 

Märgime, et 

dx1 dh1 = .  dx 2 dx 2 Eeldame, et  

dx1 ≠ 0 .  dx 2  

Siis saame võrrandist (5.23): 

dg dx dx1 = − 2 .    dg dx 2 dx1

 

Viime sõltuvuse (5.21) ka sihifunktsiooni. Siis saame järgmise optimaalsustingimuse: 

dF dF dx1 dF    ≡ + dx 2 dx1 dx 2 dx 2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Arvestades võrdust (5.24) saame: 

dF dF dx1 dx 2 = = λ .  dg dg dx1 dx 2  

 

 

(5.26) 

Seega võib ülesande optimaalsustingimused avaldada järgmisel kujul: 

29 | P a g e    

dF dg −λ = 0    dx1 dx1  

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(5.27) 

dF dg −λ = 0  dx 2 dx 2  

 

(5.28) 

kus  λ  on mingi konstant, mida nimetatakse Lagrange kordajaks.  Nüüd  selgub,  et  selle  asemel,  et  lahendada  lisatingimusega  optimeerimisülesanne  (5.19)‐(5.20),  võib  optimeerida järgmist funktsiooni ilma lisatingimusteta, sest nende ülesannete optimaalsustingimused on  samad: 

Φ = F ( x1 , x 2 ) − λg ( x1 , x 2 ) .   

 

 

 

 

 

 

 

(5.29) 

Funktsiooni  Φ   nimetatakse  Lagrange  funktsiooniks.  Funktsiooni  Φ   optimaalsustingimusteks  on  võrrandid (5.26) ja (5.27).   Seega võib ülesande (5.19)‐(5.20) asemel lahendada ülesande 

min Φ ( x1 , x 2 , λ )     

 

 

 

 

 

 

 

 

 

(5.30) 

kusjuures  λ  väärtus tuleb valida selline, et oleks täidetud lisatingimus (5.20).  Uuemas  optimeerimisteoorias  on  tõestatud,  et  ülesandega  (5.19)‐(5.20)  on  ekvivalentne  ka  järgmine  minmax‐ülesanne: 

min max Φ ( x1 , x 2 , λ ) ,  

 

 

 

 

 

 

 

 

(5.31) 

kus Lagrange funktsioon minimeeritakse  x1 ,.x 2  järgi ja maksimeeritakse  λ  järgi.        Vaatleme nüüd üldist lisatingimustega optimeerimisülesannet (5.13)‐(5.14). Selle ülesande lahendamine  Lagrange meetodil toimub järgmise skeemi kohaselt: 

1. Koostada Lagrange funktsioon: m

Φ = f ( x1 ,..., x n ) − ∑ λ j ⋅ g j ( x1 ,..., x n ) .

(5.32)

j =1

2. Koostada optimaalsustingimused: m ∂g ∂Φ ∂f = 0, − ∑λj ⋅ = ∂xi ∂xi ∂xi j =1

i=1,…,n;

(5.33)

∂Φ = g j ( x1 ,..., x n ) = 0 , ∂λ j

j=1,…,m.

(5.34)

30 | P a g e    

3. Leida optimaalne lahend otsesel või kaudsel meetodil. Kaudse meetodi puhul leitakse optimaalne lahend optimaalsustingimuste (5.33)‐(5.34) lahendamise teel.  Langrange meetod on kasutatav ka võrratusekujuliste lisatingimuste puhul (Kuhn‐Tuckeri tingimused).    N: 

[

min 2( x1 − 2) + (x2 − 4) + ( x3 − 10) + ( x4 − 5) 2

2

2

2

x1 + x2 + 2 x3 + 4 x4 − 100 = 0 ⇒ g1 ( x1; x2 ; x3 ; x4 )

]

x12 + x22 + x32 + x42 − 500 = 0 ⇒ g 2 ( x1; x2 ; x3 ; x4 )

Φ = F ( x1; x2 ; x3 ; x4 ) − λ1 g1 ( x1; x2 ; x3 ; x4 ) − λ2 g 2 ( x1; x2 ; x3 ; x4 )

δΦ δx1 δΦ δx2 δΦ δx3 δΦ δx4 δΦ δλ1

= 4( x1 − 2 ) − λ1 − λ2 * 2 x1 = 0 = 2( x2 − 4 ) − λ1 − λ2 * 2 x2 = 0 = 2( x3 − 10 ) − 2λ1 − λ * 2 x3 = 0 = 2( x4 − 5) − λ1 * 4 − λ2 * 2 x4 = 0 = g1 = x1 + x2 + 2 x3 + 4 x4 − 100 = 0  

δΦ = g 2 = x12 + x 22 + x32 + x 42 − 500 = 0   δλ2

31 | P a g e    

29. Monte­Carlo meetod. Juhuslike arvude tekitamine ja muundamine 

  http://en.wikipedia.org/wiki/Monte_Carlo_method  http://en.wikipedia.org/wiki/Random_number_generator 

  In  general,  Monte  Carlo  methods  are  used  in  mathematics  to  solve  various  problems  by  generating  suitable  random  numbers  and  observing  that  fraction  of  the  numbers  obeying  some  property  or  properties.  The  method  is  useful  for  obtaining  numerical  solutions  to  problems  which  are  too  complicated  to solve analytically.  The  most common application of the Monte Carlo method is Monte  Carlo integration.  Interestingly,  Monte  Carlo  simulation  methods  do  not  generally  require  truly  random  numbers  to  be  useful ‐ for other applications, such as primality testing, unpredictability is vital (see Davenport (1995)  [3]). Many of the most useful techniques use deterministic, pseudo‐random sequences, making it easy  to  test  and  re‐run  simulations.  The  only  quality  usually  necessary  to  make  good  simulations  is  for  the  pseudo‐random sequence to appear "random enough" in a certain sense.   What this means depends on the application, but typically they should pass a series of statistical tests.  Testing that the numbers are uniformly distributed or follow another desired distribution when a large  enough number of elements of the sequence are considered is one of the simplest, and most common  ones.  Monte Carlo methods are useful in many areas of computational mathematics, where a lucky choice can  find the correct result. A classic example is Rabin's algorithm for primality testing: for any n which is not  prime, a random x has at least a 75% chance of proving that n is not prime. Hence, if n is not prime, but x  says  that  it  might  be,  we  have  observed  at  most  a  1‐in‐4  event.  If  10  different  random  x  say  that  n  is  probably  prime  when  it  is  not,  we  have  observed  a  one‐in‐a‐million  event.  In  general  a  Monte  Carlo  algorithm of this kind produces one correct answer with a guarantee n is composite, and x proves it so,  but another one without, but with a guarantee of not getting this answer when it is wrong too often ‐ in  this case at most 25% of the time.      

32 | P a g e    

Related Documents

Rst Kordamiskusimused
December 2019 8
Indicateurs Rst
December 2019 19
Graficos Rst
November 2019 10
Rst Sistem
June 2020 11
Transparencias Rst
November 2019 21