Abstrakter Uttalelser Historie

Grunnleggende konsepter for Markov-prosesser. Diskret-tids Markov-prosess

Under tilfeldig prosess forstå endringen i tid av tilstandene til et fysisk system på en tidligere ukjent tilfeldig måte. Samtidig med et fysisk system mener vi enhver teknisk enhet, gruppe av enheter, bedrift, industri, biologisk system osv.

Tilfeldig prosess flyter i systemet kalles Markovsky – om for ethvert øyeblikk, de sannsynlige egenskapene til prosessen i fremtiden (t > ) avhenger bare av tilstanden på et gitt tidspunkt ( i nåtiden ) og er ikke avhengig av når og hvordan systemet kom til denne tilstanden i fortiden .(For eksempel en geigerteller som registrerer antall kosmiske partikler).

Markov-prosesser er vanligvis delt inn i 3 typer:

1. Markov kjede – en prosess hvis tilstander er diskrete (dvs. de kan omnummereres), og tidspunktet for når den vurderes er også diskret (dvs. prosessen kan endre tilstandene bare på bestemte tidspunkter). En slik prosess fortsetter (endrer seg) i trinn (med andre ord i sykluser).

2. Diskret Markov-prosess – settet med tilstander er diskret (kan listes opp), og tiden er kontinuerlig (overgang fra en tilstand til en annen - når som helst).

3. Kontinuerlig Markov-prosess – settet med tilstander og tid er kontinuerlig.

I praksis møter man ikke ofte Markov-prosesser i sin rene form. Imidlertid er det ofte nødvendig å forholde seg til prosesser der forhistoriens innflytelse kan neglisjeres. I tillegg, hvis alle parametrene fra "fortiden" som "fremtiden" avhenger av, er inkludert i systemets tilstand i "nåtiden", kan det også betraktes som Markovian. Dette fører imidlertid ofte til en betydelig økning i antall variabler som tas i betraktning og manglende evne til å få en løsning på problemet.

I operasjonsforskning stor verdi okkupere den såkalte Markov tilfeldige prosesser med diskrete tilstander og kontinuerlig tid.

Prosessen kalles prosess med diskrete tilstander, hvis alle mulige tilstander , ,... kan listes (omnummereres) på forhånd. Systemet går over fra stat til stat nesten umiddelbart – i et hopp.

Prosessen kalles kontinuerlig tidsprosess, hvis øyeblikkene med overgang fra stat til stat kan ta noen tilfeldige verdier på tidsaksen.

For eksempel : Teknisk enhet S består av to noder , som hver kan mislykkes på et tilfeldig tidspunkt ( avslå). Etter dette begynner reparasjonen av enheten umiddelbart ( bedring), som fortsetter i en tilfeldig tid.

Følgende systemtilstander er mulige:

Begge nodene fungerer;

Den første enheten er under reparasjon, den andre fungerer.


– den andre enheten er under reparasjon, den første fungerer

Begge enhetene er under reparasjon.

Overgangen til et system fra stat til stat skjer på tilfeldige tidspunkter, nesten umiddelbart. Systemets tilstander og forbindelsen mellom dem kan enkelt vises ved hjelp av tilstandsgraf .

stater


Overganger

Det er ingen overganger pga feil og restaureringer av elementer skjer uavhengig og tilfeldig, og sannsynligheten for samtidig feil (gjenoppretting) av to elementer er uendelig liten og kan neglisjeres.

Hvis alle hendelser strømmer overføre systemet S fra stat til stat – protozoer, Det behandle, flyter i et slikt system vil være Markovsky. Dette skyldes at den enkleste flyten ikke har ettervirkning, dvs. i den er "fremtiden" ikke avhengig av "fortiden", og i tillegg har den egenskapen til vanlighet - sannsynligheten for samtidig forekomst av to eller flere hendelser er uendelig liten, det vil si en overgang fra tilstand til tilstand uten å gå gjennom flere mellomtilstander er umulig.

For klarhet, på tilstandsgrafen er det praktisk å indikere ved hver overgangspil intensiteten til flyten av hendelser som overfører systemet fra tilstand til tilstand langs en gitt pil (-intensiteten av flyten av hendelser som overfører systemet fra tilstand V. En slik graf kalles merket.

Ved å bruke en merket systemtilstandsgraf kan du bygge en matematisk modell av denne prosessen.

La oss vurdere overgangene til systemet fra en viss tilstand til den forrige eller etterfølgende. Et fragment av tilstandsgrafen i dette tilfellet vil se slik ut:

La systemet på tidspunktet for tiden t er i stand.

La oss betegne (t)- sannsynligheten for den i-te tilstanden til systemet– sannsynligheten for at systemet på tidspunktet t er i stand. For enhver tid t er =1 sann.

La oss bestemme sannsynligheten for at på tidspunktet for tiden t+∆t systemet vil være i . Dette kan være i følgende tilfeller:

1) og forlot den ikke i løpet av tiden ∆ t. Dette betyr at i løpet av tiden ∆t oppstod ikke en hendelse som overfører systemet til en tilstand (flyt med intensitet) eller en hendelse som overfører det til en tilstand (flyt med intensitet). La oss bestemme sannsynligheten for dette for liten ∆t.

Med en eksponentiell lov for tidsfordeling mellom to nabokrav, tilsvarende den enkleste flyten av hendelser, er sannsynligheten for at det i løpet av tidsintervallet ∆t ikke vil oppstå et eneste krav i flyten med intensitet λ 1 vil være lik

Ved å utvide funksjonen f(t) til en Taylor-serie (t>0) får vi (for t=∆t)

f(∆t)=f(0)+ (0)* ∆t + *∆ + *∆ +…=

= +(-l) *∆t+ (∆ + *(∆ +..." 1-l*∆t ved ∆t®0

Tilsvarende får vi for en strømning med intensitet λ 2 .

Sannsynligheten for at i løpet av tidsintervallet ∆t (ved ∆t®0) det vil ikke være krav vil være like

(∆t)/ = (∆t/ * (∆t/ = (1- *∆t)(1- *∆t) =

1 - - *∆t + 1 - ( + )*∆t + b.m.

Dermed vil sannsynligheten for at systemet ikke har forlatt tilstanden i løpet av tiden ∆t være lik

P( / )=1 – ( + )* ∆t

2) Systemet var i en tilstand S i -1 og for tid gått inn i staten S i . Det vil si at minst én hendelse skjedde i strømmen med intensitet. Sannsynligheten for dette er lik for den enkleste flyten med intensitet λ vilje

For vårt tilfelle vil sannsynligheten for en slik overgang være lik

3)Systemet var i en tilstand og i løpet av tiden ∆t gikk over til staten . Sannsynligheten for dette vil være

Da er sannsynligheten for at systemet på tidspunktet (t+∆t) vil være i tilstand S i lik

La oss trekke fra P i (t) fra begge sider, dele på ∆t, og ved å gå til grensen, ved ∆t→0, får vi

Ved å erstatte de tilsvarende verdiene for intensiteten av overganger fra tilstander til tilstander, får vi et system med differensialligninger som beskriver endringen i sannsynlighetene for systemtilstander som funksjoner av tid.

Disse ligningene kalles ligninger Kolmogorov-Chapman for en diskret Markov-prosess.

Etter å ha spesifisert startbetingelsene (for eksempel P 0 (t=0)=1,P i (t=0)=0 i≠0) og løst dem, får vi uttrykk for sannsynlighetene for systemets tilstand som funksjoner av tid. Analytiske løsninger er ganske enkle å få hvis antall ligninger er ≤ 2,3. Hvis det er flere av dem, løses ligningene vanligvis numerisk på en datamaskin (for eksempel ved Runge-Kutta-metoden).

I teorien om tilfeldige prosesser bevist , Hva hvis nummer n systemtilstander Sikkert og fra hver av dem kan du (i et begrenset antall trinn) gå til en hvilken som helst annen, da er det en grense , som sannsynlighetene tenderer til når t→ . Slike sannsynligheter kalles endelige sannsynligheter stater, og steady state er stasjonær modus funksjonen til systemet.

Siden i stasjonær modus alt , derfor er alt =0. Ved å likestille venstresiden av ligningssystemet til 0 og supplere dem med ligningen =1, får vi et lineært system. algebraiske ligninger, løse som vi vil finne verdiene av de endelige sannsynlighetene.

Eksempel. La feilfrekvensen og gjenopprettingsfrekvensen for elementene i systemet vårt være som følger:

Feil 1el:

2el:

Reparere 1el:

2el:


Po+P1+P2+P3=1

0=-(1+2)P0+2P1+3P2

0=-(2+2)P1+1P0+3P3

0=-(1+3)P2+2P0+2P3

0=-(2+3)P3+2P1+1P2

Etter å ha løst dette systemet, får vi

Po = 6/15 = 0,4; Pi=3/15=0,2; P2=4/15=0,27; P3 = 2/15 = 0,13.

De. i stasjonær tilstand systemet i gjennomsnitt

40 % er i tilstand S 0 (begge noder er operative),

20% - i tilstand S 1 (1. enhet er under reparasjon, 2. er i drift),

27 % - i tilstand S 2 (2. elektrisk enhet under reparasjon, 1. i fungerende stand),

13 % - i S 3 stand - begge enhetene er under reparasjon.

Å kjenne de endelige sannsynlighetene tillater evaluere den gjennomsnittlige effektiviteten til systemet og arbeidsbelastningen til reparasjonstjenesten.

La systemet i tilstand S 0 generere inntekter på 8 konvensjonelle enheter. per tidsenhet; i staten S 1 - inntekt 3 konvensjonelle enheter; i tilstand S 2 - inntekt 5 i tilstand S 3 - inntekt = 0

Pris reparasjoner per tidsenhet for element 1- 1(S 1, S 3) konvensjonelle enheter, element 2- (S 2, S 3) 2 konvensjonelle enheter. Så i stasjonær modus:

Systeminntekt per tidsenhet vil være:

W ext =8P0 +3P1 +5P2 +0P3 =8·0,4+3·0,2+5·0,27+0·0,13=5,15 konvensjonelle enheter.

Reparasjonskostnad i enheter tid:

W rem =0P0 +1P1 +2P2+(1+2)P3 =0·0,4+1·0,2+2·0,27+3·0,13=1,39 konvensjonelle enheter.

Fortjeneste per tidsenhet

W= W utpust -W reparasjon =5,15-1,39= 3,76 konvensjonelle enheter

Ved å bruke visse utgifter kan du endre intensitetene λ og μ og følgelig systemets effektivitet. Gjennomførbarheten av slike utgifter kan vurderes ved å beregne P i på nytt. og systemytelsesindikatorer.

La oss vurdere mulige tilstander i Markovian

prosesser.

0 Tilgjengelige stater: tilstand / fører til tilstand j(angitt med /->/) hvis banen finnes i 0 =i, i=j slik at alle overgangssannsynligheter i, - d j > 0, Til = 0,..., n-1.

Ris. 12.13.

I fig. Figur 12.13 viser veien fra en tilstand til en annen. De sier at tilstanden j tilgjengelig fra staten /.

OM Kommuniserende stater: angir /" og j kommuniserer (angitt med //) if i~>j og y-»/- Kommunikasjonstilstander kan grupperes i en ekvivalensklasse. Innenfor en klasse blir alle tilstander kommunisert. To stater fra forskjellige klasser kommuniserer ikke med hverandre. Slike klasser kalles irreduserbar. En Markov-kjede med stater som danner en irreduserbar klasse kalles irreduserbar.


Ris. 12.14.

Alle tilstander i en ergodisk Markov-kjede kommuniserer og danner et ergodisk sett av tilstander. Markov-kjeden heter ergodisk, hvis alle tilstander er ergodiske (fig. 12.14).

OM Ikke-utvinnbare tilstander: stat Til kalles ugjenkallelig hvis en slik tilstand eksisterer j (k f j) og et slikt antall trinn p, at d.,(«)> 0, 71., (T)= For alle t>s. Det er tider når kjeden

består av flere ergodiske sett som ikke kommuniserer med hverandre (flerkomponentgraf). En gang i ett ergodisk sett, kan en prosess aldri forlate den. Dette settet er ugjenkallelig i forhold til det originale, og tilstandene som er inkludert i det kalles ugjenkallelige.

OM Absorberende tilstand: oppgi / ringte absorberende da og bare når jeg og (n)= 1 for enhver s. Settet med tilstander kalles lukket, hvis ingen av dem fører til en tilstand som ikke er inkludert i dette settet. Hvis et ergodisk sett består av én tilstand, er denne tilstanden absorberende, slik at når du først kommer inn i den, kan du ikke lenger forlate den. Hvis det blant alle tilstander i en Markov-kjede er minst en absorberende, kalles en slik kjede absorberende.

Hver tilstand kan være forbigående eller gjentas gjentatte ganger.

OM Bestått tilstand: en tilstand /" vil bestå hvis det er en sannsynlighet som ikke er null for at systemet aldri vil gå tilbake til den. En delmengde av tilstander kalles transitive(bestått) hvis det er mulig å gå inn og ut av dette undersettet. Transitive tilstander kan bare besøkes et begrenset antall ganger.

OM Tilbakevendende tilstand: en tilstand vil være tilbakevendende hvis sannsynligheten for å returnere er 1. Tilbakevendende tilstander kan klassifiseres avhengig av tidspunktet for første retur til denne tilstanden: hvis denne tiden er mindre enn uendelig, kalles tilstandene positivt tilbakevendende; hvis tiden er uendelig, da null tilbakevendende. Tilbakevendende tilstander kan være periodisk Og ikke-periodiske. Ikke-periodiske positivt tilbakevendende tilstander kalles ergodiske.

Avhengig av typen tilstander i Markov-kjeden, kan matrisen av overgangssannsynligheter representeres i en eller annen form ved å omorganisere radene og kolonnene. Hvis matrisen av overgangssannsynligheter kan representeres i form av blokker

da kan en prosess som forlater en viss tilstand som tilhører settet av tilstander S aldri ende opp i et antall trinn i en tilstand som tilhører settet Q, og omvendt. Matrisen P kalles nedbrytbare, og de to betraktede settene av stater lukket. Denne uttalelsenåpenbart fordi

da for alle partalls potenser vil matrisen være blokkdiagonal, og for odde potenser vil den ha sin opprinnelige form. For eksempel:

Prosessen vil vekselvis gå fra tilstander som tilhører T til tilstander som tilhører R, og tilbake. En slik prosess vil periodisk.

Hvis overgangssannsynlighetsmatrisen har formen

da vil sannsynligheten for at prosessen vil være i en av tilstandene som tilhører Q ikke øke med antall trinn. En overgang fra en hvilken som helst tilstand som tilhører Q til en av tilstandene som tilhører S er mulig hvis R φ 0, men den omvendte overgangen kan ikke forekomme. Følgelig er tilstandene som tilsvarer Q ikke-returnerende, og S er absorberende.

Matrisen for overgangssannsynligheter for den absorberende kjeden er skrevet i følgende kanoniske form:

Submatrise 0 består av kun nuller, submatrise I er en enhetsmatrise av absorberende tilstander, submatrise Q beskriver oppførselen til prosessen før den forlater settet med ikke-returnerbare tilstander, submatrise R tilsvarer overganger fra ikke-returnerbare tilstander til absorberende tilstander.

Forelesning 9

Markov behandler
Forelesning 9
Markov behandler



1

Markov behandler

Markov behandler
En tilfeldig prosess som skjer i et system kalles
Markovian hvis det ikke får konsekvenser. De.
hvis vi vurderer den nåværende tilstanden til prosessen (t 0) - som
tilstede, et sett med mulige tilstander ((s),s t) - som
fortid, et sett med mulige tilstander ( (u),u t) - som
fremtid, deretter for en Markov-prosess for en fast
nåtid avhenger ikke fremtiden av fortiden, men er bestemt
bare i nåtiden og er ikke avhengig av når og hvordan systemet
kom til denne tilstanden.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
2

Markov behandler

Markov behandler
Markov tilfeldige prosesser er oppkalt etter den fremragende russiske matematikeren A.A. Markov, som først begynte å studere den sannsynlige sammenhengen mellom tilfeldige variabler
og laget en teori som kan kalles "dynamikk
sannsynligheter." Deretter var grunnlaget for denne teorien
kildegrunnlag generell teori tilfeldige prosesser, samt så viktige anvendte vitenskaper som teorien om diffusjonsprosesser, pålitelighetsteori, køteori, etc.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
3

Markov Andrey Andreevich Markov Andrey Andreevich Markov Andrey Andreevich

Markov behandler
Markov Andrey Andreevich
1856-1922
Russisk matematiker.
Skrev ca 70 verk på
teorier
tall,
teorier
funksjonstilnærminger, teorier
sannsynligheter. Utvidet lovens virkeområde betydelig
stort antall og sentralt
grensesetning. Er
grunnlegger av teorien om tilfeldige prosesser.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
4

Markov behandler

Markov behandler
I praksis er Markov-prosesser i sin rene form vanligvis
ikke møtes. Men det er prosesser der innflytelsen fra "forhistorie" kan neglisjeres, og når man studerer
For slike prosesser kan Markov-modeller brukes. I
For tiden er teorien om Markov-prosesser og dens anvendelser mye brukt på en rekke felt.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
5

Markov behandler

Markov behandler
Biologi: prosesser med fødsel og død - populasjoner, mutasjoner,
epidemier.
Fysikk:
radioaktiv
forfaller,
teori
tellere
elementærpartikler, diffusjonsprosesser.
Kjemi:
teori
spor
V
kjernefysisk
fotoemulsjoner,
sannsynlighetsmodeller for kjemisk kinetikk.
Bilder.jpg
Astronomi: fluktuasjonsteori
lysstyrken til Melkeveien.
Køteori: telefonsentraler,
verksteder, billettkontorer, informasjonsskranker,
maskin og andre teknologiske systemer, kontrollsystemer
fleksible produksjonssystemer, informasjonsbehandling av servere.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
6

Markov behandler

Markov behandler
La systemet være inne i det nåværende øyeblikket
viss tilstand S0. Vi kjenner egenskapene
tilstanden til systemet i nåtiden og alt som skjedde kl< t0
(bakgrunn for prosessen). Kan vi forutsi fremtiden,
de. hva skjer ved t > t0?
Ikke akkurat, men noen sannsynlighetstrekk
prosessen kan bli funnet i fremtiden. For eksempel sannsynligheten for at
det etter en stund
System S vil være i en tilstand
S1 eller vil forbli i tilstand S0 osv.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
7

Markov behandler. Eksempel.

Markov behandler
Markov behandler. Eksempel.
System S er en gruppe fly som deltar i luftkamp. La x være mengden
"røde" plan, y - antall "blå" plan. På tidspunkt t0, antall overlevende (ikke skutt ned) fly
henholdsvis – x0, y0.
Vi er interessert i sannsynligheten for at i øyeblikket av tid
t 0 vil den numeriske overlegenheten være på siden av de "røde". Denne sannsynligheten avhenger av tilstanden systemet var i
i tidspunktet t0, og ikke på når og i hvilken rekkefølge flyene skjøt ned før øyeblikket t0 døde.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
8

Diskrete Markov-kjeder

Markov behandler
Diskrete Markov-kjeder
Markov-prosess med endelig eller tellbar tall
tilstander og øyeblikk av tid kalles diskrete
Markov kjede. Overganger fra stat til stat er bare mulig i heltallsøyeblikk.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
9

10. Diskrete Markov-kjeder. Eksempel

Markov behandler

Anta
Hva
tale
kommer
O
påfølgende myntkast
kastespill; en mynt kastes inn
betingede øyeblikk av tid t =0, 1, ... og kl
hvert trinn spilleren kan vinne ±1 s
det samme
sannsynlighet
1/2,
som dette
Dermed, i øyeblikket t, er dens totale forsterkning en tilfeldig variabel ξ(t) med mulige verdier j = 0, ±1, ... .
Forutsatt at ξ(t) = k, ved neste trinn vil utbetalingen være
er allerede lik ξ(t+1) = k ± 1, og tar verdiene j = k ± 1 med samme sannsynlighet 1/2. Vi kan si at her, med tilsvarende sannsynlighet, skjer en overgang fra tilstanden ξ(t) = k til tilstanden ξ(t+1) = k ± 1.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
10

11. Diskrete Markov-kjeder

Markov behandler
Diskrete Markov-kjeder
Ved å generalisere dette eksemplet kan vi tenke oss et system med
tellelig antall mulige tilstander, som over tid
diskret tid t = 0, 1, ... beveger seg tilfeldig fra tilstand til tilstand.
La ξ(t) være dens posisjon på tidspunktet t som et resultat av en kjede av tilfeldige overganger
ξ(0) -> ξ(1) -> ... -> ξ(t) -> ξ(t+1) ->...-> ... .
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
11

12. Diskrete Markov-kjeder

Markov behandler
Diskrete Markov-kjeder
Når du analyserer tilfeldige prosesser med diskrete tilstander, er det praktisk å bruke et geometrisk skjema - en graf
stater. Toppunktene til grafen er tilstandene til systemet. Buer av grafen
– mulige overganger fra stat til stat.
Et kastespill.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
12

13. Diskrete Markov-kjeder

Markov behandler
Diskrete Markov-kjeder
La oss betegne alle mulige tilstander med heltall i = 0, ±1, ...
La oss anta at for en kjent tilstand ξ(t) =i, ved neste trinn går systemet til tilstanden ξ(t+1) = j med betinget sannsynlighet
P( (t 1) j (t) i)
uavhengig av hennes oppførsel i fortiden, eller rettere sagt, uansett
fra kjeden av overganger til øyeblikk t:
P( (t 1) j (t) i; (t 1) it 1;...; (0) i0 )
P( (t 1) j (t) i)
Denne eiendommen heter Markovian.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
13

14. Diskrete Markov-kjeder

Markov behandler
Diskrete Markov-kjeder
Tall
pij P( (t 1) j (t) i)
kalt sannsynlighet
overgang av systemet fra tilstand i til tilstand j i ett trinn inn
tid t 1.
Hvis overgangssannsynligheten ikke er avhengig av t, så kretsen
Markov kalles homogen.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
14

15. Diskrete Markov-kjeder

Markov behandler
Diskrete Markov-kjeder
Matrise P, hvis elementer er sannsynligheter
overgang pij kalles overgangsmatrisen:
p11...p1n
P s 21 ... s 2n
s
n1...pnn
Den er stokastisk, dvs.
pij 1;
jeg
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
p ij 0.
15

16. Diskrete Markov-kjeder. Eksempel

Markov behandler
Diskrete Markov-kjeder. Eksempel
Overgangsmatrise for kastespillet
...
k 2
k 2
0
k 1
1/ 2
k
0
k 1
k
k 1
k 2
0
1/ 2
0
0
1/ 2
0
1/ 2
0
1/ 2
0
0
0
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
...
k 1 k 2
0
0
0
1/ 2
0
1/ 2
...
0
0
1/ 2
0
16

17. Diskrete Markov-kjeder. Eksempel

Markov behandler
Diskrete Markov-kjeder. Eksempel
Gartner som et resultat kjemisk analyse jordanslag
tilstanden er ett av tre tall - god (1), tilfredsstillende (2) eller dårlig (3). Som et resultat av observasjoner over mange år la gartneren merke til det
at jordproduktiviteten i strømmen
år avhenger bare av tilstanden i
forrige år. Derfor sannsynlighetene
overgang av jord fra en stat til
en annen kan representeres som følger
Markov-kjede med matrise P1:
0.20 0.50 0.30
0.00 0.50 0.50
0.00 0.00 1.00
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
17

18. Diskrete Markov-kjeder. Eksempel

Markov behandler
Diskrete Markov-kjeder. Eksempel
Men som et resultat av landbrukspraksis kan gartneren endre overgangssannsynlighetene i matrisen P1.
Da vil matrise P1 bli erstattet
til matrise P2:
0.30 0.60 0.10
0.10 0.60 0.30
0.05 0.40 0.55
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
18

19. Diskrete Markov-kjeder

Markov behandler
Diskrete Markov-kjeder
La oss vurdere hvordan prosesstilstander endrer seg over tid. Vi vil vurdere prosessen ved påfølgende øyeblikk i tid, med start fra moment 0. La oss sette den innledende sannsynlighetsfordelingen p(0) ( p1 (0),..., pm (0)), der m er antall tilstander av prosessen er pi (0) sannsynligheten for å finne
prosess i tilstand i i det første øyeblikket. Sannsynligheten pi(n) kalles den ubetingede sannsynligheten for tilstanden
jeg på tid n 1.
Komponentene til vektoren p (n) viser hvilke av de mulige tilstandene i kretsen på tidspunkt n som er flest
sannsynlig.
m
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
pk(n) 1
k 1
19

20. Diskrete Markov-kjeder

Markov behandler
Diskrete Markov-kjeder
Å kjenne sekvensen ( p (n)) for n 1,... lar deg få en ide om oppførselen til systemet over tid.
I et 3-statssystem
p11 p12 p13
P p21
s
31
s22
s32
s23
s33
p2 (1) p1 (0) p12 p2 (0) p22 p3 (0) p32
p2 (n 1) p1 (n) p12 p2 (n) p22 p3 (n) p32
Generelt:
p j (1) pk (0) pkj
p j (n 1) pk (n) pkj
k
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
k
p(n 1) p(n) P
20

21. Diskrete Markov-kjeder. Eksempel

Markov behandler
Diskrete Markov-kjeder. Eksempel
Matrise
0.20 0.50 0.30
0.00 0.50 0.50
0.00 0.00 1.00
Skritt
(p(n))
n
0
1, 0, 0
n
1
0.2 , 0.5 , 0.3
n
2
0.04 , 0.35 , 0.61
n
3
0.008 , 0.195 , 0.797
n
4
0.0016 , 0.1015 , 0.8969
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
21

22. Diskrete Markov-kjeder

Markov behandler
Diskrete Markov-kjeder
n
Overgangsmatrise for n trinn P(n) P .
0.20 0.50 0.30
0.00 0.50 0.50
0.00 0.00 1.00
p(2) p(0) P
2
p(2)
P(2) P2
1, 0, 0
0.0016
0.
0.
0.0016
0.
0.
0.1015
0.0625
0.
0.1015
0.0625
0.
0.8969
0.9375
1.
0.8969
0.9375
1.
0.04 , 0.35 , 0.61
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
22

23. Diskrete Markov-kjeder

Markov behandler
Diskrete Markov-kjeder
Hvordan oppfører Markov-kjeder seg for n?
For en homogen Markov-kjede, under visse betingelser, gjelder følgende egenskap: p (n) for n.
Sannsynlighetene 0 avhenger ikke av startfordelingen
p(0), og bestemmes kun av matrisen P . I dette tilfellet kalles det en stasjonær distribusjon, og selve kjeden kalles ergodisk. Ergodisitetsegenskapen betyr at når n øker
sannsynligheten for tilstander slutter praktisk talt å endre seg, og systemet går inn i en stabil driftsmodus.
jeg
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
23

24. Diskrete Markov-kjeder. Eksempel

Markov behandler
Diskrete Markov-kjeder. Eksempel
0.20 0.50 0.30
0.00 0.50 0.50
0.00 0.00 1.00
0 0 1
P() 0 0 1
0 0 1
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
p()(0,0,1)
24

25. Diskrete Markov-kjeder. Eksempel

Markov behandler
Diskrete Markov-kjeder. Eksempel
0.30 0.60 0.10
0.10 0.60 0.30
0.05 0.40 0.55
0.1017 0.5254 0.3729
P() 0,1017 0,5254 0,3729
0.1017 0.5254 0.3729
p() (0,1017,0,5254,0,3729)
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
25

26. Markov prosesser med kontinuerlig tid

Markov behandler

En prosess kalles en kontinuerlig-tidsprosess hvis
øyeblikkene for mulige overganger fra stat til stat er ikke fastsatt på forhånd, men er usikre, tilfeldige og kan skje
når som helst.
Eksempel. Det teknologiske systemet S består av to enheter,
som hver på et tilfeldig tidspunkt kan gå ut
bygning, hvoretter reparasjonen av enheten begynner umiddelbart, også fortsetter i et ukjent, tilfeldig tidspunkt.
Følgende systemtilstander er mulige:
S0 - begge enhetene fungerer;
S1 - den første enheten blir reparert, den andre fungerer som den skal;
S2 - den andre enheten blir reparert, den første fungerer som den skal;
S3 - begge enhetene blir reparert.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
26

27. Markov prosesser med kontinuerlig tid

Markov behandler
Kontinuerlige Markov-prosesser
Overganger av systemet S fra tilstand til tilstand forekommer
nesten umiddelbart, i tilfeldige øyeblikk av feil
en eller annen enhet eller
fullføring av reparasjoner.
Sannsynligheten for samtidig
feil på begge enhetene
kan neglisjeres.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
27

28. Eventstrømmer

Markov behandler
Hendelsesstrømmer
En strøm av hendelser er en sekvens av homogene hendelser som følger etter hverandre på noen tilfeldige tidspunkter.
er gjennomsnittlig antall hendelser
Begivenhetsflytintensitet
per tidsenhet.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
28

29. Eventstrømmer

Markov behandler
Hendelsesstrømmer
En flyt av hendelser kalles stasjonær hvis dens sannsynlige egenskaper ikke avhenger av tid.
Spesielt intensiteten
jevn flyt er konstant. Strømmen av hendelser har uunngåelig kondensasjoner eller sjeldenheter, men de er ikke av regelmessig karakter, og gjennomsnittlig antall hendelser per tidsenhet er konstant og er ikke avhengig av tid.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
29

30. Eventstrømmer

Markov behandler
Hendelsesstrømmer
En flyt av hendelser kalles en flyt uten konsekvenser hvis for
to ikke-overlappende tidsperioder og antallet hendelser som faller på en av dem, avhenger ikke av hvor mange hendelser som faller på den andre. Med andre ord betyr dette at hendelsene som danner strømmen dukker opp i bestemte øyeblikk
tid uavhengig av hverandre og hver forårsaket av sine egne årsaker.
En flyt av hendelser kalles ordinær hvis sannsynligheten for at to eller flere hendelser skal inntreffe i en elementær del t er ubetydelig sammenlignet med sannsynligheten for at en skal inntreffe
hendelser, dvs. hendelser vises i den én etter én, og ikke i grupper på flere samtidig
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
30

31. Eventstrømmer

Markov behandler
Hendelsesstrømmer
En flyt av hendelser kalles den enkleste (eller stasjonære Poisson) hvis den har tre egenskaper samtidig: 1) stasjonær, 2) vanlig, 3) har ingen konsekvenser.
Den enkleste flyten har den enkleste matematiske beskrivelsen. Han spiller blant strømmene den samme spesielle
rolle, som loven normalfordeling blant annet
distribusjonslovene. Nemlig når du overlegger et tilstrekkelig stort antall uavhengige, stasjonære og ordinære
flyter (sammenlignbare med hverandre i intensitet), blir resultatet en flyt nær det enkleste.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
31

32. Eventstrømmer

Markov behandler
Hendelsesstrømmer
For den enkleste flyten med intensitet
intervall
tid T mellom nabohendelser har en eksponentiell
fordeling med tetthet
p(x) e x , x 0 .
For en tilfeldig variabel T som har en eksponentiell fordeling, matematisk forventning er det motsatte av parameteren.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
32

33. Markov prosesser med kontinuerlig tid

Markov behandler
Kontinuerlige Markov-prosesser
Med tanke på prosesser med diskrete tilstander og kontinuerlig tid, kan vi anta at alle overganger i systemet S fra tilstand til tilstand skjer under påvirkning
enkle hendelsesstrømmer (anropsstrømmer, feilstrømmer, gjenopprettingsstrømmer osv.).
Hvis alle strømmer av hendelser som overfører system S fra stat til stat er enklest, vil prosessen som skjer i
systemet vil være markovsk.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
33

34. Markov prosesser med kontinuerlig tid

Markov behandler
Kontinuerlige Markov-prosesser
La systemet i staten bli handlet av
den enkleste flyten av hendelser. Så snart den første hendelsen av denne flyten vises, "hopper" systemet fra staten
i stand.
- intensiteten av strømmen av hendelser som overfører systemet
fra staten
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
V
.
34

35. Markov prosesser med kontinuerlig tid

Markov behandler
Kontinuerlige Markov-prosesser
La systemet S under vurdering ha
mulige stater
. Sannsynlighet p ij (t) er sannsynligheten for overgang fra tilstand i til tilstand j i tid t.
Sannsynlighet for den i-te tilstanden
er sannsynligheten for at
at på tidspunktet t vil systemet være i staten
. Åpenbart, for ethvert øyeblikk beløpet
av alle tilstandssannsynligheter er lik en:
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
35

36. Markov prosesser med kontinuerlig tid

Markov behandler
Kontinuerlige Markov-prosesser
For å finne alle tilstandssannsynligheter
Hvordan
funksjoner av tid er kompilert og løst differensialligninger Kolmogorov - en spesiell type ligning der de ukjente funksjonene er sannsynlighetene til stater.
For overgangssannsynligheter:
p ij (t) p ik (t) kj
k
For ubetingede sannsynligheter:
p j (t) p k (t) kj
k
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
36

37. Kolmogorov Andrey Nikolaevich

Markov behandler
Kolmogorov Andrey Nikolaevich
1903-1987
Flott russisk
matematiker.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
37

38. Markov prosesser med kontinuerlig tid

Markov behandler
Kontinuerlige Markov-prosesser
- intensiteten av feilflyten;
- intensiteten av restitusjonsflyten.
La systemet være i staten
S0. Den overføres til tilstand S1 av strømmen
feil på den første enheten. Dens intensitet er
Hvor
- gjennomsnittlig oppetid for enheten.
Systemet overføres fra tilstand S1 til S0 ved flyten av restaureringer
første enhet. Dens intensitet er
Hvor
- gjennomsnittlig tid for å reparere den første maskinen.
På samme måte beregnes intensiteten til hendelsesstrømmer som overfører systemet langs alle buene i grafen.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
38

39. Køsystemer

Markov behandler

Eksempler på køtjenestesystemer (QS): telefonsentraler, verksteder,
billett
kasseapparater,
referanse
byrå,
maskinverktøy og andre teknologiske systemer,
systemer
ledelse
fleksibel
produksjonssystemer,
informasjonsbehandling av servere osv.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
39

40. Køsystemer

Markov behandler
Køsystemer
QS består av et visst antall serveringer
enheter kalt tjenestekanaler (disse er
maskiner, roboter, kommunikasjonslinjer, kasser, etc.). Enhver SMO
er designet for å betjene strømmen av applikasjoner (krav) som kommer til tilfeldige tidspunkter.
Tjenesten av forespørselen fortsetter i en tilfeldig tid, hvoretter kanalen er frigjort og klar til å motta den neste
applikasjoner.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
40

41. Køsystemer

Markov behandler
Køsystemer
Prosessen med drift av QS - tilfeldig prosess med diskret
tilstander og kontinuerlig tid. Tilstanden til QS endres brått når noen hendelser inntreffer
(ankomst av en ny forespørsel, slutt på tjenesten, øyeblikk,
når en applikasjon som er lei av å vente går ut av køen).
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
41

42. Køsystemer

Markov behandler
Køsystemer
Klassifisering av køsystemer
1. QS med feil;
2. Kø med kø.
I en QS med avslag får en søknad mottatt på et tidspunkt da alle kanaler er opptatt et avslag, forlater QS og er ikke lenger
servert.
I en QS med kø forlater ikke en forespørsel som kommer på et tidspunkt hvor alle kanaler er opptatt, men står i kø og venter på at muligheten skal bli servert.
QS med køer er delt inn i forskjellige typer avhengig av
avhenger av hvordan køen er organisert – begrenset eller ubegrenset. Begrensninger kan gjelde både for kølengde og tid
forventninger, «tjenestedisiplin».
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
42

43. Køsystemer

Markov behandler
Køsystemer
Emnet for køteori er konstruksjonen
matematiske modeller som forbinder gitte forhold
drift av QS (antall kanaler, deres ytelse, regler
arbeid, arten av applikasjonsflyten) med egenskapene som interesserer oss - indikatorer på effektiviteten til QS. Disse indikatorene beskriver QS'ens evne til å takle flyten
applikasjoner. De kan være: gjennomsnittlig antall søknader levert av QS per tidsenhet; gjennomsnittlig antall opptatte kanaler; gjennomsnittlig antall søknader i kø; gjennomsnittlig ventetid på service mv.
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"
43

44.

TAKK
FOR OBS!!!
44

45. Konstruer en overgangsgraf

Markov behandler
Lag en overgangsgraf
0.30
0.70
0.0
0.10
0.60
0.30
0.50
0.50
0.0
KHNURE, avdeling PM, foreleser Kirichenko L.O.
"Sannsynlighetsteori, matematisk
statistikk og tilfeldige prosesser"

For en matematisk beskrivelse av mange operasjoner som utvikler seg i form av en tilfeldig prosess, kan det matematiske apparatet utviklet i sannsynlighetsteori for Markov tilfeldige prosesser brukes med hell.

Funksjon X(t) kalles tilfeldig hvis verdien for et hvilket som helst argument t er en tilfeldig variabel.

Tilfeldig funksjon X(t), hvis argument er tid, kalles tilfeldig prosess .

Markov-prosesser er en spesiell type tilfeldige prosesser. Den spesielle plassen til Markov-prosesser blant andre klasser av tilfeldige prosesser skyldes følgende omstendigheter: et matematisk apparat er godt utviklet for Markov-prosesser, som gjør det mulig å løse mange praktiske problemer; Ved hjelp av Markov-prosesser kan man beskrive (nøyaktig eller omtrentlig) oppførselen til ganske komplekse systemer.

Definisjon. En tilfeldig prosess som skjer i et system S, kalt Markovian (eller en prosess uten ettervirkning), hvis den har følgende egenskap: for et hvilket som helst tidspunkt t 0 sannsynligheten for en hvilken som helst tilstand av systemet i fremtiden (med t > t 0) avhenger bare av tilstanden i nåtiden (med t = t 0) og er ikke avhengig av når og hvordan systemet S kom til denne tilstanden. Det vil si at i en tilfeldig Markov-prosess avhenger ikke den fremtidige utviklingen av prosessen av dens tidligere historie.

Klassifisering av Markov-prosesser . Klassifisering av tilfeldige Markov-prosesser utføres avhengig av kontinuiteten eller diskretiteten til settet med funksjonsverdier X(t) og parameter t. Det er følgende hovedtyper av tilfeldige Markov-prosesser:

· med diskrete tilstander og diskret tid (Markov-kjeden);

· med kontinuerlige tilstander og diskret tid (Markov-sekvenser);

· med diskrete tilstander og kontinuerlig tid (kontinuerlig Markov-kjede);

· med kontinuerlig tilstand og kontinuerlig tid.

Her vil kun Markov-prosesser med diskrete tilstander bli vurdert S 1, S 2,..., S n. Det vil si at disse tilstandene kan omnummereres etter hverandre, og selve prosessen består i at systemet tilfeldig endrer tilstand i hopp.

Statlig graf. Markov-prosesser med diskrete tilstander er praktisk illustrert ved hjelp av den såkalte tilstandsgrafen (fig. 1.1.), hvor tilstander er indikert med kvadrater S1, S2, ... systemer S, og pilene indikerer mulige overganger fra stat til stat. Grafen markerer kun direkte overganger, og ikke overganger gjennom andre tilstander. Mulige forsinkelser i forrige tilstand er avbildet som en "løkke", dvs. en pil rettet fra en gitt tilstand til samme tilstand. Antallet tilstander i et system kan enten være endelig eller uendelig (men tellbar).


Ris. 3.1. Systemtilstandsgraf S

Oppgave 1. System S– en bil som kan være i en av fem stater.

S 1- i god stand, fungerer;

S 2– defekt, venter på inspeksjon;

S 3-undersøker;

S 4– blir reparert;

S 5– avskrevet.

Konstruer en graf over systemtilstander.

Oppgave 2. Teknisk utstyr S består av 2 noder: 1 og 2, som hver kan svikte når som helst. Hver node kan bare ha 2 tilstander. 1 – brukbar, 2 – defekt. Konstruer en graf over systemtilstander.

Oppgave 3. Konstruer en tilstandsgraf under betingelsene for det forrige problemet, forutsatt at noder ikke repareres under prosessen.

Oppgave 4. Teknisk utstyr S består av 2 noder: 1 og 2, som hver kan svikte når som helst. Hver enhet inspiseres før restaurering starter for å lokalisere feilen. Systemtilstander er nummerert med 2 indekser: S ij (jeg– tilstanden til den første noden, j– tilstanden til den andre noden). Hver node har tre tilstander (arbeider, inspiserer, gjenoppretter).

Avtale om bruk av tomtemateriell

Vi ber deg om å bruke verkene publisert på nettstedet utelukkende til personlige formål. Det er forbudt å publisere materiale på andre nettsteder.
Dette verket (og alle andre) er tilgjengelig for nedlasting helt gratis. Du kan mentalt takke forfatteren og nettstedets team.

Det er enkelt å sende inn det gode arbeidet ditt til kunnskapsbasen. Bruk skjemaet nedenfor

Studenter, hovedfagsstudenter, unge forskere som bruker kunnskapsbasen i studiene og arbeidet vil være veldig takknemlige for deg.

Lignende dokumenter

    Grunnleggende konsepter av teorien om Markov-kjeder. Teori om begrensende sannsynligheter. Bruksområder for Markov-kjeder. Kontrollerte Markov-kjeder. Valg av strategi. Den optimale strategien er Markov - det kan også avhenge av tidspunktet når avgjørelsen tas.

    sammendrag, lagt til 03.08.2004

    Markov-kjeden som et enkelt tilfelle av en sekvens av tilfeldige hendelser, dens bruksområder. Teorem om begrensende sannsynligheter i en Markov-kjede, Markov-likhetsformel. Eksempler på en typisk og homogen Markov-kjede, for å finne overgangsmatrisen.

    kursarbeid, lagt til 20.04.2011

    Grunnleggende konsepter av teorien om Markov-kjeder, deres bruk i køteori for å beregne sannsynlighetsfordelingen av antall okkuperte enheter i systemet. Metodikk for å løse problemet med det beste valget. Konseptet med tilbakevendende og ikke-returnerbare tilstander.

    kursarbeid, lagt til 11.06.2011

    Markov kjeder som en generalisering av Bernoulli-skjemaet, en beskrivelse av en sekvens av tilfeldige hendelser med et begrenset eller tellelig uendelig antall utfall; egenskaper til kretser, deres relevans i informatikk; applikasjon: bestemme forfatterskapet til teksten ved å bruke PageRank.

    avhandling, lagt til 19.05.2011

    Definisjon av en tilfeldig prosess i matematikk, en rekke begreper og begreper som beskriver mekanismen i denne prosessen. Markov, stasjonære tilfeldige prosesser med diskrete tilstander. Funksjoner av den ergotiske egenskapen til stasjonære tilfeldige prosesser.

    sammendrag, lagt til 15.05.2010

    Konvergens av sekvenser av tilfeldige variabler. Sentral grenseteorem for uavhengige identisk fordelte stokastiske variabler. Hovedoppgaver matematisk statistikk, deres egenskaper. Testing av hypoteser ved å bruke Smirnov-homogenitetskriteriet.

    kursarbeid, lagt til 13.11.2012

    Klassifisering av tilfeldige hendelser. Distribusjonsfunksjon. Numeriske kjennetegn ved diskrete tilfeldige variabler. Lov om enhetlig sannsynlighetsfordeling. Elevfordeling. Problemer med matematisk statistikk. Estimater av populasjonsparametere.