De stelling van Chebyshov waaruit het bestaat, toepassingen en voorbeelden
de De stelling van Chebyshov (of de ongelijkheid van Chebyshov) is een van de belangrijkste klassieke resultaten van de waarschijnlijkheidstheorie. Hiermee kan de waarschijnlijkheid van een gebeurtenis worden geschat in termen van een willekeurige variabele X, door ons een dimensie te geven die niet afhankelijk is van de verdeling van de willekeurige variabele, maar van de variantie van X.
De stelling is vernoemd naar de Russische wiskundige Chebyshev Pafnuty (ook geschreven als Chebychev of Tchebycheff), die, ondanks dat het niet de eerste om deze stelling verkondigen, was de eerste die een demonstratie geven in 1867.
Deze ongelijkheid, of diegene die naar hun kenmerken Chebyshov-ongelijkheid wordt genoemd, wordt hoofdzakelijk gebruikt om de waarschijnlijkheden te schatten door middel van berekening van dimensies.
index
- 1 Waar bestaat het uit??
- 2 Toepassingen en voorbeelden
- 2.1 Begrenzingskansen
- 2.2 Demonstratie van de limietstellingen
- 2.3 Grootte van het monster
- 3 Ongelijkheden type Chebyshov
- 4 Referenties
Waar bestaat het uit??
In de studie van kansberekening doet zich voor als de distributie functie van een willekeurige variabele X bekend is, kunt u uw verwachte waarde of mathematische verwachting E (X) te berekenen - en de variantie Var (X), met dien verstande dat de genoemde bedragen bestaan. Het omgekeerde is echter niet noodzakelijk waar.
Dat wil zeggen, wetende E (X) en Var (X) kan niet per se de verdeling functie van X, dus hoeveelheden P (| X |> k) voor sommige k> 0, zijn zeer moeilijk te verkrijgen. Maar dankzij de ongelijkheid van Chebyshov is het mogelijk om de waarschijnlijkheid van de willekeurige variabele te schatten.
De stelling van Chebyshov vertelt ons dat als we een willekeurige variabele X hebben over een steekproefruimte S met een waarschijnlijkheidsfunctie p, en als k> 0, dan:
Toepassingen en voorbeelden
Onder de vele toepassingen die de stelling van Chebyshov bezit, kan het volgende worden genoemd:
Begrenzing van kansen
Dit is de meest voorkomende toepassing en wordt gebruikt om een bovengrens voor P verkregen (| X-E (X) | ≥k) met k> 0, alleen de variantie en de verwachting van de willekeurige variabele X, zonder de waarschijnlijkheidsfunctie.
Voorbeeld 1
Stel dat het aantal producten dat gedurende een week in een bedrijf wordt vervaardigd, een willekeurige variabele is met een gemiddelde van 50.
Als we weten dat de variantie van een productieweek gelijk is aan 25, wat kunnen we dan zeggen over de kans dat de productie in deze week met meer dan 10 zal verschillen van het gemiddelde?
oplossing
Als we de ongelijkheid van Chebyshov toepassen, moeten we:
Hieruit kunnen we afleiden dat de kans dat in de productieweek het aantal artikelen groter is dan 10 tot het gemiddelde maximaal 1/4 is.
Demonstratie van de limietstellingen
De ongelijkheid van Chebyshov speelt een belangrijke rol bij het aantonen van de belangrijkste limietstellingen. We hebben bijvoorbeeld het volgende:
Zwakke wet van grote aantallen
Deze wet stelt vast dat gegeven een reeks X1, X2, ..., Xn, ... onafhankelijke onafhankelijke variabelen met dezelfde gemiddelde verdeling E (Xi) = μ en variantie Var (X) = σ2, en een bekend gemiddeld monster van:
Dan moet je voor k> 0:
Of, equivalent:
tonen
Laten we eerst het volgende opmerken:
Omdat X1, X2, ..., Xn onafhankelijk zijn, volgt hieruit dat:
Daarom is het mogelijk om het volgende te bevestigen:
Vervolgens, met behulp van de stelling van Chebyshov, moeten we:
Uiteindelijk komt de stelling voort uit het feit dat de limiet rechts nul is wanneer n neigt naar het oneindige.
Opgemerkt moet worden dat deze test alleen werd gedaan voor het geval waarin de variantie van Xi bestaat; dat wil zeggen, het loopt niet uiteen. We zien dus dat de stelling altijd waar is als E (Xi) bestaat.
De limietstelling van Chebyshov
Als X1, X2, ..., Xn, ... een opeenvolging van onafhankelijke willekeurige variabelen is, zodanig dat er wat C is< infinito, tal que Var(Xn) ≤ C para todo n natural, entonces para cualquier k>0:
tonen
Omdat de opeenvolging van varianties uniform is begrensd, hebben we Var (Sn) ≤ C / n, voor alle natuurlijke n. Maar we weten dat:
Door n naar het oneindige te laten neigen, resulteren de volgende resultaten:
Aangezien een waarschijnlijkheid de waarde van 1 niet kan overschrijden, wordt het gewenste resultaat verkregen. Als een gevolg van deze stelling zouden we het specifieke geval van Bernoulli kunnen noemen.
Indien een experiment n maal herhaald onafhankelijk met twee mogelijke resultaten (succes en falen), waarbij p de kans op succes bij elk experiment en X de willekeurige variabele die het aantal successen, vervolgens elke k> 0 je moet:
Grootte van het monster
Qua variantie ongelijkheid Chebyshev kunnen we een steekproefomvang n die voldoende vinden zodat de kans dat | Sn-μ |> = k optreedt zo klein als gewenst, waardoor een benadering naar het gemiddelde.
Juist, laat X1, X2, ... Xn een voorbeeld zijn van onafhankelijke willekeurige variabelen van grootte n en stel dat E (Xi) = μ en zijn variantie σ2. Dan, als gevolg van de ongelijkheid van Chebyshov, moeten we:
voorbeeld
Stel dat X1, X2, ... Xn een steekproef zijn van onafhankelijke willekeurige variabelen met Bernoulli-verdeling, zodat ze de waarde 1 met waarschijnlijkheid p = 0,5 aannemen.
Wat moet de grootte van het monster zijn om te kunnen garanderen dat de kans dat het verschil tussen het rekenkundig gemiddelde Sn en de verwachte waarde (groter dan 0,1) kleiner dan of gelijk is aan 0. 01?
oplossing
We hebben die E (X) = μ = p = 0,5 en dat Var (X) = σ2= p (1-p) = 0,25. Voor de ongelijkheid van Chebyshov, voor elke k> 0 moeten we:
Als we nu k = 0.1 en δ = 0.01 nemen, moeten we:
Op deze manier wordt geconcludeerd dat een steekproefomvang van minimaal 2500 nodig is om ervoor te zorgen dat de waarschijnlijkheid van de gebeurtenis | Sn - 0,5 |> = 0,1 kleiner is dan 0,01.
Ongelijkheden type Chebyshov
Er zijn verschillende ongelijkheden met betrekking tot de ongelijkheid van Chebyshov. Een van de bekendste is de Markov-ongelijkheid:
In deze uitdrukking is X een niet-negatieve willekeurige variabele met k, r> 0.
Markov-ongelijkheid kan verschillende vormen aannemen. Laat Y bijvoorbeeld een niet-negatieve willekeurige variabele zijn (dus P (Y> = 0) = 1) en stel dat E (Y) = μ bestaat. Stel dat ook (E (Y))r= μr bestaat voor een geheel getal r> 1. dan:
Een andere ongelijkheid is die van Gauss, die ons vertelt dat gegeven een unimodale willekeurige variabele X met modus op nul, dan voor k> 0,
referenties
- Kai Lai Chung Elementaire geschiktheidstheorie met stochastische processen. Springer-Verlag New York Inc
- Kenneth.H. Rosen, discrete wiskunde en zijn toepassingen. S.A.MCGRAW-HILL / INTERAMERICANA DE ESPAÑA.
- Paul L. Meyer. Waarschijnlijkheid en statistische toepassingen. Inc. MEXICAANSE ALHAMBRA.
- Seymour Lipschutz Ph.D. 2000 Discrete Mathematics Opgeloste problemen. McGraw-Hill.
- Seymour Lipschutz Ph.D. Theorie en probleemsituaties. McGraw-Hill.