Теорія ймовірності. Відповіді на питання

1. Випадковий експеримент. Простір елементарних подій. Класичне означення ймовірності випадкової події

Випадковим експериментом чи випробуванням називається здійснення будь-якого комплексу умов, що можна практично чи подумки відтворити як завгодно велика кількість раз. Приклади випадкового експерименту: підкидання монети, вилучення однієї карти з перетасованої колоди.

Простір елементарних подій — множина всіх можливих наслідків випадкового експерименту. Тобто, множина елементарних подій. Зазвичай позначаєтеся літерою Ω.

Класичне означення ймовірності. Імовірністю випадкової події А називають відношення кількості m елементарних подій (0≤m≤n), які сприяють появі А, до загальної кількості n рівноможливих елементарних подій, що утворюють простір елементарних подій Ω. P(A)=m/n.

2. Теореми додавання

1. Нехай подія А – сума подій В і С, тоді а)якщо В і С – несумісні, то Р(А)=Р(В)+Р(С), б) якщо В і С – сумісні, то Р(А)=Р(В)+Р(С)-Р(В∩С).

2. Нехай випадкові події А1, А2, …, Аn попарно несумісні, тоді Р(А1Ʋ А2 Ʋ… Ʋ Аn)=Р(А1)+ Р(А2)+…+ Р(Ап),

3. Якщо події А1, А2, …, Аn утворюють повні групу, то сума їх імовірностей дорівнює 1. Р(А1)+ Р(А2)+…+ Р(Ап)=1.

3. Теорема добутку ймовірностей незалежних випадкових подій

Подія А називається добутком подій В і С, А=В*С=В∩С, якщо в результаті випробування відбувається як подія В, так і подія С.

4. Залежні та незалежні випадкові події. Теорема множення ймовірностей

Випадкові події В і С – залежні, якщо ймовірність однієї з них змінюється залежно від того відбувалася друга подія чи ні. У противному випадку події незалежні

Нехай подія А – добуток подій В і С, тоді а) якщо В і С незалежні, Р(А)=Р(В*С)=Р(В)*Р(С), б) якщо В і С – залежні, то Р(В*С)=Р(В)*Р(С/B).

Ці теореми є вірними і для добутку n (n>2).

5. Формула повної ймовірності

Нехай подія А може відбутися тільки за умови настання однієї з несумісних подій В1, В2, …, Вn, які утворюють повну групу, і називаються гіпотезами. Тоді ймовірність події А обчислюється за формулою повної імовірності: Р(А)=Р(В1)*Р(А/В1)+P(В2)*P(A/В2)+…+P(Вn)*P(A/Вn)=i=1nPBi*P(A/Bi)

6. Формула Байєса

Нехай В1, В2, …, Вn – гіпотези, подія А може відбутися одночасно з деякою з подій В1, В2, …, Вn відомі ймовірності гіпотез Ві при і=1,n та умовні ймовірності того, що подія А відбудеться. Відомо, що в результаті випробування подія А відбулася. Потрібно з огляду на це переоцінити імовірності гіпотез. Для цього використовують формулу Байєса: Р(Ві/А)=(Р(Ві)*Р(А/Ві))/ i=1nPBi*P(A/Bi), і=1,n.

7. Формула Бернуллі. Найімовірніше число появи випадкової події

Імовірність того, що в результаті n незалежних експериментів за схемою Бернуллі, подія А з’явиться m разів знаходять за формулою Бернуллі: Рnm=Cnmpmqn-m, n≤10, p – будь-яке.

Найімовірніше число появи випадкової події А в результаті n незалежних експериментів за схемою Бернуллі називають таке число m0, що йому відповідає найбільша імовірність Рnm0, np-q≤m0≤np+p, m0 повинно бути цілим. Якщо np+p – цілечисло, то найімовірніших чисел буде два. Найчастіше найімовірніше число одне.

8. Локальна й інтегральна теорема Лапласа

Локальна теорема Лапласа. Якщо у схемі Бернуллі кількість випробувань n достатньо велика, а імовірність Р появи події А в усіх випробуваннях однакова, то імовірність появи події А m разів дорівнює Рn(m)≈(1/npq)*q(x), де q(x) – функція Гауса, q(x)=(1/2π)*e-x22, x=m-npnpq, n>10, p≥0,1.

Інтегральна теорема Лапласа. Імовірність того, що подія А відбудеться від m1 до m2 разів при проведенні n випробувань Р(А)=р, Р(Ā)=q, знаходять за формулою Рn(m1, m2)≈Ф(х2)-Ф(х1), Ф(х)=(1/2π)0xe-t22dt, Ф(х) – функція Лапласа, хі=(mi-np)/npq, і=1,2,…, функція Лапласа – табульована.

9. Формула Пуассона

Якщо в кожному з n незалежних повторних випробувань Р(А)=р, 0<p<0,1, n – велике, Рn(m)≈аmm!e-a, a=np. Значення a і m – табульовані.

10. Дискретні випадкові величини та їх закони розподілу

Дискретна випадкова величина – величина, яка може приймати відокремленні, ізольовані одне від одного числові значення, які можна пронумерувати з відповідними ймовірностями.

Закон розподілу випадкової величини – співвідношення, яке встановлює зв’язок між можливими значеннями випадкової величини і відповідними їм імовірностями. Закони розподілу ДВВ задають найчастіше у табличній формі (задані значення випадкової величини й відповідні їм імовірності); в аналітичній формі (задана формула, якою обчислюють ймовірності для заданої); в графічній формі (у прямокутній системі координат заданий набір точок, сполучивши які прямими, одержимо полігон розподілу ймовірностей. Для ДВВ всі її імовірності мають властивість і=1npі=1 - умова нормування.

11. Функція розподілу ймовірностей (інтегральна функція) F(x) випадкової величина Х та її властивості.

Функція розподілу ймовірностей – функція аргументу х, що визначає імовірність того, що випадкова величина Х прийме значення менше х. F(x)=P(X<x).

Властивості:

0≤ F(x)≤1

F(x2)≥ F(x1) при x2> x1

Імовірність потрапляння в інтервал Р(α≤х≤β)=F(β)-F(α)

Якщо можливі значення випадкової величини належать відрізку a;b, то F(x)=0, x<a, F(x)=1, x>b

limx→-∞Fx=0, limx→∞Fx=1.

12. Щільність (диференціальна функція) розподілу f(x) неперервної випадкової величини Х та її властивості. Зв’язок між f(x) і функцією розподілу F(x).

Диференціальна функція – похідна 1-го порядку від її функції розподілу F(x): f(x)=F'(x). Отже F(x)=-∞xftdt. Імовірність того, що НВВ Х прийме значення з інтервалу (а;b): Р(α≤х≤β)=abfxdx.

Властивості:

f(x)>0, вона є похідною зростаючої функції F(x)

f(x)=0, при x<a, x>b, тому що F(x)=0, x<a, F(x)=1, x>b

-∞∞fxdx=1, тому що подія -∞<X<∞ є достовірна. Ця формула є умовою нормування.

13. Математине сподівання

ДВВ

Математичне сподівання М(х) або середнім значенням випадкової величини Х визначенної на дискретному просторі Ω, називаюсь таку величину MX=i=1∝xipiБ якщо простір приймає скінченну к-ть значень, то MX=i=1nxipi.

НВВ

Математичним сподівання М(Х) НВВ Х називають величину MX=-∝∝x*fxdx,, якщо можливі значення Х належать відрізку [a;b] , то MX=abx*fxdx,

Властивості M(x):

M(C)=С, С – const

M(C*X)=C*M(X)

M(X+Y)=M(X)+M(Y)

M(X*Y)=M(X)*M(Y), якщо х та у – незалежні випадкові величини.

14. Дисперсія випадкової величини. Середнє квадратичне відхилення

Диспресія випадкової величини Х назвається математичне сподівання квадрата відхилення цієї величини від її математичного сподівання DX=M(X-MX)2-за означенням. Обчислюється за формулою: DX=Mx2-(MX)2

Для НВВ MX2=abx2*fxdx,

Основні властивості диспресії:

1. D(C)=0; C-const

2. D(C*X)=C2D(X)

3. D(X+Y)=D(X)+D(Y), якщо х та у – незалежні випадкові величини.

Примітка:

D(X)≥0, завжди.

D(X) характерне розсіювання в.в. відносно свого математичного сподівання.

Якщо в.в. має розмірність у деяких певниходиничних, то D(X) вимірюється у квадратних одиницях цієї розмірності

На практиці доцільно знати величину розсіювання в.в. в розмірності цієї величини. Такоє величиною є середнє квадратичне відхилення.

Середнє квадратичне відхилення в.в. Х називають квадратний корінь із дисперсії:

σХ=D(X)

15. Числові характеристики НВВ

Математичним сподівання М(Х) НВВ Х або середнім значенням випадкової величини Х називають величину MX=-∝∝x*fxdx, якщо можливі значення Х належать відрізку [a;b] , то MX=abx*fxdx,

Властивості M(x):

M(C)=С, С – const

M(C*X)=C*M(X)

M(X+Y)=M(X)+M(Y)

M(X*Y)=M(X)*M(Y), якщо х та у – незалежні випадкові величини.

2. Дисперсія. Диспресія випадкової величини Х назвається математичне сподівання квадрата відхилення цієї величини від її математичного сподівання DX=M(X-MX)2. Обчислюється за формулою: DX=Mx2-(MX)2. Для НВВ MX2=abx2*fxdx,

Основні властивості диспресії:

1. D(C)=0; C-const

2. D(C*X)=C2D(X)

3. D(X+Y)=D(X)+D(Y), якщо х та у – незалежні випадкові величини.

3. Середнє квадратичне відхилення На практиці доцільно знати величину розсіювання в.в. в розмірності цієї величини. Такоє величиною є середнє квадратичне відхилення. Середнє квадратичне відхилення в.в. Х називають квадратний корінь із дисперсії: σХ=D(X)

4. Початковим моментов порядку k в.в. Х називаюсть математичне сподівання величини Xk назначають νk=M(X2), k=1,n

ДЛЯ НВВ: νk=-∝∝xkf(x)dх, якщо х∈[a;b], то νk=abxkf(x)dх.

5. Центральним моментом порядку k в.в. Х називають математичне сподівання величини (X-MX)k, позначають: μk=M((X-M(X)k)

ДЛЯ НВВ: μk=-∝∝(X-MX)kf(x)dx

6. Медіаною Ме в.в. Х є будь-який корінь рівння F(x)=0,5

7. Мода Мо НВВ є таке значення цієї величини, для якого щільність розподілу найбільша.

8. Асиметрією в.в. називають таку величину As=μ3σ3. Примітка: якщо μ3=0, то в.в. Х – симетрично відносна М(Х)

9. Ексцес в.в. знаходять за формулою Es=μ4σ4-3 Якщо Es=0, то нормальний закон розподілу.

Якщо Es>0,

Якщо Es<0

16. Початкові та центральні моменти розподілу.

Початковим моментов порядку k в.в. Х називаюсть математичне сподівання величини Xk назначають νk=M(X2), k=1,n

ДЛЯ ДВВ: νk=i=1nxikpi

ДЛЯ НВВ: νk=-∝∝xkf(x)dх, якщо х∈[a;b], то νk=abxkf(x)dх.

Центральним моментом порядку k в.в. Х називають математичне сподівання величини (X-MX)k, позначають:

μk=M((X-M(X)k)

ДЛЯ ДВВ: μk=i=1n(xi-MX)kpi

ДЛЯ НВВ: μk=-∝∝(X-MX)kf(x)dx

17. Асиметрія випадкової величини

Асиметрією в.в. називають таку величину As=μ3σ3

Примітка: якщо μ3=0, то в.в. Х – симетрично відносна М(Х)

18. Найважливіші закони розподілу:

а) Біноміальний закон розподілу

Імовірності в цьому законі визначається за формулою

PX=m=Cnmpmqn-m

Закон є вірним для схеми незалежних повторювальних випробувань, у кожному з яких подія А може відбутись з імовірністю р. Частота появи події А має біноміальний закон розподілу.

Числові характеристики:

M(X)=n*p

D(X) n*p*q

б) Закон розподілу Пуассона.

ДВВ має закон розподілу Пуасона, якщо вона набуває зліченної множини значень із імовірністями (a=n; p>0), 0<p<0,1

PX=m=amm!*e-a

Цей розподіл описує к-ть подій, які настаюсть в однакові проміжки часу за умови, що ці події відбуваються незалежно одна від одної зі сталою інтенсивністю.

Розподіл Пуасона розглядають як статистичну модель к-ть викликів, які надходять на тел. станцію за певний період доби; к-ть вимог щодо виплати страхових сум за рік і таке інше.

Розподіл застостовують в задачах статистичного контролю якості теорії надійності, теорії масового обслуговування.

Числові характеристики:

M(X)=D(X)=a, де a=np

в) Геометричний закон розподілу

Закон задається формулою:

PX=m=pmqm-1

Геометричний закон розподілу має частота появи події у схемі незалежних випробувань, якщо вони проводяться до появи Іої події.

Застосовують у задачах статистичного контролю якості і теорії надійності.

Числові характеристики:

M(X)=1/p

D(X)=qp2

г) Рівномірний закон розподілу.

Якщо імовірність потрапляння в.в. на інтервал пропорційна довжині інтервалу і незалежить від розташування інтервалу на осі, то вона має рівномірний закон розподілу.

Щільність розподілу f(x):

fx=c=1b-a, x∈[a;b]0, x∉[a;b]

Функція розподілу F(X):

FX=0, x≤ax-ab-a, a<x≤b1, x>b

Величиниа const с визначається за умовою нормування P(a<X<b)=c(b-a)=1

Якщо Х – рівномірно розподілена на промужку (a;b), то імовірність потрапляння до будь-якого інтервалу, який є множиною (a;b) ((x1;x2)∈(a;b)). Обчислюється за формулою: Px1<X<x2=cx2-x1=x2-x1b-a

Примітка: цей розподіл задовільняють похибки округлення різноманітних розрахунків.

Графік щільності:

Числові характеристики:

M(X)=(a+b)/2

DX=(b-a)212

д) Показниковий закон розподілу:

Щільність розподіл в.в.

fx=0, x≤0λe-λx,x>0

де λ- параметр.

Примітка: Показниковий закон розподілу задовольняють: частота телефонних розмов, час роботи техніки, час безвідмовної роботи приладу.

Числові характеристики:

M(X)=1/λ

D(X)=1λ2

σ=1/λ

Прмітка: Якщо в.в. Х розподілена за законом , то її фугкція розподілу (інтегральна функція) має вигляд: Fx=1-e-λx, тому основна формула імовірності буде мати вигляд:

PA<X<B=e-aλ-e-bλ

е) Нормальний закон розподілу

Задається щільністю імовірностей

fx=e-(x-a)22σ2σ2π

Параметри а і σ є відповідно математичним сподіванням та середнім квадратичним відхиленням в.в. Х

20. Закон розподілу ймовірностей дискретної двовимірної випадкової величини.

Законом розподілу двовимірної ДВВ називають перелік можливих значень цієї величини (Xi;Yk)та їх ймовірностей Рxi;yk (i=1,n, k=1,m).

Найчастіше закон розподілу двовимірної величини задають у вигляді таблиці з двома входами:

Y\X

x1

x2

……

xn

y1

P(x1;y1)

P(x2;y1)

……

P(xn;y1)

y2

P(x1;y2)

P(x2;y2)

……

P(xn;y2)

……

………

……

………

ym

P(x1;ym)

P(x2;ym)

……

P(xn;ym)

Тобто на перетині к-го рядка та і-го стовпчика записують ймовірність того, що двовимірна ВВ (X,Y) прийме значення xi;yk . Тоді (X=xi ;Y=yk)утворюють повну групу, тому сума ймовірностей в таблиці дорівнює 1. i=1nk=1mPxi;yk=1.

Закон розподілу двовимірної ВВ дозволяє отримати закони розподілу кожної компоненти.

21. Система неперервних випадкових величин (X,Y). Функція розподілу системи та її властивості.

Неперервну двовимірну ВВ можна задати як функцією розподілу: Fx,y=P X<x, Y<y; так і щільністю ймовірностей. Інтегральною функцією розподілу (функцією розподілу) 2-вимірної ВВ (X,Y) називають функцію двох змінних Fx,y, яка визначає для кожної пари чисел X,Y ймовірність виконання нерівності Fx,y=P X<x, Y<y

Ф-я розподілу 2-вимірної ВВ має такі властивості:

0≤Fx,y≤1 ;

Fх2,y≥Fх1,yFх,у2≥Fх,у1 – неспадна функція;

Також мають місце такі граничні співвідношення: F-∞;Y=0, Fx;-∞=0, F-∞;-∞=0, F∞;∞=1

Ймовірність влучення випадкової точки в прямокутник: x1≤X≤x2, y1≤Y≤y2можна знайти за формулою: Рx1≤X≤x2, y1≤Y≤y2= Fx2,y2+Fx1,y1-Fx1,y2-Fx2,y1

Якщо відома цільність ймовірност. fx,y, то ф-ю розподілу Fx,y знаходять за формулою Fx,y=-∞х-∞уfx,ydxdy

22. Числові характеристики систем із двох дискретних випадкових величин (X,Y) .

1) Математичне сподівання: MX=i=1kj=1mxjpij=j=1mxjpxj

MY=i=1kj=1m yipij=i=1kyipyi

2)Дисперсія та середнє квадратичне відхилення для кожної дискретної величини визначають за правилами:

DX=MX2-M2X=i=1kj=1mx2jpij-M2(X)=j=1mx2jpxj-M2(X)

σX=σx=D(X)

DY=MY2-M2Y=i=1kj=1my2ipij-M2(Y)=i=1ky2ipyi-M2(X)

σY=σy=D(Y)

23. Властивості двовимірної щільності розподілу ймовірностей випадкових величин (X,Y) .

Двовимірною щільністю розподілу ВВ (X,Y) називають мішану частинну похідну другого порядку від функції розподілу:

fx,y=∂2F(x,y)∂x ∂y

Щільність розподілу fx,y має такі властивості:

fx,y≥0

-∞∞-∞∞fx,ydx dy=1

24. Кореляційний момент. Коефіцієнт кореляції та його властивості

Для з’ясування наявності зв’язку між випадковими величинами та характеру застосовують так званий кореляційний момент kxy=M( X-MX*(Y-MY ) .

Його обчислюють за формулою:kxy=MX∙Y-MX∙MY.

Якщо kxy=0, то зв'язок між величинами Xта Y, що належать системі (X,Y) відсутній.

Тісноту кореляційного зв’язку характеризує коефіцієнт кореляції.

rxy=kxyσxσy .

Коефіцієнткореляції має такі властивості:

rxy≤1 , -1≤rxy≤1 ;

Якщо випадкова величина Xта Yнезалежні, то rxy=0.

25. Числові характеристики умовних законів розподілу.

Умовним законом розподілу випадкової величини - закон розподілу, знайдений за умови, що друга випадкова величина набула певного значення.

Для умовних законів розподілу розглядають числові характеристики — умовне математичне сподівання і умовну дисперсію, які обчислюються за формулами:

Для ДВВ : MY/X=x=k=1mykP(Yk/x); D(Y/X=x) =k=1m yk2P(Yk/x)-M2(Y/X=x)

Для НВВ: M(Y/X=x)=-∞∞y∙f2yx dy; D(Y/X=x) =M(Y2/X=x)-M2(Y/X=x)

Статистичний розподіл вибірки та його числові характеристики

Статистичним розподілом вибірки називають перелік варіант та відповідних їм частот або частостей

Перелік варіант:

xi

x1

x2

xn

ni

n1

n2

nk

Перелік частостей:

xi

x1

x2

xn

ωi

ω1

ω2

ωk

Числові характеристики: Величину, яка визначається формулою: називають вибірковою середньою величиною дискретного статистичного розподілу вибірки. Тут xi — варіанта варіаційного ряду вибірки; ni — частота цієї варіанти; n — обсяг вибірки ().

Якщо всі варіанти з’являються у вибірці лише по одному разу, тобто ni = 1, то

;

Вибірковою дисперсією називають середнє арифметичне квадратів відхилення варіант від вибіркового середнього з урахуванням частостей: Dв=1ni=1knixi-xв2; Dв=1ni=1knixi2-xв2

Вибірковим середньоквадратичним відхиленням (стандартом) називають σв=Дв Вибіркова дисперсія дає знижені значення. Математичне сподівання буде : MDв=n-1n∙D(X). Тому вибіркову дисперсію слід виправляти таким чином, щоб вона стала незміщеною оцінкою.

Виправлену вибіркову дисперсію позначають S2. S2=nn-1∙Dв

Розмах: R=xmax-xmin

Коефіцієнт варіації: V=σвхв∙100%

Варіаційний ряд. Вибіркове середнє та вибіркова дисперсія.

Нехай з генеральної сукупності взята вибірка об’єктів для вивчення ознаки Х, яка приймає значення х1, х2,.., хnn1, n2,…,nn разів . Значення х1, х2,.., хn називають варіантами ознаки Х.

Варіанти, що записані до таблиці у зростаючому порядку називають варіаційним рядом.Числа n1, n2,…,nnназивають частотами відповідних варіант. При цьому n=i=1kn1, де k- кількість варіант, n – об’єм вибірки.

Величину, яка визначається формулою:

називають вибірковою середньою величиною дискретного статистичного розподілу вибірки. Тут xi — варіанта варіаційного ряду вибірки; ni — частота цієї варіанти; n — обсяг вибірки ().

Якщо всі варіанти з’являються у вибірці лише по одному разу, тобто ni = 1, то

;

Вибірковою дисперсією називають середнє арифметичне квадратів відхилення варіант від вибіркового середнього з урахуванням частостей:

Dв=1ni=1knixi-xв2

Dв=1ni=1knixi-xв2

5. Емпірична функція розподілу

Еспіричною функцією розподілу називають функцію аргумента х, що визначає для кожного значення х частість події Х<х, тобто F*(х)=w(X<x)=nx/n, де nx – к-ть варіант, менших від х. Емпір. ф-я має такі властивості: 1) 0 ≤ F*(х) ≤1, 2) F*(х) неспадна ф-я, 3) F*(х)= {0, x≤x1 i 1, x>xk, де x1 – найменша варіанта, хk - найбільша.

6. Полігон частот та частостей варіаційного ряду.

Дискретний статистичний розподіл вибірки можна зобразити графічно у вигляді ламаної лінії, відрізки якої сполучають координати точок (xi; ni), або (xi; Wi). У першому випадку ламану лінію називають полігоном частот, у другому — полігоном відносних частот.

7. Числові хар-ки вибіркової сукупності

Вибіркова середня величина

Вибірковою дисперсією Дв називають середню квадратів відхилення варіант від вибіркової середньої з урахуванням частостей. Дає знижені значення, тому її доцільно виправляти так, щоб вона стала незміщеною оцінкою. Для цього достатньо Дв помножити на n/(n-1).

Вибірковим середнім квадр.відхиленням (стандартом) називають σв= √Dв

Виправлену вибіркову дисперсію позначають S2= (n/(n-1))* Дв

Розмах – R=xmax-xmin

Коеф. Варіації - V=σвхв*100%

8. Мода дискретного статистичного розподілу

Модою(Mo) дискретного статистичного розподілу вибірки називають варіанту, що має найбільшу частоту появи. Мод може бути кілька. Коли дискретний статистичний розподіл має одну моду, то він називається одномодальним, коли має дві моди — двомодальним і т. д.;

9. Інтервальний статистичний розподіл вибірки

Перелік часткових інтервалів і відповідних їм частот, або відносних частот, називають інтервальним статистичним розподілом вибірки. Інтервальний статистичний розподіл вибірки можна подати графічно у вигляді гістограми частот або відносних частот, а також, як і для дискретного статистичного розподілу, емпіричною функцією F*. Гістограма частот являє собою фігуру, яка складається з прямокутників, кожний з яких має основу h і висотy ni/h. При побудові F* для інтервального статистичного розподілу вибірки за основу береться припущення, що ознака на кожному частинному інтервалі має рівномірну щільність імовірностей. Тому комулята матиме вигляд ламаної лінії, яка зростає на кожному частковому інтервалі і наближається до одиниці.

10. Мода інтервального статистичного розподілу

Мода — це величина ознаки (варіанти), яка найбільш часто зустрічається в даній сукупності; мода — це варіанта, що має найбільшу частоту.В інтервальному ряді розподілу моду можна знайти з допомогою наступної формули:де  — мінімаальна границя модального інтервалу,

 — величина модального інтервалу (визначається за найбільшою з частот модальних інтервалів),

, ,  — частоти поточного, попереднього й наступного модальних інтервалів.

11. Медіана інтервального статистичного розподілу

Для визначення медіани інтервального статистичного розподілу вибірки необхідно визначити медіанний частковий інтервал. Якщо, наприклад, на і-му інтервалі [xi–1 – xi] F*(xi–1) < 0,5 i F*(xi) >0,5, то, беручи до уваги, що досліджувана ознака Х є неперервною і при цьому F*(x) є неспадною функцією, всередині

інтервалу [xi–1 – xi] неодмінно існує таке значення X = Me, де

F*(Me) = 0,5.

12. Точкові статистичні оцінки параметрів генеральної сукупності

Точковими оцінками параметрів розподілу ген.сукупності називають такі оцінки, які визначаються одним числом, точкою. Суть точкової оцінки полягає в тому, що за найкращу оцінку шуканого параметра генеральної сукупності в приймається знайдене за вибіркою його конкретне числове значення в , тобто приймається припущення, що 0=0. Оскільки сама вибіркова оцінка є випадковою величиною, а статистичні висновки в зв'язку з цим мають імовірнісний характер, то конкретна числова характеристика (точка) обов'язково повинна бути доповнена величиною середньої помилки (и). Розміри помилки оцінки безпосередньо пов'язані з величиною її дисперсії (розсіювання): чим менше дисперсія, тим менше помилка оцінки, тим надійніше статистичні висновки. Тому дисперсію на практиці ототожнюють з помилкою оцінки, а середньоквадратичне відхилення вибіркової оцінки називають середньою помилкою. Середню помилку оцінки в загальному вигляді визначають за формулою:

Квадрат середньої помилки (дисперсія вибіркових середніх) прямо пропорційний дисперсії ° і обернено пропорційний чисельності вибірки п: звідки формула для визначення середньої помилки оцінки прийме вигляд:

13. Вимоги до статистичних оцінок

Статистичною оцінкою невідомого параметра ВВ х ген.сукупності називають ф-ю від випадкових величин(результатів вибірки), що спостерігали для того, щоб статист.оцінки давали кращі наближенгня параметрів, вони повинні задовольняти певним вимогам. 1) Нехай θ* статистична оцінка невідомого параметра θ теореричного розподілу. Вимога: М(θ*)= θ – застерігає від систематичних похибок. Статистичною оцінкою θ* параметра θ називають незміщеною, якщо М(θ*)= θ виконується. Якщо ця рівнясть не виконується, то оцінку θ* називають зміщеною.Але ця вимога є недостатньою, тому що можливі значення θ* можуть бути сильно розсіяні від свого середнього значення. 2) Ефективною назив.таку стат.оцінку θ*, яка при заданому об’ємі має най.. Якщо об’єм вибірки великий, то до стат.оцінок пред’являють вимогу їх обгрунтованості. Обгрунтованою називають стат.оцінку, яка при n→∞ прямує за ймовірністю до оцінюваного параметра. lim P(|θ*- θ|<ε)=1

14. Довірчий інтервал для оцінки мат.сподівання нормального розподілу

Нехай кількісна ознака х ген.сукупності розподілена за нормальним законом, ς відоме. Треба знати довірчий інтервал, що покриває мат.сподівання а ген. сукупності із заданою над. γ. Довірчий інтервал (xв-σϵn;xв+σϵn) покриває невідомий параметр а. Точність оцінки буде ε=σϵn

15. Перевірка статистичних гіпотез. Критерій Пірсона

Статистичними назив.гіпотези про вигляд розподілу генсукупності або про параметри відомих розподілів. Основною(Н0 називають припущену гіпотезу, альтернативною(Н1) ту, що суперечить основній. При перевірці статистичної гіпотези за даними випадкової вибірки можна зробити хибний висновок. При цьому можуть бути похибки 1-го і 2-го роду. Якщо за висновком буде відхилена правильна гіпотеза, то кажуть, що це похибка 1-го роду. Якщо непарвильна – то 2-го. Імовірність допустити похибку 1-го роду позначають α і називають рівнем значущості. Найчастіше рівень знач.приймають рівним 0,05 або 0,01. Якщо 0,05, то в 5-ти випадках зі 100 ми ризикуємо одержати похибку 1-го роду.

Критерій Пірсона – Статистичним критерієм узгодження перевірки гіпотези назив.ВВ, розподіл якої відомий і яку застосовують для перевірки основної гіпотези. Правило Пірсона – щоб при заданому рівні значущості альфа перевірити основну гіпотезу Н0: ген.сук.розподілена нормально, треба – 1)обчислити теоретичні частоти для варіант вибірки, 2) обчислити спостережене значення критерія х2 за формулою: хсп2=i=1m(ni-n'i)2n'i 3) Знайти число ступенів свободи х2 за формулою, 4) знайти в таблиці критичну точку х2кр, яка відповідає заданому рівню значущості та числу ступенів свободи, 5) порівняти х2сп та х2кр і зробити висновок. Якщо х2сп<х2кр, то гіпотезу Н0 треба прийняти, у іншому випадку відхилити.

← Предыдущая
Страница 1
Следующая →

Файл

тв сессия.docx

тв сессия.docx
Размер: 122.8 Кб

.

Пожаловаться на материал

Випадковий експеримент. Теорема добутку ймовірностей Функція розподілу ймовірностей Дисперсія випадкової величини. Дисперсія Закон розподілу Довірчий інтервал

У нас самая большая информационная база в рунете, поэтому Вы всегда можете найти походите запросы

Искать ещё по теме...

Похожие материалы:

Источники вторичного электропитания

Источники вторичного электропитания с бестрансформаторным входом. Стабилизирующие преобразователи постоянного напряжения.

Принцип разделения властей как принцип организации современного государства

Курсовая работа. Цель работы:  изучить природу теории разделения властей. Увидеть взаимосвязь ветвей власти; понять сущность создания единой системы путем разделения полномочий законодательной, исполнительной и судебной властей.

Договор коммерческого найма жилого помещения. Пример

Завдання до підсумкового контролю з «Етики та естетики»

Создание простого проекта на основе линейного алгоритма

Лабораторная работа Цель работы: Изучить основные элементы стартовой формы, свойства элементов.

Сохранить?

Пропустить...

Введите код

Ok