Перевірка статистичних гіпотез
Лекція 14. Перевірка статистичних гіпотез
Гіпотези про розподіл випадкової величини X називаються статистичними.
Нехай є вибірка х1,х2,…хn випадкової величини X. Стосовно розподілу Х відомо, що він належить до деякого класу розподілів G. З цього класу вибирають з тих чи інших міркувань 1 конкретний розподіл F. Потрібно за вибіркою зробити висновок: чи може F бути розподілом випадкової величини X чи не може.
Вибір розподілу F із сукупності G називають вибором основної (нульової) гіпотези H0.
Після вибору Н0 решта гіпотез, називаються альтернативними (конкуруючими відносно основної). Альтернативна гіпотеза може бути одна Н1 , а може бути їх кілька Н , .
Якщо Н1 полягає в запереченні Н0, то вона називається загальною альтернативою.
Гіпотези про розподіл, що однозначно його визначає, називаються простими, в іншому разі складними.
Приклад. Проста Н: вип. величина X має розподіл Бернуллі параметрами n=4 і p=(позначають Х~P4(k;)). Складна Н p: випадкова величина X має розподіл Бернуллі P4(k;p), де p є ( ;).
Методика перевірки статистичних гіпотез
Ми поділимо множину всіх результатів вибірки на 2 частини: S множина таких результатів, при яких Н0 відхиляється; - множина таких результатів, при яких Н0 не відхиляється.
Ця множина S називається критичною множиною(областю), або критерієм для перевірки гіпотезиН0.
Розглянемо можливі помилки:
Помилка I роду полягає в тому, що Н0 відхиляється коли вона є істинною.
Помилка II роду - полягає в тому, що Н0 не відхиляється хоча є хибною.
Вибір основної гіпотези: За основну гіпотезу Н0 вибирають ту, для якої помилка І роду має більшу ціну, тобто для якої важливіше уникнути помилки І роду.
Н0 основна гіпотеза; Н1 загальна альтернатива (заперечення Н0).
Нехай Н0 і Н1 прості гіпотези, S критична множина.
Якщо х є S, то Н0 відхиляється.
, то Н0 не відхиляється.
Ймовірність помилки І роду можна позначити так Pн 0 (х є S), ймовірність помилки ІІ роду
Pн1().
Число , що обмежує зверху ймовірність помилки І роду називається рівнем значущості критерію: Pн0 (х є S) . Кажуть що критерій відповідає рівню значущості . вибирається мале число 0,1; 0,05; 0,001. Чим серйозніші наслідки помилки І роду тим меншим беруть .
Якщо є різні критерії з однаковим рівнем значущості , то вибирають такий критерій, тобто множину S, щоб ймовірність помилки ІІ роду була мінімальною, тобто ймовірність протилежної події максимальною Pн1(х є S)-mах, а це означає, що S треба вибирати якнайширшу з можливих.
Ймовірність Pн1(х є S) відхилити основну гіпотезу Н0 при умові, що істинна альтернативна Н1 називають потужністю критерію і позначають . Якщо альтернативна гіпотеза складна, тоді при кожній гіпотезі Н рахуємо потужність ( ), функція потужності.
Висновки, які можна зробити про істинність основної гіпотези
Нехай згідно критерію основна гіпотеза Н0 відхиляється. Тоді ймовірність того, що Н0 істинна не перевищує рівня значущості , тобто досить мала. Один суперечливий факт і гіпотезу відкидають.
Якщо ж за критерієм гіпотеза Н0 не відхиляється, а альтернативна не є простою і потужність критерію не можна визначити, то не можна вказати ймовірність того, що Н0 є істинною. Тоді роблять висновок, що вибірка не суперечить гіпотезі Н0 . Один підтверджуючий факт ще не означає істинності гіпотези.
Звязок перевірки гіпотез з надійними інтервалами
Нехай потрібно перевірити гіпотезу про параметр розподілу, а саме Н0:=0, при загальній альтернативі Н1:0 . Нехай ми можемо побудувати надійний інтервал () для з надійністю . Тоді, якщо Н0 істинна, то Pн0 = . Звідси отримуємо критерій рівня значущості =1-, бо ймовірність відкидання істинної гіпотези Н0 дорівнює .
Отже, гіпотезу Н0 відкидають, якщо і не відкидають , якщо . Множина S має вигляд і буде ширшою (критерій матиме більшу потужність), при точнішому (коротшому) надійному інтервалі () .
Довільний надійний інтервал можна використати для перевірки гіпотези про значення відповідного параметра.
Якщо потрібно при рівні значущості перевірити гіпотезу Н0 : =0, при альтернативній Н1 : >0 (або <0), то використовують правобічний (лівобічний) надійний інтервал для параметра . Оцінимо функцію потужності при кожній гіпотезі Н : >0 . ( )=. Ми можемо стверджувати, що ( )=, і цей інтервал має найбільший лівий кінецьпорівняно з усіма інтервалами з такою надійністю. Тоді, оскільки 0<, то для даного інтервалу найімовірніше, що 0 не попаде до нього, тобто ( ) є максимальною для всіх >0 (кажуть ще рівномірно найпотужніший критерій).
Приклад. Потрібно перевірити при рівні значущості наявність ефекту від використання спеці-альної машини, якщо відома різниця їх продуктивностей у n аналогічних парах робіт.
Вважаємо, що продуктивність роботи машини це нормально розподілена випадкова величина із невідомою дисперсією. Нам потрібно перевірити гіпотезу Н0: МХ=0 при альтернативі Н1: МХ>0.
Використаємо однобічний надійний інтервал надійності =1- для математичного сподівання нормально розподіленої випадкової величини з невідомою дисперсією , де= t квантиль t-розподілу Стьюдента із n-1 ступенями вільності. Якщо число 0 не належить цьому інтервалу, то відкидаємо гіпотезу вважаємо, що є ефект від спеціальної машини. Ймовірність помилитися в цьому ймовірність помилки першого роду: .
Критерій згоди 2 (Пірсона)
1. Для перевірки простої гіпотези при загальній альтернативі
Нехай Н0 : F(t) є функцією розподілу випадкової величини X і загальна альтернатива H1 : F(t) не є функцією розподілу випадкової величини.
Розібємо числову пряму на m проміжків.
(-;a1) |
[a1; a2) |
[a2; a3) |
… |
[am-1; +) |
n1 |
n2 |
n3 |
… |
nm |
Це емпіричний інтервальний ряд, а частоти nі емпіричні (вибіркові).
Якщо Х має функцію розподілу F(t), то можна обчислити ймовірності (теоретичні) попадання до кожного з цих проміжків за формулами: , ().
Обчислимо ці теоретичні ймовірності для всіх проміжків. Згідно закону великих чисел ймовірності повинні при великих обсягах вибірки приблизно дорівнювати відносним частотам , звідки так звані теоретичні частоти проміжків.
Зауваження. Якщо деякі з емпіричних частот ni або теоретичних частот ni' менші від 5 (краще 10), то сусідні проміжки треба обєднати.
Розбіжність між теоретичними та емпіричними частотами обчислюють за формулою: . Якщо велике (), то гіпотезу Н0 відкидають.
Теорема Пірсона. При великих обсягах вибірки має розподіл близький до розподілу 2 із (m-1) ступенями вільності (без доведення).
Побудуємо на основі теореми критичну множину S=(T,) при рівні значущості . Ймовірність відкидання істинної гіпотези Н0 :, тобто Т квантиль розподілу 2 рівня з (m-1) ступенями вільності (табличний). Т=k(m-1), S=(k(m-1);+) критична множина.
Отже, якщо < k(m-1) , то гіпотеза Н0 не відхиляється, інакше відхиляється.
2. Застосування критерію 2 для перевірки складної гіпотези при загальній альтернативі
Н0 : F(t,) функція розподілу випадкової величини Х, де невідомі параметри. Спочатку треба оцінити на основі вибірки, обовязково методом найбільшої правдоподібності. Позначають отриманні оцінки , тоді F(t,). Далі перевіряють просту гіпотезу, для цієї функції розподілу, враховуючи таку особливість.
Теорема Фішера. Кількість ступенів вільності розподілу зменшується на кількість оцінених за вибіркою параметрів, тобто кількість ступенів вільності m-1-r.
- Застосування критерію Пірсона для перевірки гіпотези про незалежність розподілів
Нехай задана вибірка двовимірної випадкової величини (Х,Y): . Потрібно перевірити гіпотезу: Н0 : X і Y незалежні, при загальній альтернативі: H1 : X і Y залежні.
Розібємо множину можливих значень Х на проміжки [), i=1,2,...k,
(), a множину можливих значень Y на проміжки [), j=1,2,...l ,
() і порахуємо відповідні вибіркові частоти .
X\Y |
(-;b1) |
[b1;b2) |
… |
[bl--1;+) |
|
(-;a1) |
n11 |
n12 |
… |
n1l |
s1 |
[a1;a2) |
n21 |
s2 |
|||
… |
|||||
[ak--1;+) |
nk1 |
n k l |
sk |
||
… |
n |
Якщо X та Y незалежні, то pij=P(Xє[ai-1;ai)* Yє[bj-1;bj])= P(Xє[ai-1;ai))*P(Yє[bj-1;bj]). Замінимо ймовір-ності на відповідні відносні частоти (теоретичні частоти):.. Позначимо статистику .
Теорема. Статистика при великих обсягах вибірки має розподіл близький до 2 розподілу із (k-1)(l-1) ступенями вільності (без доведення).
Зауваження. Якщо <5 або nij<5, то також обєднуємо проміжки.
Основні поняття про статистичну залежність і дисперсійний аналіз
(X,Y) двовимірна випадкова величина. MxY найкраще наближення розподілу Y через X. З теорії ймовірності відомо, що Y= MxY+Z, де Z кореляційно незалежний від X розподіл.
DY=D(MxY)+DZ, DZ=Dс залишкова дисперсія, МZ =0. кореляційне відношення.
В статистиці якщо треба визначити залежність Y від X, то X називають фактором; Y результа-тивною ознакою.
Зауваження. Нехай потрібно розглянути залежність Y не від одного, а від декількох факторів. Якщо X1,X2,…,Xk незалежні фактори, то Y=Mx1Y+Mx2Y+…+MxkY+Z (k-1)MY, де Z кореля-ційно незалежний розподіл від X1,X2,…,Xk . Останній числовий доданок підібрано так, щоб
MZ =0. Тоді DY=D(Mх1Y)+...+D( MхkY)+DZ. Ці формули дуже зручні, тому фактори потрібно підбирати так щоб вони були незалежні між собою, але щоб усі вони помітно впливали на Y.
Вернемось до одного фактора Х.
Теорема. Якщо Y має нормальний розподіл N(а;2) і Y та Х незалежні, тоді статистика- має F-розподіл Фішера-Снєдокора із (k-1;n-k) ступенями вільності, де k- кількість значень Х, а n кількість значеньY(без доведення).
При кожному значенні фактора Х= отримують вибірку значень результативної ознаки . Усі ці вибірки повинні бути достатньо великі за обсягом. Для цього можна брати проміжки для Y рівні не за довжиною, а за частотами фактора Х.
,,,, , .
Отже, ми можемо перевірити гіпотезу про незалежність випадкових величин при рівні значущості . Якщо менша від квантиля рівня F-розподілу ФішераСнєдокора із (k-1;n-k) ступенями вільності, то випадкові величини X і Y можна вважати незалежними.
Якщо більша від квантиля, то гіпотеза про незалежність випадкових величин відхиляється і тоді можна оцінити тісноту залежності: 1)=1 залежність функціональна,
- 0,9<<1 залежність дуже сильна, 3) 0,7<0,9 залежність сильна,
4) 0,4<0,7 залежність середня, 5) <0,4 залежність слабка.
Метод найменших квадратів
Можна шукати функцію заданого типу залежності Y від Х методом найменших квадратів.
Вибірка (Х;Y) : (x1;y1)…(xn;yn). Шукаємо наближення Y через Х у вигляді Y=(Х). Функцію (Х) найчастіше вибирають серед таких типів: 1)Y=а0+а1Х лінійна, 2) Y=а0+а1Х+а2Х2+...+а mХm многочлен, 3) дробово- раціональна і т. п.
За методом найменших квадратів ми підбираємо невідомі коефіцієнти a0,a1,…,am так, щоб мінімізувати похибку наближення:. Це функція m змінних a0,a1,…,am . Шукаємо її мінімум:
...
. Координати точки мінімуму М(a0,a1,…,am) і будуть шуканими коефіцієнтами найкращого наближення.
Приклад. Нехай задана вибірка двовимірної випадкової величини (Х,Y).
Методом найменших квадратів знайти коефіцієнти лінійного наближення Y через Х.
Y=aX+b. Коефіцієнти a, b знайдемо методом найменших квадратів.
функція двох змінних a, b. Знайдемо її мінімум.
Поділимо обидва рівняння на 2 і погрупуємо доданки з a і b:
-- система лінійних алгебраїчних рівнянь з невідомими a,b. Її коефіцієнти потрібно обрахувати за вибіркою. Розв'яжемо систему методом Крамера: , ,
, . Підставимо знайдені коефіцієнти в рівняння Y=aX+b.
Y=aX+b=.
Отже, отримане методом найменших квадратів рівняння лінійної залежності співпало з вибірковим рівнянням лінійної регресії. Цього слід було очікувати, бо вибіркове рівняння лінійної регресії є лінійним рівнянням з мінімальною похибкою наближення для вибіркових розподілів Y', X': min. Вона співпадає з похибкою методу найм. квадратів, поділеною на n.
Зауваження. Якщо треба знайти регресію собівартості Y відносно обсягу випуску продукції Х, то природно обрати формулу:Y=a0+a1/X . Але краще зробити заміну U=1/X , Y=a0+a1U , тоді методом найменших квадратів отримаємо рівняння вибіркової лінійної регресії і вернувшись до старих змінних матимемо .
Перевірка статистичних гіпотез