Реферат: Аналіз експериментальних даних
Название: Аналіз експериментальних даних Раздел: Рефераты по математике Тип: реферат | ||||||||||||||
План 1. Дисперсійний аналіз 2. Кореляційний і регресійний аналіз 3.Парна регресія Література Аналіз експериментальних даних В дослідженнях для обробки експериментальних даних найбільш широко застосовуються такі методи математичної статистики, як дисперсійний, кореляційний і регресійний аналіз. 1. Дисперсійний аналізДисперсійний аналіз – основна задача – визначення впливу різних факторів на мінливість ознаки, яка вивчається. Наприклад урожай в польових умовах, успішність студентів. Загальне варіювання (мінливість) - варіювання варіантів - варіювання повторів - випадкові варіювання -
Особливостями дисперсійного аналізу є такі положення: 1. Замість середніх для окремих варіантів досліду обчислюється одна загальна середня арифметична для всього досліду в цілому. 2. Замість індивідуальних помилок середніх кожного варіанта досліду обчислюють одну усереднину похибку загальної середньої, яку використовують для оцінки розрізнювання варіантів. 3. Середню похибку досліду знаходять шляхом розкладання загальної дисперсії всіх даних досліду на складові частини, які характеризують варіювання, яке пов’язане з факторами, які вивчаються в досліді, і варіювання випадкове, яке обумовлене різноманітним випадковим впливом зовнішніх умов на мінливість при знаків і властивостей, які вивчаються. Визначення випадкового варіювання часто є основною задачею дисперсійного аналізу. Воно дає можливість визначити помилку досліду і найменшу суттєву різницю (Н С Р), тобто ту мінімальну різницю між середніми, яка в даному експерименті є суттєвою де t – критерій Стьюдента для прийнятого рівня значущості і числа ступенів волі залишкової дисперсії (береться з таблиці). Sd – похибка різниці обчислюється за формулою
де n – число, що повторюється в порівняльних варіантах;
Вибираємо 5% рівень значущості, що означає, що похибка може повторитися 5 раз із 100.
2. Кореляційний і регресійний аналізЯкщо необхідно визначити залежність між двома або декількома признаками і встановити їх взаємний зв’язок використовують кореляції і регресії. Теорія кореляції вивчає взаємозв’язок між величинами, які досліджуються. Діалектичний підхід до вивчення природи і суспільства вимагає розглядати явища у взємозв’язку і в неперервному змінюванні. Теорія кореляції дозволяє виразити ці взаємозв’ки у кількісній формі. Найбільш простим видом зв’язку між величинами є функціональна залежність, коли кожному значенню однієї величини відповідає одне конкретно визначене значення другої величини. До функціональних зв’зків відноситься наприклад, залежність між об’ємом води W, часом t і використанням Q:
Якщо змінна величина у змінюється в залежності від іншої змінної х, але на зміну у впливає багато інших факторів, врахувати які інколи не в змозі, то тоді кожному значенню х відповідає декілька значень у. Такі зв’зки називаються кореляційними, або зв’язок між змінними величинами х і у називається кореляційним, якщо різним значенням однієї із них (х) відповідають групові середні другої (у) або навпаки. В таких випадках одна величина розглядається як незалежна змінна і називається аргументом (х), а друга – залежна змінна і називається функцією (у). Загальний вигляд рівняння кореляційного зв’язку y=f(x), де х - аргумент, у – функція. При графічному зображенні статистичного звя’зку часто точки розміщують так, що можна провести ряд ліній різноманітного типу. Після встановлення форми зв’язку і її типу визначають її тісноту. В якості числового показника зв’язку простої лінійної кореляції використовують коефіцієнт кореляції
де Стандартну похибку коефіцієнта кореляції визначають з рівняння
r – коефіцієнт кореляції; п – число пар значень, за якими обчислений коефіцієнт кореляції. Значення коефіцієнта кореляції записується разом з його похибкою у вигляді
Зіставлення фактичного і теоретичного (табличного) значень t при числі ступеню волі п-2 дає можливість оцінити суттєвість r при тому чи іншому рівню значущості. Якщо Поряд з коефіцієнтом кореляції для характеристики зв’язку між двома ознаками використовують коефіцієнт детермінації
Коефіцієнт детермінації показує частину тих змін, які у залежності, яку вивчають обумовлені факторіальними ознаками і дають більш чітке уявлення про ступінь спряження ознак. Наприклад, якщо коефіцієнт кореляції рівний 0,20 – 0,30, то коефіцієнт детермінації Кореляційне відношення обчислюється
де η – кореляційне відношення; Sv – сума квадратів відхилення за варіантами; Sy – загальна сума квадратів. Кореляційне відношення використовується для оцінки криволінійної форми зв’зку між ознаками і має додатній знак, змінюється від 0 до 1. При малому числі спостережень кореляційне відношення обчислюється:
де
Похибка
Фактичне значення Квадрат кореляційного відношення називають індексом детермінації:
Він показує ту долю варіювання ознаки Обчисливши коефіцієнт кореляції можна отримати загальну уяву про спряження ознак які вивчаються. Регресійний аналіз – наукове дослідження закономірностей між явищами, які залежать від багатьох факторів. Мета його – відшукати рівняння лінії, яка найбільш точно виражає залежність однієї ознаки від іншої. За формою регресія може бути прямолінійною і криволінійною, а за характером – простою, коли змінювання вислідної ознаки відбувається під зміною однієї факторіальної ознаки, і множинною, коли зміна обумовлена декількома факторіальними ознаками. Регресивний аналіз дозволяє передбачити можливість зміни однієї ознаки на основі відомих змін другої шляхом розрахунку емпіричних формул, які показують, що зв’язок між ними існує. При лінійній регресії залежність між ознаками виражається коефіцієнтом регресії, який показує в якому напрямку і на яку величину змінюється одна ознака при зміні другої на одиницю виміру. Обчислюється коефіцієнт регресії за рівняннями:
Де
Коефіцієнти регресії мають знак коефіцієнта кореляції:
Ця властивість використовується для перевірки чи правильно обчислений коефіцієнт регресії. Похибку коефіцієнтів регресії обчислюють за рівнянням:
Критерій суттєвості коефіцієнта регресії дорівнює критерію суттєвості коефіцієнта кореляції, тобто:
Часто залежність між признаками, які вивчаються буває криволінійною, вона може мати різні форми і описується відповідними рівняннями. В цьому випадку, головна задача регресійного аналізу полягає в тому, щоб по характеру розпреділення точок на графіку підібрати аналітичну залежність, яка описує закономірність зміни ознак. Після того, Як аналітична залежність підібрана, необхідно математичними перетвореннями привести її до рівняння прямої лінії, тобто перетворити вихідні дані і обчислити значення параметрів, які входять в аналітичну залежність. Приведення криволінійної залежності до рівняння прямої лінії дозволяє використати прийоми регресійного аналізу. Приклад. Техніку приведення кореляційного і регресійного аналізу розглянемо на прикладі для невеликого числа спостережень ( 1. Розрахунки зручно вести складаючи таку таблицю. Розрахунки допоміжних величин для обчислення кореляції і регресії
Розв’язання: 2. За даними таблиці обчислюємо шість допоміжних величин: 3. Обчислюється коефіцієнт кореляції, регресії і рівняння регресії: коефіцієнт кореляції коефіцієнт регресії Рівняння регресії Таким чином шукана залежність має вигляд: 4. Визначається похибка і критерій значущості для коефіцієнта кореляції: Похибка коефіцієнта кореляції критерій значущості коефіцієнта кореляції 5. Фактичне значення 6. За отриманим рівнянням регресії обчислюють теоретичне значення
Знайдені точки ( 3. Парна регресіяПарна залежність може бути апроксимована прямою лінією, параболою, гіперболою, логарифмічною, степеневою або показниковою функцією,поліномом і інше. Рис. Вигляди основних ліній різних зв’язків між змінними величинами і їх рівняння. 1. Пряма, яка проходить через початок координат має рівняння 2. Пряма, що не проходить через початок координат має рівняння 3. Парабола з вершиною в початку координат і симетрична одній із осей має рівняння 4. Парабола, симетрична прямій паралельній осі 5. Гіпербола, асимптотично наближається до осей координат, рівняння має вигляд 6. Гіпербола асимптотично наближається до прямих, паралельних до осей координат, рівняння має вигляд 7. Степеневі криві (рис.3, и, к), рівняння 8. Показникові крива, коли із зростанням однієї величини Двох факторне поле можна апроксимувати, площиною, параболоїдом другого порядку, гіперболоїдом. Для
де
При побудові теоретичної регресійної залежності, оптимальною буде така функція, в якій виконуються умови найменших квадратів
При цьому крива АВ найкращим чином вирівнює значення постійних коефіцієнтів
Критерієм близькості кореляційної залежності між
де Задовільна тіснота зв’язку при
Рівняння регресії прямої записати таким виразом:
Література:1. Белый И.В. и др. Основы научных исследований и технического творчества / И.В. Белый, К.П. Власов, В.Б. Клепиков. — Х,: Вища шк. Изд-во при Харьк. ун-те, 1989-200с. 2. Белуха Н.Т. Основы научных исследований в экономике. — К.: Вища шк. Головное изд-во, 1985.— 215с. 3. Вознюк С.Т. и др. Основы научных исследований. Гидромелиорация / Вознюк С.Т., Гончаров С.М., Ковалев С.В. — К.: Вища шк. Головное издательство, 1985-192с. 4. Воловик П.М. Теорія імовірностей і математична статистика в педагогіці —Х.: Вища шк., 1969-222с. 5. Гмурман В.Е. Теория вероятностей и математическая статистика. Изд. 4-е — М.: Высшая школа, 1972. — 367с. 6. Митропольский А.К. Техника статистических вычислений. М.: Наука, 1971, 576с. 7. Нечаев Ю.И. Основы научных исследований — Киев, Одесса: Вища шк. Головное изд-во, 1983, — 160с. 8. Румшиский Л.Э. Математическая обработка результатов эксперимента. М.: Наука, 1971,— 192с. 9. Сиденко В.М. Грушко И.М. Основы научных исследований. Харьков. Вища шк, 1977, — 240с. 10. Сытник В.Ф. Основы научных исследований. К.: Вища шк. Головное изд-во. 1978, — 184с. |