СОДЕРЖАНИЕ

Исходные данные.


Задание 1. Регрессионно-корреляционный анализ.


Задание 2. Факторный анализ.


Задание 3. Компонентный анализ.


Задание 4. Дискриминаторный анализ и оптимальная группировка объектов.


Исходные данные:

Номер объекта

Y2

X1

X2

X3

X5

1

204,2

0,23

0,78

0,4

1,23

2

209,6

0,24

0,75

0,26

1,04

3

222,6

0,19

0,68

0,4

1,8

4

236,7

0,17

0,7

0,5

0,43

5

62

0,23

0,62

0,4

0,88

6

53,1

0,43

0,76

0,19

0,57

7

172,1

0,31

0,73

0,25

1,72

8

56,5

0,26

0,71

0,44

1,7

9

52,6

0,49

0,69

0,17

0,84

10

46,6

0,36

0,73

0,39

0,6

11

53,2

0,37

0,68

0,33

0,82

12

30,1

0,43

0,74

0,25

0,84

13

146,4

0,35

0,66

0,32

0,67

14

18,1

0,38

0,72

0,02

1,04

15

13,6

0,42

0,68

0,06

0,66

16

89,8

0,3

0,77

0,15

0,86

17

62,5

0,32

0,78

0,08

0,79

18

46,3

0,25

0,78

0,2

0,34

19

103,5

0,31

0,81

0,2

1,6

20

73,3

0,26

0,79

0,3

1,46

 

Задание 1. Регрессионно-корреляционный анализ.

Уравнение регрессии ищем в виде:

Используем автоматизированное вычисление множественного линейного уравнения связи (регрессии)  с помощью EXCEL.

Получаем уравнение множественной связи:

Из уравнения видно, что основным признаком, определяющим уровень снижения себестоимости продукции является повышение трудоемкости единицы продукции. Изменение трудоемкости единицы продукции на 1% изменяет индекс себестоимости продукции на 4,2447 процентных пункта, что говорит об общей недостаточной организованности производства.

Наиболее заметным признаком – фактором удорожания продукции является удельный вес покупных изделий в общих затратах на производство. Повышение доли этих затрат на один пункт (0,01) увеличивает индекс динамики себестоимости на 1,16%.

Значимость уравнения регрессии в целом оцениваем посредством F-критерия. По результатам дисперсионного анализа имеем

.

По таблице для  уровня значимости a = 0,05, к1 = 4, к2 = 20 – 4 – 1 = 15 находим . Так как , делаем вывод о значимости уравнения множественной регрессии.

Оценим тесноту связи признака-результата с признаками-регрессорами с помощью коэффициента множественной детерминации R2. По результатам регрессионной статистики R2 = 0,49 – это означает, что 49 % вариации результативного признака объясняется вариацией факторных переменных, т.е. полученное уравнение не достаточно хорошо описывает изучаемую взаимосвязь между факторами.


ВЫВОД ИТОГОВ

















Регрессионная статистика








Множественный R

0,700223








R-квадрат

0,490312








Нормированный R-квадрат

0,354395








Стандартная ошибка

58,53297








Наблюдения

20

















Дисперсионный анализ







 

df

SS

MS

F

Значимость F




Регрессия

4

49437,91

12359,48

3,607439

0,029839




Остаток

15

51391,63

3426,109






Итого

19

100829,5

 

 

 













 

Коэффициенты

Стандартная ошибка

t-статистика

P-Значение

Нижние 95%

Верхние 95%

Нижние 95,0%

Верхние 95,0%

Y-пересечение

167,2374

267,1635

0,625974

0,540741

-402,208

736,6833

-402,208

736,6833

Переменная X 1

-424,471

206,3497

-2,05705

0,057506

-864,295

15,35344

-864,295

15,35344

Переменная X 2

21,07086

299,2958

0,070401

0,944804

-616,863

659,0051

-616,863

659,0051

Переменная X 3

116,0467

139,5348

0,831668

0,41864

-181,365

413,4583

-181,365

413,4583

Переменная X 4

18,06021

31,91179

0,565942

0,579802

-49,9582

86,07861

-49,9582

86,07861




























Проверим параметры уравнения регрессии на значимость с помощью t – критерия. Наблюдаемые значения t – критерия составляют:

t(A0) =

0,625974

t(A1) =

-2,05705

t(A2) =

0,070401

t(A3) =

0,831668

t(A4) =

0,565942



Для данной задачи табличное значение t – критерия равно 1,75 при вероятности его превышения (по абсолютному значению), равной 0,1. Так как ни одно из фактических значений t – критерия не превышает табличного, делаем вывод о случайности полученных величин Аj.


Следующий этап регрессионного анализа – исключение тех признаков-регрессоров, которые оказывают незначительное влияние на результативный показатель. Удалим те переменные, которые имеют наименьшую парную корреляцию с признаком Y2. С помощью матрицы коэффициентов корреляции заключаем, что таковыми  являются Х2 и Х5.

 

Столбец 1

Столбец 2

Столбец 3

Столбец 4

Столбец 5

Столбец 1

1





Столбец 2

-0,6722

1




Столбец 3

-0,00205

-0,06578

1



Столбец 4

0,533881

-0,59896

-0,30406

1


Столбец 5

0,3056

-0,30289

0,130579

0,182026

1

Получаем уравнение регрессии:

Наблюдаемые значения t – критерия составляют:

t(A0) =

2,605

t(A1) =

-2,513

t(A3) =

0,936

при табличном уровне tкр=1,74 для  a/2 = 0,05 и n = 17. Делаем вывод о значимости параметров А0 и А1.

По результатам дисперсионного анализа имеем

.

Получено заметное увеличение F – критерия при незначительном снижении коэффициента множественной корреляции.


Продолжая процесс исключения и сравнивая результаты регрессионной статистики  для Y2, X1  и  Y2, X3 убеждаемся, что наилучшим оказывается уравнение парной регрессии



ВЫВОД ИТОГОВ

















   Регрессионная статистика для Y2, X1, X3







Множественный R

0,691893








R-квадрат

0,478716








Нормированный R-квадрат

0,417389








Стандартная ошибка

55,60405








Наблюдения

20

















Дисперсионный анализ







 

df

SS

MS

F

Значимость F




Регрессия

2

48268,76

24134,38

7,805905

0,003937




Остаток

17

52560,78

3091,811






Итого

19

100829,5

 

 

 













 

Коэффициенты

Стандартная ошибка

t-статистика

P-Значение

Нижние 95%

Верхние 95%

Нижние 95,0%

Верхние 95,0%

Y-пересечение

211,8613

81,34096

2,604608

0,018503

40,24662

383,4759

40,24662

383,4759

Переменная X 1

-456,883

181,7885

-2,51327

0,022333

-840,424

-73,3421

-840,424

-73,3421

Переменная X 2

111,8525

119,4901

0,936082

0,362339

-140,25

363,9548

-140,25

363,9548




























 

 

ВЫВОД ИТОГОВ

















Регрессионная статистика для Y2 и Х1








Множественный R

0,672196








R-квадрат

0,451847








Нормированный R-квадрат

0,421394








Стандартная ошибка

55,41258








Наблюдения

20

















Дисперсионный анализ







 

df

SS

MS

F

Значимость F




Регрессия

1

45559,57

45559,57

14,83757

0,001168




Остаток

18

55269,98

3070,554






Итого

19

100829,5

 

 

 













 

Коэффициенты

Стандартная ошибка

t-статистика

P-Значение

Нижние 95%

Верхние 95%

Нижние 95,0%

Верхние 95,0%

Y-пересечение

273,6643

47,34742

5,77992

1,77E-05

174,191

373,1377

174,191

373,1377

Переменная X 1

-558,807

145,0711

-3,85196

0,001168

-863,591

-254,024

-863,591

-254,024

 

 

ВЫВОД ИТОГОВ

















Регрессионная статистика для Y2 и Х3








Множественный R

0,533881








R-квадрат

0,285029








Нормированный R-квадрат

0,245308








Стандартная ошибка

63,28517








Наблюдения

20

















Дисперсионный анализ







 

df

SS

MS

F

Значимость F




Регрессия

1

28739,33

28739,33

7,175839

0,015326




Остаток

18

72090,22

4005,012






Итого

19

100829,5

 

 

 













 

Коэффициенты

Стандартная ошибка

t-статистика

P-Значение

Нижние 95%

Верхние 95%

Нижние 95,0%

Верхние 95,0%

Y-пересечение

20,1866

32,19091

0,62709

0,538474

-47,444

87,81724

-47,444

87,81724

Переменная X 1

291,7266

108,9029

2,678776

0,015326

62,92979

520,5233

62,92979

520,5233

 Задание 2. Факторный анализ.

Используя анализ данных в EXCEL:

 

X1 

X2 

X

X






Среднее

0,315

0,728

0,2655

0,9945

Стандартная ошибка

0,019595

0,01123

0,029811

0,099566

Медиана

0,31

0,73

0,255

0,85

Мода

0,23

0,78

0,4

1,04

Стандартное отклонение

0,08763

0,050221

0,133317

0,445273

Дисперсия выборки

0,007679

0,002522

0,017773

0,198268

Эксцесс

-0,72114

-0,55808

-0,76502

-0,78293

Асимметричность

0,249508

-0,30395

-0,13229

0,594076

Интервал

0,32

0,19

0,48

1,46

Минимум

0,17

0,62

0,02

0,34

Максимум

0,49

0,81

0,5

1,8

Сумма

6,3

14,56

5,31

19,89

Счет

20

20

20

20


находим матрицу исходных данных в стандартизированном виде:


-0,9700

1,0354

1,0089

0,5289


-0,8559

0,4381

-0,0413

0,1022


-1,4265

-0,9558

1,0089

1,8090


-1,6547

-0,5575

1,7590

-1,2678


-0,9700

-2,1505

1,0089

-0,2571


1,3123

0,6372

-0,5663

-0,9533


-0,0571

0,0398

-0,1163

1,6293


-0,6276

-0,3584

1,3089

1,5844

Z =

1,9970

-0,7567

-0,7163

-0,3470


0,5135

0,0398

0,9339

-0,8860


0,6276

-0,9558

0,4838

-0,3919


1,3123

0,2389

-0,1163

-0,3470


0,3994

-1,3540

0,4088

-0,7288


0,7418

-0,1593

-1,8415

0,1022


1,1982

-0,9558

-1,5414

-0,7512


-0,1712

0,8363

-0,8664

-0,3021


0,0571

1,0354

-1,3914

-0,4593


-0,7418

1,0354

-0,4913

-1,4699


-0,0571

1,6328

-0,4913

1,3598


-0,6276

1,2345

0,2588

1,0454

Используем автоматизированное вычисление  с помощью EXCEL.

Получаем матрицу R:


X1

X2

X3

X5

X1

1,000

-0,066

-0,599

-0,303

X2

-0,066

1,000

-0,304

0,131

X3

-0,599

-0,304

1,000

0,182

X5

-0,303

0,131

0,182

1,000


Тогда матрица Rh:


X1

X2

X3

X5

X1

0,599

-0,066

-0,599

-0,303

X2

-0,066

0,304

-0,304

0,131

X3

-0,599

-0,304

0,599

0,182

X5

-0,303

0,131

0,182

0,303


Находим собственный вектор и собственное число матрицы Rh по матрице Rh, проведя 15 итераций (это легко делается в EXCEL):

a0

b1

a1

b2

a2

b3

a3

b4

a4

b5

1

-0,3502

-1,0000

-0,5413

-1,0000

-1,2238

-1,0000

-1,1646

-1,0000

-1,2244

1

0,0615

0,1757

0,2734

0,5051

0,0628

0,0513

-0,0923

-0,0793

-0,1761

1

-0,1159

-0,3310

0,4198

0,7756

0,9737

0,7957

1,0908

0,9367

1,2014

1

0,1822

0,5202

0,3422

0,6322

0,5938

0,4852

0,5156

0,4427

0,5164


0,3502


0,5413


1,2238


1,1646


1,2244


a5

b6

a6

b7

a7

b8

a8

b9

a9

b10

-1,0000

-1,2397

-0,9983

-1,2452

-0,9904

-1,2382

-0,9872

-1,2355

-0,9860

-1,2344

-0,1438

-0,2102

-0,1692

-0,2242

-0,1783

-0,2281

-0,1819

-0,2296

-0,1833

-0,2303

0,9812

1,2418

1,0000

1,2573

1,0000

1,2543

1,0000

1,2530

1,0000

1,2525

0,4217

0,5125

0,4127

0,5105

0,4060

0,5060

0,4034

0,5042

0,4023

0,5034


1,2418


1,2573


1,2543


1,2530


1,2525


a10

b11

a11

b12

a12

b13

a13

b14

a14

b15

a15

-0,9855

-1,2339

-0,9853

-1,2337

-0,9852

-1,2337

-0,9852

-1,2336

-0,9852

-1,2336

-0,9852

-0,1838

-0,2305

-0,1841

-0,2306

-0,1842

-0,2306

-0,1842

-0,2307

-0,1842

-0,2307

-0,1842

1,0000

1,2523

1,0000

1,2523

1,0000

1,2522

1,0000

1,2522

1,0000

1,2522

1,0000

0,4019

0,5031

0,4018

0,5030

0,4017

0,5030

0,4017

0,5030

0,4017

0,5030

0,4017


1,2523


1,2523


1,2522


1,2522


1,2522




Первый собственный вектор матрицы Rh :


-0,9852

а(1)

-0,1842


1,0000


0,4017


Первое собственное число матрицы Rh   l1 =.1,2522

Тогда

 

 


-0,8383

А1 =

-0,1567


0,8509


0,3418

 

Первичными признаками, наиболее коррелированными с первым фактором, оказываются Х1 и Х3.


Матрица воспроизведенных корреляций: R1 = A1 A1 Т

 


0,7027

0,1314

-0,7133

-0,2865

R1 =

0,1314

0,0246

-0,1334

-0,0536


-0,7133

-0,1334

0,7240

0,2908


-0,2865

-0,0536

0,2908

0,1168

 


Матрица остаточных корреляций: Rh - R1 :

-0,1337

-0,1939

0,1442

-0,0013

-0,1939

0,2643

-0,1555

0,1776

0,1443

-0,1555

-0,1550

-0,1179

-0,0012

0,1776

-0,1179

0,0561

 

Так как на главной диагонали есть отрицательные элементы, то процесс выделения факторов закончен.

Распределение дисперсий:

Переменная

Х1

Общность

h12

Cпецифичность

b12

Характерность

u12 = 1- h12 - b12

1

0,5690

-

0,431

2

0,2889

0,264

0,447

3

0,5690

-

0,431

4

0,1729

0,0561

0,771

Первый выделенный фактор имеет реальное содержание, т.к. охватывает около 31% общей дисперсии (l1/4=1,2522/4=0,313). Первичными признаками, наиболее коррелированными с первым фактором являются Х2 и Х4.

Повторим расчет, оперируя с матрицей, полученной из матрицы Rh - R1 заменой отрицательных значений по главной диагонали на 0:


0

-0,1939

0,1442

-0,0013

Rh1 =

-0,1939

0,2643

-0,1555

0,1776


0,1443

-0,1555

0

-0,1179


-0,0012

0,1776

-0,1179

0,0561

Получаем: l2 =0,5358,


-0,2028

А2 =

0,3993


-0,2147


0,2011


Второй выделенный фактор охватывает около 13,4% общей дисперсии Первичными признаками, наиболее коррелированными с первым фактором являются Х2 и Х3.


Оценим уровни факторов на основе соотношения FT = AT R-1 ZT, где


-0,8383

-0,2028

А =

-0,1567

0,3993


0,8509

-0,2147


0,3418

0,2011

Получаем:


F1

F2


1,5218

0,3791


0,6668

0,3397


2,3558

-0,5348


1,2493

-1,9794


0,8268

-2,2578


-1,6354

0,4250


0,8634

0,7851


1,8735

-0,3220


-1,9749

-0,2073

F =

-0,3883

-0,8299


-0,4996

-1,0885


-1,1314

0,1527


-0,5917

-1,4908


-1,3423

0,9628


-2,0441

-0,1168


-0,3806

0,9356


-0,8542

1,3080


-0,4181

0,3489


0,6781

2,0236


1,2249

1,1669



Рассчитаем корреляцию между Y2, F1, F2.

Наблюдается заметная корреляция между Y2 и F1.



ВЫВОД ИТОГОВ

















Регрессионная статистика








Множественный R

0,682028








R-квадрат

0,465162








Нормированный R-квадрат

0,40224








Стандартная ошибка

56,32234








Наблюдения

20

















Дисперсионный анализ







 

df

SS

MS

F

Значимость F




Регрессия

2

46902,05

23451,03

7,392656

0,004897




Остаток

17

53927,5

3172,206






Итого

19

100829,5

 

 

 













 

Коэффициенты

Стандартная ошибка

t-статистика

P-Значение

Нижние 95%

Верхние 95%

Нижние 95,0%

Верхние 95,0%

Y-пересечение

97,64

12,59406

7,752863

5,58E-07

71,06882

124,2112

71,06882

124,2112

Переменная X 1

37,06145

9,96504

3,719147

0,001705

16,03703

58,08588

16,03703

58,08588

Переменная X 2

-6,12958

11,64509

-0,52637

0,605434

-30,6986

18,43945

-30,6986

18,43945










 

Столбец 1(Y2)

Столбец 2 (F1)

Столбец 3 (F2)






Столбец 1 (Y2)

1








Столбец 2 (F1)

0,675607

1







Столбец 3 (F2)

-0,17318

-0,11912

1








Задание 3. Компонентный анализ.

Для решения задачи компонентного анализа используем метод главных компонент.

Для выделения первой компоненты определяем первый собственный вектор и соответствующее ему собственное число матрицы R коэффициентов корреляции первичных признаков Х:

1,0000

-0,0625

-0,5690

-0,2877

-0,0625

1,0000

-0,2889

0,1240

-0,5690

-0,2889

1,0000

0,1729

-0,2877

0,1240

0,1729

1,0000

 

Находим собственный вектор и собственное число матрицы R. Первый собственный вектор матрицы R:


-0,9961

а(1)

-0,2092


1,0000


0,5943

Первое собственное число матрицы R:   l1 =.1,73.

Тогда для первой компоненты получаем:



-0,64441



-1,1148

С1 =

-0,13544

 

А1 =

-0,2343


0,647014



1,1193


0,384409



0,6650


Матрица воспроизведенных корреляций: R1 = A1 A1 Т


1,2427

0,2612

-1,2478

-0,7413

R1 =

0,2612

0,0549

-0,2622

-0,1558


-1,2478

-0,2622

1,2528

0,7443


-0,7413

-0,1558

0,7443

0,4422


Матрица остаточных корреляций: R1 = R - R1 :

-0,2427

-0,3237

0,6788

0,4536

-0,3237

0,9451

-0,0267

0,2798

0,6788

-0,0267

-0,2528

-0,5714

0,4536

0,2798

-0,5714

0,5578

Находим собственный вектор и собственное число матрицы R1. Собственный вектор матрицы R1:


0,9944

а(2)

0,2119


-1,0000


-0,5918


Собственное число матрицы R1:   l2 =.1,26

Тогда для второй компоненты получаем:


0,644034



0,8117

С2 =

0,137249

 

А2 =

0,1730


-0,64767



-0,8163


-0,38328



-0,4831


Третья компонента дисперсии системы определяется по матрице остаточной корреляции, объясняемой только третьей и четвертой компонентами

 R’’ =R - (A1, A2) (А12)Т


-0,9016

-0,4641

1,3414

0,8457

R’’ =

-0,4641

0,9152

0,1146

0,3634


1,3414

0,1146

-0,9192

-0,9658


0,8457

0,3634

-0,9658

0,3244


Находим собственный вектор и собственное число матрицы R''. Собственный вектор матрицы R’’:


0,9953

а(2)

0,2103


-1,0000


-0,5932


Собственное число матрицы R’’:   l3 =.2,8514

Тогда для третьей компоненты получаем:



0,644259



1,8370

С3 =

0,13613

 

А3 =

0,3882


-0,64727



-1,8456


-0,38398



-1,0949


Аналогично определяем нагрузку четвертой компоненты.


-4,2762

-1,1772

4,7317

2,8571

R’’' =

-1,1772

0,7645

0,8311

0,7885


4,7317

0,8311

-4,3254

-2,9865


2,8571

0,7885

-2,9865

-0,8744


Четвертый  собственный вектор матрицы R:


0,9954

а(4)

0,2103


-1,0000


-0,5933


Собственное число:   l4 =.10,9817.

Тогда для четвертой компоненты получаем:



0,644255



7,0750

С4 =

0,136141

 

А4 =

1,4951


-0,64726



-7,1080


-0,38399



-4,2169


Получаем матрицу С собственных векторов, последовательность собственных чисел и матрицу А – нагрузок компонент:



-0,64441

0,644034

0,644259

0,644255

С =

-0,13544

0,137249

0,13613

0,136141


0,647014

-0,64767

-0,64727

-0,64726


0,384409

-0,38328

-0,38398

-0,38399


l1 =.1, 73;   l2 =.1, 26;  l3 =.2,8514;   l4 =.10,9817.



-1,1148

0,8117

1,8370

7,0750

А =

-0,2343

0,1730

0,3882

1,4951


1,1193

-0,8163

-1,8456

-7,1080


0,6650

-0,4831

-1,0949

-4,2169


Основная доля дисперсии приходится на 1-ю и 2-ю компоненты.

Найдем матрицу F =CT*Z (в матрицу С включаем первые два главных фактора):

F1

F2

1,3409

-1,3387

0,5048

-0,5035

2,3968

-2,3966

1,7925

-1,7955

1,4702

-1,4747

-1,6649

1,6648

0,5825

-0,5805

1,9089

-1,9084

-1,7813

1,7792

-0,0727

0,0709

-0,1126

0,1099

-1,0867

1,0863

-0,0896

0,0859

-1,6086

1,6094

-1,9288

1,9268

-0,6796

0,6814

-1,2538

1,2561

-0,5452

0,5460

0,0205

-0,0156

0,8066

-0,8031


Проводим анализ зависимости между Y2, F1 и F2.

Наблюдается заметная попарная корреляция между Y2, F1 и F2. Коэффициент множественной корреляции 0,681 достаточно близок к 1, что говорит о существенной зависимости между Y2, F1 и F2.

ВЫВОД ИТОГОВ

















Регрессионная статистика








Множественный R

0,680847








R-квадрат

0,463553








Нормированный R-квадрат

0,400442








Стандартная ошибка

56,40698








Наблюдения

20

















Дисперсионный анализ







 

df

SS

MS

F

Значимость F




Регрессия

2

46739,84

23369,92

7,344994

0,005023




Остаток

17

54089,71

3181,748






Итого

19

100829,5

 

 

 













 

Коэффициенты

Стандартная ошибка

t-статистика

P-Значение

Нижние 95%

Верхние 95%

Нижние 95,0%

Верхние 95,0%

Y-пересечение

97,64

12,61298

7,741229

5,69E-07

71,02889

124,2511

71,02889

124,2511

Переменная X 1

2851,765

5215,913

0,546743

0,59166

-8152,86

13856,39

-8152,86

13856,39

Переменная X 2

2814,857

5215,939

0,539664

0,596427

-8189,83

13819,54

-8189,83

13819,54




























 

 

Столбец 1

Столбец 2

Столбец 3

 

 

Столбец 1

1



 

 

Столбец 2

0,674064

1


 

 

Столбец 3

-0,67388

-1

1

 

Задание 4. Дискриминаторный анализ и оптимальная группировка объектов.

В качестве дискриминантных выберем признаки X1, X3, X5, т.к. они наиболее коррелированы с первым фактором.

Номер объекта

X1

X3

X5

1

0,23

0,4

1,23

2

0,24

0,26

1,04

3

0,19

0,4

1,8

4

0,17

0,5

0,43

5

0,23

0,4

0,88

6

0,43

0,19

0,57

7

0,31

0,25

1,72

8

0,26

0,44

1,7

9

0,49

0,17

0,84

10

0,36

0,39

0,6

11

0,37

0,33

0,82

12

0,43

0,25

0,84

13

0,35

0,32

0,67

14

0,38

0,02

1,04

15

0,42

0,06

0,66

16

0,3

0,15

0,86

17

0,32

0,08

0,79

18

0,25

0,2

0,34

19

0,31

0,2

1,6

20

0,26

0,3

1,46


Формируем первую обучающую выборку из объектов 1, 2, 3. Во вторую обучающую выборку включаем объекты 9, 10,11 и проводим дискриминантный анализ с помощью STATISTICA:

Discriminant Function Analysis Summary (040306дискр)

No. of vars in model: 3; Grouping: тип (2 grps)

Wilks' Lambda: ,05672 approx. F (3,2)=11,086 p< ,0839

Wilks'

Partial

F-remove

p-level

Toler.

1-Toler.

X1

0,385608

0,147101

11,59610

0,076475

0,445067

0,554933

X3

0,101641

0,558075

1,58375

0,335226

0,471948

0,528052

X5

0,056932

0,996327

0,00737

0,939395

0,846771

0,153229


Изменим обучающие выборки. Формируем первую обучающую выборку из объектов 2, 3, 4. Во вторую обучающую выборку включаем объекты 9, 12,15 и проводим дискриминантный анализ:

Discriminant Function Analysis Summary (040306äèñêð)

No. of vars in model: 3; Grouping: òèï (2 grps)

Wilks' Lambda: ,05121 approx. F (3,2)=12,353 p< ,0758

Wilks'

Partial

F-remove

p-level

Toler.

1-Toler.

X1

0,328384

0,155931

10,82617

0,081268

0,792848

0,207152

X3

0,051662

0,991159

0,01784

0,905975

0,800074

0,199926

X5

0,055535

0,922034

0,16912

0,720776

0,942281

0,057719


Изменим обучающие выборки. Формируем первую обучающую выборку из объектов 7, 8, 19. Во вторую обучающую выборку включаем объекты 4, 10,18 и проводим дискриминантный анализ:

Discriminant Function Analysis Summary

No. of vars in model: 3; Grouping: (2 grps)

Wilks' Lambda: ,00205 approx. F (3,2)=325,12 p< ,0031

Wilks'

Partial

F-remove

p-level

Toler.

1-Toler.

X1

0,014129

0,144831

11,8092

0,075247

0,116609

0,883391

X3

0,013624

0,150195

11,3160

0,078151

0,131741

0,868259

X5

0,891119

0,002296

868,9418

0,001149

0,105125

0,894875


Минимальное из полученных значений статистики Уилкса равно 0,00205 (для третьей группировки) и близко к 0, что свидетельствует о хорошей дискриминации.

Первая обучающая выборка имеет вид:

Номер объекта

X1

X3

X5

7

0,31

0,25

1,72

8

0,26

0,44

1,7

19

0,31

0,2

1,6


Вектор средних значений по выборке 1:


0,2933

Х1 =

0,2967


1,6733


Вторая обучающая выборка имеет вид:

Номер объекта

X1

X3

X5

4

0,17

0,5

0,43

10

0,36

0,39

0,6

18

0,25

0,2

0,34


Вектор средних значений по выборке 2:


0,2600

Х2 =

0,3633


0,4567


Матрицы отклонений уровней признаков от средних:


0,0167

-0,0467

0,0467

U1 =

-0,0333

0,1433

0,0267


0,0167

-0,0967

-0,0733



-0,0900

0,1367

-0,0267

U2 =

0,1000

0,0267

0,1433


-0,0100

-0,1633

-0,1167


Матрицы внутривыборочных рассеиваний:


0,004641

-0,006

0,001372

U1 =

-0,006

0,022357

-0,01637


0,001372

-0,01637

0,015003



0,0275

-0,00918

-0,01831

U2 =

-0,00918

0,031248

-0,02208


-0,01831

-0,02208

0,040386


Объединенная матрица внутривыборочных  рассеиваний:



0,03214

-0,01518

-0,01694

U = U1 + U2

-0,01518

0,05360

-0,03845


-0,01694

-0,03845

0,05539




-136371,0

-136508,4

-136468,0

U-1 =

-136536,5

-136636,8

-136607,7


-136498,4

-136610,1

-136559,5


Определяем вектор разности средних значений признаков в выборках:



0,0333

1 –  Х2) =

-0,0667


1,2167


Определяем вектор С дискриминантных множителей:



-161476,66

С = U-11 –  Х2) =        

-161643,579


-161585,447


Посредством дискриминантных множителей приводим массив исходных данных к одномерному представлению ( Z ):


X1

X3

X5

Z

1

0,23

0,4

1,23

-300547

2

0,24

0,26

1,04

-248831

3

0,19

0,4

1,8

-386192

4

0,17

0,5

0,43

-177755

5

0,23

0,4

0,88

-243992

6

0,43

0,19

0,57

-192251

7

0,31

0,25

1,72

-368396

8

0,26

0,44

1,7

-387802

9

0,49

0,17

0,84

-242335

10

0,36

0,39

0,6

-218124

11

0,37

0,33

0,82

-245589

12

0,43

0,25

0,84

-245578

13

0,35

0,32

0,67

-216505

14

0,38

0,02

1,04

-232643

15

0,42

0,06

0,66

-184165

16

0,3

0,15

0,86

-211653

17

0,32

0,08

0,79

-192257

18

0,25

0,2

0,34

-127637

19

0,31

0,2

1,6

-340923

20

0,26

0,3

1,46

-326392


Многомерная средняя первой обучающей выборки (объекты 7, 8, 19) равна

Z1 = -365497.

Многомерная средняя второй обучающей выборки (объекты 4, 10, 18) равна  Z2 = -174505,3.

Граница дискриминации:Z дискр.= (Z1 + Z2)/2 = -270001,17.

Итоги дискриминации:

Класс 1 – объекты 1,3,7,8,19,20.

Класс 2 – объекты 2,4,5,6,9,10,11,12,13,14,15,16,17,18.