2.Тип эконометрических данных используемых в эконометрических исследованиях
Эконометрика - это наука, ɣ позволяет осуществить количественное выражение взаимосвязей экономических явлений.
Для оценки кол-ого выражения необходимо построить эконометрическую модель.
Все переменные эконометрической модели делят на экзогенные, эндогенные и предопреленные.
Экзогенные – это переменные, ɣ входят в модель, но задаются как бы из вне, т.е. так называемые независимые переменные.
Эндогенные – определяются самим явлением, для ɣ строится модель.
///В модели они явл предметом объяснения, т.е. зависимости (объясняемыми) переменными. ///
Предопределенными называются переменных выступающие в системе в роли аргументов или так наз объясняющими переменными. Т.е. множество предопределенных переменных состоит из множества экзогенных переменных и так наз лаговых эндогенных переменных.
Лаговые эндогенные - это такие переменных, значение γ входят в изучаемую систему будучи оценены в прошлых периодах .
/// Иначе, в настоящей момент времени мы их считаем известными, заданными переменными. ///
3.Статистическая зависимость (независимых случайных переменных) ковариация
Статистическая зависимость м\у двумя переменными - каждому значению (одному) у соответствует не одно, а множество значений или ряд распределения х.
В силу неоднозначности статистической зависимости между у и х . Особый интерес представляет собой усредненная по х зависимость, и т.е. закономерность в изменении признаковых средних х, а точнее условного мат ожидания (у в зависимости от х)
Мч(у) - Т.е. получим корреляционную зависимость.
Наличие корреляционной зависимости не может ответить на вопрос о причине связи. Корреляция устанавливает лишь меру этой связи, т.е. меру согласованного варьирования.
Меру взаимосвязи м\у 2 мя переменными можно найти с помощью ковариации.
, ,
Величина показателя ковариации зависит от единиц в γ измеряется переменная. Поэтому для оценки степени согласованного варьирования используют коэффициент корреляции – безразмерную характеристику имеющую определенный пределы варьирования..
Основными числовыми характеристиками меры связи м\у переменными явл: парные кофэ-ы корреляции, частные коэф-ы корреляции и множественные коэф-ы корреляции.
/// Последние 2 имеют место если переменных больше 2. ///
Для 2х переменных парный коэффициент корреляции определяется по формуле: , где ; .
5.Основные этапы построения эконометрических моделей
На первом постановочном этапе построения эконометрической модели формируются цели моделирования, определяется набор участвующих в модели факторов, т.е. устанавливается, какие из переменных будут рассматриваться как экзогенные, а какие как эндогенные и лаговые.
Пусть У ={у1 у2 …уm}, множество эндогенных переменных ; Х = {х1 х2 …хm} – множество экзогенных переменных.
Задачей экзогенного моделирования является получение каждой эндогенной переменной от совокупности экзогенных переменных и возможно от части эндогенных.
y1 = f (x1 … xk у2 … уm)
При этом зависимые переменных лаговые.
На 1 ом этапе осуществляется анализ экономической сущности изучаемой модели.
На 3 ем этапе выбор общего вида модели: парная, множественная; сколько должно войти факторов; линейная не линейная; а так же определение коэффициентов функции f.
4 ый этап отбор необходимой статистической информации и предварительный анализ данных.
5 ый этап – идентификация модели, т.е. стат анализ модели, стат оценка независимых параметров модели. Наиболее часто для оценки (нахождения) параметров модели применяют метод наименьших квадратов (МНК)
6 ой этап – сопоставление реальных и модельных значений. Иначе оценка адекватности и точности модели.
По точной и адекватной модели осуществляется прогнозирование.
4.Анализ линейной статистической связи. Вычисление коэффициента корреляции
Основными числовыми характеристиками меры связи м\у переменными явл: парные кофэ-ы корреляции, частные коэф-ы корреляции и множественные коэф-ы корреляции.
/// Последние 2 имеют место если переменных больше 2. /// Для 2х переменных парный коэффициент корреляции определяется по формуле:
, где ; .
Он является показателем тесноты связи лишь в случае линейной зависимости.
Его свойства:
1)
2) - кожф-т корреляции не зависит от выбора начала отсчета
коэф-т корреляции величина безразмерная
если , то это свидетельствует о функциональной зависимости м\у х и у., Если ρ=0, то связи нет. Если , то это свидетельствует о положительном направлении связи, т.е. с ростом одной переменной 2-я так же возрастает, если , направление отрицательное, т.е. с возрастанием одной переменной другая убывает.
В практических расчетах генеральный коэффициент корреляции ρ не известен, его оценивают по результатам выборочного исследования. Точечная оценка ρ, иначе выборочный коэффициент корреляции: .
Для оценки сущ-ти (значимости) коэффициента корреляции ρ (генерального) применяется коэффициент t-статистики. Значение этого критерия tраспр = tнабл определяется по формуле:
Значение вычисленной t-статистики сравнивается с табличным, т.е. критическим значением t. Критическое значение t берется на заданном уровне значимости α и числе степеней свободы n-2/
Выдвигается нулевая гипотеза Н0, что коэф-т корреляции равен нулю. Н0 ρ =0. Вычисляется t расч, сравнивается с tкрит. Если t расч > t крит, то гипотеза Н0 отклоняется, и принимается противоположная гипотеза, т.е. ρ≠0. Если t расч ≤ tкрит, то гипотеза принимается. Как видно из формулы t набл, это t-статистика определяется выборочным коэф-м корреляции и числом наблюдений n, поэтому не трудно для заданного числа степени свободы найти наименьшее значение выборочного коэф-та r, при γ гипотеза Н0 будет отклонена к заданной доверительной вероятностью.
6.Линейная модель парной регрессии. Оценка параметров модели с помощью МНК
Линейная модель парной регрессии есть: у=bх+a+e
b - коэф-т регрессии, показывающий, как изменится у при изменении х на единицу
a - это свободный член, расчетная величина, содержания нет.
e - это остаточная компонента, т.е. случайная величина, независимая, нормально распределенная, мат ожид = 0 и постоянной дисперсией.
Присутствие e в модели свидетельствует о том, что функциональной зависимости м\у у и х нет. На изменение у оказывает влияние не только фактор х, но и какие-то др не учтенные моделью факторы.
Первой задачей регрессионного анализа явл получение значения параметров a и b. Найт этои параметры мы не можем (пришлось бы обследовать ген совокупность), поэтому находим выборочные оценки этих параметров.
ŷ = a + b x
Для нахождения выборочных оценок используем метод НК
решением системы нормальных уравнений будет:
выборочные оценки для ур-я (1)
очевидно, что мин регрессия будет иметь место только в том случае, если , если хi совпадает с .
В этом случае зависимость отсутствует.
7.Оценка существенности (значимости) параметров линейной регрессии
Проведем оценку качества построенной моедли:
А) оценим значимость уравнения регрессии, иначе ответим на вопрос, соответствует построенная математическая модель фактическим данным и достаточна ли выкюч в уравнение х-фактроров для объяснения изменения результативного показателя.
Для проверки значимости модели уравнения регрессии используется F-критерий Фишера по γ вычисляется F расчетное.
,
Fрасч сравнивается с F крит с 2-я степенями свободы: υ1 = n-1, υ2 = n-k-1, где k - кол-во оцениваемых параметров. /k=1/
Если Fрасч > с F крит, то уравнение считается значимым, в противном случае ур-ие не значимо.
Надежность получаемых оценок а и b зависит от ошибки ε.
Нужно найти среднюю квадратическую ошибку
, где
Для значимого ур-я регрессии строят интервальные оценки параметров a и b.
Интервальная оценка параметра a, есть:
Замечание: если интервальные границы в разные по знаку, то такие уравнения в прогнозировании использовать нельзя, т.е. непонятно какое направление.
8.Оценка параметров множественной регрессии МНК
Линейная модель множественной регрессии. У=а0+а1х1+ а2х2+…+ аmхm+e
Параметры определяются с помощью методов наименьших квадратов.
Для этого проведем все рассуждения в матричной форме. Введем следующие матричные обозначения:
;
где У вектор n значений результативного показателя.
Х – матрица n значений m независимых переменных; а матрица параметров
У=Х∙а+ε.
Заметим, что а – выборочные оценки совокупности.
Итак, метод наименьших квадратов требует мин-ии суммы квадратов отклонений исходных модели значений
,
Далее:
Из матричной алгебры известно, что , тогда:
1 – это есть матрица размерностью 1Х1, т.е. число-скаляр, а скаляр при трансформировании не меняется, поэтому Þ
Согласно условию экстремума S по а =0
;
2ХТY+2aXTX=0
XTY=aXTX
Для погашения а умножим обе части этого уравнения на (ХТХ)-1, тогда
а= (XTХ)-1∙XTY
Решение задачи нахождения матицы, а возможно лишь в том случае, если строки и столбцы матрицы Х линейно независимы.
9.Модель множественной регрессии. Технология разработки прогнозов на ПВМ.
Связь между у и независимыми факторами х1, х2, … хn можно охарактеризовать уравнением (моделью) множественной регрессии.
Y=f (х1, х2, … хn).
Эта модель показывает, какие значения в ср принимает результативный показатель У, если переменные Хi примут какие-то свой конкретные значения.
В зависимости от функции f будем иметь линейную или не линейную множественную регрессию.
Тинтером было доказано, что усложнение формы связи м\у хi и у не принципиально влияет на конечные результаты.
Линейная модель множественной регрессии.
У=а0+а1х1+ а2х2+…+ аmхm+e
Параметры определяются с помощью методов наименьших квадратов.
Технология разработки прогнозов на ПВМ.
10. Регрессионные модели с переменной структурой (фиктивные переменные).
При построении регрессионного уравнения используются факторы, являющиеся количественными характеристиками. Иногда требуется ввести в модель регрессии некий качественный фактор. Это могут быть разного рода атрибутивные признаки (пол, образование, принадлежность к какому-либо региону и т.д.). чтобы ввести такие переменные в уравнение, их нужно преобразовать в количественные. Пусть у – цена квартиры, х - общая площадь квартиры, тогда общий вид регрессионного уравнения примет вид, у=а0+а1х. Сконструируем фиктивную переменную, означающую принадлежность квартиры к центральным или периферическим частям города. . Тогда получается уравнение 2-ухфакторной регрессии: y=a0+a1x+a2z. В этом уравнении параметр а2 показывает, на сколько дороже квартира в центре по сравнению с периферией города
11.Многомерный статистический анализ, задачи классификации объектов. Кластерный и дискременантный анализ.
В стат исследованиях группировка первичных данных является основным кные) задача может быть решена методами кластерного анализа, решение отличаются от дв методов многомерной классификации отсутствием обучающих выборок, т.е. ?апрорной? информации о распределении ген совокупности (вектора Х)
Различие между схемами задач по классификации определяется тем, что понимает по словом сходство и степень сходства. После того, как сформулирована цель работы нужно определить критерии качества, целевую функцию, значения γ позволяют сопоставить различные схемы классификаций. В эконометрическом исследовании целевая функция, как правило, должна минимизировать некоторые параметры определенные на множестве объектов (например, при классификации оборудования цель – группировка по мин совокупных затрат вр и средств не ремонтные работы). Если формировать цель не удается, критерием качества классификации является возможность сосредоточительной интерпретации найденных групп.
А) Кластерный анализ - это совокупность методов, позволяющих классифицировать м6ногомерные наблюдения, каждое из кот описывается набором признаков (параметров) Х1, Х2, … Хк. Целью кластерного анализа явл образование групп схожих м/у собой объектов, кот принято называть кластерами.
Кластерный анализ – одно из направлений статистического исследования. Особо важное место он занимает в тех отраслях науки, γ которые связаны с изучением массовых явлений и процессов. Необходимость развития методов кластерного анализа и их использования продиктована тем, что они помогают построить научно обоснованные классификации, выявить внутренние связи м/у единицами наблюдений совокупности. Метод кластерного анализа позволяет решить следующие задачи: проведение классификации объектов с учетом признаков, отражающих сущность, природу объектов. Решение такой задачи, как правило, приводит к углублению знаний о совокупности классифицируемых объектов; проверка выдвигаемых предположений о наличии некоторой структуры в изучаемой совокупности объектов, т.е. поиск существующей структуры; построение новых классификаций для слабоизученных явлений. Когда необходимо установить наличие связей внутри совокупности и попытаться привнести в нее структуру.
Обычная форма представления исходных данных в задачах кластерного анализа прямоугольная таблица:
каждая строка γ представляет собой результат измерений k рассматриваемого признака, на одном из исследуемых объектах.
В некоторых случаях может представлять интерес как группировка объектов, так и группировка признаков.
Матрицы не единственный способ представления данных для задачи кластерного анализа. Иногда исходная информация данная квадратной матрицы: R=(rij), где элемент rij определяет степень близости объекта i к объекту j . Выбор меры близости явл одним из условных моментов исследования. Это может быть обыное эфклидовое расстояние (расстояние м\у двумя точками – сумма квадратов разности одномерных координат)
, где xik или xjk - величина k-ой компоненты у i- ого (j-ого) объекта.
Б) Дискриминантный анализ явл разделом многомерного статистического анализа, который влк в себя методы классификации многомерных наблюдений по принципу максимального сходства при наличии обобщающих признаков. В Д.а. новые кластеры не образуются, а формулируются правило, по кот объекты подмножества подлежащего классификации относятся к одному из уже существующих (обучающих) подмножеств (классов)., на основе сравнения величины дискриминантной функции классифицируемого объекта, рассчитанной по дискриминантным переменным, с некоторой константой дискриминациии.
Постановка задачи дискриминантного анализа. Пусть имеется множество М единиц N объектов наблюдения, каждая i-ая единица кот описывается совокупностью р значений дискириминантных переменных (признаков) xij (i=1, 2, …, N; j =1, 2, …, p). Причем все множество М объектов включает q обучающих подмножеств (q≥2) Mk размером nk каждое и подмножество М0 объектов подлежащих дискриминации (под дискриминацией понимается различие). Здесь – номер подмножества (класса), k=1, 2, …,q.
Требуется установить правило (линейную или не линейную дискриминантную функцию) f(X)) распределения m-объектов подмножества М0 по подмножествам Мk
Наиболее часто используется линейная форма дискриминантной функции, которая представляется в виде скалярного произведения векторов А=(а1, а2, …, ар) дискриминантных множителей и вектора Хi=(xi1, xi2, …xip) дискриминантных переменных: Fi=A x X`i или Fi=a1xi,1+a2xi,2+…+apxi,p (хij – значегие j-x признаков у i –гог объекта наблюдения. Дискриминантный анализ проводится в условиях следующих основных предположений: 1) множество М объектов Мк (класса), кот отличаются от других групп переменными хij , 2) в каждом подмножестве Мк находятся, по крайней мере, два объекта (nk≥2) не менее чем на две единицы; 3) число N объектов наблюдения длжно превышать число р дискриминантных переменных (0<р<N-2) не менее чем на две единицы; 4)линейная независимость м/у признаками (j), т.е. ни один из признаков не должен быть линейной комибинацией др признаков, в противном случае он не несет новой информации; 5) нормальный закон распределения дискриминантных переменных хij (по признакам).
Если приведенные предположения не удовлетворяются, то ставится вопрос о целесообразности использования дискриминантного анализа для классификации новых наблюдений.
12.Многомерный стат анализ задачи снижения размерности. Факторный и компонентный анализ.
В исследовательской и практической работе приходится сталкиваться с ситуацией, когда общее число признаков х1, х2, х3 … хр регистрируемых на каждом из множестве объектов (стран, регионов, семей) очень велико.
Тем не менее имеющиеся многомерные наблюдения следует подвергать статистической выборке (осмыслить, ввести в БВ, для того, чтобы иметь возможность использовать их в нужный момент).
Желание статистика представить любое из наблюдений хi в виде вектора z вспомогательных показателей.
с существенно меньшим, чем число р компонент р` бывает обусловлен следующим причинам:
необходимостью наглядного представления исходных данных, что достигается их проецированием на специально подобранное трехмерное пространство (p`=3) или двухмерное (р`=2) или одномерное (р`=1);
стремлением к локализму исследуемых моделей для упрощения счета и интерпретации полученных выводов;
Ограниченными возможностями человека в одновременном охвате большого числа частных критериев;
Например: в анализе ряда разноспекторных характеристик качества жизни человека. А отсюда, стремление к сверстке информации и этих частных критериев и переходу к интегральному индикатору.
Необходимостью сжатия объемов хранимой информации (стат) в специальной БД. При этом вспомогательные признаки z1 z2 …zр могут вбираться из числа иходных признаков, либо явл их линейными комбинациями.
При формировании новой системы признаков k последним предъявляются разного рода требования, такие как: Наибольшая информативность (в определенном смысле) взаимная некоррелированность
Наименьшее искажение структуры их данных; В зависимости от варианта формальной конкретизации этих требований приходим к тому или иному алгоритму снижения размерности.
Имеется по крайней мер 3 основных тип принципиальных предпосылок, обуславливающих возможность перехода от большего числа р- исходных показателей, состояний исследуемой системы k существенно меньшему р` наиболее информативных переменных: дублирование информации (наличие взаимосвязанных признаков); не информативность (малая вариательность признака при переходе от одного объекта к др); возможность агригорования (т.е. простого суммирования или взаимного по некоторым группам).
Формально задача перехода с наименьшими потерями от р признаков к новому набору р` м.б. описана следующим образом: Пусть Z=Z(x)=Z(Z1 Z2 … Zp`) Некоторая р` -мерная функция от исходных переменных.
И пусть Ур(Z(x)) – определенным образом заданная мера информативности р`-мерной системы признаков: Z= Z(Z1(х) Z2(х) … Zp(х))Т
Конкретный выбор функционально зависит от специфики реально решаемых задач и оперяется на один из возможных критериев.
Критерия автноинформативности нацеленных на мах-ие сохранение информации, содержащейся в исходном массиве xi , относительно самих исходных признаков.
Критерий внешней информативности, нацеленной на мах-ию «выжимания» из хi информации относительно некоторых внешних показателей.
Тот или иной вариант конкретизации этой постановке приводит к конкретному методу снижения размерности, а именно: -методу гл. компонентов; -методу факторного анализа; -метод экстремальной группировке параметров.
Метод гл. компонент.
Во многих задачах обработки многомерных наблюдений и в частности в задачах классификации исследователя интересуют лишь те признаки, γ обнаруживают наибольшую изменчивость при переходе от одного объекта к др. С др стороны не обязательно для описания состояния объекта использовать какие-то из исходных замеренных на нем признаки (например, портной делает М изделий но для покупки достаточно 2 значения : рост и объем груди). Следуя общей оптимальности постановок задачи снижения размерности выражения:
,
можно принять в качестве меры информативности p`-мерной системы показателей. Тогда при любом фиксированном р` вектор Z искомых показателей вспомогательных переменных (новых) определяется как линейная комбинация Z= исходных данных, где - вектор центрированных исходных данных.
- принцип строки, γ удовлетворяет условию ортагональностьи.
Полученных т.о. переменные и называют гл. компонентами.
1-ой гл. компонентой явл та, γ обладает наибольшей дисперсией. Далее компоненты располагаются по мере убывания дисперсей. Вычисление гл. компонент. По исходным статистическим данным получить вектор ср. значений и квалификационную матрицу ∙Σ.
Для определения коэффициентов линейного преобразования, с помощью γ осуществляется переход к главным компонентам необходимо решить харак-ческое уравнение.
где ε – единичная матрица соответствующего порядка, λ=(λ1, λ2, … λр) – собств-ые значения (числа), Σ- сигма.
найти относительные доли суммарной дисперсии, обусловленные этим компонентом
; ; …
К сожалению гл. компонента бывает сложно интерпретировать.
Х1- носит самую большую нагрузку.
Располагая исходными данными и используя уравнение для z1 (меняя значения х) можно посчитать значения 1-ой гл. компоненты для люб измеряемых пр-ий.
Интерпретируем z1 как объясняющую переменную и записываем уравнения хi=f(z1) (уравнение парной регрессии) для люб исходного показателя.
13. Измерение тесноты связи между показателями. Анализ матрицы коэффициентов парной корреляции.
Коэф-т парной линейной корреляции: . Свойства: 1) rx,y находится в инт-ле (-1;1); 2) rx,y>0 – связь прямая, rx,y<0 – связь обратная; 3) - связь тесная, - связь слабая.
Пусть в исследовании используется совокупность переменных у1, х1, х2,…, хm. Для каждой пары можно рассчитать коэф-ты парной линейной корреляции. В результате, получиться матрица коэф-в парной корреляции:
. Эта матрица симметрична относительно главной диагонали, т.е. состоит из двух одинаковых треугольников. Она позволяет выбрать факторы наиболее тесно связанные с интересующей нас величиной, а также установить связь между самими факторами. Как правило, в регрессионной модели нельзя включать факторы, тесно связанные между собой.
28.Интервальная оценка параметров моделей парной регрессии
Для значимого ур-я регрессии строят интервальные оценки параметров a и b.
Интервальная оценка параметра a, есть:
Замечание: если интервальные границы в разные по знаку, то такие уравнения в прогнозировании использовать нельзя, т.е. непонятно какое направление.
15.Оценка влияния факторов на зависимую переменную: коэффициент эластичности и β-коэффициент.
Влияние факторов на зависимую переменную оцениваются с помощью коэффициентов эластичности и β-коэффициентов.
Он показывает на сколько % увеличится результативный показатель У при увеличении соответствующего j-ого фактора на 1%.
, где
и
он показывает на какую величину своего среднего квадратического отклонения изменится результативный показатель У при увеличении соответствующего j-ого фактора на 1-о свое среднеквадратическое отклонение.
29. Измерение тесноты связи между показателями. Мультиколлинеарность и способы ее устранения.
Пусть в исследовании используется совокупность переменных у1, х1, х2,…, хm. Для каждой пары можно рассчитать коэф-ты парной линейной корреляции. В результате, получиться матрица коэф-в парной корреляции:
. Эта матрица симметрична относительно главной диагонали, т.е. состоит из двух одинаковых треугольников. Она позволяет выбрать факторы наиболее тесно связанные с интересующей нас величиной, а также установить связь между самими факторами. Как правило, в регрессионной модели нельзя включать факторы, тесно связанные между собой.
Одним из условий регрессионной модели явл-ся предположение о линейной независимости объясняющих переменных, т.е. решение задачи возможно лишь тогда, когда столбцы и строки матрицы исходных данных линейно независимы. Для экон. показателей это условие выполняется не всегда. Линейная или близкая к ней связь между факторами называется мультиколлинеарностью и приводит к линейной зависимости нормальных уравнений, что делает вычисление параметров либо невозможными, либо затрудняет содержательную интерпретацию параметров модели. Считают явление мультик-ти в исходных данных установленным, если коэф-т парной корреляции между 2-мя переменными больше 0,8. Чтобы избавиться от мультик-ти, в модель включают лишь один из линейно связанных между собой факторов, причем тот, который в большей степени связан с зависимой переменной. В качестве критерия мультик-ти может быть принято соблюдение следующих неравенств: ryxi>rxixk, ryxk>rxixk, rxixk<0,8. если приведенные неравенства (или хотя бы одно из них) не выполняется, то в модель включают тот фактор, который наиболее тесно связан с у.
27.Интервальные прогнозы по линейному уравнению парной регрессии.
В прогнозных расчетах по уравнению регрессии определяется предсказываемое (ур) значение как точечный прогноз ýх при хр =хк, т.е. путем подстановки в уравнение регрессии ýх=а+bx соответствующего значения х. Однако точечный прогноз явно не реален. Поэтому он дополняется расчетом стандартной ошибки ýх, т.е. u и соответственно интервальной оценкой прогнозного значения (у*)
где u рассчитывается по формуле: , где -средная квадратиче6ская ошибка, t(кр) берется из таблицы T-критерия Стьюдента с заданной доверительной вероятностью и степенью свободы.
16. Обобщенный МНК.
При нарушении гомоскедастичности рекомендуется традиционный МНК заменять обобщенным МНК. Обобщенный МНК применяется к преобразованным данным и позволяет получать оценки, которые обладают не только свойством несмещенности, но и имеют меньшие выборочные дисперсии.
Предположим, что среднее значение остаточных величин равно нулю. А вот дисперсия их не остается неизменной для разных значений фактора, а пропорциональна величине Кi, т.е. , где - дисперсия ошибки при конкретном i-ом значении фактора, - постоянная дисперсия ошибки при соблюдении предпосылки о гомоскедастичности остатков; Кi – коэф-т пропорциональности, меняющийся с изменением величины фактора, что и обусловливает неоднородность дисперсии.
При этом предполагается, что неизвестна, а в отношении величины К выдвигаются определенные гипотезы, характеризующие структуру гетероскедастичности.
В общем виде для уравнения при , модель примет вид: .
В ней остаточные величины гетероскедастичны. Предполагая в них отсутствие автокорреляции, можно перейти к уравнению с гомоскедастичными остатками, поделив все переменные, зафиксированные в ходе i-ого наблюдения на . Тогда дисперсия остатков будет величиной постоянной, т.е. .
Иными словами, от регрессии у по х мы перейдем к регрессии на новых переменных: и .
Уравнение регрессии примет вид: .
По отношению к обычной регрессии уравнение с новыми, преобразованными переменными представляет собой взвешенную регрессию, в которой переменные у и х взяты с весами .
Оценка параметров нового уравнения с преобразованными переменными приводит к взвешенному МНК, для которого необходимо минимизировать сумму квадратов отклонений вида: .
Соответственно получим следующую систему нормальных уравнений:
Если преобразованные переменные х и у взять в отклонениях от средних уровней, то коэф-т регрессии b можно определить как .
При обычном применении МНК к уравнению линейной регрессии для переменных в отклонениях от средних уровней коэф-т регрессии b определяется по формуле: .
Как видим, при использовании обобщенного МНК с целью корректировки гетероскедастичности коэф-т регрессии b представляет собой взвешенную величину по отношению к обычному МНК с весами 1/К.
17.Анализ эконометрических объектов и прогнозирование с помощью модели множественной регрессии.
По полученной, адекватной и точной моедли можно строить точечный и интервальный прогноз.
Прогнозное значение факторных показателей Хj можно поучить:
А) построив уравнение тренда (если он есть)
Б) либо применить адаптивную модель Брауна, если предпочтения надо отдать последним данным (при отсутствии сезонности).
В) либо построив адаптивную модель Хольтст-Уильтерса – если есть сезонность (и курс)
Г) либо применив метод экспериментальных оценок (и курс?)
Д) Поучив обобщенный прогноз по всем вышеперечисленным моделям с учетом коэффициента важности.
Подставив точечный прогноз фактора Хj в модель получим точечный прогноз результативного показателя У. Вероятность того, что от сбудется =0, поэтому необходимо построить доверительный интервал, в γ с заданной доверительной вероятностью р попадет прогнозное значение. Ширина доверительного интервала
, где Sm – ср квадрат ошибка модели
; ,
19. Системы линейных одновременных уравнений (СОУ). Взаимозависимые и рекурсивные системы.
Регрессионное уравнение устанавливает зависимость одной величины от совокупности факторов. Как правило, нас может интересовать целый ряд величин у1, у2, у3…, которые зависят как от факторов, так и между собой. Для отображения такой паутины взаимосвязей используются системы уравнений. Они бывают 3 видов: 1. системы независимых уравнений; 2. рекурсивные системы; 3. системы взаимозависимых уравнений.
Рекурсивные системы:
Первое уравнение в таких системах является моделью множественной регрессии. В каждом последующем будут содержаться как все независимые факторы, так и зависимые переменные, оцененные ранее (предопределенные). Такие системы могут использоваться для анализа производительности труда и фондоотдачи.
Системы взаимозависимых уравнений: Эти системы используют для анализа динамики цены и зарплаты.
25.Множественная корреляция и частичная корреляция
Эк явления как правило определяются большими числами одновременно и совокупно действующих факторов. В связи с этим возникает задача исследования зависимости одной (или нескольких) переменных у от совокупности переменных (х1 х2 … хm). В таком случае для измерения тесноты связи м\у У и факторными признаками хj (j =1 … n) используют множественных коэффициент корреляции.
Для этого используют матрицу парных коэффициентов корреляции м\у всеми рассматриваемыми переменными.
По этой матрице вычисляется множественный коэффициент корреляции, отражающий тесноту связи м/у Y и всеми остальными факторами.
, где R – алгебраические дополнения к соответствующим коэффициентам.
Частный коэффициент корреляции устанавливается зависимость м\у j-ым и k-ым фактором при исключении остальных.
21. Предпосылки МНК.
Основную информацию для анализа качества регрессионного уравнения можно получить из ряда остатков. Иногда только по одному графику остатков можно судить о качестве аппроксимации. Остатки модели должны обладать опр. свойствами: несмещенность, состоятельность, эффективность. На практике проверка этих свойств сводится к проверке 5 предпосылок МНК: 1.случайный характер остатков (критерий поворотных точек), 2.независимость уровней в ряде остатков (d-критерий Дарбина-Уотсона), 3.соответствие ряда остатков нормальному закону распределения(RS-критерий), 4.равенство 0 мат. ожидания остатков, 5.гомоскедастичность остатков.
1.Свойство случайности проверяется с помощью критерия поворотных точек или критерия пиков. Уровень в ряде остатков называется поворотной точкой, если он одновременно больше или одновременно меньше 2-ух соседних с ним уровней. Точкам поворота приписывают значения 1, остальным – 0. Свойство случайности выполняется, если количество поворотных точек справа означает, что от выражения внутри них нужно взять целую часть. n – количество уровней в ряде.
2.Для проверки свойства независимости (отсутствие автокорреляции) уровней в ряде остатков используют d-критерий Дарбина-Уотсона. В начале рассчитывают величину d по формуле:. Для этого критерия задаются 2 таблич. границы d1 и d2.
3.Для проверки соответствия ряда остатков нормальному закону распределения используют RS-критерий: RS =(Emax-Emin)/SE. Emax и Emin- соотв. наибольшее и наименьшее значения уровней в ряде остатков. SE- СКО. Если значение RS попадает в табличный интервал, то ряд остатков распределен по норм. закону.
5.Гомоскедастичность – постоянство дисперсии остатков по отношению к фактическим значениям фактора или показателя. Остатки называются гомоскедастичными, если они сосредоточены в виде горизонтальной полосы около оси xi, в противном случае остатки называют гетероскедастичными. Для исследования гомоскедастичности применяются различные тесты. Один из них называется тест Голдфельда-Квандта: 1) Упорядочение значений показателя у по степени возрастания фактора х. 2) Из упорядоченной совокупности убирают несколько «с» центральных значений: , р – число оцениваемых в модели параметров. В результате, получается 2 совокупности данных, в одной из них значения фактора будет наименьшими, а в другой – наибольшими. 3) Для каждой совокупности строят модель регрессии, по которой находят остатки: . Пусть S1 – большая сумма квадратов ошибок, а S2 – меньшая. 4) Определим отношение . 5) Полученное значение R сравнивают с табличным значением F-критерия Фишера. Если Fтабл<R, то предпосылка о гомоскедастичности нарушена. Чем больше R по отношению к Fтабл, тем более нарушена данная предпосылка. .
23.Модель множественной регрессии. Выбор вида модели и оценка ее параметров
Связь между у и независимыми факторами х1, х2, … хn можно охарактеризовать уравнением (моделью) множественной регрессии.
Y=f (х1, х2, … хn).
Эта модель показывает, какие значения в ср принимает результативный показатель У, если переменные Хi примут какие-то свой конкретные значения.
В зависимости от функции f будем иметь линейную или не линейную множественную регрессию.
Тинтером было доказано, что усложнение формы связи м\у хi и у не принципиально влияет на конечные результаты.
Линейная модель множественной регрессии.
У=а0+а1х1+ а2х2+…+ аmхm+e
Параметры определяются с помощью методов наименьших квадратов.
Для этого проведем все рассуждения в матричной форме. Введем следующие матричные обозначения:
;
где У вектор n значений результативного показателя.
Х – матрица n значений m независимых переменных; а матрица параметров
У=Х∙а+ε.
Заметим, что а – выборочные оценки совокупности.
Итак, метод наименьших квадратов требует мин-ии суммы квадратов отклонений исходных модели значений,
Далее:
Из матричной алгебры известно, что , тогда:
1 – это есть матрица размерностью 1Х1, т.е. число-скаляр, а скаляр при трансформировании не меняется, поэтому Þ
Согласно условию экстремума S по а =0
;
2ХТY+2aXTX=0
XTY=aXTX
Для погашения а умножим обе части этого уравнения на (ХТХ)-1, тогда
а= (XTХ)-1∙XTY
Решение задачи нахождения матицы, а возможно лишь в том случае, если строки и столбцы матрицы Х линейно независимы.
22. Модель множественной регрессии. Построение системы показателей-факторов.
Модель парной регрессии устанавливает зависимость интересующей нас величины только от 1-го фактора. В экономике эта ситуация абстрактная. На показатель влияет целая совокупность факторов. Если использовать линейную математическую функцию, то в этом случае модель множественной регрессии примет вид yi=a0+a1xi1+a2xi2+a3xi3+…+amxim+ei. Каждый из параметров модели аi показывает, на сколько меняется исследуемая величина у при изменении соответствующего фактора на 1 единицу. Эта модель универсальна в том смысле, что позволяет установить зависимость показателя, как от всей совокупности факторов, так и от каждого из них в отдельности. Эта модель применяется при изучении проблем спроса, функции доходности акции, функции издержек производства, функции прибыли и т.д.
Построение системы показателей-факторов. При построении системы факторов необходимо соблюдать следующие условия: 1) должны быть количественно измеримы; 2) теоретически обоснованы; 3) линейно независимы друг от друга; 4) одна модель не должна включать в себя совокупный фактор и факторы его образующие; 5) тесно связаны между собой. Для реализации 5-го требования строят матрицу коэф-в парной корреляции. На основании этой матрицы выбирают те факторы, связь которых с величиной наиболее тесная. Затем проверяют наличие мультиколлинеарности (МК) факторов. Два фактора МК, если . МК факторы нельзя включать в одну модель, нужно выбрать один из них или заменить оба совокупной функцией
24.Проверка качества многофакторных регрессионных моделей.
Качество модели, т.е. ее адекватность и точность проверяется с помощью d-критерия – критерия независимости последних уровней остаточной компоненты.
если (d`)dp[1.36;2,0), то остаточные компоненты не коррелированы.
если (d`)dp>2, то переходим к d`=4 - dp
если (d`)dp[1.08;1,36), то используют
; Þ ………………………………..
Далее критические повороты точек (о случайности значений остаточной компоненты)
При использовании поворотных точек следует обратить особое внимание на сущ-ие аномальных значение εi .
Если какие-то значения εi .явл аномальными, то соответствующие I-ое наблюдение из данных надо убрать.
Далее R/S-критерий ///соответствие распределения остаточной компоненты по нормальному закону///.
, если R/Sрасч принадлежит соответствующему интервалу (критические значения R/S стр 72 методички эконометрика), то остаточная компонента распределена по нормальному закону. При выполнении всех критериев модель адекватна.
Точность модели можно оценить с помощью средней относительной ошибки.
Þ модель точна и ее можно использовать в прогнозировании.
Влияние факторов на зависимую переменную оцениваются с помощью коэффициентов эластичности и β-коэффициентов.
Он показывает на сколько % увеличится результативный показатель У при увеличении соответствующего j-ого фактора на 1%.
, где
и
он показывает на какую величину своего среднего квадратического отклонения изменится результативный показатель У при увеличении соответствующего j-ого фактора на 1-о свое среднеквадратическое отклонение.
26.Нелинейная регрессия. Нелинейная модель и их линеаризация.
Различают 2 класса нелинейных регрессий:
-регрессии нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам;
-регрессии, нелинейные по включенным параметрам.
Примером нелинейной регрессии по включаемым в нее объясняющим переменным могут слуюить следующие функции:
Полиномы разных степеней: y=a+bx+cx2+ε, y=a+bx+cx2+dx3+ ε;
Равносторонняя гипербола:
К нелинейным регрессиям по оцениваемым параметрам относятся функции:
Степенная y=axb ε
Показательная y=abx ε
Экспоненциальная у=уa+bx ε
Линеаризация нелинейной модели представляет собой преобразование используемой модели в линейную путем замены переменных на нестепенные.
Так, в параболе второй степени у=а0+а1х+а2х2+ ε заменяя переменные х=х1, х2=х2, получим двухфакторное уравнение линейной регрессии: у=а0+а1х1+а2х2+ ε, для оценки параметров Ã используется МНК.
Соответственно для полинома третьего порядка y=a+bx+cx2+dx3+ ε при замене х=х, х2=х2, х3=х3,, получим трехфакторную модель линейной регрессии: у=а0+а1х1+а2х2+ а3х3 + ε
Название ф-ии |
Вид модели |
Заменяемые переменные |
Вид линеаризированной модели |
Показательная |
Ln y = Ln a+ х ln b |
Ln y = Y, Ln a = α, Ln b =β |
Y = a + xbα+x β (Þ a=eα, b=eβ) |
Степенная |
Ln y = Ln a+ b ln x |
Ln y = Y, Ln a = α, Ln x =x |
Y = a + bxα+bx |
гиперболическая |
Y = a + b/x |
1/x=X |
Y = a +b X |
1.Классификация эконометрических моделей
Эконометрические модели делятся на линейные и нелинейные.
Линейная модель парной регрессии имеет вид: у=bх+a+e
b - коэф-т регрессии, показывающий, как изменится у при изменении х на единицу
a - это свободный член, расчетная величина, содержания нет.
e - это остаточная компонента, т.е. случайная величина, независимая, нормально распределенная, мат ожид = 0 и постоянной дисперсией.Присутствие e в модели свидетельствует о том, что функциональной зависимости м\у у и х нет. На изменение у оказывает влияние не только фактор х, но и какие-то др не учтенные моделью факторы.
Первой задачей регрессионного анализа явл получение значения параметров a и b. Найти эти параметры мы не можем (пришлось бы обследовать ген совокупность), поэтому находим выборочные оценки этих параметров.
ŷ = a + b x
Для нахождения выборочных оценок используем метод НК
решением системы нормальных уравнений будет:
выборочные оценки для ур-я (1)
очевидно, что мин регрессия будет иметь место только в том случае, если . если хi совпадает с в этом случае зависимость отсутствует.
Нелинейная модель. уравнение зависимости между Уи Х может быть представлено степенной функцией У от Х, , показательной , гиперболической и д.р.
Для оценки параметров в этих случаях метод наименьших квадратов можно применять после логарифмирования, либо после введения новой переменной.
Для показательной функции:
ln y=ln a+x ln b
Y α β
Y = α + х β Þ а = еα; b=еβ
для степенной функции
ln y=ln a+b ln x
Y α X
Y = α + β
Для гиперболической функции
у=а+b/x
1/х=Х
У=а+bХ