Шпоры по эконометрике

1. СПЕЦИФИКАЦИЯ МОДЕЛИ

Простая регрессия представляет собой регрессию между двумя переменными —у и х, т.е. модель вида , где у — результативный признак; х - признак-фактор.

Множественная регрессия представляет собой регрессию результативного признака с двумя и большим числом факторов, т. е. модель вида

Специ­фикация модели - формулировка вида модели, исходя из со­ответствующей теории связи между переменными. В урав­нении регрессии корреляционная по сути связь признаков представляется в виде функциональной связи, выраженной соответствующей математической функцией. где yj фактическое значение результативного признака;

yxj -теоретическое значение результативного признака.

— случайная величина, характеризующая отклонения реального значения результативного признака от теоретического.

Случайная величина ε называется также возмущением. Она включает влияние не учтенных в модели факторов, случайных ошибок и особенностей измерения.

От правильно выбранной спецификации модели за­висит величина случайных ошибок: они тем меньше, чем в боль­шей мере теоретические значения результативного признака подходят к фактическим данным у.

К ошибкам спецификации относятся непра­вильный выбор той или иной математической функции для, и недоучет в уравнении регрессии какого-либо существенного фактора, т. е. использование парной регрессии вместо множест­венной.

Ошиб­ки выборки - исследователь чаще всего имеет дело с выборочными данными при установлении закономерной связи между признаками.

Ошибки измерения практически сводят на нет все усилия по количественной оценке связи между признаками. Основное внимание в эконометрических исследованиях уделяется ошибкам спецификации модели.

В парной регрессии выбор вида математической функции может быть осуществлен тремя методами: графическим, аналитическим и экспериментальным.

Графи­ческий метод основан на поле корреляции. Аналитический метод основан на изучении материальной природы связи исследуемых признаков.

Экспериментальный метод осуществляется путем сравнения величины остаточной дисперсии Dост, рассчитанной при разных моделях. Если фактические значения результативного признака совпадают с теоретическими у =, то Docm =0. Если имеют место отклонения фактических данных от теоретических (у ) то .

Чем меньше величина остаточной дисперсии, тем лучше уравнение регрессии подходит к исходным данным. Число наблюдений должно в 6 — 7 раз превышать число рассчитывае­мых параметров при переменной х.


2 ЛИНЕЙНАЯ РЕГРЕССИЯ И КОРРЕЛЯЦИЯ: СМЫСЛ И ОЦЕНКА ПАРАМЕТРОВ.

Линейная регрессия сводится к нахождению уравнения вида или .

Уравнение вида позволяет по заданным значениям фактора x иметь теоретические значения результативного признака, подставляя в него фактические значения фактора х.

Построение линейной регрессии сводится к оценке ее пара­метров а и в.

Оценки параметров линейной регрессии могут быть найдены разными методами.

1.

2.

Параметр b называется коэффициентом регрессии. Его вели­чина показывает среднее изменение результата с изменением фактора на одну единицу.

Формально а — значение у при х = 0. Если признак-фактор
не имеет и не может иметь нулевого значения, то вышеуказанная
трактовка свободного члена, а не имеет смысла. Параметр, а может
не иметь экономического содержания. Попытки экономически
интерпретировать параметр, а могут привести к абсурду, особенно при а < 0.

Интерпретировать можно лишь знак при параметре а. Если а > 0, то относительное изменение результата происходит медленнее, чем изменение фактора.

Уравнение регрессии всегда дополняется показателем тесноты связи. При использовании линейной регрессии в качестве такого показателя выступает линейный коэффициент корреляции rxy. Существуют разные модификации формулы линейного коэф­фициента корреляции.

Линейный коэффициент корреляции находится и границах: -1≤.rxy ≤ 1. При этом чем ближе r к 0 тем слабее корреляция и наоборот чем ближе r к 1 или -1, тем сильнее корреляция, т.е. зависимость х и у близка к линейной. Если r в точности =1или -1 все точки лежат на одной прямой. Если коэф. регрессии b>0 то 0 ≤.rxy ≤ 1 и наоборот при b<0 -1≤.rxy ≤0. Коэф. корреляции отражает степени линейной зависимости м/у величинами при наличии ярко выраженной зависимости др. вида.

Для оценки качества подбора линейной функции рассчитывается квадрат линейного коэффициента корреляции , называемый коэффициентом детерминации. Коэффициент детермина­ции характеризует долю дисперсии результативного признака y, объясняемую регрессией. Соответствующая величина характеризует долю дисперсии у, вызванную влиянием остальных не учтенных в модели факторов.


3. МНК.

МНК позволяет получить такие оценки параметров а и b, которых сумма квадратов отклонений фактических значений ре­зультативного признака (у) от расчетных (теоретических) ми­нимальна:

Иными словами, из всего множества линий линия регрессии на графике выбирается так, чтобы сумма квадратов расстояний по вертикали между точками и этой линией была бы минималь­ной. Решается система нормальных уравнений


4. ОЦЕНКА СУЩЕСТВЕННОСТИ ПАРАМЕТРОВ ЛИНЕЙНОЙ РЕГРЕССИИ И КОРРЕЛЯЦИИ.

Оценка значимости уравнения регрессии в целом дается с по­мощью F-критерия Фишера. При этом выдвигается нулевая ги­потеза, что коэффициент регрессии равен нулю, т. е. b = 0, и следовательно, фактор х не оказывает влияния на результат у.

Непосредственному расчету F-критерия предшествует анализ дисперсии. Центральное место в нем занимает разложе­ние общей суммы квадратов отклонений переменной у от средне го значения у на две части - «объясненную» и «необъясненную»:

- общая сумма квадратов отклонений

- сумма квадратов отклонения объясненная регрессией - остаточная сумма квадратов отклонения.


Любая сумма квадратов отклонений связана с числом степе­ней свободы, т. е. с числом свободы независимого варьирования признака. Число степеней свободы связано с числом единиц совокупности nис числом определяемых по ней констант. Применительно к исследуемой проблеме число cтепеней свободы должно показать, сколько независимых откло­нений из п возможных требуется для образования данной суммы квадратов.

Дисперсия на одну степень свободы D.

F-отношения (F-критерий):

Ecли нулевая гипотеза справедлива, то факторная и остаточная дисперсии не отличаются друг от друга. Для Н0 необходимо опровержение, чтобы факторная дисперсия превышала остаточную в несколько раз. Английским статистиком Снедекором раз­работаны таблицы критических значений F-отношений при разных уровнях существенности нулевой гипотезы и различном числе степеней свободы. Табличное значение F-критерия — это максимальная величина отношения дисперсий, которая может иметь место при случайном их расхождении для данного уровня вероятности наличия нулевой гипотезы. Вычисленное значение F-отношения признается достоверным, если о больше табличного. В этом случае нулевая гипотеза об отсутствии связи признаков отклоняется и делается вывод о существенности этой связи: Fфакт > Fтабл Н0 отклоняется.

Если же величина окажется меньше табличной Fфакт ‹, Fтабл , то вероятность нулевой гипотезы выше заданного уровня и она не может быть отклонена без серьезного риска сделать неправильный вывод о наличии связи. В этом случае уравнение регрессии считается статистически незначимым. Но не отклоняется.

Стандартная ошибка коэффициента регрессии

Для оценки существенности коэффициента регрессии его ве­личина сравнивается с его стандартной ошибкой, т. е. определяется фактическое значение t-критерия Стьюдентa: которое

затем сравнивается с табличным значением при определенном уровне значимости и числе степеней свободы (n- 2).

Стандартная ошибка параметра а:

Значимость линейного коэффициента корреляции проверя­ется на основе величины ошибки коэффициента корреляции тr:

Общая дисперсия признака х:

Коэф. регрессии Его величина показывает ср. изменение результата с изменением фактора на 1 ед.

Ошибка аппроксимации:


5. ИНТЕРВАЛЫ ПРОГНОЗА ПО ЛИНЕЙНОМУ УРАВНЕНИЮ

РЕГРЕССИИ

Оценка стат. значимости параметров регрессии проводится с помощью t – статистики Стьюдента и путем расчета доверительного интервала для каждого из показателей. Выдвигается гипотеза Н0 о статистически значимом отличие показателей от 0 a = b = r = 0. Рассчитываются стандартные ошибки параметров a,b, r и фактич. знач. t – критерия Стьюдента.

Определяется стат. значимость параметров.

ta ›Tтабл - a стат. значим

tb ›Tтабл - b стат. значим

Находятся границы доверительных интервалов.

Анализ верхней и нижней границ доверительных интервалов приводит к выводу о том, что параметры a и b находясь в указанных границах не принимают нулевых значений, т.е. не явл.. стат. незначимыми и существенно отличается от 0.


6. НЕЛИНЕЙНАЯ РЕГРЕССИЯ. ВИДЫ МОДЕЛЕЙ

Если между экономическими явлениями существуют нели­нейные соотношения, то они выражаются с помощью соответ­ствующих нелинейных функций: например, равносторонней ги­перболы , параболы второй степени и д.р.

Различают два класса нелинейных регрессий:

регрессии, нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым па­раметрам;

• регрессии, нелинейные по оцениваемым параметрам.
Примером нелинейной регрессии по включаемым в нее объ­ясняющим переменным могут служить следующие функции:

  • полиномы разных степеней

  • равносторонняя гипербола

К нелинейным регрессиям по оцениваемым параметрам от­носятся функции:

  • степенная

  • показательная

  • экспоненциальная


7. СМЫСЛ КОЭФФИЦИЕНТА РЕГРЕССИИ.

Параметр b называется коэффициентом регрессии. Его вели­чина показывает среднее изменение результата с изменением фактора на одну единицу. Оценку коэффициента регрессии можно получить не обращаясь к методу наименьших квадратов. Альтернативную оценку параметра b можно найти исходя из содержания данного коэффициента: изменение результата сопоставляют с изменением фактора

Общая сумма квадратов отклонений индивидуальных значений результативного признака у от среднего значения вызвана влиянием множества причин. Условно разделим всю совокупность причин на две группы: изучаемый фактор х и прочие факторы.

Если фактор не оказывает влияния на результат, то линия регрес­сии на графике параллельна оси ох и .Тогда вся дисперсия результативного признака обусловлена воздействием прочих факторов и общая сумма квадратов отклонений совпадет с остаточной. Если же прочие факторы не влияют на результат, то у связан с х функционально и остаточная сумма квадратов равна нулю. В этом случае сумма квадратов отклонений, объясненная регрессией, совпадает с общей суммой квадратов.

Поскольку не все точки поля корреляции лежат на линии регрессии, то всегда имеет место их разброс как обусловленный вли­янием фактора х, т. е. регрессией у по х, так и вызванный действием прочих причин (необъясненная вариация). Пригод­ность линии регрессии для прогноза зависит от того, какая часть общей вариации признака у приходится на объясненную вариа­цию

Очевидно, что если сумма квадратов отклонений, обусловленная регрессией, будет больше остаточной суммы квадратов, то уравнение регрессии статистически значимо и фактор х оказывает существенное воздействие на результат у

Любая сумма квадратов отклонений связана с числом степе­ней свободы , т. е. с числом свободы независимого варьирования признака. Число степеней свободы связано с числом единиц совокупности n ис числом определяемых по ней констант. Применительно к исследуемой проблеме число степеней свободы должно показать, сколько независимых откло­нений из п возможных требуется для образования данной суммы квадратов.


8. ПРИМЕНЕНИЕ МНК К МОДЕЛЯМ НЕЛИНЕЙНЫМ ОТНОСИТЕЛЬНО ВКЛЮЧАЕМЫХ ПЕРЕМЕННЫХ И ОЦЕНИВАЕМЫХ ПАРАМЕТРОВ.

Нелинейная регрессия по включенным переменным не таит каких-либо сложностей в оценке ее параметров. Она определяет­ся, как и в линейной регрессии, методом наименьших квадратов (МНК), ибо эти функции линейны по параметрам. Так, в парабо­ле второй степени y=a0+a1x+a2x2+ε заменяя переменные x=x1,x2=x2, получим двухфакторное урав­нение линейной регрессии: у=а01х12х2+ ε

Парабола второй степени целесообразна к применению, если для определенного интервала значений фактора меняется харак­тер связи рассматриваемых признаков: прямая связь меняется на обратную или обратная на прямую. В этом случае определяется значение фактора, при котором достигается максимальное (или минимальное), значение результативного признака: приравнива­ем к нулю первую производную параболы второй степени: , т.е. b+2cx=0 и x=-b/2c

Применение МНК для оценки параметров параболы второй степени приводит к следующей системе нормальных уравнений:

Решение ее возможно методом определителей:


В моделях, нелинейных по оцениваемым параметрам, но приводимых к линейному виду, МНК применяется к преобразо­ванным уравнениям. Если в линейной модели и моделях, нели­нейных по переменным, при оценке параметров исходят из кри­терия min, то в моделях, нелинейных по оцениваемым параметрам, требование МНК применяется не к исходным дан­ным результативного признака, а к их преобразованным величи­нам, т. е.ln y, 1/y. Так, в степенной функции МНК применяется к преобразованному уравнению lny = lnα + β ln x ln ε. Это значит, что оценка параметров основывается на миними­зации суммы квадратов отклонений в логарифмах. Соответственно если в линейных моделях то в моделях, нелинейных по оцениваемым параметрам, . Вследствие этого оценка параметров оказываются несколько смещенной.


9. КОЭФФИЦИЕНТЫ ЭЛАСТИЧНОСТИ ПО РАЗНЫМ ВИДАМ РЕГРЕССИОННЫХ МОДЕЛЕЙ.

  1. Линейная y = a + bx + , y′ = b, Э = .

  2. Парабола 2 порядка y = a +bx + c +, y′ = b + 2cx, Э = .

  3. Гипербола y = a+b/x +, y′=-b/, Э = .

  4. Показательная y=a, y′ = ln , Э = x ln b.

  5. Степенная y = a, y′ = , Э = b.

  6. Полулогарифмическая y = a + b ln x +ε , y′ = b/x , Э = .

  7. Логистическая , y′ = , Э = .

  8. Обратная y = , y′ = , Э = .


10 ПОКАЗАТЕЛИ КОРРЕЛЯЦИИ

  1. индекс корреляции (R):

Величина данного показателя находится в границах: 0 ≤ R1, чем ближе к 1, тем теснее связь рассматриваемых призна­ков, тем более надежно найденное уравнение регрессии.

  1. индекс детерминации используется для проверки существенности в целом ур-ия нелинейной регрессии по F- критерию Фишера:

, где R2- индекс детерминации, n- число наблюдений, m – число параметров при переменной х.


11. МНОЖЕСТВЕННАЯ РЕГРЕССИЯ. СПЕЦИФИКАЦИЯ МОДЕЛИ. ОТБОР ФАКТОРОВ ПРИ ПОСТРОЕНИИИ МОДЕЛИ.

Регрессия может дать хороший результат при модели­ровании, если влиянием других факторов, воздействующих на объект исследования, можно пренебречь. Поведение отдельных экономи­ческих переменных контролировать нельзя, т. е. не удается обес­печить равенство всех прочих условий для оценки влияния одно­го исследуемого фактора. В этом случае следует попытаться выявить влияние других факторов, введя их в модель, т. е. пост­роить уравнение множественной регрессии: y=a+b1x1+b2+…+bpxp+e; Такого рода уравнение может использоваться при изучении потребления. Тогда коэффициенты bj — частные производные потребления у по соответствующим факторам xi:, в предположении, что все остальные хi постоянны. В 30-е гг. XX в. Кейнс сформулировал свою гипотезу потребительской функции. С того времени исследователи неод­нократно обращались к проблеме ее совершенствования. Совре­менная потребительская функция чаще всего рассматривается как модель вида: C=j(y,P,M,Z), где С — потребление; у — доход; Р — цена, индекс стоимости жизни; М — наличные деньги; Z — ликвидные активы. При этом .. Основная цель множественной регрессии — построить модель с большим числом факторов, определив при этом влияние каждого из них в отдельности, а также совокупное их воздействие на моделируемый показатель. Спецификация модели включает в себя два круга вопросов: отбор фак­торов и выбор вида уравнения регрессии. Требования к факторам.1 Они должны быть количественно измеримы. Если необхо­димо включить в модель качественный фактор, не имеющий ко­личественного измерения, то ему нужно придать количествен­ную определенность (например, в модели урожайности качество почвы задается в виде баллов) 2.Факторы не должны быть интеркоррелированы и тем более находиться в точной функциональной связи. Включение в модель факторов с высокой интеркорреляцией, когда Ryx1Rx1x2.Для зависимости y=a+b1x1+b2+…+bpxp+e может привести к нежелательным последствиям, повлечь за собой неустойчивость и ненадежность оценок коэффициентов регрессии. Если между факторами существует высокая корреляция, то нельзя определить их изолированное влияние на результативный показатель и параметры уравнения регрессии оказываются не интерпретированными.

Включаемые во множественную регрессию факторы должны объяснить вариацию независимой переменной. Если строится модель с набором р-факторов, то для нее рассчитывается показа­тель детерминации R2 , который фиксирует долю объясненной ва­риации результативного признака за счет рассматриваемых в ре­грессии р-факторов. Влияние других не учтенных в модели фак­торов оценивается как 1 - R2 с соответствующей остаточной дис­персией S2.При дополнительном включении в регрессию (р + 1) фактора коэффициент детерминации должен возрастать, а остаточная дисперсия уменьшаться:. Насыщение модели лишними факторами не только не снижа­ет величину остаточной дисперсии и не увеличивает показатель детерминации, но и приводит к статистической незначимости параметров регрессии по t-критерию Стьюдента.

Таким образом, хотя теоретически регрессионная модель позволяет учесть любое число факторов, практически в этом нет необходимости. Отбор факторов производится на основе качест­венного теоретико-экономического анализа, который обычно осуществляется в две стадии: на первой подби­раются факторы исходя из сущности проблемы; на второй – на основе показателей корреляции определяют t-статистики для параметров регрессии. Коэффициенты интеркорреляции (т. е. корреляции между объясняющими переменными) позволяют исключать из модели дублирующие факторы. Считается, что две переменных явно коллинеарны, т. е. находятся между собой в линейной зависимости, если . Ес­ли факторы явно коллинеарны, то они дублируют друг друга и один из них рекомендуется исключить из регрессии. Предпочте­ние при этом отдается не фактору, более тесно связанному с результатом, а тому фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту связи с другими факторами. В этом требовании проявляется специфика множест­венной регрессии как метода исследования комплексного воз­действия факторов в условиях их независимости друг от друга. Наибольшие труд­ности в использовании аппарата множественной регрессии воз­никают при наличии мультиколлинеарности факторов, когда более чем два фактора связаны между собой линейной зависимос­тью. Наличие мультиколлинеарности факторов может озна­чать, что некоторые факторы будут всегда действовать в унисон. В результате вариация в исходных данных перестает быть полно­стью независимой, и нельзя оценить воздействие каждого факто­ра в отдельности. Чем сильнее мультиколлинеарность факторов, тем менее надежна оценка распределения суммы объясненной вариации по отдельным факторам с помощью метода наименьших квадратов (МНК). Включение в модель мультиколлинеарных факторов нежела­тельно в силу следующих последствий:1.затрудняется интерпретация параметров множественной ре­грессии как характеристик действия факторов в «чистом» ви­де, ибо факторы коррелированы; параметры линейной регрессии теряют экономический смысл;2оценки параметров ненадежны, обнаруживают большие стан­дартные ошибки и меняются с изменением объема наблюде­ний. Для оценки мультиколлинеарности факторов может исполь­зоваться определитель матрицы парных коэффициентов корреля­ции между факторами.

Если бы факторы не коррелировали между собой, то матрица парных коэффициентов корреляции между факторами была бы единичной матрицей. Для включающего три объ­ясняющих переменных уравнения: y=a+b1x1+b2+b3x3+e.Матрица коэф-в корреляции м/у факторами имела бы определитель равный 1. Det =1, т.к. rx1x1=rx2x2=1 и rx1x2=rx1x3=rx2x3=0. Если м/у факторами сущ-ет полная линейная зависимость и все коэф-ты корреляции =1, то определитель такой матрицы =0. Чем ближе к нулю определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии. И, наоборот, чем ближе к единице определитель матрицы межфакторной кор­реляции, тем меньше мультиколлинеарность факторов.


12. ЧТО ОЗНОЧАЕТ ВЗАИМОДЕЙСТВИЕ ФАКТОРОВ И КАК ОНО МОЖЕТ БЫТЬ ПРЕДСТАВЛЕНО ГРАФИЧЕСКИ?

Одним из путей учета внутренней корреляции факторов является переход к совмещенным уравнениям регрессии, т. е. к уравнениям, которые отражают не только влияние факторов, но и их взаимодействие. Так, если y=f(x1,x2,x3), то возможно пост­роение следующего совмещенного уравнения: y=a+b1x1+b2x2+b3x3+b12x1x2+b13x1x3+b23x2x3+e.Рассматриваемое уравнение включает взаимодействие перво­го порядка (взаимодействие двух факторов). Возможно включе­ние в модель и взаимодействий более высокого порядка, если будет доказана их статистическая значимость по F-критерию Фи­шера. Если анализ совмещенного уравнения показал значи­мость только взаимодействия факторов х1 и х3,то уравнение бу­дет иметь вид: y=a+b1x1+b2x2+b3x3+b13x1x3+e.Взаимодействие факторов х1 и х3 означает, что на разных уровнях фактора х3 влияние фактора х1 на у будет неодинаково, т. е. оно зависит от значений фактора х3. На рис. взаимодейст­вие факторов представляется непараллельными линиями связи с результатом у. И, наоборот, параллельные линии влияния факто­ра x1 на у при разных уровнях фактора х3 означают отсутствие вза­имодействия факторов х1 и х3. Графики:

ах1 влияет на у, причем это влияние одинаково как при х31, так и при х32 (одинаковый наклон линий регрессии), что означает отсутствие взаи­модействия факторов х1 и х3; б — с ростом х1 результативный признак y возрастает при х3 = В1; с ростом х1 результативный признак у снижается при х3 = В2.. Между х1 и х3 существу­ет взаимодей-вие. Совмещенные уравнения регрессии строятся, например, при исследовании эффекта влияния на урожайность разных видов удобрений.Решению проблемы устранения мультиколлинеарности фак­торов может помочь и переход к уравнениям приведенной фор­мы. С этой целью в уравнение регрессии производится подста­новка рассматриваемого фактора через выражение его из другого уравнения.


13. ИНТЕРПРИТАЦИЯ КОЭФФИЦИЕНТОВ РЕГРЕССИИ ЛИНЕЙНОЙ МОДЕЛИ ПОТРЕБЛЕНИЯ. СМЫСЛ СУММЫ bi В ПРОИЗВОДСТВЕННЫХ ФУНКЦИЯХ И ЗНАЧЕНИЕ СУММЫ bi>1 . КОЭФФИЦИЕНТЫ, ИСПОЛЬЗУЕМЫЕ ДЛЯ ОЦЕНКИ СРАВНИТЕЛЬНОЙ СИЛЫ ВОЗДЕЙСТВИЯ ФАКТОРОВ НА РЕЗУЛЬТАТ.

Функция потребления: С=К*у+L, где С-потребление, у-доход, К и L-параметры функции.(у=С+I, I-размер инвистиций). Предположим, что функция потребления составила :С= 1,9 + 0,65 *у .Коэффициент регрессии характеризует склонность к потреблению. Он показывает, что из каждой тысячи дохода на потреб­ление расходуется в среднем 650 руб., а 350 руб. инвестируются. В производственных функциях:

где Р - количество продукта, изготавливаемого с помощью т производст­венных факторов (F1, F2,..., Fm);b-параметр, являющийся эластичностью количества продукции по отношению к количеству соответствующих производственных факторов.

Экономический смысл имеют не только коэффициенты b каждого фактора, но и их сумма, т. е. сумма эластичностей: В=b1+ b2 +...+ Ьт. Эта величина фиксирует обобщенную харак­теристику эластичности производства.

При практических расчетах не всегда .Она может быть как больше, так и меньше единицы. В этом случае величина В фиксирует приближенную оценку эластичности выпуска с рос­том каждого фактора производства на 1 % в условиях увеличива­ющейся > 1) или уменьшающейся < 1) отдачи на масштаб. Так, если Р = 2,4* F * F20,7 * F30,2, то с ростом значений каж­дого фактора производства на 1 %