Articles

principais pressupostos da OLS: Econometrics Review

Posted by admin

atenção: este post foi escrito há alguns anos e pode não reflectir as últimas alterações no programa AP®. Estamos gradualmente atualizando estas postagens e irá remover este Aviso quando este post é atualizado. Obrigado pela sua paciência!

introdução

modelos de regressão Linear encontram vários usos em problemas da vida real., Por exemplo, uma corporação multinacional que queira identificar fatores que podem afetar as vendas de seu Produto Pode correr uma regressão linear para descobrir quais fatores são importantes. Na econometria, o método dos mínimos quadrados ordinários (OLS) é amplamente utilizado para estimar o parâmetro de um modelo de regressão linear. Estimadores OLS minimizam a soma dos erros ao quadrado (uma diferença entre os valores observados e os valores previstos). Embora OLS seja computacionalmente viável e possa ser facilmente usado enquanto faz qualquer teste de econometria, é importante conhecer os pressupostos subjacentes da regressão OLS., Isto deve-se ao facto de a falta de conhecimento dos pressupostos da OLS resultar no seu mau uso e dar resultados incorrectos para o teste de econometria concluído. A importância dos pressupostos OLS não pode ser exagerada. A secção seguinte descreve os pressupostos da regressão OLS.

pressupostos da regressão OLS

as suposições OLS necessárias, que são usadas para derivar os estimadores OLS em modelos de regressão linear, são discutidas abaixo.suposição 1: o modelo de regressão linear é ” linear em parâmetros.,”

Quando a variável dependente (Y) é uma função linear das variáveis independentes (X) e o termo de erro, a regressão é linear nos parâmetros e não necessariamente linear em X. Por exemplo, considere o seguinte:

A1. O modelo de regressão linear é ” linear em parâmetros.”

A2. Há uma amostragem aleatória de observações.

A3. A média condicional deve ser zero.

A4. Não há Multi-colinearidade (ou colinearidade perfeita).

A5., Erros esféricos: há homoscedasticidade e não há autocorrelação

A6: suposição facultativa: os Termos de erro devem ser normalmente distribuídos.,

a)quad Y={ beta }_{ 0 }+{ beta }_{ 1 }{ X }_{ 1 }+{ beta }_{ 2 }{ X }_{ 2 }+varepsilon

b)quad Y={ beta }_{ 0 }+{ beta }_{ 1 }{ X }_{ { 1 }^{ 2 } }+{ beta }_{ 2 }{ X }_{ 2 }+varepsilon

c)quad Y={ beta }_{ 0 }+{ beta }_{ { 1 }^{ 2 } }{ X }_{ 1 }+{ beta }_{ 2 }{ X }_{ 2 }+varepsilon

Nos três exemplos acima, para a) e b) OLS suposição 1 é satisfeita. For C) OLS assumption 1 is not satisfied because it is not linear in parameter { beta }_{ 1 }.,suposição 2: há uma amostragem aleatória de observações

esta suposição de regressão OLS diz que:

  • A amostra colhida para o modelo de regressão linear deve ser retirada aleatoriamente da população. Por exemplo, se você tiver que executar um modelo de regressão para estudar os fatores que impactam as pontuações dos alunos no exame final, então você deve selecionar alunos aleatoriamente da universidade durante o seu processo de coleta de dados, em vez de adotar um procedimento de amostragem conveniente.,
  • o número de observações recolhidas na amostra para a elaboração do modelo de regressão linear deve ser superior ao número de parâmetros a estimar. Isto também faz sentido matematicamente. Se um certo número de parâmetros a estimar (incógnitas) for superior ao número de observações, então não é possível estimar. Se um número de parâmetros a serem estimados (incógnitos) igualar o número de observações, então OLS não é necessário. Você pode simplesmente usar álgebra.
  • Os X devem ser fixados (E. variáveis independentes devem ter impacto sobre variáveis dependentes)., Não deve acontecer que variáveis dependentes impactem variáveis independentes. Isto porque, em modelos de regressão, a relação causal é estudada e não há correlação entre as duas variáveis. Por exemplo, se você executar a regressão com a inflação como sua variável dependente e o desemprego como a variável independente, os estimadores OLS são susceptíveis de ser incorreto, pois com a inflação e o desemprego, esperamos de correlação ao invés de uma relação causal.
  • os Termos de erro são aleatórios. Isto torna a variável dependente aleatória.,hipótese 3: a média condicional deve ser zero.

    o valor esperado da média dos Termos de erro da regressão OLS deve ser zero, dados os valores das variáveis independentes.matematicamente, Eleft ({varepsilon} / {X } direita) =0. Isto às vezes é apenas escrito como Eleft( { varepsilon } direita) =0.

    em outras palavras, a distribuição dos Termos de erro tem média zero e não depende das variáveis independentes X’s. Assim, não deve haver nenhuma relação entre os x’s e o termo de erro. ,suposição 4: não há multi-colinearidade (ou colinearidade perfeita).

    em um modelo de regressão linear simples, existe apenas uma variável independente e, portanto, por padrão, esta suposição será verdadeira. No entanto, no caso de modelos de regressão linear múltipla, há mais de uma variável independente. A suposição de OLS de nenhuma multi-collinearidade diz que não deve haver nenhuma relação linear entre as variáveis independentes. Por exemplo, suponha que você gasta suas 24 horas em um dia em três coisas – dormir, estudar ou jogar., Agora, se você executar uma regressão com variável dependente como pontuação de exame/desempenho e variáveis independentes como tempo gasto dormindo, tempo gasto estudando, e tempo gasto jogando, então esta suposição não vai aguentar.

    isto é porque há colinearidade perfeita entre as três variáveis independentes.tempo de sono = 24 – tempo de estudo – tempo de jogo.

    em tal situação, é melhor deixar cair uma das três variáveis independentes do modelo de regressão linear., Se a relação (correlação) entre variáveis independentes é forte (mas não exatamente perfeita), ainda causa problemas em estimadores OLS. Assim, esta suposição de OLS diz que você deve selecionar variáveis independentes que não estão correlacionadas entre si.

    uma implicação importante desta suposição de regressão OLS é que deve haver variação suficiente nos X’s. mais a variabilidade em X, melhores são as estimativas OLS na determinação do impacto de X em Y.

    OLS suposição 5: erros esféricos: há homocedasticidade e nenhuma autocorrelação.,

    de acordo com esta suposição de OLS, os Termos de erro na regressão devem Todos ter a mesma variância.

    matematicamente, Varleft ({varepsilon }|{ X } direita) ={ sigma }^{ 2 }.

    Se esta variância não é constante (isto é, dependente de X), então o modelo de regressão linear tem erros heterocedásticos e é provável que dê estimativas incorretas.

    esta suposição de OLS de nenhuma autocorrelação diz que os Termos de erro de diferentes observações não devem ser correlacionados uns com os outros.,

    Matematicamente, Covleft( { { varepsilon }_{ i }{ varepsilon }_{ j } }|{ X } right) =0enspace forenspace ineq j

    Por exemplo, quando temos dados de séries de tempo (e.g. anual de dados de desemprego), a regressão é susceptível de sofrer de autocorrelação porque o desemprego no próximo ano certamente será dependente de desemprego este ano. Assim, os Termos de erro em diferentes observações serão certamente correlacionados uns com os outros.

    em termos simples, esta suposição de OLS significa que os Termos de erro devem ser IID (independente e identicamente distribuído).,

    Fonte da Imagem: Laerd Estatísticas

    O diagrama acima mostra a diferença entre Homocedasticidade e Heteroscedasticity. A variância de erros é constante em caso de homoscedasticidade, enquanto que não é o caso se os erros são heteroscedásticos.hipótese 6: os Termos de erro devem ser normalmente distribuídos.

    esta suposição afirma que os erros são normalmente distribuídos, dependendo das variáveis independentes., Esta suposição de OLS não é necessária para a validade do método OLS; no entanto, torna-se importante quando se precisa definir algumas propriedades de amostra finita adicionais. Note que apenas os Termos de erro precisam ser normalmente distribuídos. A variável dependente Y não necessita de ser distribuída normalmente.

    a utilização de pressupostos OLS

    OLS pressupostos são extremamente importantes. Se as suposições OLS 1 a 5 se sustentam, então de acordo com o teorema de Gauss-Markov, o estimador OLS é o melhor estimador Linear e imparcial (azul). Estas são propriedades desejáveis dos estimadores OLS e requerem discussão separada em detalhe., No entanto, abaixo do foco está a importância dos pressupostos OLS, discutindo o que acontece quando eles falham e como você pode olhar para os erros potenciais quando os pressupostos não são delineados.

    1. A suposição de linearidade – suposição OLS 1)-Se você encaixa um modelo linear para um dado que não é linearmente relacionado, o modelo será incorreto e, portanto, não confiável. Quando você usa o modelo para extrapolação, é provável que você obtenha resultados errôneos. Assim, você deve sempre traçar um gráfico dos valores previstos observados., Se este gráfico é simetricamente distribuído ao longo da linha de 45 graus, então você pode ter certeza de que a suposição de linearidade se mantém. Se as hipóteses de linearidade não se mantiverem, então você precisa mudar a forma funcional da regressão, o que pode ser feito tomando as transformações não-lineares de variáveis independentes (ou seja, você pode tomar log { X } em vez de X como sua variável independente) e então verificar a linearidade.a suposição da Homocedasticidade (suposição OLS 5) – se os erros são heterocedásticos (i.e., Suposição OLS é violada), então será difícil confiar nos erros padrão das estimativas OLS. Por conseguinte, os intervalos de confiança serão demasiado estreitos ou demasiado amplos. Além disso, a violação desta suposição tem uma tendência a dar muito peso em alguma porção (subsecção) dos dados. Portanto, é importante corrigir isso se as variações de erro não são constantes. Você pode facilmente verificar se as variações de erro são constantes ou não. Examinar a parcela de valores previstos residuais ou de valores residuais vs. tempo (para modelos de séries cronológicas)., Tipicamente, se o conjunto de dados é grande, então os erros são mais ou menos homoscedásticos. Se o seu conjunto de dados é pequeno, verifique para esta suposição.
    2. A suposição de independência/sem autocorrelação (suposição OLS 5) – Como discutido anteriormente, esta suposição é mais provável de ser violada em modelos de regressão de séries temporais e, portanto, a intuição diz que não há necessidade de investigá-la. No entanto, você ainda pode verificar a autocorrelação ao ver o enredo da série temporal residual., Se a autocorrelação estiver presente no modelo, você pode tentar levar desfasamentos de variáveis independentes para corrigir a componente de tendência. Se você não corrigir para a autocorrelação, então as estimativas de OLS não serão azuis, e eles não serão confiáveis o suficiente.
    3. A suposição da normalidade de erros (suposição OLS 6) – Se os Termos de erro não são normais, então os erros padrão das estimativas OLS não serão confiáveis, o que significa que os intervalos de confiança seriam muito grandes ou estreitos. Além disso, os estimadores OLS não terão a desejável propriedade azul., Uma parcela de probabilidade normal ou uma parcela quantil normal podem ser usadas para verificar se os Termos de erro são normalmente distribuídos ou não. Um padrão desviado em forma de arco nestas parcelas revela que os erros não são normalmente distribuídos. Às vezes os erros não são normais porque a suposição de linearidade não está segurando. Assim, vale a pena verificar novamente se a hipótese de linearidade falha.,
    4. suposição de nenhuma multicolinearidade – suposição OLS 4) – você pode verificar a multicolinearidade fazendo uma matriz de correlação (embora existam outras formas complexas de verificá-las, como o Fator de inflação de variância, etc.). Quase uma indicação segura da presença de multi-colinearidade é quando você começa em frente (inesperado) sinais de seus coeficientes de regressão (p. se você espera que a variável independente impacta positivamente a sua variável dependente, mas você obter um sinal negativo do coeficiente do modelo de regressão)., É altamente provável que a regressão sofra de multi-colinearidade. Se a variável não é tão importante intuitivamente, então descartando essa variável ou qualquer uma das variáveis correlacionadas pode corrigir o problema.
    5. OLS pressupostos 1, 2 e 4 são necessários para a configuração do problema OLS e sua derivação. A amostragem aleatória, As observações superiores ao número de parâmetros e a regressão linear nos parâmetros fazem parte da configuração da regressão OLS. A suposição de nenhuma colinearidade perfeita permite resolver para as condições de primeira ordem na derivação de estimativas de OLS.,

    Conclusão

    modelos de regressão Linear são extremamente úteis e têm uma ampla gama de aplicações. Quando você os usa, tenha cuidado para que todas as suposições da regressão OLS sejam satisfeitas ao fazer um teste de econometria para que seus esforços não sejam desperdiçados. Estas suposições são extremamente importantes, e não podemos simplesmente ignorá-las. Dito isto, muitas vezes estas suposições OLS serão violadas. No entanto, isso não deve impedi-lo de realizar o seu teste econométrico., Em vez disso, quando a suposição é violada, aplicar as correções corretas e, em seguida, executar o modelo de regressão linear deve ser a saída para um teste econométrico confiável.acredita que pode executar de forma fiável uma regressão OLS? Deixe-nos saber na seção de comentários abaixo!procura a prática da Econometria?

    pode encontrar milhares de perguntas sobre Albert.io. Albert.io permite-lhe personalizar a sua experiência de aprendizagem para a prática de alvo onde você mais precisa de Ajuda. Vamos dar-lhe questões práticas desafiadoras para ajudá-lo a alcançar o domínio da Econometria.,comece a praticar aqui.você é um professor ou administrador interessado em impulsionar os resultados dos alunos de Biologia AP®?

    Saiba mais sobre nossas licenças escolares aqui.

Leave A Comment