Table of Contents Table of Contents
Previous Page  12 / 104 Next Page
Information
Show Menu
Previous Page 12 / 104 Next Page
Page Background

Treatment of collinearity through orthogonal regression: an economic application

187

el modelo original. De esta forma, se consigue abordar cuestiones no analizadas

habitualmente, es decir, independientemente de que un modelo lineal presente

un alto grado de colinealidad se puede plantear su estimaci´on mediante la regre-

si´on ortogonal ya que la interpretaci´on de los coeficientes estimados puede ser

de inter´es para el investigador.

Adem´as, tal y como se muestra en la Tabla 1, la regresi´on ortogonal permi-

te recuperar las estimaciones num´ericas por MCO de la regresi´on original, sin

embargo, no es evidente que ´estas sean m´as relevantes que las estimadas en el

modelo ortogonal. Y, adem´as, tal y como muestra Buse (1994), son sesgadas e

inconsistentes y, por extensi´on, la inferencia tradicional queda invalidada.

Tabla 1: Principales caracter´ısticas del modelo original y ortogonal para dos

variables ex´ogenas estandarizadas donde

ρ

corresponde a la correlaci´on entre las

variables

x

1

y

x

2

y

γ

i

a la correlaci´on entre

x

i

e

y

, para

i

= 1

,

2.

Modelo original

Modelo ortogonal

y

=

β

1

x

1 +

β

2

x

2 +

u

y

=

β

1

O

x

1 +

β

2

O

e

+

u

!

β

=

⎛ ⎜⎝

γ

1

ργ

2

1

ρ

2

γ

2

ργ

1

1

ρ

2

⎞ ⎟⎠

!

β

O

=

⎛ ⎝

γ

1

γ

2

ργ

1

1

ρ

2

⎞ ⎠

=

( !

β

1 +

ρ

!

β

2

!

β

2

)

!

V ar

(

β

) =

!

σ

2

⎛ ⎝

1

1

ρ

2

ρ

1

ρ

2

ρ

1

ρ

2

1

1

ρ

2

⎞ ⎠

!

V ar

(

β

O

) =

!

σ

2

O

(

1

0

0

1

1

ρ

2

)

!

σ

2 =

1

ρ

2

γ

2

1

γ

2

2 +2

ργ

1

γ

2

(

n

2)(1

ρ

2 )

!

σ

2

O

=

1

ρ

2

γ

2

1

γ

2

2 +2

ργ

1

γ

2

(

n

2)(1

ρ

2 )

R

2 =

γ

2

1 +

γ

2

2

2

ργ

1

γ

2

1

ρ

2

R

2

O

=

γ

2

1 +

γ

2

2

2

ργ

1

γ

2

1

ρ

2

!

β i

±

t n

2

*

1

α

2

+ !

σ

,

1

1

ρ

2

!

β

1

O

±

t n

2

*

1

α

2

+ !

σ

!

β

2

±

t n

2

*

1

α

2

+ !

σ

,

1

1

ρ

2

F exp,O

=

(

n

2)

·

(

γ

2

1 +

γ

2

2

2

ργ

1

γ

2 )

1

ρ

2

γ

2

1

γ

2

2 +2

ργ

1

γ

2

> F

1

,n

2 (1

α

)

F exp,O

=

(

n

2)

·

(

γ

2

1 +

γ

2

2

2

ργ

1

γ

2 )

1

ρ

2

γ

2

1

γ

2

2 +2

ργ

1

γ

2

> F

1

,n

2 (1

α

)

FIV

= 1

1

ρ

2

FIV

= 1

A continuaci´on, se presenta la regresi´on ortogonal para el caso de tres va-

riables ex´ogenas y se propone su aplicaci´on tanto para mitigar o solventar la

multicolinealidad existente en el modelo o con el objeto de analizar el efecto que

tiene la parte de algunas variables ex´ogenas que no est´an relacionadas con el

resto.

3. Regresi´on ortogonal para tres variables ex´ogenas

En la presente secci´on se analiza un modelo de regresi´on lineal con tres regre-

sores y

n

observaciones en el que se presupone que el grado de multicolinealidad

presente distorsiona las conclusiones obtenidas tras estimar por MCO. En este

tipo de modelos habr´a que realizar tres pasos:

1) Seleccionar una primera variable a ortogonalizar, es decir, que sea la va-

riable dependiente en la regresi´on auxiliar.