Matriz idempotente

Em álgebra, uma matriz idempotente é uma matriz que, ao ser multiplicada por si mesma, resulta em si mesma. [1][2] Em outras palavras, a matriz A, é idempotente se e somente se A A = A {\displaystyle AA=A} [3]. Para que este produto AA seja possível, A deve necessariamente ser uma matriz quadrada.

Propriedades

  • Matrizes idempotentes são sempre positivas semi-definidas.[4]
  • Com exceção da matriz identidade, uma matriz idempotente A é sempre singular, ou seja, não admite inversa:
    I = A A 1 = A 2 A 1 = A ( A A 1 ) = A {\displaystyle I=AA^{-1}=A^{2}A^{-1}=A\left(AA^{-1}\right)=A}
  • Se uma matriz A é idempotente, a matriz I A {\displaystyle I-A} também é.[3]

Matriz de projeção

É possível construir matrizes idempotentes de forma bem generalizada, a partir de matrizes não simétricas.[5] Seja X {\displaystyle X} uma matriz de dimensão n × k {\displaystyle n\times k} com posto r a n k ( A ) = k {\displaystyle rank(A)=k} . A Matriz de projeção é uma matriz quadrada, idempotente e hermitiana que se encaixa nessa categoria:

P X ( X T X ) 1 X T {\displaystyle P\equiv X\left(X^{T}X\right)^{-1}X^{T}} , onde X T {\displaystyle X^{T}} denota a matriz transposta de X e ( X T X ) 1 {\displaystyle \left(X^{T}X\right)^{-1}} denota a matriz inversa da matriz X T X {\displaystyle X^{T}X} . Esta matriz é chamada de matriz de projeção porque sempre é verdade que P X = X {\displaystyle PX=X} [6].

  • Uma propriedade importante desta matriz é que, se particionarmos a matriz X de dimensão nXk em duas matrizes X 1 {\displaystyle X_{1}} e X 1 {\displaystyle X_{1}} de tal forma que X = [ X 1 X 2 ] {\displaystyle X={\begin{bmatrix}X_{1}&X_{2}\end{bmatrix}}} , então
P X 1 = X 1 {\displaystyle PX_{1}=X_{1}} :[7]

Por exemplo, sejam as matrizes X = [ a b c d ] , X 1 = [ a c ] , X 2 = [ b d ] {\displaystyle X={\begin{bmatrix}{a}&{b}\\{c}&{d}\end{bmatrix}},X_{1}={\begin{bmatrix}{a}\\{c}\end{bmatrix}},X_{2}={\begin{bmatrix}{b}\\{d}\end{bmatrix}}} . Então,

P X 1 = {\displaystyle PX_{1}=} X ( X T X ) 1 X T P [ a c ] = [ a b c d ] ( [ a c b d ] [ a b c d ] ) 1 [ a c b d ] [ a c ] = {\displaystyle {\begin{matrix}\underbrace {X\left(X^{T}X\right)^{-1}X^{T}} \\P\end{matrix}}*{\begin{bmatrix}{a}\\{c}\end{bmatrix}}={\begin{bmatrix}{a}&{b}\\{c}&{d}\end{bmatrix}}\left({\begin{bmatrix}{a}&{c}\\{b}&{d}\end{bmatrix}}{\begin{bmatrix}{a}&{b}\\{c}&{d}\end{bmatrix}}\right)^{-1}{\begin{bmatrix}{a}&{c}\\{b}&{d}\end{bmatrix}}{\begin{bmatrix}{a}\\{c}\end{bmatrix}}=}
[ a b c d ] ( [ a 2 + c 2 a b + c d a b + c d b 2 + d 2 ] ) 1 [ a 2 + c 2 a b + c d ] {\displaystyle {\begin{bmatrix}{a}&{b}\\{c}&{d}\end{bmatrix}}\left({\begin{bmatrix}{a}^{2}+{c}^{2}&{a}{b}+{c}{d}\\{a}{b}+{c}{d}&{b}^{2}+{d}^{2}\end{bmatrix}}\right)^{-1}{\begin{bmatrix}{a}^{2}+{c}^{2}\\{a}{b}+{c}{d}\end{bmatrix}}} = [ a c ] {\displaystyle ={\begin{bmatrix}{a}\\{c}\end{bmatrix}}}


  • A matriz de projeção é largamente utilizadas em econometria. Na estimação por mínimos quadrados ordinários, por exemplo, a matriz P gera os valores estimados da variável dependente y. Por causa desta propriedade, a matriz P também é chamada de "matriz chapéu" (hat matrix, em inglês)[7]:
P y = ( X T X ) 1 X T y = X β ^ = y ^ {\displaystyle Py=\left(X^{T}X\right)^{-1}X^{T}y=X{\hat {\beta }}={\hat {y}}}
  • P é sempre positiva semi-definida.
  • Toda matriz de projeção é idempotente, mas o contrário não é verdadeiro. Apenas as matrizes idempotentes que são simétricas (ou seja, cuja transposta é igual a ela mesma) e hermitianas são matrizes de projeção.

Matriz de aniquilação

  • Matriz de aniquilação: M I n P I n X ( X T X ) 1 X T {\displaystyle M\equiv I_{n}-P\equiv I_{n}-X\left(X^{T}X\right)^{-1}X^{T}} . Esta matriz é chamada de matriz de aniquilação porque sempre é verdade que M X = 0 {\displaystyle MX=0} .[6]

A matriz aniquiladora também é bastante útil em econometria. Pode-se provar que, dado um modelo econométrico de mínimos quadrados ordinários

y = X β + ε = X 1 β 1 + X 2 β 2 + ε {\displaystyle y=X\beta +\varepsilon =X_{1}\beta _{1}+X_{2}\beta _{2}+\varepsilon } , sendo X 1 , X 2 , β 1 , β 2 {\displaystyle X_{1},X_{2},\beta _{1},\beta _{2}} matrizes, poderemos definir
M 1 I n X 1 ( X 1 T X 1 ) 1 X 1 T {\displaystyle M_{1}\equiv I_{n}-X_{1}\left(X_{1}^{T}X_{1}\right)^{-1}X_{1}^{T}} e
M 2 I n X 2 ( X 1 T X 2 ) 1 X 2 T {\displaystyle M_{2}\equiv I_{n}-X_{2}\left(X_{1}^{T}X_{2}\right)^{-1}X_{2}^{T}}

E então podemos estimar os coeficientes separadamente[8]:

β ^ 1 = ( X 1 T M 2 X 1 ) 1 ( X 1 T M 2 y ) {\displaystyle {\hat {\beta }}_{1}=\left(X_{1}^{T}M_{2}X_{1}\right)^{-1}\left(X_{1}^{T}M_{2}y\right)}
β ^ 2 = ( X 2 T M 1 X 2 ) 1 ( X 2 T M 1 y ) {\displaystyle {\hat {\beta }}_{2}=\left(X_{2}^{T}M_{1}X_{2}\right)^{-1}\left(X_{2}^{T}M_{1}y\right)}

Notas

  1. Chiang, Alpha C. (1984), p. 80.
  2. Greene, William H. (2003), pp. 808–809.
  3. a b CHEN, Mei Yuan (2003)
  4. WOOLDRIDGE, p. 104.
  5. WOOLDRIDGE
  6. a b HAYASHI, Fumio (2000), p. 18
  7. a b HANSEN, Bruce (2011) p. 77
  8. HANSEN, Bruce (2011) p. 80

Referências

  • CHEN, Mei Yuan. Matrix Algebra for econometrics. Julho de 2003. National Chung Hsing University. Disponível em: <http://web.nchu.edu.tw/~finmyc/MAT-ALG1.pdf>. Acesso em 24 de junho de 2011. Seção 5.4: Idempotent Matrices.
  • Chiang, Alpha C., Fundamental Methods of Mathematical Economics, McGraw–Hill, 3rd edition, 1984: p. 80.
  • Greene, William H., Econometric Analysis, Prentice–Hall, 5th edition, 2003: pp. 808–809.
  • WOOLDRIDGE. Introdução à Econometria. Editora Thomson. Apêndice D - Resumo de álgebra matricial. Disponível em: <http://www.netofeitosa.com.br/caen_arquivos/econometria/wooldridge_d.pdf>. Acesso em 24 de junho de 2011.
  • HAYASHI, Fumio. Econometrics. Princeton University Press. 2000. ISBN-10: 0-691-01018-8. Página 18.
  • HANSEN, Bruce. Econometrics. Janeiro de 2011. Disponível em: <http://www.ssc.wisc.edu/~bhansen/econometrics/Econometrics.pdf>. Acesso em 24 de junho de 2011.


  • v
  • d
  • e
Classes de matriz
Elementos explicitamente restritos
Constante
Condições sobre
autovalores e autovetores
Satisfazendo condições
sobre produtos ou inversas
Com aplicações específicas
Usada em estatística
  • Bernoulli
  • Centro
  • Correlação
  • Covariância
  • Dispersão
  • Duplamente estocástica
  • Informação de Fisher
  • Projeção
  • Precisão
  • Estocástica
  • Transição
Usada em teoria dos grafos
Usada em ciência e engenharia
Termos relacionados
  • Categoria:Matrizes
Ícone de esboço Este artigo sobre matemática é um esboço. Você pode ajudar a Wikipédia expandindo-o.
  • v
  • d
  • e