Matriz adjunta

Em álgebra linear uma matriz adjunta de uma matriz quadrada é a transposta de sua matriz dos cofatores.[1]

A é a matriz transposta da matriz que se obtém substituindo cada termo A i , j {\displaystyle {A}_{i,j}} pelo determinante da matriz resultante de retirar de A a linha i {\displaystyle i} e a coluna j {\displaystyle j} (isso é, o determinante menor) multiplicado por ( 1 ) i + j {\displaystyle {(-1)}^{i+j}} (isso é, alternando os sinais).

Exemplos

Matrizes 2x2

Para toda matriz de ordem 2:

A = [ a b c d ] {\displaystyle \mathbf {A} ={\begin{bmatrix}a&b\\c&d\end{bmatrix}}}
adj ( A ) = [ d b c a ] {\displaystyle {\mbox{adj}}(\mathbf {A} )={\begin{bmatrix}d&-b\\-c&a\end{bmatrix}}} [2]

Construindo a adjunta passo-a-passo

Vamos deduzir a adjunta da matriz representada abaixo:

A = [ a b c d ] {\displaystyle \mathbf {A} ={\begin{bmatrix}a&b\\c&d\end{bmatrix}}}

Primeiro calculamos a matriz dos determinantes menores, tradicionalmente representada por " M {\displaystyle \mathbf {M} } ".

M = [ det d det c det b det a ] {\displaystyle \mathbf {M} ={\begin{bmatrix}\det {d}&\det {c}\\\det {b}&\det {a}\end{bmatrix}}}

Agora multiplicamos todo M i , j {\displaystyle \mathbf {M} _{i,j}} por ( 1 ) i + j {\displaystyle (-1)^{i+j}} para obter a matriz dos cofactores, tradicionalmente representada por " C {\displaystyle \mathbf {C} } ". Em termos mais simples, invertemos os sinais de todos aqueles termos cuja soma " i + j {\displaystyle i+j} " é ímpar.

C ( A ) = [ d c b a ] {\displaystyle {\mbox{C}}(\mathbf {A} )={\begin{bmatrix}d&-c\\-b&a\end{bmatrix}}}

Em seguida, transpomos a matriz para chegar a matriz adjunta:

adj ( A ) = [ d b c a ] {\displaystyle {\mbox{adj}}(\mathbf {A} )={\begin{bmatrix}d&-b\\-c&a\end{bmatrix}}}

Matrizes 3x3

Para toda matriz na forma:

A = [ a b c d e f g h i ] {\displaystyle \mathbf {A} ={\begin{bmatrix}a&b&c\\d&e&f\\g&h&i\end{bmatrix}}} [3]

Fazendo a matriz dos cofatores de A, temos que:

cof ( A ) = [ + | e f h i | | d f g i | + | d e g h | | b c h i | + | a c g i | | a b g h | + | b c e f | | a c d f | + | a b d e | ] {\displaystyle {\mbox{cof}}(A)={\begin{bmatrix}+\left|{\begin{matrix}e&f\\h&i\end{matrix}}\right|&-\left|{\begin{matrix}d&f\\g&i\end{matrix}}\right|&+\left|{\begin{matrix}d&e\\g&h\end{matrix}}\right|\\&&\\-\left|{\begin{matrix}b&c\\h&i\end{matrix}}\right|&+\left|{\begin{matrix}a&c\\g&i\end{matrix}}\right|&-\left|{\begin{matrix}a&b\\g&h\end{matrix}}\right|\\&&\\+\left|{\begin{matrix}b&c\\e&f\end{matrix}}\right|&-\left|{\begin{matrix}a&c\\d&f\end{matrix}}\right|&+\left|{\begin{matrix}a&b\\d&e\end{matrix}}\right|\end{bmatrix}}}
e, transpondo, temos a matriz adjunta de A:
adj ( A ) = [ + | e f h i | | b c h i | + | b c e f | | d f g i | + | a c g i | | a c d f | + | d e g h | | a b g h | + | a b d e | ] {\displaystyle {\mbox{adj}}(A)={\begin{bmatrix}+\left|{\begin{matrix}e&f\\h&i\end{matrix}}\right|&-\left|{\begin{matrix}b&c\\h&i\end{matrix}}\right|&+\left|{\begin{matrix}b&c\\e&f\end{matrix}}\right|\\&&\\-\left|{\begin{matrix}d&f\\g&i\end{matrix}}\right|&+\left|{\begin{matrix}a&c\\g&i\end{matrix}}\right|&-\left|{\begin{matrix}a&c\\d&f\end{matrix}}\right|\\&&\\+\left|{\begin{matrix}d&e\\g&h\end{matrix}}\right|&-\left|{\begin{matrix}a&b\\g&h\end{matrix}}\right|&+\left|{\begin{matrix}a&b\\d&e\end{matrix}}\right|\end{bmatrix}}}

Onde as barras verticais simbolizam determinante.

Propriedades

As seguintes propriedades são válidas para todas as matrizes K n × n {\displaystyle K^{n\times n}}

adj ( I ) = I {\displaystyle \operatorname {adj} (I)=I} , em que I {\displaystyle I} é a matriz identidade.
adj ( 0 ) = 0 {\displaystyle \operatorname {adj} (0)=0} , em que 0 é a matriz nula.
adj ( A B ) = adj ( B ) adj ( A ) {\displaystyle \operatorname {adj} (AB)=\operatorname {adj} (B)\cdot \operatorname {adj} (A)}
adj ( A T ) = adj ( A ) T {\displaystyle \operatorname {adj} (A^{T})=\operatorname {adj} (A)^{T}}
A adj ( A ) = adj ( A ) A = det ( A ) I {\displaystyle A\cdot \operatorname {adj} (A)=\operatorname {adj} (A)\cdot A=\det(A)\cdot I}
adj ( λ A ) = λ n 1 adj ( A ) {\displaystyle \operatorname {adj} (\lambda A)=\lambda ^{n-1}\operatorname {adj} (A)} em que λ R {\displaystyle \lambda \in \mathbb {R} }
det ( adj ( A ) ) = ( det A ) n 1 {\displaystyle \det(\operatorname {adj} (A))=(\det A)^{n-1}}
adj ( adj ( A ) ) = ( det A ) n 2 A {\displaystyle \operatorname {adj} (\operatorname {adj} (A))=(\det A)^{n-2}A} , para o caso particular de A {\displaystyle A} ser 2 × 2 {\displaystyle 2\times 2} resulta em adj ( adj ( A ) ) = A {\displaystyle \operatorname {adj} (\operatorname {adj} (A))=A}

Aplicações da adjunta

Determinação da matriz inversa

Com a matriz adjunta pode-se calcular a inversa de uma matriz de uma maneira diferente da tradicional, embora não mais rápida. A forma mais eficiente de obter a matriz inversa é através da eliminação de Gauss-Jordan. Para toda matriz invertível A:

A 1 = adj ( A ) det ( A ) . {\displaystyle \mathbf {A} ^{-1}={\frac {{\mbox{adj}}(\mathbf {A} )}{\det(\mathbf {A} )}}.}

Logo, para toda matriz invertível de ordem 2:

[ a b c d ] 1 = 1 a d b c [ d b c a ] . {\displaystyle {\begin{bmatrix}a&b\\c&d\end{bmatrix}}^{-1}={\frac {1}{ad-bc}}{\begin{bmatrix}\,\,\,d&\!\!-b\\-c&\,a\\\end{bmatrix}}.}

Observação: Alguns matemáticos desaconselham a notação acima em favor da seguinte:

A 1 = 1 det ( A ) adj ( A ) . {\displaystyle \mathbf {A} ^{-1}={\frac {1}{\det(\mathbf {A} )}}\cdot {\mbox{adj}}(\mathbf {A} ).}

Vale reforçar que só é invertível a matriz que é quadrada e cujo determinante é diferente de zero.

Ver também

  • Teorema de Laplace (simplificação de determinantes)
  • Regra de Cramer
  • Fórmula de Jacobi (diferenciação de determinantes)

Referências

  1. «Matriz Adjunta - Matemática». InfoEscola. Consultado em 30 de dezembro de 2016 
  2. «Faça exemplos com O Monitor». omonitor.io. Consultado em 23 de março de 2016 
  3. «Faça exemplos de Adjuntas com O Monitor». omonitor.io. Consultado em 23 de março de 2016 


  • v
  • d
  • e
Classes de matriz
Elementos explicitamente restritos
Constante
Condições sobre
autovalores e autovetores
Satisfazendo condições
sobre produtos ou inversas
Com aplicações específicas
Usada em estatística
  • Bernoulli
  • Centro
  • Correlação
  • Covariância
  • Dispersão
  • Duplamente estocástica
  • Informação de Fisher
  • Projeção
  • Precisão
  • Estocástica
  • Transição
Usada em teoria dos grafos
Usada em ciência e engenharia
Termos relacionados
  • Categoria:Matrizes