Math ClubMath Club
v1 · padrão canônico

Lição 116 — Matrizes especiais: simétricas, ortogonais e hermitianas

As três famílias de matrizes que dominam as aplicações: simétrica (A = A^T), ortogonal (Q^T Q = I), hermitiana (A^* = A). Teorema espectral, formas quadráticas e decomposição de Cholesky.

Used in: 3.º ano EM avançado · Equiv. Leistungskurs alemão (Vektoren + Lineare Abbildungen) · Equiv. H2 Math singapurense (cap. Matrices avançado)

A=ATA=QDQT,QTQ=IA = A^T \Rightarrow A = QDQ^T, \quad Q^TQ = I

O teorema espectral: toda matriz simétrica real admite diagonalização ortogonal A=QDQTA = QDQ^T, onde QQ é ortogonal e DD é diagonal com autovalores reais. As três classes — simétrica, ortogonal e hermitiana — estruturam álgebra linear aplicada, estatística multivariada, mecânica quântica e computação gráfica.

Choose your door

Rigorous notation, full derivation, hypotheses

Definição rigorosa

Matrizes simétricas

"A matrix is called symmetric if it equals its own transpose: A=ATA = A^T. [...] The entry aija_{ij} in row ii and column jj equals the entry ajia_{ji} in row jj and column ii." — Beezer, A First Course in Linear Algebra, §OD

A=QDQT=i=1nλiqiqiTA = QDQ^T = \sum_{i=1}^{n} \lambda_i \, q_i q_i^T
what this means · Diagonalização ortogonal de A simétrica: Q é a matriz cujas colunas são os autovetores ortonormais; D contém os autovalores correspondentes na diagonal.

A última igualdade mostra AA como soma de projeções de rank 1 ponderadas pelos autovalores — representação espectral.

Matrizes ortogonais

"An n×nn \times n matrix QQ is called an orthogonal matrix if QTQ=IQ^T Q = I." — Austin, Understanding Linear Algebra, §7.1

Propriedades fundamentais:

  • Preserva norma: Qv=v\lVert Qv \rVert = \lVert v \rVert para todo vv.
  • Preserva produto interno: Qu,Qv=u,v\langle Qu, Qv \rangle = \langle u, v \rangle.
  • detQ=±1\det Q = \pm 1. Se detQ=1\det Q = 1: rotação. Se detQ=1\det Q = -1: rotação seguida de reflexão.
  • Autovalores complexos têm módulo 1.

O análogo complexo é a matriz unitária: UU=IU^* U = I, onde UU^* é a adjunta (transposta conjugada).

Matrizes hermitianas

"A square matrix AA with complex entries is called Hermitian if A=AA^* = A where AA^* is the conjugate transpose of AA." — Beezer, A First Course in Linear Algebra, §HMD

Teorema espectral complexo. Toda matriz hermitiana tem autovalores reais e admite diagonalização unitária: A=UDUA = U D U^*.

Matrizes definidas positivas

Critérios equivalentes para SPD:

  • Todos os autovalores λi>0\lambda_i > 0.
  • Todos os menores principais líderes (determinantes das submatrizes k×kk \times k do canto superior esquerdo) são positivos — critério de Sylvester.
  • Existe LL triangular inferior inversível com A=LLTA = LL^Tfatoração de Cholesky.
Hierarquia das matrizes especiaisSimétricasPSD (semidefinidas positivas)SPD (definidas positivas)SPD com CholeskyA = LL^T, todos λ_i > 0

Hierarquia de inclusão: SPD com Cholesky ⊂ SPD ⊂ PSD ⊂ Simétricas.

Forma quadrática

Classificação: se todos λi>0\lambda_i > 0: definida positiva. Se todos λi<0\lambda_i < 0: definida negativa. Se há autovalores positivos e negativos: indefinida.

Exemplos resolvidos

Exercise list

42 exercises · 10 with worked solution (25%)

Application 25Understanding 5Modeling 6Challenge 3Proof 3
  1. Ex. 116.1ApplicationAnswer key

    Verifique que A=(2335)A = \begin{pmatrix} 2 & 3 \\ 3 & 5 \end{pmatrix} é simétrica.

    Show solution
    Verificar AT=AA^T = A: basta conferir que a12=a21a_{12} = a_{21}. Para A=(2335)A = \begin{pmatrix} 2 & 3 \\ 3 & 5 \end{pmatrix}, temos a12=a21=3a_{12} = a_{21} = 3. Portanto AA é simétrica.
  2. Ex. 116.2ApplicationAnswer key

    Verifique via critério de Sylvester que A=(2335)A = \begin{pmatrix} 2 & 3 \\ 3 & 5 \end{pmatrix} é SPD.

    Show solution
    Critério de Sylvester: a11=2>0a_{11} = 2 > 0 e detA=109=1>0\det A = 10 - 9 = 1 > 0. Logo AA é SPD. Autovalores: λ27λ+1=0\lambda^2 - 7\lambda + 1 = 0, raízes positivas: λ=(7±45)/2>0\lambda = (7 \pm \sqrt{45})/2 > 0.
    Show step-by-step (with the why)
    1. Escreva o polinômio característico: det(AλI)=(2λ)(5λ)9=λ27λ+1\det(A - \lambda I) = (2-\lambda)(5-\lambda) - 9 = \lambda^2 - 7\lambda + 1. Por quê: autovalores positivos é condição equivalente a SPD.
    2. Calcule o discriminante: Δ=494=45>0\Delta = 49 - 4 = 45 > 0. Raízes: λ=(7±35)/2\lambda = (7 \pm 3\sqrt{5})/2.
    3. Ambas positivas pois 7 &gt; 3\sqrt{5} \approx 6{,}7: sim, λmin0,15>0\lambda_{\min} \approx 0{,}15 > 0. SPD confirmado.

    Atalho mental: Sylvester é mais rápido que calcular autovalores para verificar SPD — você só precisa dos determinantes principais.

  3. Ex. 116.3Application

    Verifique que Q=12(1111)Q = \frac{1}{\sqrt{2}}\begin{pmatrix} 1 & -1 \\ 1 & 1 \end{pmatrix} é ortogonal calculando QTQQ^T Q.

    Show solution
    QTQ=12(1111)(1111)=12(2002)=I2Q^TQ = \frac{1}{2}\begin{pmatrix}1&1\\-1&1\end{pmatrix}\begin{pmatrix}1&-1\\1&1\end{pmatrix} = \frac{1}{2}\begin{pmatrix}2&0\\0&2\end{pmatrix} = I_2. Logo QQ é ortogonal.
    Show step-by-step (with the why)
    1. Calcule a transposta: QT=12(1111)Q^T = \frac{1}{\sqrt{2}}\begin{pmatrix}1&1\\-1&1\end{pmatrix}. Por quê: para matriz ortogonal, a condição é QTQ=IQ^TQ = I.
    2. Multiplique QTQ=12(1111)(1111)Q^TQ = \frac{1}{2}\begin{pmatrix}1&1\\-1&1\end{pmatrix}\begin{pmatrix}1&-1\\1&1\end{pmatrix}.
    3. Calcule: posição (1,1) = (11+11)/2=1(1\cdot1 + 1\cdot1)/2 = 1; posição (1,2) = (1(1)+11)/2=0(1\cdot(-1)+1\cdot1)/2 = 0; posição (2,2) = ((1)2+12)/2=1((-1)^2+1^2)/2 = 1. Resultado: I2I_2.

    Macete: para verificar ortogonalidade, checar primeiro que as colunas têm norma 1 e são ortogonais entre si — é mais rápido que a multiplicação completa.

  4. Ex. 116.4ApplicationAnswer key

    Mostre que a matriz de rotação plana Q=(cosθsinθsinθcosθ)Q = \begin{pmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta \end{pmatrix} tem determinante 1 para qualquer θ\theta.

    Show solution
    detQ=cosθcosθ(sinθ)(sinθ)=cos2θ+sin2θ=1\det Q = \cos\theta \cdot \cos\theta - (-\sin\theta)(\sin\theta) = \cos^2\theta + \sin^2\theta = 1. Logo detQ=1\det Q = 1 para toda rotação plana.
  5. Ex. 116.5Application

    Calcule a fatoração de Cholesky de A=(4225)A = \begin{pmatrix} 4 & 2 \\ 2 & 5 \end{pmatrix}.

    Show solution
    Fatoração de Cholesky de A=(4225)A = \begin{pmatrix} 4 & 2 \\ 2 & 5 \end{pmatrix}: 11=2\ell_{11} = 2, 21=1\ell_{21} = 1, 22=4=2\ell_{22} = \sqrt{4} = 2. Portanto L=(2012)L = \begin{pmatrix} 2 & 0 \\ 1 & 2 \end{pmatrix} e LLT=ALL^T = A.
  6. Ex. 116.6Application

    Calcule os autovalores de A=(5445)A = \begin{pmatrix} 5 & 4 \\ 4 & 5 \end{pmatrix}.

    Show solution
    Polinômio: (5λ)216=0λ210λ+9=0(λ1)(λ9)=0(5-\lambda)^2 - 16 = 0 \Rightarrow \lambda^2 - 10\lambda + 9 = 0 \Rightarrow (\lambda-1)(\lambda-9) = 0. Autovalores: λ1=1\lambda_1 = 1 e λ2=9\lambda_2 = 9.
  7. Ex. 116.7Application

    Encontre autovetores ortonormais de A=(5445)A = \begin{pmatrix} 5 & 4 \\ 4 & 5 \end{pmatrix} correspondentes a λ1=1\lambda_1 = 1 e λ2=9\lambda_2 = 9.

    Show solution
    Para λ1=1\lambda_1 = 1: (AI)v=04v1+4v2=0v=12(1,1)T(A-I)v = 0 \Rightarrow 4v_1 + 4v_2 = 0 \Rightarrow v = \frac{1}{\sqrt2}(1,-1)^T. Para λ2=9\lambda_2 = 9: (A9I)v=04v1+4v2=0v=12(1,1)T(A-9I)v = 0 \Rightarrow -4v_1+4v_2=0 \Rightarrow v = \frac{1}{\sqrt2}(1,1)^T. Os autovetores são ortogonais (teorema espectral).
    Show step-by-step (with the why)
    1. Para λ1=1\lambda_1 = 1: resolva (AI)v=0(A - I)v = 0: (4444)v=0\begin{pmatrix}4&4\\4&4\end{pmatrix}v = 0. Por quê: equação 4v1+4v2=04v_1 + 4v_2 = 0v2=v1v_2 = -v_1.
    2. Normalize: v=(v1,v1)Tv = (v_1, -v_1)^T com v=1\|v\| = 1v1=1/2v_1 = 1/\sqrt{2}. Autovetor: q1=(1/2,1/2)Tq_1 = (1/\sqrt{2}, -1/\sqrt{2})^T.
    3. Para λ2=9\lambda_2 = 9: (A9I)v=0(A-9I)v = 0: 4v1+4v2=0v2=v1-4v_1+4v_2=0 \Rightarrow v_2 = v_1. Normalizado: q2=(1/2,1/2)Tq_2 = (1/\sqrt{2}, 1/\sqrt{2})^T.
    4. Verifique ortogonalidade: q1q2=(1/2)(1/2)+(1/2)(1/2)=1/21/2=0q_1 \cdot q_2 = (1/\sqrt{2})(1/\sqrt{2}) + (-1/\sqrt{2})(1/\sqrt{2}) = 1/2 - 1/2 = 0. Ortogonais.

    Macete: em matrizes 2×22 \times 2 simétricas, o autovetor de λ2\lambda_2 é sempre a rotação de 90° do autovetor de λ1\lambda_1 — basta trocar as entradas e mudar um sinal.

  8. Ex. 116.8Application

    Monte a diagonalização ortogonal A=QDQTA = QDQ^T de A=(5445)A = \begin{pmatrix} 5 & 4 \\ 4 & 5 \end{pmatrix} usando os autovetores calculados no exercício anterior.

    Show solution
    Com os autovetores q1=12(1,1)Tq_1 = \frac{1}{\sqrt2}(1,-1)^T e q2=12(1,1)Tq_2 = \frac{1}{\sqrt2}(1,1)^T: Q=12(1111)Q = \frac{1}{\sqrt2}\begin{pmatrix}1&1\\-1&1\end{pmatrix}, D=(1009)D = \begin{pmatrix}1&0\\0&9\end{pmatrix}. Verificação: QDQT=AQDQ^T = A.
  9. Ex. 116.9Application

    Verifique se A=(4221)A = \begin{pmatrix} 4 & 2 \\ 2 & 1 \end{pmatrix} é SPD ou apenas PSD.

    Show solution
    detA=4122=0\det A = 4 \cdot 1 - 2^2 = 0. Como o determinante é zero, um autovalor é zero. Critério de Sylvester falha (detA=0\det A = 0 não é positivo). Logo AA é PSD mas não SPD.
  10. Ex. 116.10Application

    Escreva a matriz da reflexão em relação ao eixo xx em R2\mathbb{R}^2. Verifique que é ortogonal e calcule seu determinante.

    Show solution
    A reflexão em relação ao eixo xx é R=(1001)R = \begin{pmatrix}1&0\\0&-1\end{pmatrix}. Verificação: RTR=IR^TR = I. detR=1\det R = -1: reflexão (não rotação pura).
  11. Ex. 116.11Application

    As colunas da matriz Q=(100001)Q = \begin{pmatrix}1&0\\0&0\\0&1\end{pmatrix} são ortonormais? A matriz é ortogonal? Justifique.

    Show solution
    Verificar QTQQ^TQ: colunas de Q=(100001)Q = \begin{pmatrix}1&0\\0&0\\0&1\end{pmatrix} são ortonormais? q1=(1,0,0)Tq_1 = (1,0,0)^T, q2=(0,0,1)Tq_2 = (0,0,1)^T: ambas unitárias e ortogonais. Mas QQ é 3×23 \times 2, não quadrada. Portanto não é ortogonal (definição requer quadrada). É chamada de **isometria** ou **matriz com colunas ortonormais**.
  12. Ex. 116.12Application

    Determine os autovalores de A=(120240001)A = \begin{pmatrix}1&2&0\\2&4&0\\0&0&1\end{pmatrix} e classifique: SPD, PSD ou indefinida.

    Show solution
    Simétrica: verificar aij=ajia_{ij} = a_{ji}. Autovalores de A=(120240001)A = \begin{pmatrix}1&2&0\\2&4&0\\0&0&1\end{pmatrix}: o bloco (1224)\begin{pmatrix}1&2\\2&4\end{pmatrix} tem autovalores 00 e 55; o bloco (1)(1) tem autovalor 11. Autovalores: 0,1,50, 1, 5. PSD (tem autovalor zero), não SPD.
  13. Ex. 116.13Application

    Calcule a fatoração de Cholesky de A=(9335)A = \begin{pmatrix} 9 & 3 \\ 3 & 5 \end{pmatrix}.

    Show solution
    Cholesky de A=(9335)A = \begin{pmatrix}9&3\\3&5\end{pmatrix}: 11=3\ell_{11} = 3, 21=1\ell_{21} = 1, 22=51=2\ell_{22} = \sqrt{5-1} = 2. Logo L=(3012)L = \begin{pmatrix}3&0\\1&2\end{pmatrix}.
    Show step-by-step (with the why)
    1. Equacione LLT=ALL^T = A: 112=911=3\ell_{11}^2 = 9 \Rightarrow \ell_{11} = 3. Por quê: primeiro elemento é sempre a raiz do canto superior esquerdo.
    2. 1121=321=1\ell_{11}\ell_{21} = 3 \Rightarrow \ell_{21} = 1.
    3. 212+222=522=4=2\ell_{21}^2 + \ell_{22}^2 = 5 \Rightarrow \ell_{22} = \sqrt{4} = 2.
    4. Verificação: LLT=(3012)(3102)=(9335)LL^T = \begin{pmatrix}3&0\\1&2\end{pmatrix}\begin{pmatrix}3&1\\0&2\end{pmatrix} = \begin{pmatrix}9&3\\3&5\end{pmatrix}. Correto.

    Macete: no Cholesky, trabalhe coluna a coluna da esquerda para a direita; cada passo usa apenas os valores já calculados.

  14. Ex. 116.14Application

    Escreva a matriz simétrica AA associada à forma quadrática Q(x,y)=5x2+6xy+5y2Q(x, y) = 5x^2 + 6xy + 5y^2.

    Show solution
    A forma quadrática Q(x,y)=5x2+6xy+5y2Q(x,y) = 5x^2 + 6xy + 5y^2 tem matriz A=(5335)A = \begin{pmatrix}5&3\\3&5\end{pmatrix} (coeficiente do cruzado divide por 2 para os elementos fora da diagonal).
  15. Ex. 116.15Application

    Classifique a forma quadrática Q(x,y)=5x2+6xy+5y2Q(x, y) = 5x^2 + 6xy + 5y^2 usando os autovalores da matriz associada.

    Show solution
    Para A=(5335)A = \begin{pmatrix}5&3\\3&5\end{pmatrix}: autovalores λ=5±3\lambda = 5 \pm 3, ou seja λ1=2>0\lambda_1 = 2 > 0 e λ2=8>0\lambda_2 = 8 > 0. Todos positivos: forma quadrática é **definida positiva**.
  16. Ex. 116.16Application

    Classifique a forma quadrática Q(x,y)=x2y2Q(x, y) = x^2 - y^2 e identifique a curva Q(x,y)=1Q(x,y) = 1.

    Show solution
    Matriz de Q(x,y)=x2y2Q(x,y) = x^2 - y^2: A=(1001)A = \begin{pmatrix}1&0\\0&-1\end{pmatrix}. Autovalores: λ1=1>0\lambda_1 = 1 > 0 e λ2=1<0\lambda_2 = -1 < 0. Sinais opostos: **indefinida**. A curva x2y2=1x^2 - y^2 = 1 é uma hipérbole.
    Show step-by-step (with the why)
    1. Escreva a matriz: A=(1001)A = \begin{pmatrix}1&0\\0&-1\end{pmatrix}. Por quê: sem termo cruzado, a matriz é já diagonal.
    2. Autovalores: leia da diagonal, λ1=1\lambda_1 = 1 e λ2=1\lambda_2 = -1.
    3. Classificação: sinais opostos (um positivo, um negativo) — forma quadrática **indefinida**.
    4. Curva x2y2=1x^2 - y^2 = 1: hipérbole com eixos transverso ao longo de xx e imaginário ao longo de yy.

    Curiosidade: a classificação de cônicas pelo sinal dos autovalores é a razão pela qual elipses, hipérboles e parábolas são as únicas seções cónicas — eles correspondem exatamente às combinações de sinais dos autovalores da forma quadrática associada.

  17. Ex. 116.17Application

    Identifique o tipo de cônica e encontre os semieixos para a curva 5x2+6xy+5y2=85x^2 + 6xy + 5y^2 = 8.

    Show solution
    Autovalores de A=(5335)A = \begin{pmatrix}5&3\\3&5\end{pmatrix}: λ1=2\lambda_1 = 2 e λ2=8\lambda_2 = 8. Forma canônica: 2u2+8v2=82u^2 + 8v^2 = 8, ou seja u2/4+v2=1u^2/4 + v^2 = 1. **Elipse** com semieixo maior a=2a = 2 e menor b=1b = 1.
  18. Ex. 116.18ApplicationAnswer key

    Classifique a forma quadrática Q(x,y)=3x2+4xy+3y2Q(x, y) = 3x^2 + 4xy + 3y^2 via autovalores.

    Show solution
    A forma quadrática Q(x,y)=3x2+4xy+3y2Q(x,y) = 3x^2 + 4xy + 3y^2 tem matriz (3223)\begin{pmatrix}3&2\\2&3\end{pmatrix} com autovalores λ=3±2\lambda = 3 \pm 2, logo λ1=1,λ2=5\lambda_1 = 1, \lambda_2 = 5. Ambos positivos: **definida positiva**.
  19. Ex. 116.19Application

    Mostre que o produto de duas matrizes ortogonais Q1Q_1 e Q2Q_2 é ortogonal.

    Show solution
    Produto de ortogonais é ortogonal: (Q1Q2)T(Q1Q2)=Q2TQ1TQ1Q2=Q2TIQ2=I(Q_1 Q_2)^T(Q_1 Q_2) = Q_2^T Q_1^T Q_1 Q_2 = Q_2^T I Q_2 = I. Logo Q1Q2Q_1 Q_2 é ortogonal.
    Show step-by-step (with the why)
    1. Calcule (Q1Q2)T=Q2TQ1T(Q_1 Q_2)^T = Q_2^T Q_1^T. Por quê: transposta de produto inverte a ordem.
    2. Compute (Q1Q2)T(Q1Q2)=Q2T(Q1TQ1)Q2(Q_1 Q_2)^T (Q_1 Q_2) = Q_2^T (Q_1^T Q_1) Q_2.
    3. Como Q1Q_1 é ortogonal, Q1TQ1=IQ_1^T Q_1 = I. Resta Q2TIQ2=Q2TQ2=IQ_2^T I Q_2 = Q_2^T Q_2 = I.

    Observação: isso mostra que as matrizes ortogonais n×nn \times n formam um grupo (fechado sob produto e inversão = transposição). Esse grupo se chama O(n)O(n).

  20. Ex. 116.20ApplicationAnswer key

    Escreva a matriz de permutação 3×33 \times 3 que troca as linhas 1 e 2. Verifique que é ortogonal e calcule seu determinante.

    Show solution
    Matriz de permutação que troca linhas 1 e 2 de uma 3×33 \times 3: P=(010100001)P = \begin{pmatrix}0&1&0\\1&0&0\\0&0&1\end{pmatrix}. Colunas: (0,1,0)T(0,1,0)^T, (1,0,0)T(1,0,0)^T, (0,0,1)T(0,0,1)^T — ortonormais. PTP=IP^TP = I. detP=1\det P = -1 (reflexão).
  21. Ex. 116.21Application

    Calcule A\sqrt{A} para A=(5445)A = \begin{pmatrix} 5 & 4 \\ 4 & 5 \end{pmatrix} usando a diagonalização ortogonal.

    Show solution
    Para A=(5445)A = \begin{pmatrix}5&4\\4&5\end{pmatrix} com autovalores 11 e 99: A=Q(1003)QT\sqrt{A} = Q \begin{pmatrix}1&0\\0&3\end{pmatrix} Q^T onde QQ é a diagonalização do exemplo anterior. A=12(4224)=(2112)\sqrt{A} = \frac{1}{2}\begin{pmatrix}4&2\\2&4\end{pmatrix} = \begin{pmatrix}2&1\\1&2\end{pmatrix}.
    Show step-by-step (with the why)
    1. Diagnonalize: A=QDQTA = QDQ^T com D=diag(1,9)D = \text{diag}(1,9). Por quê: raiz quadrada de matriz diagonal é diagonal das raízes.
    2. Calcule D=diag(1,3)\sqrt{D} = \text{diag}(1, 3).
    3. Reconstrua: A=QDQT=12(1111)(1003)(1111)\sqrt{A} = Q\sqrt{D}Q^T = \frac{1}{2}\begin{pmatrix}1&1\\-1&1\end{pmatrix}\begin{pmatrix}1&0\\0&3\end{pmatrix}\begin{pmatrix}1&-1\\1&1\end{pmatrix}.
    4. Multiplique: =12(4224)=(2112)= \frac{1}{2}\begin{pmatrix}4&2\\2&4\end{pmatrix} = \begin{pmatrix}2&1\\1&2\end{pmatrix}.

    Macete: verificar que (A)2=A(\sqrt{A})^2 = A: (2112)2=(5445)\begin{pmatrix}2&1\\1&2\end{pmatrix}^2 = \begin{pmatrix}5&4\\4&5\end{pmatrix}. Correto.

  22. Ex. 116.22ApplicationAnswer key

    Verifique para uma matriz simétrica 2×22 \times 2 que tr(ATA)=i,jaij2\text{tr}(A^TA) = \sum_{i,j} a_{ij}^2 (norma de Frobenius ao quadrado).

    Show solution
    Para A=(abbc)A = \begin{pmatrix}a&b\\b&c\end{pmatrix}: tr(ATA)=tr(a2+b2ab+bcab+bcb2+c2)=a2+2b2+c2=aij2\text{tr}(A^TA) = \text{tr}\begin{pmatrix}a^2+b^2 & ab+bc \\ ab+bc & b^2+c^2\end{pmatrix} = a^2 + 2b^2 + c^2 = \sum a_{ij}^2.
  23. Ex. 116.23UnderstandingAnswer key

    Toda matriz com autovalores reais positivos é positiva definida?

    Select the correct option
    Select an option first
    Show solution
    Não: ter autovalores positivos **não** basta. Precisamos que AA seja também **simétrica**. Exemplo: A=(2301)A = \begin{pmatrix}2&3\\0&1\end{pmatrix} tem autovalores 11 e 22 (positivos), mas ATAA^T \neq A. Porém xTAxx^T A x não é necessariamente positivo para todo x0x \neq 0 se AA não é simétrica.
  24. Ex. 116.24UnderstandingAnswer key

    O que se pode concluir sobre os autovalores (complexos) de uma matriz ortogonal?

    Select the correct option
    Select an option first
    Show solution
    Se Qv=λvQv = \lambda v com QQ ortogonal, então v=Qv=λv\|v\| = \|Qv\| = |\lambda| \|v\|. Para v0v \neq 0, λ=1|\lambda| = 1. Para rotação de 30°: autovalores em C\mathbb{C} são e±iπ/6e^{\pm i \pi/6}, módulo 1. Confirmado.
  25. Ex. 116.25Understanding

    Quando autovetores de uma matriz simétrica real são garantidamente ortogonais?

    Select the correct option
    Select an option first
    Show solution
    Autovetores de matrizes simétricas para **autovalores distintos** são ortogonais (teorema espectral). Se Av1=λ1v1Av_1 = \lambda_1 v_1 e Av2=λ2v2Av_2 = \lambda_2 v_2 com λ1λ2\lambda_1 \neq \lambda_2: λ1(v1v2)=(Av1)v2=v1(Av2)=λ2(v1v2)\lambda_1 (v_1 \cdot v_2) = (Av_1) \cdot v_2 = v_1 \cdot (Av_2) = \lambda_2 (v_1 \cdot v_2). Como λ1λ2\lambda_1 \neq \lambda_2, segue v1v2=0v_1 \cdot v_2 = 0.
  26. Ex. 116.26Application

    Seja H=I2vvTH = I - 2vv^T com v=1\|v\| = 1 (reflexão de Householder). Verifique que HH é ortogonal e simétrica.

    Show solution
    H=I2vvTH = I - 2vv^T com v=1\|v\| = 1. Verificar HTH=IH^TH = I: HT=(I2vvT)T=I2vvT=HH^T = (I - 2vv^T)^T = I - 2vv^T = H (simétrica). H2=I4vvT+4v(vTv)vT=I4vvT+4vvT=IH^2 = I - 4vv^T + 4v(v^Tv)v^T = I - 4vv^T + 4vv^T = I. Logo H2=IH^2 = I, que com H=HTH = H^THTH=IH^TH = I. Ortogonal.
  27. Ex. 116.27Application

    Mostre que qualquer matriz quadrada AA pode ser escrita como A=S+KA = S + K onde S=(A+AT)/2S = (A+A^T)/2 é simétrica e K=(AAT)/2K = (A-A^T)/2 é antissimétrica (ou seja, KT=KK^T = -K).

    Show solution
    Decomposição A=S+KA = S + K: parte simétrica S=(A+AT)/2S = (A + A^T)/2 e antissimétrica K=(AAT)/2K = (A - A^T)/2. Verificação: ST=((A+AT)/2)T=(AT+A)/2=SS^T = ((A+A^T)/2)^T = (A^T+A)/2 = S. KT=((AAT)/2)T=(ATA)/2=KK^T = ((A-A^T)/2)^T = (A^T-A)/2 = -K. E S+K=AS + K = A.
    Show step-by-step (with the why)
    1. Defina S=(A+AT)/2S = (A + A^T)/2 e K=(AAT)/2K = (A - A^T)/2. Por quê: essa é a decomposição canônica em parte simétrica e antissimétrica.
    2. Verifique que ST=SS^T = S: transponha e use (AT)T=A(A^T)^T = A.
    3. Verifique que KT=KK^T = -K: antissimétrica por definição.
    4. Confirme S+K=(A+AT)/2+(AAT)/2=AS + K = (A+A^T)/2 + (A-A^T)/2 = A.

    Curiosidade: essa decomposição é única — é o análogo matricial de escrever qualquer função como soma de uma parte par e uma parte ímpar.

  28. Ex. 116.28Application

    Classifique a forma quadrática Q(x,y)=2x24xy+5y2Q(x,y) = 2x^2 - 4xy + 5y^2 usando o critério de Sylvester e identifique a curva Q(x,y)=1Q(x,y) = 1.

    Show solution
    Forme quadrática Q(x,y)=2x24xy+5y2Q(x,y) = 2x^2 - 4xy + 5y^2: matriz A=(2225)A = \begin{pmatrix}2&-2\\-2&5\end{pmatrix}. Critério de Sylvester: 2>02 > 0 e detA=104=6>0\det A = 10 - 4 = 6 > 0. **SPD.** A curva Q(x,y)=1Q(x,y) = 1 é uma elipse.
  29. Ex. 116.29Modeling

    Explique por que a matriz de covariância amostral de pp variáveis com n>pn > p observações é sempre PSD, e sob que condição é SPD.

    Show solution
    Matriz de covariância amostral de nn observações X1,,XnRpX_1, \ldots, X_n \in \mathbb{R}^p: Σ^=1n1i=1n(XiXˉ)(XiXˉ)T\hat{\Sigma} = \frac{1}{n-1} \sum_{i=1}^n (X_i - \bar X)(X_i - \bar X)^T. Cada termo (XiXˉ)(XiXˉ)T(X_i - \bar X)(X_i - \bar X)^T é PSD (é rank-1 positivo). Soma de PSD é PSD. Se os vetores XiXˉX_i - \bar X geram Rp\mathbb{R}^p (necessita np+1n \geq p+1), então Σ^\hat\Sigma é SPD.
  30. Ex. 116.30Modeling

    Em mecânica clássica, o tensor de inércia de um corpo rígido é uma matriz 3×33 \times 3. Explique por que é simétrica e o que seus autovetores e autovalores representam fisicamente.

    Show solution
    Tensor de inércia II de um corpo rígido é simétrico (resultado do cálculo de integrais de massa): Ijk=(r2δjkrjrk)dmI_{jk} = \int (r^2 \delta_{jk} - r_j r_k) \, dm. Por simetria do produto rjrkr_j r_k: Ijk=IkjI_{jk} = I_{kj}. Além disso II é SPD para corpos com distribuição de massa não degenerada. Seus autovetores são os **eixos principais de inércia** e os autovalores são os **momentos principais**.
  31. Ex. 116.31ModelingAnswer key

    Em um ponto crítico xx^* de f:RnRf: \mathbb{R}^n \to \mathbb{R}, a hessiana HH é simétrica. Explique por que HH SPD implica que xx^* é um mínimo local estrito.

    Show solution
    A hessiana HH de ff em xx^* é simétrica (Schwarz). Se HH é SPD, a aproximação quadrática de Taylor f(x+h)f(x)+f(x)Th+12hTHhf(x^* + h) \approx f(x^*) + \nabla f(x^*)^T h + \frac{1}{2} h^T H h garante que f(x+h)>f(x)f(x^* + h) > f(x^*) para todo h0h \neq 0 pequeno (pois f(x)=0\nabla f(x^*) = 0 em ponto crítico e hTHh>0h^T H h > 0). Isso confirma mínimo local estrito.
  32. Ex. 116.32ModelingAnswer key

    Em simulação Monte Carlo financeira, explique como a fatoração de Cholesky de uma matriz de covariância Σ\Sigma SPD é usada para gerar vetores aleatórios correlacionados.

    Show solution
    Em simulação Monte Carlo correlacionada, para gerar xN(0,Σ)x \sim \mathcal{N}(0, \Sigma): (1) fatorar Σ=LLT\Sigma = LL^T via Cholesky; (2) gerar zN(0,I)z \sim \mathcal{N}(0, I); (3) calcular x=Lzx = Lz. Verificação: Cov(x)=LCov(z)LT=LILT=Σ\text{Cov}(x) = L \text{Cov}(z) L^T = L I L^T = \Sigma. Cholesky requer Σ\Sigma SPD.
  33. Ex. 116.33Modeling

    Em compressão de imagem (JPEG), a matriz DCT é ortogonal. Explique como essa propriedade garante que comprimir (descartar alguns coeficientes) causa perda controlada de informação.

    Show solution
    Compressão de imagem via DCT (JPEG): a matriz DCT N×NN \times N é ortogonal. Multiplicar por ela preserva a energia total da imagem (Parseval: DCT(x)=x\|DCT(x)\| = \|x\|). Os coeficientes de alta frequência geralmente têm magnitude pequena e são descartados com pequena perda de energia. A reconstrução usa a inversa = transposta da DCT.
  34. Ex. 116.34Modeling

    O laplaciano L=DWL = D - W de um grafo não-dirigido com pesos positivos é simétrico e PSD. Mostre por que xTLx=(i,j)wij(xixj)20x^T L x = \sum_{(i,j)} w_{ij}(x_i - x_j)^2 \geq 0.

    Show solution
    Laplaciano de grafo: L=DWL = D - W (grau menos adjacência). Simétrico: LT=DTWT=DW=LL^T = D^T - W^T = D - W = L (grafo não-dirigido). PSD: xTLx=(i,j)Ewij(xixj)20x^T L x = \sum_{(i,j) \in E} w_{ij}(x_i - x_j)^2 \geq 0. Autovalor zero tem multiplicidade = número de componentes conexas do grafo.
  35. Ex. 116.35Understanding

    Por que toda matriz simétrica real tem autovalores reais? (Demonstre usando o produto interno complexo.)

    Show solution
    Para AA simétrica real e Av=λvAv = \lambda v com v0v \neq 0: λv2=λv,v=λv,v=Av,v=v,ATv=v,Av=v,λv=λˉv2\lambda \|v\|^2 = \lambda \langle v, v \rangle = \langle \lambda v, v \rangle = \langle Av, v \rangle = \langle v, A^T v \rangle = \langle v, Av \rangle = \langle v, \lambda v \rangle = \bar\lambda \|v\|^2. Logo λ=λˉ\lambda = \bar\lambda, ou seja λR\lambda \in \mathbb{R}.
    Show step-by-step (with the why)
    1. Suponha λC\lambda \in \mathbb{C} e Av=λvAv = \lambda v com v0v \neq 0. Por quê: não assumimos a priori que λ\lambda é real.
    2. Calcule vˉTAv\bar v^T A v de dois modos: (a) vˉT(Av)=vˉT(λv)=λv2\bar v^T (Av) = \bar v^T (\lambda v) = \lambda \|v\|^2; (b) vˉTAv=(ATvˉ)Tv=(Avˉ)Tv=(Av)Tv=(λv)Tv=λˉv2\bar v^T A v = (A^T \bar v)^T v = (A \bar v)^T v = (\overline{Av})^T v = (\overline{\lambda v})^T v = \bar\lambda \|v\|^2.
    3. Igualando: λv2=λˉv2\lambda \|v\|^2 = \bar\lambda \|v\|^2. Como v2>0\|v\|^2 > 0, segue λ=λˉ\lambda = \bar\lambda, ou seja λR\lambda \in \mathbb{R}.

    Observação: este argumento usa A=ATA = A^T e AA real (para Av=Avˉ\overline{Av} = A\bar v). Para matrizes hermitianas complexas (A=AA^* = A), o mesmo argumento funciona com o produto interno hermitiano.

  36. Ex. 116.36Understanding

    Demonstre que autovetores de uma matriz simétrica correspondentes a autovalores distintos são ortogonais.

    Show solution
    Sejam Av1=λ1v1Av_1 = \lambda_1 v_1 e Av2=λ2v2Av_2 = \lambda_2 v_2 com λ1λ2\lambda_1 \neq \lambda_2. Então: λ1v1,v2=Av1,v2=v1,Av2=λ2v1,v2\lambda_1 \langle v_1, v_2 \rangle = \langle Av_1, v_2 \rangle = \langle v_1, Av_2 \rangle = \lambda_2 \langle v_1, v_2 \rangle (usamos A=ATA = A^T). Como λ1λ2\lambda_1 \neq \lambda_2, temos v1,v2=0\langle v_1, v_2 \rangle = 0.
  37. Ex. 116.37Challenge

    Demonstre que toda matriz ortogonal tem determinante ±1\pm 1.

    Show solution
    Para QQ ortogonal: 1=det(I)=det(QTQ)=det(QT)det(Q)=(detQ)21 = \det(I) = \det(Q^TQ) = \det(Q^T)\det(Q) = (\det Q)^2. Logo detQ=±1\det Q = \pm 1.
  38. Ex. 116.38Challenge

    Se QQ é ortogonal e Qv=λvQv = \lambda v (autovalor complexo), mostre que λ=1|\lambda| = 1.

    Show solution
    Se AA é ortogonal, Q1=QTQ^{-1} = Q^T. Logo Qv=λvv=Q1(λv)=QT(λv)=λQTvQv = \lambda v \Rightarrow v = Q^{-1}(\lambda v) = Q^T(\lambda v) = \lambda Q^T v. Também: QTv=v/λQ^T v = v/\lambda e λ2v2=Qv2=v2|\lambda|^2 \|v\|^2 = \|Qv\|^2 = \|v\|^2 (pois QQ preserva norma). Logo λ=1|\lambda|=1.
  39. Ex. 116.39Challenge

    Demonstre que QQ é ortogonal se e somente se QQ preserva todos os produtos internos: Qu,Qv=u,v\langle Qu, Qv \rangle = \langle u, v \rangle para todos u,vu, v.

    Show solution
    Reciprocidade: QQ ortogonal \Leftrightarrow QQ preserva produtos internos. (\Rightarrow) Qu,Qv=(Qu)T(Qv)=uTQTQv=uTIv=u,v\langle Qu, Qv \rangle = (Qu)^T(Qv) = u^T Q^T Q v = u^T I v = \langle u, v \rangle. (\Leftarrow) Se Qu,Qv=u,v\langle Qu, Qv \rangle = \langle u, v \rangle para todo u,vu, v, então tomando a base canônica: (QTQ)ij=Qei,Qej=ei,ej=δij(Q^TQ)_{ij} = \langle Q e_i, Q e_j \rangle = \langle e_i, e_j \rangle = \delta_{ij}. Logo QTQ=IQ^TQ = I.
  40. Ex. 116.40Proof

    Demonstre o teorema espectral para matrizes simétricas 2×22 \times 2: toda A=ATM2(R)A = A^T \in \mathcal{M}_2(\mathbb{R}) é ortogonalmente diagonalizável.

    Show solution
    Para A=(abbc)A = \begin{pmatrix}a&b\\b&c\end{pmatrix} simétrica, o polinômio característico tem discriminante Δ=(ac)2+4b20\Delta = (a-c)^2 + 4b^2 \geq 0. Logo dois autovalores reais λ1,2=(a+c)±Δ2\lambda_{1,2} = \frac{(a+c) \pm \sqrt{\Delta}}{2}. Para cada, encontra-se autovetor unitário. Se λ1λ2\lambda_1 \neq \lambda_2, são ortogonais. Se λ1=λ2=λ\lambda_1 = \lambda_2 = \lambda, então A=λIA = \lambda I (verificar: a=ca = c e b=0b = 0), e qualquer base ortonormal diagonaliza AA. Em ambos os casos, A=QDQTA = QDQ^T.
  41. Ex. 116.41Proof

    Demonstre que uma matriz simétrica AA é SPD se e somente se existe LL inversível com A=LLTA = LL^T.

    Show solution
    (\Rightarrow) Se AA é SPD, pelo espectral A=QDQTA = QDQ^T com λi>0\lambda_i > 0. Defina L=QDQTL = Q\sqrt{D}Q^T (simétrica, inversível). Então LLT=(QDQT)(QDQT)=QDQT=ALL^T = (Q\sqrt{D}Q^T)(Q\sqrt{D}Q^T) = Q D Q^T = A. (\Leftarrow) Se A=LLTA = LL^T com LL inversível, então xTAx=xTLLTx=LTx2>0x^TAx = x^TLL^Tx = \|L^Tx\|^2 > 0 para x0x \neq 0 (pois LTL^T é inversível: LTx=0x=0L^Tx = 0 \Rightarrow x = 0).
  42. Ex. 116.42Proof

    Demonstre que ATAA^TA e AATAA^T têm os mesmos autovalores não-nulos (com a mesma multiplicidade).

    Show solution
    Seja Av=λvAv = \lambda v com v0v \neq 0 e λ0\lambda \neq 0. Então (ATA)(ATv)=AT(AATv)(A^TA)(A^T v) = A^T(AA^T v)... melhor: note ATA(ATv)=AT(AATv)A^TA(A^Tv) = A^T(AA^T v). Considere que A(ATv)=AATvA(A^Tv) = AA^T v. Para relacionar autovalores de ATAA^TA e AATAA^T: se ATAu=μuA^TAu = \mu u com u0u \neq 0 e μ0\mu \neq 0, então AAT(Au)=A(ATAu)=A(μu)=μ(Au)AA^T(Au) = A(A^TAu) = A(\mu u) = \mu(Au). Como μ0\mu \neq 0 e u0u \neq 0, temos Au0Au \neq 0 (pois Au2=uTATAu=μu2>0\|Au\|^2 = u^T A^T A u = \mu \|u\|^2 > 0). Logo AuAu é autovetor de AATAA^T com autovalor μ\mu. Simetria garante a recíproca.

Fontes

Updated on 2026-05-06 · Author(s): Clube da Matemática

Found an error? Open an issue on GitHub or submit a PR — open source forever.