Subsections

Apêndice Matemático 1

Operadores e suas representações matriciais

Seja $\hat{O}$ um operador linear num espaço vetorial $E$ sobre os números complexos. Seja $\{\vec{e}_i\}$, com $i=1, \ldots ,n$, uma base desse espaço, que, portanto, tem dimensão $n$. Aplicando-se $\hat{O}$ a um elemento da base, por exemplo, $\vec{e}_i$, tem-se um novo vetor do espaço, que pode ser expandido na base dada. Esta expansão é escrita
\begin{displaymath}
\hat{O}\vec{e}_i = \sum_{j=1}^{n}O_{ji}\vec{e}_j
\end{displaymath} (868)

onde os $O_{ji}$ são números complexos, denominados elementos de matriz de $\hat{O}$ na base $\{\vec{e}_i\}$.

Seja $\vec{v}$ um vetor qualquer de $E$, tal que

\begin{displaymath}
\vec{v}=\sum_{i=1}^{n}v_i\vec{e}_i \; .
\end{displaymath} (869)

Temos
\begin{displaymath}
\hat{O}\vec{v}= \hat{O}\sum_{i=1}^{n}v_i\vec{e}_{i}
=\sum_{i=1}^{n}v_i\hat{O}\vec{e}_i
\end{displaymath} (870)

e, usando (869),
\begin{displaymath}
\hat{O}\vec{v}=\sum_{i=1}^{n}\sum_{j=1}^{n}v_i O_{ji}\vec{e}_j
\end{displaymath} (871)

A equação (872) mostra que, de posse dos elementos de matriz de $\hat{O}$, é possível determinar a ação deste operador sobre qualquer vetor. Ou seja, escolhida uma base, o operador pode ser substituído pelo conjunto de seus elementos de matriz. Convenciona-se escrever o conjunto desses elementos de matriz da seguinte forma:
\begin{displaymath}
O = \left( \begin{array}{cccc}
O_{11} & O_{12} & ... & O_{...
... .... \\
O_{n1} & O_{n2} & ... & O_{nn} \end{array} \right)
\end{displaymath} (872)

Uma segunda maneira de ler a eq.(872) é : as componentes do vetor $\hat{O}\vec{v}$ em relação à base dada são os números complexos
\begin{displaymath}
\left(\hat{O}\vec{v}\right)_j=\sum_{i=1}^{n}O_{ji}v_i
\end{displaymath} (873)

Se representarmos os vetores por matrizes coluna cujos elementos são as suas componentes,
\begin{displaymath}
\vec{v} \Leftrightarrow \left( \begin{array}{c}
v_{1}\\
v_{2}\\
... \\
v_{n} \end{array} \right)
\end{displaymath} (874)

podemos representar a ação de um operador sobre um vetor assim:
\begin{displaymath}
\hat{O}\vec{v} \Leftrightarrow \left( \begin{array}{cccc}
...
...y}{c}
v_{1}\\
v_{2}\\
... \\
v_{n} \end{array} \right)
\end{displaymath} (875)

onde, para calcular o segundo membro, usam-se as regras de produtos de matrizes usuais.

O leitor, como exercício, poderá mostrar que a representação matricial do operador $\hat{O}_1\hat{O}_2$, produto dos operadores $\hat{O}_1$ e $\hat{O}_2$, é dada pelo produto, no sentido de matrizes, das matrizes que representam $\hat{O}_1$ e $\hat{O}_2$, nesta ordem. Recordemos que o produto das matrizes $A$, de elementos $A_{ij}$ e $B$, de elementos $B_{ij}$, é a matriz de elementos

\begin{displaymath}
(AB)_{ij}= \sum_{k=1}^{n}A_{ik}B_{kj}
\end{displaymath} (876)

regra que pode ser obtida facilmente da equação (869).

Seja $\{\vec{f}_i\}$ uma segunda base. Podemos escrever

\begin{displaymath}
\hat{O}\vec{f}_i=\sum_{j=1}^{n}\left(O_f\right)_{ji}\vec{f}_{j}
\end{displaymath} (877)

enquanto que, em relação à primeira (para o mesmo $\hat{O}$)
\begin{displaymath}
\hat{O}\vec{e}_{i}=\sum_{j=1}^{n}\left(O_e\right)_{ji}\vec{e}_j
\end{displaymath} (878)

onde indicamos com $O_f$ e $O_e$ as matrizes que representam $\hat{O}$ nas bases $\{\vec{f}_i\}$ e $\{\vec{e}_i\}$ respectivamente. As matrizes $O_f$ e $O_e$ representam o mesmo operador em bases distintas. Matrizes com esta propriedades são ditas equivalentes. O que caracteriza matrizes equivalentes?

Transformações entre bases

Um elemento qualquer da base (f) pode ser expandido na base (e):
\begin{displaymath}
\vec{f}_i=\sum_{m}f_{mi}\vec{e}_m
\end{displaymath} (879)

e analogamente,
\begin{displaymath}
\vec{e}_s=\sum_{r}g_{rs}\vec{f}_r
\end{displaymath} (880)

Logo, segue que
\begin{displaymath}
\vec{e}_s=\sum_{r}g_{rs}\vec{f}_r=\sum_{r}g_{rs}\sum_{m}f_{mr}\vec{e}_{m}
\end{displaymath} (881)

ou
\begin{displaymath}
\vec{e}_s=\sum_{m}\left(\sum_{r}f_{mr}g_{rs}\right)\vec{e}_{m}
\end{displaymath} (882)

de onde segue, imediatamente, que
\begin{displaymath}
\sum_{r}f_{mr}g_{rs} = \delta_{ms}
\end{displaymath} (883)

Invertendo os papeis das bases (e) e (f), obtém-se, da mesma maneira,
\begin{displaymath}
\sum_{m}g_{rm}f_{mi}=\delta_{ri}
\end{displaymath} (884)

Seja $F$ a matriz cujos elementos são $f_{mi}$, e $G$ aquela cujos elementos são $g_{rm}$. Então as equações (884) e (885) são escritas, respectivamente,
\begin{displaymath}
FG=1
\end{displaymath} (885)

e
\begin{displaymath}
GF=1
\end{displaymath} (886)

Quando, entre duas matrizes, existe este par de relações, uma é o inverso da outra. Ou seja,
\begin{displaymath}
G=F^{-1}
\end{displaymath} (887)

ou, equivalentemente,
\begin{displaymath}
F=G^{-1}
\end{displaymath} (888)

A condição necessária e suficiente para que uma matriz tenha inverso é que seu determinante seja diferente de zero.

Matrizes equivalentes

Sejam $O_f$ e $O_e$ duas representações matriciais do operador $\hat{O}$, ou seja, duas matrizes equivalentes. Temos
\begin{displaymath}
\hat{O}\vec{f}_i=\sum_j\left(O_f\right)_{ji}\vec{f}_j
=\sum_j\left(O_f\right)_{ji}\sum_{rl}f_{lj}\vec{e}_l
\end{displaymath} (889)

Por outro lado,
\begin{displaymath}
\hat{O}\vec{f}_i=\hat{O}\sum_{m}f_{mi}\vec{e}_{m}
=\sum_{...
...c{e}_m=\sum_{m}f_{mi}\sum_{l}
\left(O_e\right)_{lm}\vec{e}_l
\end{displaymath} (890)

Igualando (890) e (891), temos
\begin{displaymath}
\sum_{j}f_{lj}\left(O_f\right)_{ji}=\sum_{m}\left(O_e\right)_{lm}f_{mi}
\end{displaymath} (891)

ou, na linguagem das matrizes,
\begin{displaymath}
FO_f = O_e F
\end{displaymath} (892)

ou, na forma mais comum,
\begin{displaymath}
O_e = F O_f F^{-1}
\end{displaymath} (893)

Em palavras, duas matrizes $A$ e $B$ são equivalentes se existir uma matriz não-singular (isto é, que tem inversa) $F$ tal que
\begin{displaymath}
A = FBF^{-1}
\end{displaymath} (894)

Uma relação desse tipo entre matrizes $A$ e $B$ é dita também uma transformação de eqüivalência, ou de semelhança. A riqueza de sinônimos revela a idade do problema!

Exercícios:
1. Mostre que, se o operador $\hat{O}$ possui inverso e se a representação matricial dele em uma determinada base é a matriz $A$, então a representação matricial de $\hat{O}^{-1}$ nesta mesma base é a matriz $A^{-1}$.
2. Mostre que duas matrizes equivalentes têm o mesmo traço e o mesmo determinante. Por isso essas duas quantidades são ditas invariantes de uma matriz.

Autovalores de uma matriz

Sejam $\hat{O}$ um operador linear e $\vec{v} \neq 0$ um vetor tais que
\begin{displaymath}
\hat{O}\vec{v}=\lambda \vec{v}
\end{displaymath} (895)

onde $\lambda$ é um número complexo. Diz-se que $\vec{v}$ é um autovetor de $\hat{O}$, e que $\lambda$ é um autovalor de $\hat{O}$. A equação acima pode ser escrita assim:
\begin{displaymath}
\left(\hat{O}-\lambda \hat{1}\right)\vec{v}=0
\end{displaymath} (896)

Suponhamos que o operador $\hat{O}-\lambda\hat{1}$ tenha inverso, denotado por $\hat{U}=\left(\hat{O}-\lambda\hat{1}\right)^{-1}$. Então, aplicando-se $\hat{U}$ à esquerda de (897), temos
\begin{displaymath}
\hat{U}\left(\hat{O}-\lambda \hat{1}\right)\vec{v}= \vec{v}=0
\end{displaymath} (897)

o que é absurdo, pois $\vec{v}$, como autovetor, deve ser não-nulo. Conclui-se que o operador $\left(\hat{O}-\lambda \hat{1}\right)$ é singular, ou seja, não tem inverso. Em conseqüência, suas representações matriciais também não terão inverso.

A versão matricial da eq.(897) é

\begin{displaymath}
\sum_{j}\left(O_{ij}-\lambda \delta_{ij}\right)v_j=0
\end{displaymath} (898)

onde $O_{ij}$ é o elemento $ij$ da matriz $O$, que representa o operador $\hat{O}$ em alguma base, e $\delta_{ij}$ é o elemento $ij$ da matriz que representa o operador $\hat{1}$. Em conseqüência da conclusão acima, o primeiro membro da eq.(899) deve ser uma matriz singular (sem inverso). Logo, devemos ter
\begin{displaymath}
det \left(O_{ij}-\lambda \delta_{ij}\right)=0
\end{displaymath} (899)

que é uma maneira simplificada de dizer que o determinante da matriz cujo elemento genérico é $O_{ij}-\lambda \delta_{ij}$ é zero.

Esta equação, $\lambda$ sendo a incógnita, é uma equação algébrica de ordem igual à dimensão $n$ do espaço, ou, o que é o mesmo, igual à ordem da matriz. Em prinípio tem $n$ soluções, mas não necessariamente distintas. Estas soluções são os autovalores do operador, e são também chamadas de autovalores da matriz que representa o operador. A equação (900) é conhecida como equação secular.

Diagonalização de uma matriz

Neste capítulo, diferentemente do que ocorreu nos anteriores, omitiremos os sinais de somatória, usando a convenção de que índices repetidos indicam a soma sobre todos os valores desses índices.

Seja $A$ uma matriz, de elementos $A_{ij}$, que são números complexos. Seja $\lambda_1$ um autovalor da matriz $A$. Isto quer dizer que existe $\vec{v}$ tal que36

\begin{displaymath}
A\vec{v} = \lambda_1 \vec{v}
\end{displaymath} (900)

ou
$\displaystyle A_{11}v_1 + A_{12}v_2 + \ldots +A_{1n}v_n$ $\textstyle =$ $\displaystyle \lambda_1 v_1$  
$\displaystyle A_{12}v_1 + A_{22}v_2 + \ldots +A_{2n}v_n$ $\textstyle =$ $\displaystyle \lambda_1 v_2$  
$\displaystyle .........................................$ $\textstyle =$ $\displaystyle .............$  
$\displaystyle A_{1n}v_1 + A_{2n}v_2 + \ldots +A_{nn}v_n$ $\textstyle =$ $\displaystyle \lambda_1 v_n$ (901)

Mais geralmente, seja $\vec{v}_{k}$ o autovetor correspondente ao autovalor $\lambda_{k}$,
\begin{displaymath}
A\vec{v}_k = \lambda_k \vec{v}_k
\end{displaymath} (902)

Escrevendo a relação acima em componentes, temos
\begin{displaymath}
\left(A\vec{v}_{k}\right)_{i}=\lambda_k \left(\vec{v}\right)_i
\end{displaymath} (903)

ou
\begin{displaymath}
A_{ij}\left(\vec{v}_{k}\right)_{j}=\lambda_{k}\left(\vec{v}_{k}\right)_{i}
\end{displaymath} (904)

Considere a matriz cujos elementos são
\begin{displaymath}
\rho_{ik} = \left(\vec{v}_{k}\right)_{i}
\end{displaymath} (905)

Então

\begin{displaymath}
A_{ij}\left(\vec{v}_{k}\right)_j= A_{ij}\rho_{jk}=\lambda_k\rho_{ik}
\end{displaymath} (906)

ou, definindo a matriz diagonal $\Lambda$, de elementos
\begin{displaymath}
\Lambda_{ij}=\lambda_{j}\delta_{ij}
\end{displaymath} (907)


\begin{displaymath}
\left(A\rho\right)_{ik}=\left(\rho \Lambda\right)_{ik}
\end{displaymath} (908)

ou, como uma equação matricial,
\begin{displaymath}
A\rho = \rho\Lambda
\end{displaymath} (909)

Se a matriz $\rho$ for inversível, isto é, se existir $\rho^{-1}$, obtemos, aplicando $\rho^{-1}$ à esquerda,
\begin{displaymath}
\rho^{-1}A\rho = \Lambda
\end{displaymath} (910)

A matriz $A$ foi transformada, por uma ``transformação de semelhança'', numa matriz diagonal. Seja $\hat{A}$ o operador linear que, em relação a uma determinada base, possui a representação matricial $A$. A equação (911) mostra que, no caso de $\rho$ possuir inversa, existe uma outra base na qual $\hat{A}$ é representado pela matriz diagonal $\Lambda$.

Que matriz é $\rho$? Sejam

\begin{displaymath}
\vec{v}_k = \left( \begin{array}{c}
v_{k1}\\
v_{k2}\\
... \\
v_{kn} \end{array} \right) \nonumber \\
\end{displaymath}  

os autovetores de $A$, para $k=1\ldots n$. Seja a matriz construída justapondo-se essas matrizes colunas designada por $v$. Então
\begin{displaymath}
v = \left( \begin{array}{cccc}
v_{11} & v_{21} & ... & v_{...
...& ... \\
v_{1n} & v_{2n} & ... & v_{nn} \end{array} \right)
\end{displaymath} (911)

A matriz $\rho$ é a transposta de $v$, ou seja,
\begin{displaymath}
\rho=
\left( \begin{array}{cccc}
v_{11} & v_{12} & ... & ...
...& ... \\
v_{n1} & v_{n2} & ... & v_{nn} \end{array} \right)
\end{displaymath} (912)

Condição necessária e suficiente para que exista $\rho^{-1}$ é que o determinante de $\rho$ seja diferente de zero. Ora, uma condição suficiente para que o determinante de uma matriz seja não-nulo é que suas linhas sejam linearmente independentes. Como as linhas de $\rho$ são os autovetores $\vec{v}_{k}$, conclui-se que uma condição suficiente para que exista $\rho^{-1}$ é que os autovetores de $A$ sejam linearmente independentes. Um corolário é que, se $A$ é hermiteana, ela é diagonalizavel, pois o conjunto dos autovetores de uma matriz hermiteana forma uma base, o que significa que os autovetores são linearmente independentes.

Exemplo

Diagonalizar a matriz complexa37
\begin{displaymath}
A=\left( \begin{array}{cc}
0 & 1\\
1 & 0 \end{array} \right) \; .
\end{displaymath} (913)

A equação secular (900) é, neste caso,
\begin{displaymath}
det \left\{ \left( \begin{array}{cc}
0 & 1\\
1 & 0 \end{...
...ay}{rr}
-\lambda & 1\\
1 & -\lambda \end{array}\right) = 0
\end{displaymath} (914)

ou
\begin{displaymath}
\lambda^2 -1=0
\end{displaymath} (915)

cujas soluções são
\begin{displaymath}
\lambda = \pm 1
\end{displaymath} (916)

Então a matriz, quando estiver na forma diagonal, será
\begin{displaymath}
\left(\begin{array}{rr}
1 & 0\\
0 & -1 \end{array}\right) \; .
\end{displaymath} (917)

Contudo, vamos construir explicitamente a transformação de semelhança que leva $A$ à forma diagonal. Para isso precisamos determinar os autovetores de $A$. Seus autovalores já foram determinados: são $\lambda_1 = +1$ e $\lambda_2 = -1$. Temos Seja $\vec{v}_i$ o autovetor associado ao autovalor $\lambda_i$. Então,
$\displaystyle A\vec{v}_1$ $\textstyle =$ $\displaystyle \lambda_1 \vec{v}_1$ (918)
$\displaystyle A\vec{v}_2$ $\textstyle =$ $\displaystyle \lambda_2 \vec{v}_2$ (919)

Denotando o vetor $\vec{v}_i$ pela matriz coluna

\begin{displaymath}
\left( \begin{array}{c}
(v_i)_1\\
(v_i)_2 \end{array}\right)
\end{displaymath}

temos, para (920):
\begin{displaymath}
\left(\begin{array}{cc}
0 & 1\\
1 & 0 \end{array}\right)...
...left(\begin{array}{c}
(v_1)_1\\
(v_1)_2 \end{array}\right)
\end{displaymath} (920)

Realizando o produto de matrizes do primeiro termo, temos


\begin{displaymath}
\left( \begin{array}{c}
(v_1)_2\\
(v_1)_1 \end{array}\ri...
...eft( \begin{array}{c}
(v_1)_1\\
(v_1)_2 \end{array}\right)
\end{displaymath} (921)

Como a igualdade de matrizes implica na igualdade, um a um, dos termos de mesmos índices, temos
$\displaystyle (v_1)_2$ $\textstyle =$ $\displaystyle (v_1)_1$ (922)
$\displaystyle (v_1)_1$ $\textstyle =$ $\displaystyle (v_1)_2$ (923)

A solução mais geral dessas equações é a matriz coluna
\begin{displaymath}
\vec{v}_1 = \left( \begin{array}{c}
a\\
a \end{array}\right)
\end{displaymath} (924)

onde $a$ é qualquer número diferente de zero. Esta ambigüidade era esperada, pois, pela linearidade dos operadores em questão, se $\vec{v}$ é um autovetor correspondendo a um determinado autovalor, qualquer múltiplo não-nulo seu também o é. Uma maneira de levantar a ambigüidade é exigir que o vetor seja normalizado. Isto se faz assim: o produto escalar de $\vec{v}_1$ consigo mesmo é
\begin{displaymath}
(a^*, a^*)\left(\begin{array}{c}
a\\
a \end{array}\right)= a^* a + a^* a = 2\vert a\vert^2 = 1
\end{displaymath} (925)

Logo, devemos ter $a = \frac{1}{\sqrt{2}}$ (a fase, como sempre, é escolhida arbitrariamente). Portanto,
\begin{displaymath}
\vec{v}_1 = \frac{1}{\sqrt{2}}\left(\begin{array}{c}
1\\
1 \end{array}\right)
\end{displaymath} (926)

Um cálculo análogo leva a
\begin{displaymath}
\vec{v}_2 = \frac{1}{\sqrt{2}}\left(\begin{array}{r}
1\\
-1 \end{array}\right)
\end{displaymath} (927)

Note-se que
\begin{displaymath}
\vec{v}_1.\vec{v}_2 = \frac{1}{2}(1,1)\left(\begin{array}{r}
1\\
-1 \end{array}\right) = 0
\end{displaymath} (928)

que mostra que os autovetores são ortogonais, e, portanro, linearmente independentes. A matriz $\rho$ procurada é, então,
\begin{displaymath}
\rho=\frac{1}{\sqrt{2}} \left(\begin{array}{rr}
1 & 1\\
1 & -1 \end{array}\right)
\end{displaymath} (929)

Como $det \rho = -1$, ela possui inversa, que é
\begin{displaymath}
\rho^{-1}= \rho
\end{displaymath} (930)

Resta mostrar que
\begin{displaymath}
\rho^{-1}A\rho = \left(\begin{array}{rr}
1 & 0\\
0 & -1 \end{array}\right)
\end{displaymath} (931)

De fato,
$\displaystyle \frac{1}{\sqrt{2}}\left(\begin{array}{rr}
1 & 1\\
1 & -1 \end{ar...
...t)\frac{1}{\sqrt{2}}\left( \begin{array}{rr}
1 & 1\\
1 & -1 \end{array}\right)$ $\textstyle =$ $\displaystyle \frac{1}{2}\left(\begin{array}{rr}
2 & 0\\
0 & -2\end{array}\right)=$  
  $\textstyle =$ $\displaystyle \left(\begin{array}{rr}
1 & 0\\
0 & -1\end{array}\right)$ (932)

Exercícios

1.Ache a equação secular (também chamada de equação característica) e os autovalores da matriz

\begin{displaymath}
A=\left(\begin{array}{ccc}
1 & 1 & 1\\
1 & 2 & 2\\
1 & 2 & 3 \end{array}\right)
\end{displaymath}


2. Mostre que a matriz

\begin{displaymath}
B = \left(\begin{array}{cc}
a & h\\
h & b \end{array}\right)
\end{displaymath}

é transformada em uma matriz diagonal

\begin{displaymath}
C = T_{\theta}B \left(T_{\theta}\right)^{-1}
\end{displaymath}

onde $T_{\theta}$ é

\begin{displaymath}
T_{\theta}= \left( \begin{array}{rr}
\cos{\theta} & \sin{\theta}\\
-\sin{\theta} & \cos{\theta} \end{array}\right)
\end{displaymath}

e

\begin{displaymath}
\tan{2\theta} = \frac{2h}{a-b}
\end{displaymath}

(transformação de Jacobi).

3. Determine os autovalores e autovetores da matriz

\begin{displaymath}
M=\left(\begin{array}{rrr}
2 & -2 & 2\\
1 & 1 & 1\\
1 & 3 & -1 \end{array}\right)
\end{displaymath}

Resposta: $\lambda_1 = 1\;, \lambda_2=-2 \;,\lambda_3=3$.

4. No caso $l=1$, escreva a representação matricial $l_x$ do operador $\hat{l}_x$ na base em que $\hat{l}_z$ é diagonal. (São os elementos de matriz que calculamos em aula). Determine a transformação de semelhança que diagonaliza $l_x$ e exiba a matriz diagonalizada. Mostre que esta transformação de semelhança ``desdiagonaliza'' (perdão, Luis de Camões!) a matriz $l_z$.

Henrique Fleming 2003