Algebra lineare

  • Materia: Algebra lineare
  • Visto: 6433
  • Data: 14/06/2007
  • Di: Redazione StudentVille.it

Algebra Lineare - applicazioni lineari, operatore di trasposizione

esercizio svolto o teoria

A cura di: Gianni Sammito

Dato $n > 1$, sia $\alpha:M_{n}(\mathbb{C}) \rightarrow M_{n}(\mathbb{C})$ l'applicazione definita come: $\alpha(M)=M^t$ (l'esponente $t$ indica la trasposizione, mentre $M_{n}(\mathbb{C})$ indica lo spazio vettoriale delle matrici quadrate di ordine $n$ a coefficienti complessi).
 
  1. È vero che$\alpha$ è lineare? (se no, dire perché e tralasciare le domande successive, se sì dire perché e rispondere anche alle altre domande)
  2. È vero che $\alpha$ è invertibile? Se sì, qual è la sua inversa? Se invece no, descrivere $"ker"(\alpha)$ e $"Im"(\alpha)$.
  3. È vero che $\alpha^2 = I$?
  4. Determinare gli autovalori di $\alpha$, con le loro molteplicità, algebricae e geometrica.
  5. $\alpha$ è diagonalizzabile?
  6. Sia $\beta: M_{n}(\mathbb{C}) \to M_{n}(\mathbb{C})$ definita come segue: $\beta(M) = M + M^t$. $\beta$ è lineare? Se no, tralasciare le domande seguenti.
  7. È vero che $\alpha$ e $\beta$ hanno gli stessi autovalori?
  8. È vero che $\alpha$ e $\beta$ hanno gli stessi autospazi?
  9. È vero che $\alpha - \beta + I = O$?

Un'applicazione si dice lineare se rispetta le proprietà di additività e omogeneità. Date due matrici $A, B \in M_{n}(\mathbb{C})$ e dato $\gamma \in \mathbb{C}$, per ogni $i=1, 2, \ldots, n$, e per ogni $j = 1, 2, \ldots, n$ risulta
 
 $(A+B)_{i,j}^t = (A+B)_{j,i} = (A)_{j,i} + (B)_{j,i} = (A)_{i,j}^t +(B)_{i,j}^t$ (1)
 
$(\gamma A)_{i,j}^t = (\gamma A)_{j,i} = \gamma (A)_{j,i} = \gamma (A)_{i,j}^t$ (2)
 
Da (1) si deduce che
 
$\alpha(M_1 + M_2) = (M_1 + M_2)^{t} = (M_1)^{t} + (M_2)^{t} =\alpha(M_1) + \alpha(M_2) \quad \forall M_1, M_2 \in M_{n}(\mathbb{C})$ (additività)
 
Da (2) si deduce che
 
$\alpha(\lambda M) = (\lambda M)^{t} = \lambda M^{t} = \lambda \alpha(M) \quad \forall M \in M_{n}(\mathbb{C}) \quad \forall \lambda \in \mathbb{C}$ (omogeneità)
 
Quindi $\alpha$ è un'applicazione lineare. $"ker"(\alpha)$ è il sottospazio lineare del dominio che ha come immagine il vettore nullo, in questo caso è l'insieme delle matrici $M$ tali che $\alpha(M) = O$, dove $O \in M_{n}(\mathbb{C})$ indica la matrice nulla.
 
$\alpha(M) = O \implies M^t = O \implies M = O$
 
Quindi l'applicazione $\alpha$ è iniettiva, visto che il nucleo coincide con lo spazio nullo, ma è anche suriettiva, perché è un endomorfismo, e quindi invertibile. L'inversa di $\alpha(\cdot)$ coincide con $\alpha(\cdot)$ stessa, dato che
 
$\alpha(\alpha(M)) = (M^{t})^t = M$
 
che è per l'appunto l'identità, di conseguenza $\alpha^2 = I$, dove $I$ indica l'operatore identità.
Sia $M_s$ una matrice simmetrica, allora
 
$\alpha(M_s) = M_s^{t} = M_s$
 
quindi le matrici simmetriche sono gli autovettori relativi all'autovalore $1$. Sia $M_a$ una matrice antisimmetrica, allora
 
$\alpha(M_a) = M_a^{t} = -M_a$
 
quindi le matrici antisimmetriche sono gli autovettori relativi all'autovalore $-1$.
Data una matrice quadrata $A$, si può sempre scrivere:
 
$A = \frac{A+A^{t}}{2} + \frac{A-A^{t}}{2}$
 
dove il primo addendo è una matrice simmetrica e il secondo addendo è una matrice antisimmetrica. Questo vuol dire che ogni matrice quadrata può essere scritta come la somma di una matrice simmetrica e una matrice antisimmetrica, perciò gli autovettori di $\alpha$ formano una base di $M_n(\mathbb{C})$, per questo $\alpha$ è diagonalizzabile.
Gli autospazi di $\alpha$ sono due: lo spazio delle matrici antisimmetriche e lo spazio delle matrici simmetriche.
Una matrice antisimmetrica ha valori tutti nulli sulla diagonale principale, mentre i valori sopra la diagonale sono opposti a quelli sotto, per questo, per poter formare una base dello spazio delle matrici antisimmetriche, servono tante matrici quanti sono gli elementi sopra la diagonale, cioè
 
$\frac{n^2-n}{2}$
 
ovvero da tutti gli elementi si tolgono quelli sulla diagonale e si divide per due. Quindi la dimensione dell'autospazio relativo alle matrici antisimmetriche è $\frac{n^2-n}{2}$, ma dato che $\alpha$ è diagonalizzabile questa è anche la molteplicità algebrica dell'autovalore $-1$.
Ragionando analogamente per lo spazio delle matrici simmetriche, per formare una base servono tanti elementi quanto sono quelli sopra la diagonale, più gli $n$ elementi della diagonale, quindi la dimensione dell'autospazio delle matrici simmetriche vale
 
$n+\frac{n^2-n}{2} = \frac{n^2+n}{2}$
 
e questa è anche la molteplicità algebrica dell'autovalore $1$, sempre perché $\alpha$ è diagonalizzabile.
Verifichiamo che $\beta$ è un'applicazione lineare:
 
$\beta(M_1 + M_2) = (M_1 + M_2) + (M_1 + M_2)^t = (M_1 + M_1^t) + (M_2 + M_2^t) =$
$= \beta(M_1) + \beta(M_2) \quad \forall M_1, M_2 \in M_{n}(\mathbb{C}) $
 
$\beta(\lambda M) = \lambda M + (\lambda M)^t = \lambda(M+M^t) = \lambda \beta(M) \quad \forall M \in M_{n}(\mathbb{C}) \quad \forall \lambda \in \mathbb{C}$
 
Sia $M_s$ una matrice simmetrica, allora risulta:
 
$\beta(M_s) = M_s + M_s^t = M_s + M_s = 2 \cdot M_s$
 
quindi le matrici simmetriche sono gli autovettori di $\beta$ relativi all'autovalore $2$, inoltre, sia $M_a$ una matrice antisimmetrica, allora:
 
$\beta(M_a) = M_a + M_a^t = M_a - M_a = O$
 
dove $O$ è la matrice nulla, quindi le matrici antisimmetriche sono gli autovettori di $\beta$ relativi all'autovalore $0$.
$\alpha$ e $\beta$ hanno gli stessi autovettori, quindi anche gli stessi autospazi, anche se relativi ad autovalori diversi.
Per quanto riguarda l'ultima domanda, si può scrivere:
 
$(\alpha - \beta + I)(M) = M^t - (M + M^t) + M = M^t - M - M^t + M = O$
 
che è l'applicazione nulla, quindi è vero che
 
$\alpha - \beta + I = O$
 
dove $I$ indica l'identità. 
 
FINE