1. Gruppi di matrici

(Cfr.)1

Ricordiamo gli assiomi di gruppo (astratto): un gruppo è un insieme $G$, munito di operazione binaria (di solito indicata con la moltiplicazione) $G\times G \to G$ che sia associativa, in cui esista l’elemento neutro $1\in G$, e per cui ogni $g\in G$ abbia un inverso $g^{-1}$ (cioè un elemento $g^{-1}$ tale che $g g^{-1} = g^{-1} g = 1$). Nella realtà considereremo sempre sottogruppi del gruppo di funzioni biunivoche $X\to X$ definite su un certo insieme $X$ (permutazioni, se $X$ è finito, oppure …).

(1.1) Definizione. Un gruppo topologico è sia un gruppo sia uno spazio topologico di Hausdorff, con in più le seguenti proprietà di continuità:

  1. Il prodotto $G \times G \to G$, definito da $(g,h) \mapsto gh$ è una funzione continua.

  2. L’inversione $G \to G$ definita da $g \mapsto g^{-1}$ è una funzione continua.


(1.2) Esempio. I campi $\QQ $ e $\RR $ (visti come gruppi additivi) sono gruppi topologici rispetto alla somma. I gruppi moltiplicativi $\QQ \smallsetminus \{ 0\} $, $\RR \smallsetminus \{ 0\} $ sono gruppi topologici rispetto al prodotto. Per (1.5) sotto, basta dimostralo per $\RR $. La funzione $f\from \RR ^2 \to \RR $ definita da $(x,y) \mapsto x+y$ è continua: se $(x_0,y_0)\in \RR ^2$, per ogni $\epsilon > 0$ esiste $\delta = \epsilon /2$ tale che

\[ \begin{aligned} \max \{ |s|,|t|\} < \delta & \implies | s + t | < \epsilon & \iff |f(x_0+s,y_0+t) - f(x_0,y_0) | < \epsilon . \end{aligned} \]

Quindi $f$ è continua nella topologia prodotto (che è equivalente a quella euclidea). Analogamente (facile) la funzione $x\mapsto -x$ è continua. Per il prodotto, la funzione definita da $f(x,y) = xy$ è continua: se $(x_0,y_0) \in \RR ^2$, per ogni $\epsilon > 0$

\[ \begin{aligned} \exists \delta _ x > 0 & : |s| < \delta _ x \implies |sy_0| < \epsilon /3 \\ \exists \delta _ y > 0 & : |t| < \delta _ y \implies |tx_0| < \epsilon /3. \end{aligned} \]

Se si pone quindi

\[ \delta = \min \{ \delta _ x,\delta _ y,\sqrt {\epsilon /3} \} \]

si ha

\[ \begin{aligned} \max \{ |s|,|t| \} < \delta & \implies |(x_0+s)(y_0+t) -x_0y_0| \leq \\ & \leq |tx_0| + |sy_0| + |st| < \epsilon /3 + \epsilon /3 + \epsilon /3 = \epsilon . \end{aligned} \]

Per quanto riguarda la funzione $x\mapsto x^{-1}$, sia $x_0\neq 0$. Allora esiste $\delta _1 > 0$ tale che $|t| < \delta _1 \implies |x_0+t| > \dfrac {|x_0|}{2} \implies |x_0+t|^{-1} < \dfrac {2}{|x_0|}$. Se poniamo quindi

\[ \delta = \min \{ \delta _1, \dfrac {\epsilon |x_0|^2}{2} \} \]

otteniamo un $\delta > 0$ per cui

\[ \begin{aligned} |t| < \delta & \implies \left| \dfrac {1}{x_0+t} - \dfrac {1}{x_0} \right| = \dfrac {|t|}{|x_0+t||x_0|} \\ < \dfrac {2|\delta |}{|x_0|^2} \leq \epsilon , \end{aligned} \]

e quindi $x\mapsto x^{-1}$ è una funzione continua.

(1.3) Nota. Ogni gruppo, munito della topologia discreta, può essere visto come gruppo topologico. Per esempio, l’anello degli interi $\ZZ $ (in cui si considera solo la struttura di somma) è un gruppo discreto infinito.

(1.4) Esempio. $\ZZ / n\ZZ $ è gruppo topologico (con la topologia discreta).

(1.5) Sia $G$ un gruppo topologico. Allora: Se $H\subset G$ è un sottogruppo di $G$ allora (con la topologia indotta da $G$) è un gruppo topologico.

Dim. Se $H\subset G$ è un sottogruppo, allora la moltiplicazione e l’inversa sono mappe ottenute per restrizione: \[ m\from H\times H \subset G \to G, i\from H \subset G \to H, \] e quindi sono continue. Questo dimostra (1.5) (insieme al fatto che un sottospazio di uno spazio di Hausdorff è di Hausdorff).
QED

(1.6) Siano dati $N$ spazi topologici $X_1$, $X_2$, $X_3$, ... , $X_ N$. Consideriamo il prodotto $X = X_1\times X_2 \times ... \times X_ N$ e le proiezioni sulle componenti $p_1\from X \to X_1$, $p_2\from X \to X_2$, ... , $p_ N\from X \to X_ N$. Allora una funzione $f\from Y\to X_1\times X_2 \times ... \times X_ N$ è continua se e solo se lo sono tutte le composizioni $p_ i \circ f\from Y \to X_ i$. (Di solito si scrive, per semplificare, $f_ i = p_ i \circ f$)

Dim. Basta applicare un numero finito di volte (2.3) di pagina *.
QED

(1.7) Lo spazio euclideo $\RR ^ n$ è gruppo topologico rispetto alla somma \[ (x_1, ... , x_ n) + (y_1, ... , y_ n) = (x_1 + y_1, ... , x_ n + y_ n). \]

Dim. È una conseguenza del fatto che la somma è una funzione continua (come anche il prodotto), e del lemma (1.6).
QED

(1.8) Sia $GL(n) = GL(n,\RR )$ il gruppo (chiamato gruppo lineare) di tutte le matrici invertibili $n\times n$ a coefficienti reali (gruppo rispetto alla moltiplicazione di matrici), munito della topologia metrica – indotta dalla inclusione $GL(n) \subset \RR ^{n^2}$. Allora $GL(n)$ è un gruppo topologico. Lo stesso vale per il gruppo lineare complesso $GL(n,\CC )$.

Dim. Osserviamo che lo spazio di tutte le matrici $n\times n$ è isomorfo (come spazio vettoriale, per esempio) a $\RR ^{n^2}$, per cui in questa lezione denoteremo con il simbolo $\RR ^{n^2}$ lo spazio delle matrici $n\times n$. L’inclusione $GL(n) \subset \RR ^{n^2}$ è indotta dall’inclusione di $GL(n)$ nello spazio di tutte le matrici $n\times n$. Dal momento che $\RR ^{n^2}$ è metrico, $GL(n)$ è di Hausdorff. Dobbiamo mostrare che la moltiplicazione di matrici e l’inversione inducono funzioni continue $m\from GL(n)\times GL(n) \to GL(n)$ e $i\from GL(n) \to GL(n)$. Osserviamo che, dato che $GL(n)$ ha la topologia indotta da $\RR ^{n^2}$, le funzioni $m$ e $i$ sono continue se e solo se lo sono le corrispondenti funzioni $m\from GL(n) \times GL(n) \to \RR ^{n^2}$ e $i\from GL(n) \to \RR ^{n^2}$, e quindi, per (1.6) se tutte le composizioni con le proiezioni $p_ i$ sono continue (cioè, se ogni componente è continua). Ma il prodotto di matrici (righe per colonne) si scrive come \[ \left( (a_{i,j}) , (b_{i,j}) \right) \mapsto ( \sum _{k=1}^{N} a_{i,k}b_{k,j} ), \] cioè è un polinomio nei coefficienti delle matrici $(a_{i,j})$ e $(b_{i,j})$. Dal momento che ogni polinomio è funzione continua, la moltiplicazione è continua. Analogamente, il determinante di una matrice è espressione polinomiale dei suoi coefficienti ed è sempre diverso da zero in $GL(n)$, ed anche i cofattori (che compaiono nella definizione di matrice inversa) si esprimono come polinomi dei coefficienti, per cui la funzione di inversione $i$ è continua. Per le matrici con coefficienti complessi vale esattamente lo stesso ragionamento.
QED

(1.9) Il gruppo lineare $GL(n,\RR )$ non è compatto.

Dim. Per il teorema (1.11) un sottoinsieme di $\RR ^{n^2}$ è compatto se e solo se chiuso e limitato, e quindi $GL(n,\RR )$ non è compatto perché non è limitato: contiene tutte le matrici diagonali $\lambda I_ n$, con $\lambda \in \RR $. Non è nemmeno chiuso: infatti, nella dimostrazione di (1.8) abbiamo usato il fatto che la funzione determinante $\det \from \RR ^{n^2} \to \RR $ è continua. Per definizione si ha \[ GL(n,\RR ) = \{ M : \det (M) \neq 0 \} , \] cioè $GL(n,\RR )$ è la controimmagine del sottospazio aperto $\RR \smallsetminus \{ 0\} \subset \RR $, ed è quindi un aperto di $\RR ^{n^2}$. Ma quest’ultimo spazio è connesso, e quindi un aperto non vuoto con complementare non vuoto non può essere chiuso.
QED

Descriviamo ora due sottogruppi importanti di $GL(n,\RR $):

Gruppo ortogonale: : $O(n) = \{ A \in GL(n,\RR ) : A^ t A = A A^ t = I_ n \} $.

Gruppo speciale ortogonale: : $SO(n) = \{ A \in O(n) : \det (A) = 1 \} $.

(1.10) Sia $O(n)$ il gruppo ortogonale, costituito da tutte le matrici ortogonali $n\times n$ a coefficienti reali, e $SO(n)$ il gruppo speciale ortogonale, costituito da tutte le matrici di $O(n)$ con determinante $+1$. Allora $O(n)$ e $SO(n)$ sono gruppi topologici compatti.

Dim. Ricordiamo che $O(n)$ è formato da tutte le matrici $A$ (invertibili) di $GL(n)$ tali che $A A^ t = A^ t A = I_ n$ (dove $A^ t$ indica la trasposta di $A$ e $I_ n$ la matrice identica $n\times n$). Dato che $O(n) \subset GL(n) \subset \RR ^{n^2}$, per (1.11) dobbiamo mostrare che è chiuso e limitato. La moltiplicazione di matrici è continua, e chiaramente l’operazione di trasposizione induce un omeomorfismo $\RR ^{n^2} \to \RR ^{n^2}$, per cui la funzione

\[ f\from \RR ^{n^2} \to \RR ^{n^2} \]

definita da

\[ A \mapsto A A^ t \]

si può scrivere come composizione di funzioni continue. Gli insiemi costituiti da singoli punti di $\RR ^{n^2}$ sono tutti chiusi, ed in particolare l’insieme $\{ I_ n\} \subset \RR ^{n^2}$ è chiuso. Dunque $f^{-1}(I_ n)$ è un sottospazio chiuso di $\RR ^{n^2}$; ma

\[ \begin{aligned} f^{-1} (I_ n) & = \{ A \in \RR ^{n^2} : f(A) = I_ n \} \\ & = \{ A \in \RR ^{n^2} : A A^ t = I_ n \} \\ & = O(n)\\ \end{aligned} \]

e dunque $O(n)$ è chiuso. Ora, si indichino con $a_{:,1}$, $a_{:,2}$, ... $a_{:,n}$ i vettori colonna di $A\in O(n)$. La condizione $A A^ t = I_ n$ si può riscrivere come

\[ a_{:,i} \cdot a_{:,j} = \begin{cases} 1 & \text { se $i = j $ } \\ 0 & \text { se $i \neq j $ } \\ \end{cases} \]

dove $v\cdot w$ indica il prodotto scalare standard in $\RR ^ n$, e dunque, considerando la prima equazione, si ha per ogni $i$

\[ a_{:,i} \cdot a_{:,i} = a_{1,i}^2 + a_{2,i}^2 + ... + a_{n,i}^2 = 1, \]

e quindi $a_{i,j} \leq 1$ per ogni $i,j=1, ... , n$. Ne segue che

\[ \sum _{i,j} a_{i,j}^2 = n \leq n, \]

e dunque $O(n)$ è limitato nella metrica euclidea di $\RR ^{n^2}$.

Non rimane che dimostrare che $SO(n)$ è compatto. Ma, dato che si può scrivere come la controimmagine di $1$ mediante la funzione (continua) determinante $\det \from O(n) \to \RR $, esso è un sottospazio chiuso di $O(n)$. Allora segue da (1.15) che esso è compatto.

QED

(1.11) Nota. (Rotazioni e riflessioni) Mostriamo che $SO(2) \approx S^1$.

Se $\begin{bmatrix} a & c \\ b & d \end{bmatrix} \in SO(2)$, allora valgono le uguaglianze

\[ \tag {(*)}{\left\{ \begin{aligned} ad-cb& = 1 & & \text {(il determinante)} \\ a^2 + b^2 & = 1 \\ c^2 + d^2 & = 1 \\ ac + bd & = 0. \end{aligned}\right. } \]

Osserviamo che se $(a,b)\neq 0$, allora l’uguaglianza $ac+bd = 0$ vale se e solo se esiste $\lambda \in \RR $ tale che $d=\lambda a$ e $c=-\lambda b$. Infatti,

\[ a (-\lambda b) + b (\lambda a ) = 0\, . \]

Viceversa, può essere che $b\neq 0$ oppure che $b=0$. Nel primo caso, si ha $ac/b+d=0$ e ponendo $\lambda = -c/b$ risulta

\[ -\lambda a + d = 0,\ -\lambda b = c. \]

Se $b=0$, allora deve necessariamente essere $a\neq 0$ (per l’ipotesi $(a,b)\neq (0,0)$), e si può porre $\lambda = d/a$ per avere le uguaglianze

\[ c + bd/a = c + \lambda b = 0,\ d = \lambda a. \]

Dato che $a^2+b^2=1 \implies (a,b) \neq (0,0)$, il sistema (*) è dunque equivalente al sistema nelle tre variabili $a,b,\lambda $

\[ \tag {(**)} {\left\{ \begin{aligned} a(\lambda a)-(-\lambda b) b& = 1 \\ a^2 + b^2 & = 1 \\ (-\lambda b)^2 + (\lambda b)^2 & = 1 \\ \end{aligned}\right. } \ \iff {\left\{ \begin{aligned} \lambda (a^2 + b^2) & = 1 \\ a^2 + b^2 & = 1 \end{aligned}\right. } \]\[ \iff {\left\{ \begin{aligned} \lambda = 1 \\ a^2 + b^2 & = 1. \end{aligned}\right. } \]

Quindi $c= -b$ e $d=a$, e la matrice deve avere la forma

\[ \begin{bmatrix} a & c \\ b & d \end{bmatrix} = \begin{bmatrix} a & -b \\ b & a \end{bmatrix} \]

con $a^2 + b^2=1$.

La proiezione sulle due componenti del primo vettore-colonna della matrice

\[ \begin{bmatrix} a & c \\ b & d \end{bmatrix} \mapsto (a,b) \in \RR ^2 \]

è una funzione continua $p\from SO(2) \to \RR ^2$, e per quanto visto sopra è iniettiva, ed ha per immagine $S^1\subset \RR ^2$, dato che la circonferenza $S^1 \subset \RR ^2$ è definita dall’equazione $a^2 + b^2=1$. Visto che $SO(2)$ è compatto e $\RR ^2$ è Hausdorff, la funzione $p$ è un omeomorfismo sull’immagine $S^1\subset \RR ^2$.

La mappa $f \from S^1 \subset \RR ^2 \to \RR ^4$ definita ponendo

\[ (a,b) \mapsto \begin{bmatrix} a & -b \\ b & a \end{bmatrix} \]

per ogni $(a,b) \in S^1$ è l’inversa di $p$ (ed è quindi a sua volta un omeomorfismo).

Finiamo osservando che $O(2)$ è suddiviso in due classi: le matrici con determinante $1$ e quelle con determinante $-1$. Le prime, che indichiamo con $SO(2)^+=SO(2)$ e chiamiamo rotazioni, sono esattamente gli elementi di $SO(2)$. Le seconde, che indichiamo con $SO(2)^-$ e chiamiamo riflessioni, sono in corrispondenza biunivoca con gli elementi di $SO(2)$: se $h\in SO(2)^-$ è una riflessione fissata, allora per ogni $r$ in $SO(2)$ il prodotto $hr$ è una riflessione (ha determinante uguale a $\det (r)\det (h)=\det (h)=-1$); la mappa $r \mapsto hr$ è iniettiva ($hr_1 = hr_2 \implies r_1=r_2$) e suriettiva ($h’\in SO(2)^- \implies h’ = h (h h’) = hr$ con $r=h h’\in SO(2)$). Come sopra, si può vedere facilmente che è una funzione continua da un compatto ad un Hausdorff, e quindi anche $SO(2)^- \approx SO(2) \approx S^1$. L’unione è disgiunta, e possiamo scrivere $O(2) = SO(2)^+ \cup SO(2)^- \approx S^1 \cup S^1$.

(1.12) Esempio. Gruppo delle rotazioni di $\RR ^3$ che fissano l’origine: $SO(3)$. È compatto, connesso e connesso per archi. Ogni rotazione non banale fissa una e una sola retta.

Dim. Mostriamo prima che esiste una retta fissata. Supponiamo per assurdo che questo non sia vero. Se $A\in SO(3)$, allora il polinomio caratteristico $p_ A(\lambda )$ ha grado $3$, e quindi ha un autovalore reale $\lambda _1$ con relativo autovettore $\vv _1$. Dato che $A\in O(3)$, si ha $|A\vv _1| = |\vv _1|$ e dunque $|\lambda _1 \vv _1| = |\vv _1| \implies |\lambda _1|=1$, cioè $\lambda _1 \in \pm 1$. Dato che per ipotesi d’assurdo $A$ non ha autovalore $1$, deve essere $\lambda _1 = -1$. Gli altri due autovalori $\lambda _2$ e $\lambda _3$ sono radici (evantualmente coincidenti) di $p_ A(\lambda )$, e non possono essere entrambi uguali a $\lambda _1$ (altrimenti $\det (A)=(\lambda _1)^3=-1 \neq 1$). Ci sono due casi: o sono due radici reali, oppure due radici complesse coniugate. Se sono reali, per lo stesso ragionamento di prima dovrebbero essere uguali a $-1$, e quindi $\det (A)=-1\neq 1$. Quindi sono complesse coniugate $\lambda _3 = \overline\lambda _2$. Ma allora $\det A = \lambda _1 \lambda _2 \overline\lambda _2 = - |\lambda _2|^2 \leq 0 < 1$, il che è assurdo. Quindi almeno un autovalore deve essere uguale a $1$.

Il sottospazio vettoriale ortogonale alla retta fissata è un piano, che rimane invariante: è possibile far vedere che la restrizione di $A$ a questo piano è una rotazione (esercizio), che quindi non fissa altre direzioni.

Per vedere che è connesso e connesso per archi, basta trovare una funzione continua e suriettiva $X \to SO(3)$ con $X$ spazio topologico connesso. Questo sarà fatto nell’esercizio 6.31, con $X=S^3$. Oppure, se $R_ x^\alpha $, $R_ y^\beta $ e $R_ z^\gamma $ denotano le rotazioni di angolo $\alpha $, $\beta $ e $\gamma $ attorno ai tre assi di $\RR ^3$, si può definire la funzione continua $X=S^1\times S^1\times S^1 \to SO(3)$ definita ponendo

\[ (e^{i\alpha },e^{i\beta },e^{i\gamma } ) \mapsto R_ x^\alpha R_ y^\beta R_ z^\gamma . \]

È continua perché composizione di funzioni continue, ed è suriettiva (si veda il Teorema (1.16) poco sotto). Oppure, per vedere che è connesso per archi, osserviamo che le rotazioni attorno all’asse $z$ si scrivono come

\[ R_ z^\theta = \begin{bmatrix} \cos \theta & - \sin \theta & 0 \\ \sin \theta & \cos \theta & 0 \\ 0 & 0 & 1 \\ \end{bmatrix} \]

e la funzione $\theta \in \RR \mapsto R^\theta _ z \in SO(3)$ è continua. Se $A\in SO(3)$ è una rotazione qualsiasi e $x\in S^2$ tale che $Ax=x$, allora esiste certamente una rotazione $Q$ tale che $Q\ve _3=x$ (perché?), e quindi la rotazione $Q^{-1} A Q$ fissa $\ve _3$ ($\ve _3=(0,0,1)$), e dunque $Q^{-1}AQ = R_ z^\theta $, da cui

\[ A = Q R_ z^{\theta } Q^{-1}. \]

Ma allora la funzione $\gamma \from [0,1] \to SO(3)$ definita ponendo

\[ \gamma (t) = Q R_ z^{t\theta } Q^{-1} \]

è continua ed è tale che $\gamma (1) = QR_ z^{\theta } Q^{-1} = A$, e $\gamma (0) = QR_ z^{0} Q^{-1} = I_3$. Quindi $SO(3)$ è connesso per archi.

QED

È vero che $O(3) = SO(3)^+ \cup SO(3)^-$ (quelle con det $1$ e $-1$)?

(1.13) Esempio. Gruppo di simmetrie di un triangolo equilatero: è isomorfo al gruppo di permutazioni sui tre vertici?

(1.14) Esempio. Gruppo ciclico $\{ z\in \CC : z^ n = 1\} $: è il gruppo di simmetrie di un poligono regolare? Perché si chiama ciclico? Perché l’equazione $z^ n = 1$ si chiama ciclotomica? Per esempio, il gruppo di simmetrie di un quadrato? Un esagono?

(1.15) Esempio. Gruppo generato dalle rotazioni di angolo $\pi $ attorno ai (due) tre assi ortogonali di $\RR ^3$.

(1.16) Teorema. Siano $R_ x^\alpha $, $R_ y^\beta $ e $R_ z^\gamma $ le rotazioni attorno agli assi coordinati di $\RR ^3$ di angolo $\alpha $, $\beta $ e $\gamma $ rispettivamente. Allora per ogni rotazione $R\in SO(3)$ esistono $\alpha $, $\beta $ e $\gamma $ tali che \[ R = R_ x^\alpha R_ y^\beta R_ z^\gamma , \] cioè $R$ si scrive come prodotto di tre rotazioni attorno agli assi cartesiani.

Dim. Esercizio 6.29.
QED

(1.17) Nota. I tre parametri $\alpha $, $\beta $ e $\gamma $ (non esattamente questi) sono anche chiamati gli angoli di Eulero della rotazione $A$. Una convenzione abbastanza comune è $A=BCD$, dove $D$ è una rotazione di angolo $\phi $ attorno all’asse $z$, $C$ una rotazione di angolo $\theta $ attorno all’asse $x$, e $B$ una rotazione di angolo $\psi $ attorno all’asse $z$ (bastano quindi rotazioni attorno a due assi ortogonali per generare $SO(3)$).

(1.18) Nota. Una norma è una funzione $\RR ^ n \to \RR $ che verifica le seguenti proprietà :

  1. $\vx \neq 0 \implies \lVert \vx \rVert > 0$, $\lVert \vx \rVert = 0 \iff \vx = \boldsymbol {0}$.

  2. $\lVert c \vx \rVert = \lvert c\rvert \, \lVert \vx \rVert $.

  3. $\lVert \vx + \vy \rVert \leq \lVert \vx \rVert + \lVert \vy \rVert $.

Una norma su $\RR ^ n$ induce una metrica ($d(\vx ,\vy ) = \lVert \vx -\vy \rVert $), la quale induce a sua volta una topologia. Diciamo che due norme sono equivalenti se inducono metriche equivalenti, cioè se le topologie ottenute dalla metriche coincidono (oppure se …). Accade che due norme qualsiasi (che indichiamo con $\lVert \cdot \rVert _ A$ e $\lVert \cdot \rVert _ B$) su $\RR ^ n$ sono sempre equivalenti tra di loro:

(1.19) Tutte le norme su $\RR ^ n$ sono tra loro equivalenti.

Dim. [Dimostrazione (opzionale)] È sufficiente mostrare che se $\lVert \cdot \rVert _ A$ è una norma, allora $\lVert \cdot \rVert _ A$ è equivalente alla norma euclidea $\lVert \cdot \rVert $.

Infatti, la funzione $N\from \RR ^ n \to \RR $ definita da $N(\vx ) = \lVert \vx \rVert _ A$ è continua (rispetto alla norma euclidea): se gli $\ve _ i$ sono i vettori della base standard e $x_ i$ le componenti di $\vx $, si ha per l’omogeneità  e la disuguaglianza triangolare

\[ N(\vx ) =N\left(\sum _{i=1}^ n x_ i \ve _ i\right) \leq \sum _{i=1}^ n \lvert x_ i\rvert N(\ve _ i) \leq M \sum _{i=1}^ n \lvert x_ i\rvert , \]

dove $M$ è il massimo degli $N(\ve _ i)$. Ma $\lvert x_ i\rvert ^2 \leq \lVert \vx \rVert ^2$ per ogni $i$, e quindi

\[ M \sum _{i=1}^ n \lvert x_ i\rvert \leq M n \lVert \vx \rVert . \]

Allora per ogni $\vx $ e $\vy $ in $\RR ^ n$ si ha che $N(\vx ) = N(\vy +(\vx - \vy )) \leq N(\vy ) + N(\vx - \vy )$ $\implies $ $N(\vx ) - N(\vy ) \leq N(\vx -\vy )$. Analogamente $N(\vy ) - N(\vx ) \leq N(\vx -\vy )$, e quindi $\lvert N(\vx ) - N(\vy )\rvert \leq N(\vx - \vy )$. Dunque

\[ \lvert N(\vx ) - N(\vy ) \rvert \leq N(\vx - \vy ) \leq Mn\lVert \vx - \vy \rVert , \]

e quindi $N$ è una funzione continua $\RR ^ n \to \RR $. Consideriamo la sfera

\[ S = \left\{ \vx \in \RR ^ n : \lVert \vx \rVert = 1 \right\} , \]

che è uno spazio chiuso (controimmagine di $\{ 1\} $ chiuso in $\RR $) e limitato, e quindi compatto. Ma allora la funzione $N$ assume un massimo $m_2$ e un minimo $m_1$ su $S$: per ogni $\vx \in S$ si ha

\[ m_1 \leq N(\vx ) \leq m_2. \]

Se $\vx _1\in S$ è il punto tale che $m_1=N(\vx _1)$, si ha $m_1\neq 0$ dato che $\vx _1\neq \boldsymbol {0}$, e quindi $0 < m_1\leq m_2$. Ma allora se $\vx \in \RR ^ n$, $\vx \neq \boldsymbol {0}$, si ha $\dfrac {\vx }{\lVert \vx \rVert } \in S$, e quindi per ogni $\vx \neq \boldsymbol {0}$ per l’omogeneità  di $N$

\[ m_1 \leq N\left(\dfrac {\vx }{\lVert \vx \rVert }\right) \leq m_2 \implies m_1 \leq \dfrac {N(\vx )}{\lVert \vx \rVert } \leq m_2 \implies m_1 \lVert \vx \rVert \leq N(\vx )\leq m_2 \lVert \vx \rVert . \]

Quindi le due norme sono equivalenti.

QED

Alcune norme (tutte tra loro equivalenti) sullo spazio delle matrici $\mathrm{Mat}_{n\times n}(\RR )$ sono per esempio:

  1. (norma di Frobenius) $\lVert A\rVert ^2 = \sum _{i,j} a_{ij}^2 = \operatorname {Tr}(\operatorname {Trasposta}(A) A)$, dove $\operatorname {Tr}$ è la traccia della matrice;

  2. (norma MAX) $\lVert A\rVert = \max _{i,j} \lvert a_{ij}\rvert $, dove $a_{ij}$ sono i coefficienti di $A$;

  3. (norma operatore) $\lVert A\rVert = \max \{ \frac{\lvert A\vx \rvert }{\lvert \vx \rvert } : \vx \in \RR ^ n\smallsetminus \{ 0\} \} $ (quest’ultima a sua volta dipende da una scelta di norma su $\RR ^ n$).


(1.20) Nota. Sia $A$ una matrice $n\times n$ tale che $\operatorname {Trasposta}(A) A = I$. Se $\va _1$, $\va _2$,…, $\va _ n$ sono i vettori colonna di $A$, abbiamo visto nella dimostrazione di (1.10) che

\[ \operatorname {Trasposta}(A) A = I \iff \va _ i \cdot \va _ j = \delta _{ij} \]

per ogni $i,j=1,\ldots , n$, dove

\[ \delta _{ij} = \begin{cases} 1 & \text {se $i=j$} \\ 0 & \text {se $i\neq j$} \end{cases} \]

e il prodotto scalare è quello standard $\va _ i \cdot \va _ j = \operatorname {Trasposta}(\va _ i) \va _ j$. A cosa corrisponde invece l’equazione $A \operatorname {Trasposta}(A) = I$? Si può dire che $\operatorname {Trasposta}(A) A = I \implies A (\operatorname {Trasposta}(A)) = I$?

Osserviamo che se $B$ è l’inversa sinistra di una matrice quadrata $A$, allora essa ne è anche l’inversa destra, cioè per matrici quadrate si ha

\[ BA = I \iff AB=I. \]

Ma allora se $\operatorname {Trasposta}(A)$ è l’inversa sinistra di $A$, cioè se la trasposta soddisfa l’equazione $\operatorname {Trasposta}(A) A = I$, è anche l’inversa destra di $A$, per cui

\[ \operatorname {Trasposta}(A) A = I \implies A (\operatorname {Trasposta}(A)) = I. \]



Footnotes

  1. Cfr: Nacinovich, Cap I [2].