2. Gruppi di trasformazioni

(Cfr.)1

Le matrici, con la moltiplicazione matrice $\times $ vettore, inducono trasformazioni lineari (cioè funzioni lineari) tra spazi vettoriali. Cioè, se $L$ è una matrice $n\times d$ con $n$ righe e $d$ colonne, allora la funzione lineare $\vv \mapsto L \vv $ è una funzione

\[ L\from \RR ^ d \to \RR ^ n. \]

Quando $n=d$, cioè quando la matrice è quadrata, e quando la matrice è invertibile, si tratta quindi di una trasformazione invertibile

\[ L \from \RR ^ n \to \RR ^ n. \]

Il prodotto di matrici corrisponde alla composizione di funzioni biunivoche. Si può cioè far corrispondere ad ogni elemento $L$ del gruppo $GL(n,\RR )$ una funzione biunivoca $\RR ^ n \to \RR ^ n$, in modo che il prodotto (nel gruppo) corrisponda alla composizione di funzioni. L’identità del gruppo finisce nella funzione identità.

Vogliamo fare questo in generale: associare ad ogni elemento $g$ di un gruppo astratto $G$ una trasformazione $X \to X$, cioè una funzione biunivoca su un insieme $X$, con le due proprietà: 1) l’elemento neutro di $G$ è associato alla funzione identità $1_ X\from X \to X$; 2) l’operazione di prodotto nel gruppo corrisponde alla composizione di funzioni. Osserviamo che se $f\from X \to X$ è una funzione e $x\in X$, allora è possibile definire la valutazione della funzione $f$ in $x$, definita come $f(x) = fx$ (era il prodotto matrice per vettore prima). In generale, possiamo associare ad ogni funzione $f\from X \to X$ e a ogni elemento $x\in X$ la valutazione $f(x)$, cioè c’è una funzione

\[ (f,x) \mapsto f(x). \]

Partiamo da qui per definire l’azione di un gruppo su un insieme, cioè una corrispondenza tra gli elementi di $G$ e le trasformazioni di $X$ in sé.

(2.1) Definizione. Sia $G$ un gruppo e $X$ un insieme. Si dice che $G$ agisce (da sinistra) su $X$ se esiste una funzione $\phi \from G\times X \to X$ (la valutazione), denotata da $(g,x) \mapsto g\cdot x = gx$, per cui

  1. $\forall x\in X$, $1\cdot x = x$ ($1\in G$ è l’elemento neutro).

  2. $\forall x\in X$, $\forall g,h\in G$, $g \cdot ( h \cdot x) = (gh) \cdot x$.

L’insieme $X$ si dice anche $G$-insieme.

elemento del gruppo $g\in G$

$\sim $

trasformazione $g\from X \to X$

elemento neutro $1\in G$

$\sim $

identità $1_ X \from X \to X$

prodotto $g_1 g_2$

$\sim $

composizione $g_1 \circ g_2 \from X \to X$.

Per esercizio verificare che con questa definizione ogni $g\in G$ ha associata la funzione $x\mapsto gx$, che è biunivoca con inversa $x\mapsto g^{-1}x$. All’elemento neutro $1\in G$ corridponderà la funzione identità $1_ X\from x \mapsto 1x = x$. In questo modo il gruppo non è più astratto, ma è un gruppo di trasformazioni.

(2.2) Esempio.

  1. $GL(n,\RR )$, $GL(n,\CC )$.

  2. Gruppi di permutazioni.

  3. Gruppi di isometrie (simmetrie di oggetti).

  4. Ogni gruppo astratto agisce su sé stesso per moltiplicazione/addizione a sinistra.

  5. Ogni sottogruppo $H\subset G$ agisce su $G$ per moltiplicazione/addizione (a sinistra).


(2.3) Definizione. Se $G$ agisce su $X$, allora per ogni $x\in X$ si definiscono:

  1. lo stabilizzatore di $x$: $G_ x = \{ g\in G : g\cdot x = x \} $.

  2. L’orbita di $x$: $G \cdot x = \{ gx : g\in G \} $.


(2.4) Sia $G$ un gruppo e $X$ un insieme su cui $G$ agisce. Allora la relazione $x\sim y \iff \exists g\in G : gx=y$ è una relazione di equivalenza, che partiziona $X$ in classi di equivalenza. Le classi di equivalenza sono le orbite di $G$ in $X$.

Dim. Per mostrare che la relazione è di equivalenza, bisogna mostrare che è riflessiva, simmetrica e transitiva. Dato che $1x=x$, si ha che $x\sim x$, per cui è riflessiva. Inoltre, se $gx=y$ (cioè $x\sim y$) allora $g^{-1} (gx) = g^{-1} y$, e quindi $x = g^{-1} y$, cioè $y\sim x$. Quindi è simmetrica. Infine, è transitiva: se $x\sim y$ e $y \sim z$, si ha che esistono $g_1$ e $g_2$ per cui $g_1 x = y$ e $g_2 y = z$. Quindi $(g_1g_2)x = g_2 (g_1 x) = g_2 y = z$, cioè $x\sim z$. Ora, è facile vedere che due punti stanno nella stessa classe di equivalenza se e solo se appertengono alla medesima orbita.
QED

(2.5) Definizione. L’insieme di tutte le orbite (classi di equivalenza) di $X$ secondo per l’azione di un gruppo $G$ su $X$ si indica con $X/G$ e si chiama spazio delle orbite.

(2.6) Esempio. Il gruppo (additivo) $\ZZ $ degli interi agisce sulla retta reale $\RR $ (vedi sotto). Lo spazio quoziente è omeomorfo alla circonferenza $S^1$.

(2.7) Definizione. L’azione di $G$ su $X$ si dice fedele se per ogni $g\in G$, $g\neq 1\in G$, la mappa indotta $g\from X \to X$ (da $x \mapsto g\cdot x$) non è l’identità $1_ X\from X \to X$.

(2.8) Definizione. L’azione di $G$ su $X$ viene detta transitiva se per ogni $x,y\in X$ esiste $g\in G$ per cui $g\cdot x = y$. In questo caso si dice che $X$ è uno spazio omogeneo.

(2.9) Esempio. L’azione di $\ZZ $ su $\RR $ (traslazioni intere) è fedele ma non è transitiva. L’azione di $\RR $ su $\RR $ è fedele e transitiva.

(2.10) L’azione è transitiva se e solo se esiste solo una $G$-orbita in $X$.

Dim. Supponiamo l’azione transitiva. Sia $x\in X$ un punto fissato. Allora per ogni $y$ esiste $g\in G$ per cui $g\cdot x = y$, cioè ogni $y$ in $X$ sta nella stessa $G$-orbita di $x$, che quindi è unica. Viceversa, supponiamo che esista una sola orbita: allora esiste $x\in X$ per cui $\{ g\cdot x | g\in G \} = X$, e quindi per ogni $y\in X$ esiste $g\in G$ tale che $g\cdot x = y$. Allora, se $y_1,y_2\in X$, esistono $g_1,g_2\in G$ tali che $g_1x = y_1$, $g_2x=y_2$, e quindi \[ y_2 = g_2 x = g_2 g_1^{-1} g_1 x = \left( g_2g_1^{-1}\right) y_1, \] cioè $y_2 = g y_1$ con $g=g_2g_1^{-1}$, cioè l’azione è transitiva.
QED

(2.11) Nota. Se $G$ è un gruppo, $G$ agisce su se stesso $X=G$ semplicemente per moltiplicazione a sinistra. L’azione è transitiva e fedele. Se $H$ è un sottogruppo di $G$, anche $H$ agisce su $G$ per moltiplicazione da sinistra. Le orbite sono i laterali (sinistri) di $H$ in $G$. La notazione $G/H$ quindi è consistente: da un lato indica l’insieme (algebrico) dei laterali sinistri di $H$ in $G$, dall’altro l’insieme delle orbite dell’azione di $H$ su $G$.

(2.12) Definizione. Se $G$ è un gruppo topologico, allora si dice che $G$ agisce su uno spazio topologico $X$ se esiste una funzione $\phi \from G\times X \to X$ che induca una azione di $G$ su $X$ (come nella definizione (2.1)) con l’ulteriore proprietà che la funzione

\[ G \times X \to X \]

è continua. Allora $X$ si chiama $G$-spazio.

(2.13) Esempio. È facile vedere che $\RR ^2$ agisce su $\RR ^2$ come gruppo (additivo) di traslazioni

\[ (x,y) \cdot (u,v) = (x+u,y+v). \]


(2.14) Esempio. I gruppi $GL(n,\RR )$, $O(n)$ e $SO(n)$ agiscono su $\RR ^ n$ in modo canonico. Come visto sopra, si può vedere facilmente che l’azione è continua, cioè che agiscono come gruppi topologici su $\RR ^ n$.

(2.15) Definizione. Se $G$ è un gruppo topologico che agisce su uno spazio topologico $X$, lo spazio delle orbite $X/G$ è uno spazio topologico con la topologia quoziente.

(2.16) Esempio. In questo esempio, fondamentalmente, ripetiamo parola per parola il ragionamento dell’esempio (1.22), tranne alcune piccole differenze (quali?). Sia $G=\ZZ $ (con la topologia discreta) e $X=\RR $. Allora $G$ agisce su $\RR $ mediante la somma $(g,t) \mapsto g + t$ per ogni $g\in \ZZ $ e ogni $t\in \RR $. Lo spazio delle orbite è uguale allo spazio $\RR /\sim $ dell’esempio (3.1). Mostriamo che è omeomorfo a $S^1 = \{ (x,y) \in \RR ^2 : x^2 + y^2 = 1 \} $. Sia $f\from \RR \to \RR ^2$ la funzione definita da

\[ f( t ) = ( \cos (2\pi t) , \sin (2\pi t) ). \]

Si vede subito che induce una funzione $f(t) \from \RR \to S^1\subset \RR ^2$, e che è continua (le funzioni trigonometriche sono continue, poi si usa (1.6)). Dal momento che

\[ \begin{aligned} f(g+t) & = \left( \cos (2\pi t + 2g\pi ), \sin (2\pi t + 2g \pi ) \right) \\ & = \left( \cos (2\pi t), \sin (2\pi t) \right) \\ & = f(t), \\ \end{aligned} \]

la funzione $f$ induce una funzione sullo spazio delle orbite $\bar f\from \RR /\ZZ \to S^1$. La funzione indotta $\bar f$ è continua: infatti, se $U\subset S^1$ è un aperto di $S^1$, la sua controimmagine $\bar f^{-1}(U)$ in $\RR /\ZZ $ è continua se e soltanto se (per definizione di topologia quoziente) il sottoinsieme

\[ p^{-1} \left(\bar f^{-1}(U)\right) \subset \RR \]

è aperto in $\RR $, dove $p$ indica la proiezione sul quoziente $p\from \RR \to \RR /\ZZ $. Ma

\[ \begin{aligned} p^{-1} \left(\bar f^{-1}(U)\right) & = \{ t\in \RR : \bar f \left( p(t) \right) \in U \} \\ & = \{ t\in \RR : f (t) \in U \} \\ & = f^{-1} (U), \end{aligned} \]

che è aperto, visto che $f$ è continua.

Ora, la funzione indotta $\bar f \from \RR /\ZZ \to S^1$ è iniettiva: se $\bar f (t_1) = \bar f(t_2)$ si ha che $\cos ( 2\pi t_1 ) = \cos ( 2\pi t_2)$ e $\sin (2\pi t_1) = \sin (2\pi t_2)$, e quindi $t_2 = 2k\pi + t_1$ per un certo $k\in \ZZ $, cioè esiste $g\in \ZZ $ tale che $g\cdot t_1 = t_2$: i due punti $t_1$ e $t_2$ appartengono alla stessa $G$-orbita. È facile vedere che $\bar f$ è suriettiva. Osserviamo che l’inclusione $[0,1] \subset \RR $ è una funzione continua, e quindi la composizione $[0,1] \to \RR \to \RR /\ZZ $ è anch’essa una funzione continua, e suriettiva. Quindi la sua immagine $\RR /\ZZ $, per (1.17), è un compatto. Ora, $\bar f$ è una funzione continua e biunivoca da un compatto ad uno spazio di Hausdorff ($S^1$), e quindi un omeomorfismo per (1.19).

(2.17) Esempio. Sia $G=\ZZ ^2 \subset \RR ^2$ il reticolo degli interi $(h,k)\in \RR ^2$. Allora $\RR ^2/G$ è omeomorfo a $S^1\times S^1$. Sappiamo dall’esempio precedente che $\RR /\ZZ \approx S^1$. Per prima cosa mostriamo che la funzione

\[ f\from \RR ^2/\ZZ ^2 \to \RR /\ZZ \times \RR /\ZZ \approx S^1 \times S^1 \]

definita da

\[ (x,y)+\ZZ ^2 \mapsto (x+\ZZ ,y+\ZZ ) \]

è ben posta. Se $(x’,y’) + \ZZ ^2 = (x,y) + \ZZ ^2 \in \RR ^2/\ZZ ^2$, allora per definizione $x’-x \in \ZZ $ e $y’-y \in \ZZ $, e quindi $ x+\ZZ = x’ + \ZZ $ e $y+\ZZ = y’ + \ZZ $. È iniettiva: se $(x+\ZZ , y+\ZZ ) = (x’+\ZZ ,y’+\ZZ )$, allora $x-x’ \in \ZZ $ e $y-y’\in \ZZ $, e quindi $(x’,y’) + \ZZ ^2 = (x,y) + \ZZ ^2 \in \RR ^2/\ZZ ^2$. Analogamente si può mostrare che è suriettiva.

Dimostriamo che è continua: denotiamo con $P\from \RR ^2 \to \RR ^2/\ZZ ^2$ la proiezione sul quoziente e con $p\times p$ la mappa $p\times p\from \RR \times \RR \to \RR /\ZZ \times \RR /\ZZ $ (che è continua). Se $U\subset \RR /\ZZ \times \RR /\ZZ $ è un aperto, allora $(p\times p)^{-1}(U)$ è aperto in $\RR \times \RR $, e quindi è aperto in $\RR ^2$ (che è identificato con $\RR \times \RR $ tramite la mappa $\tilde f\from \RR ^2\to \RR \times \RR $ che induce $f$). Ma il sottoinsieme di $\RR ^2$ dato da $\tilde f^{-1} (p\times p)^{-1} (U)$ coincide con $P^{-1}( f^{-1} (U ) )$, che quindi è aperto. Ora, per definizione di topologia quoziente $f^{-1} (U)$ è aperto se e solo se $P^{-1}(U)$ è aperto in $\RR ^2$, e quindi $f^{-1}(U)$ è aperto. Di nuovo, una funzione biunivoca da uno spazio compatto ad uno spazio di Hausdorff è un omeomorfismo. Lo spazio $S^1\times S^1$ è chiamato toro.

(2.18) Esempio. Si consideri l’azione di $SO(2)$ sulla circonferenza unitaria $S^1$. Ogni elemento di $SO(2)$ agisce ruotando la circonferenza su se stessa: ogni punto ha stabilizzatore banale e l’azione è transitiva e fedele. Fissiamo $e_0 = (1,0) \in S^1$. L’orbita di $e_0$ è tutto $S^1$, e quindi c’è una funzione continua

\[ f\from SO(2) \to S^1 \]

definita da $f(g) = g\cdot e_0$. L’azione è transitiva, e quindi $f$ è suriettiva. Inoltre lo stabilizzatore è banale, e quindi $f$ è iniettiva. Dato che $SO(2)$ è compatto e $S^1$ di Hausdorff, $f$ è un omeomorfismo tra $SO(2)$ e $S^1$.

(2.19) Esempio. Consideriamo ora l’azione di $SO(3)$ su $S^2$ (la sfera di dimensione $2$, centro nell’origine e raggio $1$, contenuta in $\RR ^3$). L’azione è ancora transitiva (perché?), fedele, ma ogni punto ha uno stabilizzatore non banale (cosa sono le rotazioni di $\RR ^3$ che fissano un punto?). Si veda l’esercizio 6.29.

(2.20) Esempio. Il gruppo $\ZZ / 2\ZZ $ agisce su $S^2$ ponendo $g \cdot x = - x$.

(2.21) Esempio. Le isometrie di uno spazio metrico $X$ costituiscono un gruppo topologico che agisce su $X$. Quali sono le isometrie di $\RR $? Le isometrie di $\CC \cong \RR ^2$? Di $\RR ^3$?

(2.22) Esempio. Ogni numero complesso $a+ib$ non nullo può essere interpretato come vettore di $\RR ^2$ con coordinate $(a,b)$ (piano di Argand–Gauss), ma anche come elemento di $GL(2,\RR )$, come segue. Definiamo l’azione, per $G=\CC \smallsetminus \{ 0\} $ e $X=\CC $,

\[ (g,w) \mapsto gw \]

con $g\in G = \CC \smallsetminus \{ 0\} $ e $w\in \CC \cong \RR ^2$. Per ogni $g\in G$, l’applicazione indotta $g\from X \to X$ è $\RR $-lineare, e quindi c’è una funzione $f\from G \to GL(2,\RR )$. Osserviamo che $f(g_1 + g_2 ) = f(g_1) + f(g_2)$ e $f(g_1 g_2) = f(g_1) f(g_2)$ e che se $c\in \RR $ e $g\in \CC $ si ha $f(cg) = c f(g)$ (qui teniamo conto anche degli elementi non invertibili). La funzione $f$ è anche iniettiva: $f(g_1) = f(g_2) \implies g_1 = g_2$. Se $g_1= 1 \in \RR \subset \CC $, allora

\[ f(g_1) = f(1) = \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix}. \]

Se $g_2 = i \in \CC $, allora per ogni $w=w_1 + i w_2 \in \CC $ si ha

\[ g_2 w = i (w_1 + iw_2) = iw_1 - w_2 = - w_2 + iw_1 = \begin{bmatrix} 0 & -1 \\ 1 & 0 \end{bmatrix}\begin{bmatrix} w_1 \\ w_2 \end{bmatrix}, \]

cioè

\[ f(g_2) = f(i) = \begin{bmatrix} 0 & -1 \\ 1 & 0 \end{bmatrix}. \]

Dunque, per l’additività se $z = a + ib \in \CC $, si ha

\[ f(z) = f(a+ib) = a f(1) + b f(i) = a \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} + b \begin{bmatrix} 0 & -1 \\ 1 & 0 \end{bmatrix} = \begin{bmatrix} a & -b \\ b & a \end{bmatrix}. \]

In questo modo, le rotazioni (che si scrivono come $\begin{bmatrix} a & -b \\ b & a \end{bmatrix}$ con $a^2+b^2=1$) corrispondono mediante la $f$ ai numeri complessi di norma $1$. Il prodotto di numeri complessi corrisponde al prodotto di matrici, la somma di numeri complessi, alla somma di matrici.

Il coniugato del numero complesso $z=a+ib$ è $\overline{z} = a - ib$, dunque

\[ f(\overline{z}) = \begin{bmatrix} a & b \\ -b & a \end{bmatrix} = \left[f(z)\right]^ t, \]

cioè la trasposta di

\[ f(z) = \begin{bmatrix} a & -b \\ b & a \end{bmatrix}. \]

La norma di un numero complesso $z=a+ib$ è data da $|z|^2 = a^2+b^2$, che è anche

\[ z \overline{z} = (a+ib)(a-ib) = a^2 - (ib)^2 = a^2 + b^2. \]

Tra matrici, si ha

\[ f(z) f(\overline{z}) = f(z) f(z)^ t = \begin{bmatrix} a & -b \\ b & a \end{bmatrix} \begin{bmatrix} a & b \\ -b & a \end{bmatrix} = (a^2+b^2) \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix}. \]

Per ogni numero complesso $z\in \CC $, sia

\[ e^ z = \sum _{n=0}^\infty \dfrac {z^ n}{n!}. \]

Dato che $|z^ n| = |z|^ n$, è una serie in $\CC $ convergente (le serie parziali delle norme convergono e quindi …). Osserviamo che

\[ \begin{aligned} e^ z e^ w & = \left( \sum _{n=0}^\infty \dfrac {z^ n}{n!} \right) \left( \sum _{m=0}^\infty \dfrac {w^ m}{m!} \right) \\ & = \sum _{k=0}^\infty \left( \sum _{n+m=k} \dfrac {z^ nw^ m}{n!m!} \right) \\ & = \sum _{k=0}^\infty \left( \sum _{j=0}^ k \dfrac {k!}{k!} \dfrac {z^ jw^{k-j}}{j!(k-j)!} \right) \\ & = \sum _{k=0}^\infty \dfrac {1}{k!} \left( \sum _{j=0}^ k \binom {k}{j} z^ j w^{k-j} \right) \\ & = \sum _{k=0}^\infty \dfrac {1}{k!} (z+w)^ k \\ & = e^{z+w} \end{aligned} \]

e che

\[ \begin{aligned} e^{\overline{z}} & = \overline{(e^{z})}\\ e^0 & = 1. \end{aligned} \]

Quindi

\[ |e^{i\theta } |^2 = e^{i\theta } e^{-i\theta } = e^0 = 1, \]

cioè $e^{i\theta }$ è un punto della circonferenza unitaria in $\CC $. In altre parole, la mappa

\[ \RR \mapsto \{ a+ib \in \CC : a^2 + b^2 = 1 \} \subset \CC , \]

definta da $\theta \mapsto e^{i\theta }$ è ben definita. Ricordiamo che2

\[ e^{i\theta } = \cos \theta + i \sin \theta , \]

quindi

\[ \begin{aligned} \cos \theta & = \Re ( e^{i\theta } ) = \sum _{k=0}^\infty (-1)^ k \dfrac {\theta ^{2k}}{(2k)!} \\ \sin \theta & = \Im ( e^{i\theta } ) = \sum _{k=0}^\infty (-1)^ k \dfrac {\theta ^{2k+1}}{ (2k+1)!} \end{aligned} \]

dato che

\[ \begin{aligned} e^{i\theta } & = \sum _{n=0}^\infty \dfrac {(i\theta )^ n}{n!} \\ & = \sum _{{n=0,\ n \text { pari}} }^\infty \dfrac {(i\theta )^ n}{n!} + \sum _{{n=1,\ n \text { dispari} } }^\infty \dfrac {(i\theta )^ n}{n!} \\ & = \sum _{k=0}^\infty (i)^{2k} \dfrac {\theta ^{2k}}{(2k)!} + \sum _{k=0}^\infty (i)^{2k+1} \dfrac {\theta ^{2k+1}}{(2k+1)!} \\ & = \sum _{k=0}^\infty (-1)^{k} \dfrac {\theta ^{2k}}{(2k)!} + i \sum _{k=0}^\infty (-1)^{k} \dfrac {\theta ^{2k+1}}{(2k+1)!} \\ & = \cos \theta + i \sin \theta . \end{aligned} \]

Cioè, con un abuso di notazione,

\[ e^{i\theta } = \cos \theta + i \sin \theta = \begin{bmatrix} \cos \theta & - \sin \theta \\ \sin \theta & \cos \theta \end{bmatrix}. \]

Moltiplicare per $e^{i\theta }$ un punto del piano complesso significa ruotarlo attorno all’origine in senso antiorario di un angolo $\theta $.

(2.23) La funzione esponenziale $z \mapsto e^ z$, $\CC \to \CC $ è continua.

Dim. [Dimostrazione (opzionale)] Se $z\in \CC $, allora3

\[ \begin{aligned} e^ z - 1 & = \sum _{n=0}^\infty \frac{z^ n}{n!} - 1 \\ & = \sum _{n=1}^\infty \frac{z^ n}{n!} = z +\frac{z^2}{2!} + \frac{z^3}{3!} + \ldots \\ & = z(\sum _{n=0}^\infty \frac{z^ n}{(n+1)!} ) \\ \implies & e^ z-1 = z r(z) \end{aligned} \]

dove se $\lvert z\rvert < 1$ il resto $r(z)$ verifica

\[ \begin{aligned} r(z) & = \sum _{n=0}^\infty \frac{z^ n}{(n+1)!} \\ & \implies \lvert r(z)\rvert \leq \sum _{n=0}^\infty \frac{\lvert z\rvert ^ n}{(n+1)!} \leq \sum _{n=0}^\infty \lvert z\rvert ^ n = \dfrac {1}{1-\lvert z\rvert }. \\ & \implies \lvert e^ z-1\rvert \leq \dfrac {\lvert z\rvert }{1 - \lvert z\rvert }. \end{aligned} \]

In conseguenza dell’ultima disuguaglianza, la funzione $\CC \to \CC $ definita da $z\mapsto e^ z$ è continua: se $z_0\in \CC $ e $\epsilon > 0$, definiamo

\[ \delta := \dfrac {\epsilon }{\lvert e^{z_0}\rvert + \epsilon } > 0. \]

Segue che per ogni $h\in \CC $ con $\lvert h\rvert < \delta $ si ha $\frac{\lvert h\rvert }{1-\lvert h\rvert } < \frac{\delta }{1-\delta }$ e quindi

\[ \begin{aligned} \lvert e^{z_0+h} - e^{z_0}\rvert & = \lvert e^{z_0}e^{h} - e^{z_0}\rvert = \lvert e^{z_0}\rvert \lvert e^ h - 1\rvert \leq \\ & \leq \lvert e^{z_0}\rvert \dfrac { \lvert h\rvert }{1-\lvert h\rvert } < \lvert e^{z_0}\rvert \dfrac {\delta }{1-\delta } = \\ & = \lvert e^{z_0}\rvert \dfrac { \dfrac {\epsilon }{\lvert e^{{z_0}}\rvert + \epsilon } }{1 - \dfrac {\epsilon }{\lvert e^{{z_0}}\rvert + \epsilon } } = \dfrac {\dfrac {\lvert e^{z_0}\rvert \epsilon }{\lvert e^{{z_0}}\rvert + \epsilon } }{ \dfrac { \lvert e^{{z_0}}\rvert + \epsilon - \epsilon }{\lvert e^{{z_0}}\rvert + \epsilon } } = \epsilon . \end{aligned} \]

e quindi $z \mapsto e^ z$ è continua in $z_0\in \CC $.

QED

Di conseguenza anche $\cos \theta $ e $\sin \theta $ sono funzioni continue di $\theta $.

(2.24) Nota. [Opzionale] A questo punto dovremmo essere però finalmente in grado di dimostrare che le funzioni trigonometriche $\cos $ e $\sin $, definite a partire da $e^{it}$, sono periodiche di periodo $2\pi $. Procediamo nel modo seguente. Sia $X\subset \RR $ definito da

\[ X = \{ t \in \RR : e^{it} = 1 \} . \]

Si ha $e^0 = 1 \implies 0 \in X$, e $t_1, t_2 \in X \implies t_1 + t_2 \in X$, $-t_1 \in X$, cioè $X$ è un sottogruppo (additivo) di $\RR $, nonché un sottospazio chiuso di $\RR $ (perché controimmagine del chiuso $\{ 1\} \subset \CC $ mediante la funzione continua $z\mapsto e^ z$). Ci sono altri elementi in $X$ oltre a $0$? Ora, osserviamo che $\cos 0 = 1$, mentre, dato che la successione $\frac{4^ k}{(2k)!}$ converge a zero monotonamente (dimostrarlo per induzione!), risulta

\[ \begin{aligned} \cos 2 & = \sum _{k=0}^\infty (-1)^ k \dfrac {4^{k}}{(2k)!} \\ & = 1 - \dfrac {4}{2} + \dfrac {4^2}{4!} - \dfrac {4^3}{6!} + \ldots \\ & < 1 - 2 + \dfrac {4^2}{4!} = -\dfrac {1}{3} < 0. \end{aligned} \]

Per il teorema degli zeri esiste quindi almeno un $t_0 \in (0,2)$ tale che $\cos t_0 = 0$. In modo analogo,

\[ \begin{aligned} \cos 1 & = \sum _{k=0}^\infty (-1)^ k \dfrac {1}{(2k)!} \\ & = 1 - \dfrac {1}{2} + \dfrac {1}{4} - \dfrac {1}{6} +\ldots \\ & > 1 - \dfrac {1}{2} = \dfrac {1}{2} > 0 , \end{aligned} \]

e quindi esiste $t_0 \in (1,2)$ tale che $\cos t_0 = 0$. Ora, se $\cos t_0 = 0$, allora $ \sin ^2 t_0 = 1$. Ma, sempre per la monotonia, si può mostrare che per $t\in (0,2)$ si ha

\[ \sin t > t - \dfrac {t^3}{6}, \]

e quindi $\sin t_0 > 0$, dato che $t(1- \dfrac {t^2}{6})$ è positiva per $t\in (0,2)$, cioè non può essere $\sin t_0 = -1$, e dunque

\[ \sin t_0 = 1. \]

Abbiamo dimostrato che $e^{it_0} = i$, da cui segue che

\[ e ^{4 t_0 i } = i^4 = 1. \]

cioè che $4t_0 \in X$, e che perciò $X$ non è il sottogruppo banale di $\RR $. Sia quindi

\[ t_1 = \inf \{ t > 0 : t \in X \} . \]

Questo numero esiste certamente, perché è l’estremo inferiore di un insieme non vuoto ($4t_0$ verifica $e^{4it_0} = 1$) e limitato dal basso. Può essere uguale a zero, $t_1=0$? Supponiamo che lo sia. Allora per ogni $\epsilon > 0$ esiste $t > 0$, tale che $t\in X$ e $t < \epsilon $. Ma $X$ è sottogruppo, e quindi per ogni $k\in \ZZ $ si ha $kt \in X$, cioè per ogni $x\in \RR $ ci sono elementi di $X$ ad una distanza al più $\epsilon $. In altre parole,

\[ \overline{X} = \RR . \]

Ma dato che $X$ è chiuso, si avrebbe $X =\overline{X} = \RR $, cioè per ogni $t\in \RR $

\[ e^{it} = 1. \]

Ma questo è falso: basta prendere $t_0$ e usare le identità di sopra.

Quindi $t_1$ non può essere uguale a $0$: definiamo una costante $\pi > 0$ dalla relazione

\[ 2\pi = t_1. \]

In altre parole, $2\pi $ è il più piccolo numero reale positivo per cui $e^{it} = 1$, e ovviamente risulta per ogni $k\in \ZZ $

\[ e^{2k\pi i} = (e^{2\pi i})^ k = 1^ k = 1. \]

Da cioè segue che le funzioni $\cos t $ e $\sin t$ sono periodiche di periodo almeno $2\pi $ (potrebbe essere un sottomultiplo di $2\pi $, a priori):

\[ e^{i(t + 2k\pi )} = e^{it} e^{2k\pi i} = e^{it}. \]

Non solo, vale anche il viceversa: se $t\in X$, allora $t= 2k\pi $. Infatti, se così non fosse esisterebbe $t\in X$, tale che

\[ 2k\pi < t < 2(k+1) \pi \]

per un certo $k\in \ZZ $, ma allora se si pone $s= t - 2k\pi $ si ha $s > 0$, $s < 2\pi $ e

\[ e^{is} = e^{i(t-sk\pi )} = e^{it} = 1, \]

cioè non è vero che $2\pi $ è il minimo, e questo è assurdo. Deve quindi essere

\[ X = \{ t \in \RR : e^{it} = 1 \} = \{ 2k\pi : k\in \ZZ \} . \]

Ancora: osserviamo che i due insiemi

\[ A = \{ t\in \RR : t > 0,\ e^{it} = 1 \} , \quad B = \{ t \in \RR : t > 0,\ e^{it} = i \} \]

sono legati da

\[ 4B \subset A \implies \inf A \leq 4 \inf B. \]

Inoltre, $(1,2) \ni t_0 \in B \implies B\neq \emptyset $ e $\inf B > 0 $ dato che $e^{0} \neq i$, e $\inf B < 2$ per quanto visto sopra. Poniamo quindi $b=\inf B$, che quindi deve verificare

(1)\begin{equation} 2\pi \leq 4b. \end{equation}

Per come abbiamo definito $b$ poco sopra, però, è anche il più piccolo reale positivo tale che $\cos b = 0$, da cui segue (senza assumerlo) che $\sin b = 1$. Ora, per definizione se $t\in (0,b)$ allora $\cos t > 0$ (dato che $\cos 0 > 0$ e la funzione non può cambiare di segno nell’intervallo), e $\sin t > 0$ dato che $\sin t > t - \frac{t^{3}}{3!}$, da cui segue che se $t\in (0,b]$ allora $\cos t \neq 1$. Ma

\[ \cos (t+b) + i \sin (t+b) = e^{i(t+b)} = e^{it} e^{ib} = i e^{it} = i \cos t - \sin t, \]

e dunque

\[ \begin{aligned} \cos (t+b) & = - \sin t = \sin (-t) \\ \sin (t+b) & = \cos t = \cos (-t). \end{aligned} \]

Segue che

\[ \begin{aligned} \cos (t+2b) & = - \sin (t+b) = - \cos t \\ \sin (t+2b) & = \cos ( t+b) = - \sin t \\ \cos ( t+3b) & = - \cos (t +b ) = \sin (t) \\ \sin ( t+3b) & = - \sin (t+b) = - \cos t. \end{aligned} \]

Quindi nell’intervallo $[0,4b]$ può accadere che $\cos t = 1$ e $\sin t = 0$ solo se $t=0$ oppure $t=4b$: $\cos t$ è negativo in $[b,3b]$, $\sin t$ è non nullo in $(0,b]$ e $[3b,4b)$. Ma allora non può essere $2\pi < 4b$ nella formula (1), perché per definizione $\cos 2\pi = 1$ e $\sin 2\pi = 0$: deve essere $2\pi = 4b$, cioè $b=\frac{\pi }{2}$, e dunque

\[ e^{i\frac{\pi }{2}} = i. \]

Prendiamo i quadrati di entrambi i membri e li sommiamo: otteniamo l’identità di Eulero4

\[ e^{i\pi } + 1 = 0. \]



Footnotes

  1. Cfr: Sernesi, Vol I, Cap 1, §14 [1].
  2. Questa potrebbe essere una definizione delle funzioni trigonometriche $\cos $ e $\sin $.
  3. Si può usare la proprietà distributiva di $\CC $ anche per somme infinite?
  4. (Dalla pagina di wikipedia sull’identità di Eulero) A reader poll conducted by Mathematical Intelligencer named the identity as the most beautiful theorem in mathematics. Another reader poll conducted by Physics World in 2004 named Euler’s identity the "greatest equation ever", together with Maxwell’s equations. The book Dr. Euler’s Fabulous Formula [2006], by Paul Nahin (Professor Emeritus at the University of New Hampshire), is devoted to Euler’s identity; it is 400 pages long. The book states that the identity sets "the gold standard for mathematical beauty." Constance Reid claimed that Euler’s identity was "the most famous formula in all mathematics." Gauss is reported to have commented that if this formula was not immediately apparent to a student on being told it, the student would never be a first-class mathematician. After proving the identity in a lecture, Benjamin Peirce, a noted nineteenth century mathematician and Harvard professor, said, "It is absolutely paradoxical; we cannot understand it, and we don’t know what it means, but we have proved it, and therefore we know it must be the truth." Stanford mathematics professor Keith Devlin says, "Like a Shakespearean sonnet that captures the very essence of love, or a painting that brings out the beauty of the human form that is far more than just skin deep, Euler’s equation reaches down into the very depths of existence."