1.1. Isomorfismi proiettivi e proiettività

(1.20) Definizione. Siano $\PP (V)$ e $\PP (W)$ due spazi proiettivi. Una funzione $f\from \PP (V) \to \PP (W)$ si dice proiettiva se esiste un omomorfismo iniettivo di spazi vettoriali $F\from V \to W$ tale che per ogni $v\in V$ si ha $f([v]) = [ F(v) ]$.

\[ \xymatrix {V \smallsetminus \{ 0\} \ar @{. > }[r]^ F \ar [d] & W\smallsetminus \{ 0\} \ar [d] \\ \PP (V) \ar [r]^ f & \PP (W) \\ } \]

Si dice che $F$ induce la funzione $f$. Se $f$ ammette una inversa proiettiva $g$ (cioè una funzione $g\from \PP (W) \to \PP (V)$ indotta da un omomorfismo iniettivo $G\from W\to V$ tale che $gf=1_{\PP (V)}$ e $fg=1_{\PP (W)}$), allora è detto un isomorfismo proiettivo. In questo caso si dice che $\PP (V)$ e $\PP (W)$ sono isomorfi. Se $V=W$ (e quindi $\PP (V) = \PP (W)$, allora un isomorfismo proiettivo si dice proiettività.

Osserviamo che diverse $F$ possono indurre la stessa funzione proiettiva $f\from \PP (V) \to \PP (W)$: infatti se $F\from V\to W$ induce $f$, allora anche $\lambda F$, per $\lambda \neq 0$, $\lambda \in K$, induce la stessa $f$.

(1.21) Due omomorfismi $F,G\from V \to W$ iniettivi inducono la medesima $f\from \PP (V) \to \PP (W)$ se e soltanto se esiste $\lambda \in K^*$ tale che $G=\lambda F$. La funzione $f$ è un isomorfismo se e soltanto se $F\from V\to W$ è un isomorfismo di spazi vettoriali, per una qualsiasi $F$ che induce $f$.

Dim. Abbiamo già visto che se $G=\lambda F$, allora inducono la stessa $f$. Viceversa, se $F$ e $G$ inducono la medesima $f$, allora per ogni $v\in V$ deve esistere $\lambda _ v\in K^*$ tale che

\[ G(v) = \lambda _ v F(v). \]

Se $v$ e $w$ sono due vettori di $V$, allora

\[ G(v+w) = \lambda _{(v+w)} F(v+w), \]

e dunque

\[ G(v) + G(w) = \lambda _{(v+w)} ( F(v) + F(w) ). \]

Ma $G(v) = \lambda _ v F(v)$, $G(w) = \lambda _ w F(w)$, e quindi deve essere

\[ \lambda _ v F(v) + \lambda _ w F(w) = \lambda _{(v+w)} F(v) + \lambda _{(v+w)} F(w). \]

Se $v$ e $w$ sono linearmente indipendenti, allora anche $F(v)$ e $F(w)$ lo sono, e quindi

\[ \lambda _{v} = \lambda _{(v+w)} = \lambda _{w}. \]

Se $v$ e $w$ sono linearmente dipendenti, allora è facile vedere che $\lambda _{v} = \lambda _{w}$. Quindi esiste $\lambda $ (che non dipende da $v$) tale che $G(v) = \lambda F(v)$ per ogni $v\in V$.

Ora, se $f$ è un isomorfismo proiettivo (indotta da $F$), allora esiste la sua inversa $g$ (indotta da $G$). La composizione $GF$ induce l’identità di $\PP (V)$, la composizione $FG$ induce l’identità di $\PP (W)$, e quindi devono esistere $\lambda $ e $\lambda ’$ tali che

\[ GF = \lambda 1_ V, \quad FG= \lambda ’ 1_ W, \]

e $F$ deve essere un isomorfismo di spazi vettoriali.

QED

(1.22) Nota. Due spazi vettoriali della stessa dimensione (su campo $K$) sono isomorfi, per cui due spazi proiettivi sullo stesso campo e con la stessa dimensione sono isomorfi. Quindi senza perdere in generalità si può sempre pensare che uno spazio proiettivo su campo $K$ sia $\PP ^ n(K)$. Se indichiamo con $GL(V)$ il gruppo di tutti gli isomorfismi dello spazio vettoriale $V$ in sé e $PGL(V)$ il gruppo di tutte le proiettività di $\PP (V)$ in sé, si ha un omomorfismo (di gruppi) $GL(V) \to PGL(V)$ suriettivo (per definizione) ma non necessariamente iniettivo. Come abbiamo visto prima, il suo nucleo è proprio dato dall’insieme di tutti i multipli di $1_ V$ (identità di $V$) del tipo $\lambda 1_ V$, con $\lambda \in K^*$. Possiamo ripetere passo per passo l’argomento usato: se $A\from V\to V$ induce l’identità $\PP (V) \to \PP (V)$, allora per ogni $\vv \in V$ si ha $A\vv = \lambda _{\vv } \vv $ per un certo $\lambda _{\vv }\in K$ (che potrebbe dipendere da $\vv $), $\lambda _{\vv } \neq 0$: cioè tutti i vettori di $V$ sono autovettori per $A$. Ora, se $\vv ’ = \vv + \vw $, si ha

\[ \begin{aligned} A\vv ’ & = A \vv + A\vw \\ \implies \lambda _{\vv '} \vv ’ & = \lambda _{\vv }\vv + \lambda _{\vw } \vw \\ \implies \lambda _{\vv '} ( \vv + \vw ) & = \lambda _{\vv }\vv + \lambda _{\vw } \vw \\ \implies (\lambda _{\vv '} - \lambda _{\vv }) \vv + (\lambda _{\vv } - \lambda _{\vw }) \vw & = 0, \end{aligned} \]

e quindi quando $\vv $ e $\vw $ sono linearmente indipendenti deve essere $\lambda _{\vv } = \lambda _{\vv '} = \lambda _{\vw }$. Dato che autovettori linearmente dipendenti hanno sempre lo stesso autovalore, deduciamo che $\lambda _{\vv }$ non dipende da $\vv $, e quindi che $A\vv = \lambda \vv $, cioè $A = \lambda 1_ V$.

Le matrici del tipo $\lambda 1_ V$ costituiscono il centro di $GL(V)$. Il centro di $GL(n,K)\cong GL(V)$ è il sottogruppo di tutte le matrici $A$ tali che $AB=BA$ per ogni $B\in GL(V)$. Sia ora $E_{ij}$ una matrice con coefficienti ovunque $0$ tranne $1$ al posto $ij$, con $i\neq j$. La matrice $I+E_{ij}$ ha determinante $1$, e quindi è invertibile. In particolare, se $A$ è nel centro di $GL(V)$, deve essere $A(I+E_{ij}) = (I+E_{ij})A$ per ogni scelta di $ij$, e quindi $AE_{ij} = E_{ij}A$. Ma $AE_{ij}$ è una matrice che ha zeri ovunque tranne nella colonna $j$-esima (dove compare la $i$-esima colonna di $A$). Invece, $E_{ij} A$ ha zeri ovunque tranne nella riga $i$-esima (dove compare la $j$-esima riga di $A$). Quindi la matrice $AE_{ij} = E_{ij}A$ ha tutti zeri tranne nel posto $ij$; nella $j$-esima colonna c’è la $i$-esima colonna di $A$, che quindi deve avere tutti zero tranne il coefficiente $a_{ii}$, che compare in $AE_{ij}$ al posto $ij$; nella $i$-esima riga di $AE_{ij}$ c’è la $j$-esima riga di $A$, che quindi deve avere tutti zero tranne il coefficienti $a_{jj}$, che compare in $AE_{ij}$ al posto $ij$. Quindi $A$ è una matrice diagonale con $a_{11}=a_{22}=\ldots =a_{nn}$, cioè $A= \lambda I$.

(1.23) Definizione. Si dice che sottoinsiemi $S,S’\subset \PP ^ n(K)$ sono proiettivamente equivalenti se esiste una proiettività $f\from \PP ^ n(K) \to \PP ^ n(K)$ tale che $f(S) = S’$.

(1.24) Esempio. Quali insiemi di due punti sono proiettivamente equivalenti in $\PP ^1(\RR )$? Quali in $\PP ^1(\CC )$?

(1.25) Esempio. Siano $(x_ A,y_ A)$ e $(x_ B,y_ B)$ le coordinate di due punti $A,B\in \AA ^2(\KK )$. Se $A\neq B$, l’equazione cartesiana della retta per $A$ e $B$ si può trovare ragionando come segue: un punto $X=(x,y)$ sta sulla retta per $A$ e $B$ se e soltanto se è allineato con $A$ e $B$, cioè se e soltanto se il sottospazio affine generato dai tre punti $A$, $B$ e $X$ ha dimensione $1$. La sua chiusura proiettiva deve anche avere dimensione $1$, e questo succede se e soltanto se i tre punti di $\PP ^2(\KK )$

\[ [x_ A:y_ A:1],\quad [x_ B:y_ B:1],\quad [x:y:1] \]

sono allineati in $\PP ^2(\KK )$. Ma questo capita se e soltanto se

\[ \det \begin{bmatrix} x_ A & y_ A & x \\ y_ A & y_ B & y \\ 1 & 1 & 1 \end{bmatrix} = 0. \]