7. Coniche proiettive

(Cfr.)1

(7.1) Definizione. Sia $K[x_0,x_1, ... ,x_ n]$ l’anello dei polinomi nelle indeterminate (variabili) $x_0$, $x_1$, ... , $x_ n$. Un polinomio di $K[x_0,x_1, ... ,x_ n]$ si dice omogeneo se tutti i suoi monomi hanno lo stesso grado.

(7.2) Nota. L’insieme costituito dal polinomio nullo e da tutti i polinomi omogenei di grado $d$ fissato è uno spazio vettoriale rispetto alla somma di polinomi; una base è costituita da tutti i monomi (con coefficienti $1$) di grado $d$. Per esempio, se $d=2$ i seguenti monomi costituiscono una base:

\[ x_0^2, x_1^2, x_2^2, x_0x_1, x_0x_2, x_1x_2. \]


(7.3) Un polinomio $p(x_0,x_1, ... , x_ n)$ non nullo di $K[x_0,x_1,x_ n]$ è omogeneo di grado $d$ se e solo se per ogni $t\in K$ si ha \[ p(tx_0,tx_1, ... , tx_ n) = t^ d p(x_0,x_1, ... , x_ n). \]

Dim. Se $p$ è omogeneo, cioè somma di monomi di grado $d$, allora la proprietà è vera dato che lo è per monomi di grado $d$. Viceversa, raggruppando i monomi dello stesso grado possiamo scrivere $p=f_0 + f_1+f_2+ ... +f_ l$, dove ogni $f_ i$ è omogeneo di grado $i$. Ma se per ogni $t\in K$ si ha $p(tx) = t^ d p(x)$ (qui scriviamo $x=(x_0,x_1, ... ,x_ n)$ in forma vettoriale per brevità), allora \[ \begin{split} f(tx) & = f_0(tx) + f_1(tx) + f_2(tx) + ... + f_ l(tx) \\ & = f_0(x) + t f_1(x) + t^2f_2(x) + ... + t^ l f_ l(x) \\ t^ df(x) & = t^ df_0(x) + t ^ df_1(x) + t^ df_2(x) + ... + t^ d f_ l(x). \end{split} \] Osserviamo che possiamo considerare $f(tx)$ e $t^ d f(x)$ come polinomi in $K[t]$, considerando $x$ come coefficiente fissato. Ma i polinomi \[ f_0(x) + t f_1(x) + t^2f_2(x) + ... + t^ l f_ l(x) = t^ df_0(x) + t ^ df_1(x) + t^ df_2(x) + ... + t^ d f_ l(x) \] coincidono se e soltanto se i coefficienti dei monomi (in $t$) con lo stesso grado coincidono: quindi deve essere che tutti gli $f_ i$ sono zero tranne $f_ d$, cioè $p= f_ d$ (ovvero, $p$ è omogeneo di grado $d$).
QED

Consideriamo il piano proiettivo $\PP ^2(K)$ reale ($K=\RR $) o complesso ($K=\CC $).

(7.4) Definizione. Una conica (algebrica) di $\PP ^2(K)$ è l’insieme delle soluzioni dell’equazione (detta equazione della conica)

\[ f(x_0,x_1,x_2) = 0, \]

dove $f$ è un polinomio omogeneo a coefficienti in $K$ di grado $2$.2

(7.5) Esempio. Le seguenti sono equazioni omogenee (nelle coordinate omogenee $[u:x:y]$) di coniche in $\PP ^2(\RR )$:

  1. $x^2 + y^2 = u^2$;

  2. $x^2 + y^2 - xu = xy$;

  3. $x^2 + xy - y^2 = ux$;


(7.6) Definizione. Due coniche $C, C’\subset \PP ^2(K)$ sono proiettivamente equivalenti se esiste una proiettività $T\from \PP ^2(K) \to \PP ^2(K)$ tale che $T(C) = C’$.

(7.7) Definizione. Una forma quadratica $q(\vx )$ definita sui vettori $\vx = (x_1,x_2, \ldots , x_ n)$ di $\RR ^ n$ è un polinomio omogeneo di secondo grado nelle variabili $x_ i$.

Osserviamo che se indichiamo con $a_{ii}$ il coefficiente di $x_ i^2$ in $q(\vx )$ e con $a_{ij}=a_{ji}$ la metà del coefficiente di $x_ i x_ j$, si ha

(1)\begin{equation} q(\vx ) = \sum _{i,j} a_{ij} x_ i x_ j = \, {\vphantom {\! \vx }}^\mathrm {t}\! \vx A \vx , \end{equation}

dove $A$ è la matrice degli $a_{ij}$, $\vx $ è il vettore colonna con componenti $x_ i$ e $A$ la matrice (simmetrica) con componenti $a_{ij}$, che è detta matrice associata alla forma quadratica $q$. Infatti, nella somma (1) i termini $x_ i^2$ hanno coefficiente $a_{ii}$ come voluto, mentre i termini $x_ i x_ j$ compaiono sia come $a_{ij} x_ i x_ j$ che come $a_{ji} x_ j x_ i = a_{ij} x_ i x_ j$. Dunque se $i\neq j$ il coefficiente di $x_ i x_ j$ nella somma (1) è $a_{ji}+a_{ij} = 2 a_{ij}$. Quando parleremo di un campo $K$ (o $\KK $), intenderemo sempre un campo di numeri $\KK \supset \QQ $ (o comunque un campo di caratteristica $\neq 2$).

(7.8) Sia $p(x) = 0$ l’equazione di una conica in $\PP ^2(K)$, con $x=[x_0:x_1:x_2]$. Allora esiste una matrice $3\times 3$ con coefficienti in $K$ (unica – a meno di fattore scalare in $K^*$) $A=(a_{i,j})$ simmetrica tale che l’equazione della conica si scrive come $p(x) = {\vphantom {\! x}}^\mathrm {t}\! xAx = 0 $, cioè \[ \begin{bmatrix} x_0 & x_1 & x_2 \end{bmatrix} \begin{bmatrix} a_{0,0} & a_{0,1} & a_{0,2} \\ a_{1,0} & a_{1,1} & a_{1,2} \\ a_{2,0} & a_{2,1} & a_{2,2} \end{bmatrix} \begin{bmatrix} x_0 \\ x_1 \\ x_2 \end{bmatrix} = 0 \]

Dim. Sia $p(x)$ il polinomio omogeneo di grado $2$ con coefficienti $a,b,c,d,e,f$ in $K$, cioè \[ p(x_0,x_1,x_2) = a x_0^2 + b x_1^2 + c x_2^2 + d x_0 x_1 + e x_0 x_2 + f x_1 x_2. \] D’altro canto si ha \[ \begin{split} {\vphantom {\! x}}^\mathrm {t}\! x A x & = \begin{bmatrix} x_0 & x_1 & x_2 \end{bmatrix}\begin{bmatrix} a_{0,0}x_0+ a_{0,1} x_1 + a_{0,2} x_2 \\ a_{1,0}x_0+ a_{1,1} x_1 + a_{1,2} x_2 \\ a_{2,0}x_0+ a_{2,1} x_1 + a_{2,2} x_2 \\ \end{bmatrix}\\ = & x_0(a_{0,0}x_0+ a_{0,1} x_1 + a_{0,2} x_2) + x_1(a_{1,0}x_0+ a_{1,1} x_1 + a_{1,2} x_2) + x_2(a_{2,0}x_0+ a_{2,1} x_1 + a_{2,2} x_2 ) \\ = & a_{0,0}x_0^2+ a_{0,1} x_0x_1 + a_{0,2} x_0x_2 + a_{1,0}x_0x_1+ a_{1,1} x_1^2 + a_{1,2} x_1x_2 + a_{2,0}x_0x_2+ a_{2,1} x_1x_2 + a_{2,2} x_2^2 \\ = & a_{0,0}x_0^2+ a_{1,1} x_1^2 + a_{2,2} x_2^2 + (a_{0,1} + a_{1,0}) x_0x_1 + (a_{0,2}+a_{2,0}) x_0x_2 + (a_{1,2}+a_{2,1}) x_1x_2 \\ \end{split} \] Basta quindi porre $a_{0,0} = a$, $a_{1,1} = b$, $a_{2,2} = c$, $a_{0,1} = a_{1,0} = d/2$, $a_{0,2} = a_{2,0} = e/2$ e $a_{1,2} = a_{2,1} = f/2$.
QED

(7.9) Definizione. La matrice simmetrica $A$ della proposizione (7.8) si dice matrice associata alla equazione della conica.

(7.10) Sia $T\from \PP ^2(K) \to \PP ^2(K)$ una proiettività (isomorfismo proiettivo). Se $p(x) = 0 $ è l’equazione della conica $C$, allora $p(T^{-1}x) = 0 $ è l’equazione della conica $T(C)$. La matrice associata al polinomio omogeneo di secondo grado $p(T^{-1}x)$ è uguale a ${\vphantom {\! T^{-1}}}^\mathrm {t}\! T^{-1}AT^{-1}$, dove $A$ è la matrice associata al polinomio $p(x)$.

Dim. Ricordiamo che la proiettività si scrive come matrice $3\times 3$ invertibile a coefficienti in $K$, per cui possiamo scrivere, semplificando, $T(x) = Tx$ e $T^{-1}x = T^{-1}(x)$. Sia $C’ = \{ x=[x_0:x_1:x_2] \in \PP ^2(K) : p(T^{-1}x) = 0 \} $. Osserviamo che se $x\in C$ (cioè $p(x)=0$), si ha che $p(T^{-1} T x) = 0$, cioè $Tx$ è un punto di $C’$. In altre parole, $T(C) \subset C’$. Analogamente $T^{-1}(C’) \subset C$, e quindi $T(C) = C’$. Sia $A$ la matrice (simmetrica) associata a $p(x)$, e quindi $p(x) = {\vphantom {\! x}}^\mathrm {t}\! x A x$. Allora si ha \[ \begin{split} p(T^{-1}x) & = {\vphantom {\! (T^{-1}x)}}^\mathrm {t}\! (T^{-1}x) A T^{-1} x \\ & = {\vphantom {\! x}}^\mathrm {t}\! x {\vphantom {\! T^{-1}}}^\mathrm {t}\! T^{-1} A T^{-1} x.\\ \end{split} \]
QED

(7.11) Nota. Se $T$ è una matrice in $GL(3,K)$, segue dalla dimostrazione della proposizione precedente che le coniche di equazioni

\[ {\vphantom {\! x}}^\mathrm {t}\! x A x = 0 {\vphantom {\! x}}^\mathrm {t}\! x {\vphantom {\! T}}^\mathrm {t}\! T A T x = 0 \]

sono proiettivamente equivalenti.

Ricordiamo ora alcuni teoremi relativi alle matrici simmetriche con coefficienti in $K$ (forme bilineari simmetriche):

(7.12) Ogni forma bilineare simmetrica $A$ su $K^ n$ è diagonalizzabile, cioè se $A$ è una matrice $n\times n$ simmetrica allora esiste una matrice $M\in GL(n,K)$ tale che ${\vphantom {\! M}}^\mathrm {t}\! M A M$ è diagonale.

(7.13) Se $K$ è algebricamente chiuso (per esempio $K=\CC $), per ogni forma bilineare simmetrica $A$ esiste $M\in GL(n,K)$ tale che ${\vphantom {\! M}}^\mathrm {t}\! M A M$ è diagonale e gli elementi della diagonale sono tutti $1$ oppure $0$, cioè \[ {\vphantom {\! M}}^\mathrm {t}\! M A M = \begin{bmatrix} I_ r & 0 \\ 0 & 0 \\ \end{bmatrix} \] dove $I_ r$ è la matrice identica $r\times r$ e il resto della matrice ha coefficienti nulli ($r$ è il rango di $A$).

I cambi di variabili che useremo saranno scelti fra i tre seguenti (in una opportuna successione):

(7.14) Teorema.[Completamento dei quadrati di Lagrange] Se $q$ è una forma quadratica $q(\vx )$ su $\KK ^ n$, con $\KK $ campo di numeri $\KK \supset \QQ $, allora con una successione di cambi di variabili dei tre tipi elencati sopra è possibile renderla diagonale, cioè trovare variabili $\vy =(y_1,y_2,\ldots , y_ n)$ tali che (2)\begin{equation} \hat q = c_1 y_1^2 + c_2 y_2^2+ \ldots + c_ n y_{n}^2 \end{equation} per certi coefficienti $c_1, c_2, \ldots , c_ n$.

Dim. Procediamo ricorsivamente: mostriamo che con siffatti cambi di variabili si può scrivere ogni forma quadratica in $n$ variabili $q(\vx )$ nella forma

\[ c_1 y_1^2 + q_2(y_2,\ldots , y_ n), \]

dove $q_2$ è una forma quadratica nelle $n-1$ variabili $y_2,\ldots , y_ n$. Applicando $n-1$ volte questa procedura otteniamo la diagonalizzazione cercata. Iniziamo considerando tutti i termini di $q(\vx )$ che contengono la variabile $x_1$, cioè

(3)\begin{equation} q_1= a_{1,1} x_1^2 + 2 a_{1,2} x_1 x_2 + \ldots + 2 a_{1,n} x_1 x_ n \end{equation}

Se operiamo il cambio di variabili

\[ \left\{ \begin{aligned} x_1 & = y_1 + b y_2 \\ x_ i & = y_ i \text {\ per $i\geq 2$,} \\ \end{aligned}\right. \]

l’espressione (3) cambia in

\[ \begin{aligned} q_1 & = a_{1,1} (y_1 + by_2)^2 + 2 a_{1,2} (y_1+by_2) y_2 + \ldots + 2 a_{1,n} (y_1+b y_2) y_ n \\ & = a_{1,1} y_1^2 + 2 b a_{1,1} y_1 y_2 + b^2 a_{1,1} y_2^2 + 2a_{1,2} y_1 y_2 + 2 b a_{1,2} y_2^2 +\ldots + 2 a_{1,n} y_1 y_ n + 2 b a_{1,n} y_2 y_ n \\ & = a_{1,1} y_1^2 + 2 (b a_{1,1} + a_{1,2}) y_1 y_2 + \ldots + 2 a_{1,n} y_1 y_ n + \left[ (b^2 a_{1,1} + 2b a_{1,2}) y_2^2 + \ldots + 2 b a_{1,n} y_2 y_ n \right]. \end{aligned} \]

Se $a_{1,1} \neq 0$, allora ponendo $b = -\dfrac {a_{1,2}}{a_{1,1}}$ si ottiene $ba_{1,1} + a_{1,2} = 0$, ovvero il coefficiente di $y_1y_2$ si annulla e quindi

\[ q_1 = a_{1,1} y_1^2 + 2 a_{1,3} y_1 y_3 + \ldots + 2 a_{1,n} y_1 y_ n + \left[ b a_{1,2} y_2^2 + \ldots + 2 b a_{1,n} y_2 y_ n. \right]. \]

Operando in questo modo $n-1$ volte è possibile quindi far scomparire tutti i termini misti $x_1x_ i$ di $q(\vx )$, con $i\geq 2$, e cioè trovare nuove variabili $\hat{\vx }$ per cui

\[ q(\vx ) = \hat q(\hat x_1,\hat x_2, \ldots , \hat x_ n ) = a_{1,1} \hat x_1^2 + q_2(\hat x_2,\ldots , \hat x_ n), \]

dove $q_2$ è una forma quadratica nelle rimanenti $n-1$ variabili $\hat x_2$, $\hat x_3$, …, $\hat x_ n$. Naturalmente questo a patto che $a_{1,1} \neq 0$.

Se invece $a_{1,1} = 0$, questo cambio di variabili non funziona. Con una permutazione delle variabili possiamo però cercare un $a_{i,i} \neq 0$, scambiare $x_ i$ con $x_1$ e procedere come sopra. Se invece per ogni $i=1,\ldots ,n$ si ha che $a_{i,i} = 0$, occorre procedere in altro modo. Se $a_{1,j} = 0$ per ogni $j=2\ldots n$, allora $x_1$ non compare in $q(\vx )$ e quindi l’asserto è vero con $c_1=0$:

\[ q = 0 x_1^2 + q_2(y_2,y_3,\ldots ,y_ n). \]

Se almeno uno degli $a_{1,j}$ è diverso da zero, allora con uno scambio tra due variabili $x_1$ e $x_ j$ possiamo supporre che sia $a_{1,2} \neq 0$. Poniamo $x_1 = y_1 + y_2$, $x_2 = y_1 - y_2 $, e $x_ i = y_ i$ per $i \geq 3$, e la forma quadratica che nelle $x_ i$ è

\[ \begin{array}{cccccccccccc} q = 0 x_1^2 & +& 2 a_{1,2} x_1 x_2 & +& 2 a_{1,3} x_1 x_3 & +& \ldots & +& 2 a_{1,n-1} x_1 x_{n-1} & +& 2a_{1,n} x_1 x_ n & + \\ & +& 0 x_2^2 & +& 2 a_{2,3} x_2 x_3 & +& \ldots & +& 2 a_{2,n-1} x_2 x_{n-1} & +& 2 a_{2,n} x_2 x_ n & + \\ & & & + & 0 x_3^2 & + & \ldots & + & 2 a_{3,n-1} x_3 x_{n-1} & + & 2 a_{3,n} x_3 x_ n & + \\ & & & & & & & & ... & & ... & \\ & & & & & & & +& 0 x_{n-1}^2 & +& 2 a_{n-1,n} x_{n-1} x_ n & + \\ & & & & & & & & & + & 0 x_{n}^2 & \\ \end{array} \]

nelle nuove variabili $y_ i$ diventa

\[ \begin{aligned} \hat q & = 0 + 2 a_{1,2}( y_1 +y_2)(y_1-y_2) + 2 (y_1+y_2) ( a_{1,3} y_3 + \ldots + a_{1,n-1} y_{n-1} + a_{1,n} y_ n ) + \\ & + 2 (y_1-y_2) ( a_{2,3} y_3 + \ldots + a_{2,n-1} y_{n-1} + a_{2,n} x_ n ) + \\ \ldots & + 2 a_{3,n-1} y_3 y_{n-1} + 2 a_{3,n} y_3 y_ n + \ldots + 2a_{n-1,n} y_{n-1}y_{n}. \end{aligned} \]

Con la forma quadratica in questa forma, notiamo che $y_1^2$ compare con coefficiente $2 a_{1,2} \neq 0$, e quindi possiamo riprendere a eliminare i prodotti $y_1 y_ j$ esattamente come abbiamo fatto per il caso $a_{1,1} \neq 0$: nuovamente possiamo trovare alla fine di tutto un sistema di coordinate $\hat x_ i$ in cui

\[ \hat q = c_1 \hat x_1^2 + q_2(\hat x_2,\ldots , \hat x_ n), \]

dove $q_2$ dipende dalle $n-1$ variabili $\hat x_2,\ldots , \hat x_ n$.

QED

Osserviamo che è possibile cambiare ulteriormente le coordinate e fare in modo di rendere l’identità (2) ancora più semplice. Permutando le variabili, possiamo sempre supporre che per certi interi $p$ e $r$ (con $0\leq p \leq r \leq n$) si abbia

\[ \begin{cases} c_ i > 0 & \text {se $i=1,\ldots , p$}\\ c_ i < 0 & \text {se $i=p+1,\ldots , r$} \\ c_ i = 0 & \text {se $i=r+1, \ldots , n$}. \end{cases} \]

Supponiamo di scrivere la forma quadratica (2) diagonale

\[ q = c_1 x_1^2 + c_2 x_2^2+ \ldots + c_ n x_{n}^2. \]

Se si cambiano le variabili nel modo seguente:

\[ y_ i = \left\{ \begin{aligned} \sqrt {c_ i} x_ i & & \text {se $i=1,\ldots , p$}\\ \sqrt {-c_ i} x_ i& & \text {se $i=p+1,\ldots , r$}\\ x_ i & & \text {se$i=r+1,\ldots , n$,} \end{aligned}\right. \]

la $q$ diventa

\[ \hat q = y_1^2 + y_2^2+ \ldots + y_ p^2 - y_{p+1}^2 - \ldots - y_{r}^2. \]

Nel prossimo teorema dimostreremo che questa forma è canonica, cioè che è unicamente determinata da $q$ e che lo rappresenta fedelmente.

(7.15) Teorema.[Legge di inerzia di Sylvester] Se $q$ è una forma quadratica su $\RR ^ n$, allora esistono due interi $p$ e $r$, con $0\leq p \leq r \leq n$, ed esiste un cambio di variabili $\vy = B \vx $ di $\RR ^ n$ tale che nelle nuove coordinate (4)\begin{equation} \hat q = y_1^2 + y_2^2+ \ldots + y_ p^2 - y_{p+1}^2 - \ldots - y_{r}^2. \end{equation} L’intero $p$ è detto indice di positività, $r-p$ è detto indice di negatività e $r$ è il rango della forma quadratica. L’indice di positività e il rango della forma quadratica $q$ non dipendono dal sistema di riferimento di $\RR ^ n$.

Dim. Abbiamo visto sopra che ogni forma quadratica si può scrivere come nell’equazione (4). Mostriamo quindi che se la forma quadratica è diagonalizzata in due sistemi di riferimento $\vy $ e $\vz $, l’indice di positività e il rango coincidono. In altre parole, vogliamo convincerci che se $\vz = B \vy $ per una matrice $B$ invertibile, e (5)\begin{equation} y_1^2 + y_2^2+ \ldots + y_ p^2 - y_{p+1}^2 - \ldots - y_{r}^2 = z_1^2 + z_2^2+ \ldots + z_{p'}^2 - z_{p'+1}^2 - \ldots - z_{r'}^2, \end{equation} allora $p=p’$ e $r=r’$. Supponiamo invece che sia $p > p’$. Cerchiamo un vettore di $\RR ^ n$ le cui coordinate nelle variabili $\vy $ soddisfino le $n-p$ uguaglianze $y_{p+1} = y_{p+2} = \ldots = y_{r} = \ldots = y_{n} = 0$, mentre le sue coordinate nelle variabili $\vz $ soddisfino $z_1 = z_2 = \ldots = z_{p'} = 0$. Esiste? Dato che le $z_ i$ sono funzioni lineari delle $y_ j$, si tratta di un sistema di $(n-p) + p’$ equazioni nelle $n$ incognite $y_ i$. Ma se $p’ < p$ allora $n-p+p’ < n$ e il sistema ha certamente almeno una soluzione $\bar{\vy }\neq \boldsymbol {0}$. Sia $\bar{\vz }$ il vettore corrispondente $\bar{\vz } = B \bar{\vy }$. Dato che $\bar y_{p+1} = \bar y_{p+2} = \ldots = \bar y_{r} = \ldots =\bar y_{n} = 0$, \[ (\bar y_1, \bar y_2, \ldots , \bar y_ p ) \neq \boldsymbol {0}\quad \implies \quad \bar y_1^2 + \bar y_2^2 + \ldots +\bar y_ p^2 > 0. \] Inoltre per costruzione $ \bar z_1^2 + \bar z_2^2 + \ldots + \bar z_{p'}^2 = 0 $, e quindi per l’equazione (5) si ha \[ \begin{aligned} 0 < \bar y_1^2 + \bar y_2^2+ \ldots + \bar y_ p^2 & = \bar y_1^2 + \bar y_2^2+ \ldots + \bar y_ p^2 - \bar y_{p+1}^2 - \ldots - \bar y_{r}^2 \\ & = \bar z_1^2 + \bar z_2^2+ \ldots + \bar z_{p'}^2 - \bar z_{p'+1}^2 - \ldots - \bar z_{r'}^2 \\ & = - \bar z_{p'+1}^2 - \ldots - \bar z_{r'}^2 \leq 0. \end{aligned} \] Questo è assurdo, e quindi non può essere $p’ < p$. Il ragionamento può essere ripetuto paro paro scambiando i ruoli di $\vy $ e $\vz $, da cui si deduce che $p=p’$. Per concludere la dimostrazione, osserviamo che se $q(\vx )$ è diagonale, allora $q(\vx )$ e $-q(\vx )$ hanno stesso rango $r$, mentre l’indice di positività di $-q(\vx )$ è uguale all’indice di negatività $r-p$ di $q(\vx )$. Se $q_1$ e $q_2$ sono due diagonalizzazioni della forma $q$, allora $-q_1$ e $-q_2$ sono due diagonalizzazioni della forma $-q$ e quindi hanno lo stesso indice di positività. Ma allora $q_1$ e $q_2$ hanno gli stessi indici di positività e di negatività, e di conseguenza anche lo stesso rango.
QED

(7.16) [Sylvester] Se $K=\RR $, per ogni forma bilineare simmetrica $A$ esiste $M\in GL(n,K)$ tale che ${\vphantom {\! M}}^\mathrm {t}\! M A M$ è diagonale e gli elementi della diagonale sono tutti $\pm 1$ oppure $0$, cioè \[ {\vphantom {\! M}}^\mathrm {t}\! M A M = \begin{bmatrix} I_ p & 0 & 0 \\ 0 & -I_{r-p} & 0 \\ 0 & 0 & 0 \\ \end{bmatrix} \] dove $I_ p$ è la matrice identica $p\times p$, $I_{r-p}$ analoga e il resto della matrice ha coefficienti nulli.

(7.17) Teorema. Una retta $r$ di $\PP ^2(\RR )$ interseca una conica $C$ in $0$, $1$ o $2$ punti.

Dim. Se $C$ è definita dall’equazione $q(\vx )=0$, con $\vx = [x_0:x_1:x_2]$ coordinate proiettive omogenee, e $A$, $B$ sono due punti distinti di $r$, allora il punto generico di $r$ si scrive in coodinate omogenee come $s A + t B$, e sta su $C$ se e solo se $q(sA+tB)=0$. Ora, questa è una funzione $\PP ^1(\RR ) \to \RR $, ed è un polinomio omogeneo di secondo grado in $[s:t]$, che si scrive come \[ as^2 + 2bst + ct^2 \] per certi coefficienti $a,b,c$ non tutti nulli, o anche in forma matriciale come \[ \begin{bmatrix} s & t \end{bmatrix} \begin{bmatrix} a & b \\ b & c \end{bmatrix} \begin{bmatrix} s \\ t \end{bmatrix} \] Ora, se $\det \begin{bmatrix} a & b \\ b & c \end{bmatrix} > 0$, non ci sono soluzioni. Se $\det \begin{bmatrix} a & b \\ b & c \end{bmatrix} = 0$, c’è un’unica soluzione, mentre se $\det \begin{bmatrix} a & b \\ b & c \end{bmatrix} < 0 $ le soluzioni sono due (si veda anche l’esercizio 3.30).
QED

(7.18) Definizione. Diciamo che la retta $r$ è tangente ad una conica non degenere $C$ di $\PP ^1(K)$ se e solo se $r$ interseca $C$ in un solo punto.


Footnotes

  1. Cfr: Sernesi, Vol I, Cap 4, § 30 [1].
  2. In molti testi si definisce l’insieme delle soluzioni come supporto della curva, mentre la curva è la classe di equivalenza del polinomio $f$ costituita da $f$ e da tutti i suoi multipli scalari – come per i punti dello spazio proiettivo. Questa definizione sarebbe più appropriata, perché tiene conto della molteplicità delle soluzioni, in casi degeneri, anche se accade che una conica possa ridursi ad un punto o all’insieme vuoto. Ovvio che poi questa definizione, nel caso euclideo, dovrà tornare a essere la definizione che abbiamo visto precedentemente.