Geometria canale A-K 2019-20

Facoltà di Ingegneria, Università Roma Tre
Corso di Laurea Triennale in Ingegneria Meccanica
A.A. 2019/2020


AVVISI


Si prega:
- di iscriversi al corso sulla piattaforma Teams usando esclusivamente la mail istituzionale @uniroma3.it col codice eds1xb1
- di usare fogli bianchi (non quadrettati né a righe)
- di usare penne di colore scuro 
- di non usare la matita
- di munirsi di pc e di cellulare con webcam funzionanti.
- di scaricare su cellulare l'App GoogleMeet per permettere la video sorveglianza durante l'esame. Il cellulare dovrà essere posizionato in modo da inquadrare lo studente e l'ambiente intorno mentre svolge l'esame. Il PC deve inquadrare frontalmente lo studente. 



Il docente ha creato un corso online sulla piattaforma Microsoft Teams dal nome Geometria AK - prof. Cigliola. Il codice per iscriversi al corso (usando esclusivamente un indirizzo istituzionale @uniroma3.it) è eds1xb1. 
Gli studenti interessati sono pregati di iscriversi per tempo. 


Docente: prof. Antonio Cigliola


Ricevimento: per email cigliola@mat.uniroma3.it


Orario delle lezioni:
Giovedì           10:00 - 12:00         Aula N16
Venerdì            10:00 - 12:00         Aula N11


Prerequisiti: Logica elementare. Teoria elementare degli insiemi. Insiemi numerici. Principio di induzione. Equazioni e disequazioni. Goniometria e trigonometria. Geometria Analitica di base. (In generale, sono dati per scontati tutti argomenti del Precorso di Matematica).


Programma di massima del corso:
Funzioni astratte tra insiemi e proprietà. Gruppi astratti.
Algebra lineare: Matrici. Determinanti. Rango. Sistemi lineari. Spazi vettoriali. Applicazioni lineari. Autovalori e autovettori. Diagonalizzazione. Prodotto scalare. Operatori simmetrici. Teorema spettrale.
Geometria: Geometria affine del piano e dello spazio. Geometria euclidea del piano e dello spazio. 


Enunciati di cui è richiesta la dimostrazione.



Modalità d'esame:
L'esame consiste in una prova scritta e di una prova orale.


Tracce d'esame:

Tracce 2014/15 
Tracce 2015/16
Tracce 2016/17
Tracce 2017/18
Tracce 2018/19

Esonero 21/12/2019    prova1   prova2  prova3  prova4  prova5  prova6

Esonero 25 /01/2020           prova

Esame 07/02/2020              prova1    prova2

Esame 27/02/2029              prova1    prova2

Simulazione 06/06/2020     ex1    ex2    ex3    ex4    soluzioni

Esame 15/06/2020              ex1    ex2    ex3    ex4

Esame  06/07/2020             ex1    ex2    ex3    ex4

Esame  04/09/2020             ex1    ex2     ex3





Libro di testo adottato e materiale didattico consigliato:




DIARIO DELLE LEZIONI

LEZIONE 1
Presentazione del corso. L'insieme \(\mathcal{M}_{m,n}(\mathbb{R})\) delle matrici di tipo \(m\times n\) a coefficienti reali. Notazioni e nomenclatura.Vettori riga e vettori colonna. Matrice nulla. L'insieme \(\mathcal{M}_{n}(\mathbb{R})\) delle matrici quadrate di ordine \(n\) a coefficienti reali. Matrici diagonali. Matrice identica di ordine \(n\). Trasposta di una matrice. Principio di identità tra matrici. Somma di matrici dello stesso tipo. L'addizione tra matrici è associativa e commutativa, la matrice nulla è l'elemento neutro rispetto alla somma, ogni matrice ha la sua matrice opposta. Moltiplicazione di un numero reale per una matrice: proprietà fondamentali. Matrici simmetriche ed antisimmetriche: proprietà. Prodotto di un vettore riga per un vettore colonna. Prodotto riga per colonna di matrici. In generale il prodotto riga per colonna non è commutativo.
Esercizi 1: Matrici


LEZIONE 2
Matrici simmetriche ed antisimmetriche: proprietà. In generale il prodotto riga per colonna non è commutativo e non vale la legge di annullamento del prodotto tra matrici. Proprietà del prodotto riga per colonna. Prese due matrici \(A\in M_{m,n}(\mathbb{R})\) e \(B\in M_{n,p}(\mathbb{R})\), allora \((AB)^T=B^TA^T\). La matrice identica è l'elemento neutro del prodotto. Esercitazione: calcolo matriciale. L'insieme \(\mathbb{R}^n\) delle \(n\)-uple ordinate di numeri reali. Combinazioni lineari di vettori riga e vettori colonna.Vettori linearmente dipendenti e linearmente indipendenti. Un vettore riga (o colonna) è linearmente dipendente se e solo se è nullo. Due vettori riga (o colonna) sono linearmente dipendenti se e solo se uno dei due è multiplo dell'altro. Se in un insieme di vettori riga (o colonna) uno di essi è il vettore nullo, allora i vettori sono linearmente dipendenti. Se in un insieme di vettori riga (o colonna) due di essi sono uguali, allora i vettori sono linearmente dipendenti. Dei vettori (riga o colonna) sono linearmente dipendenti se e solo se uno di essi può essere scritto come combinazione lineare degli altri. 
Esercizi 2: Algebra lineare in \(\mathbb{R}^n\)


LEZIONE 3
Determinanti di matrici quadrati di ordine \(1\) e \(2\).  Sottomatrici complementari. Complementi algebrici. Determinanti. Regola di Sarrus. Sviluppo del determinante rispetto alla prima riga. Teorema di Laplace: il determinante di una matrice può essere calcolato sviluppandolo rispetto ad una qualsiasi riga o una qualsiasi colonna. Proprietà dei determinanti: \(\textrm{det}(0_n)=0\),  \(\textrm{det}(I_n)=1\) e \(\textrm{det}(A^T)=\textrm{det}(A)\). Se una matrice ha una riga (o una colonna) nulla, il suo determinante è zero. Il determinante di una matrice diagonale è il prodotto degli elementi diagonali. Se in una matrice si moltiplica una riga (o una colonna) per uno scalare, il determinante della matrice resta moltiplicato per lo stesso scalare. Il determinante è lineare per righe (o per colonne). Scambiando due righe (o due colonne) in una matrice, il determinante cambia segno. Se una matrice ha due righe uguali (o due colonne uguali), il suo determinante è nullo. Se una matrice ha due righe (o due colonne) proporzionali, il suo determinante è nullo. Sommando ad una riga (o una colonna) di una matrice una combinazione lineare delle rimanenti, il determinante non cambia. Se in una matrice le righe (o le colonne) sono linearmente dipendenti, il determinante è nullo. Teorema di Binet: prese \(A\) e \(B\) due matrici quadrate dello stesso ordine, allora \(\textrm{det}(AB)=\textrm{det}A \ \textrm{det}B\). Il determinante non si distribuisce rispetto alla somma di matrici. Matrici quadrate invertibili. Prese due matrici invertibili \(A\) e \(B\), anche la matrice \(AB\) è invertibile e si ha che \((AB)^{-1}=B^{-1}A^{-1}\). Il gruppo lineare reale di ordine \(n\) delle matrici invertibili, \(GL_n(\mathbb{R})\). Teorema di Laplace per la matrice inversa: una matrice è invertibile se e solo se ha determinante diverso da zero. In particolare, l'inversa di una matrice è data da \(A^{-1}=\frac{1}{\textrm{det}A}(A^*)^T\), dove \(A^*\) è la matrice che ha per entrate, ordinatamente, i complementi algebrici degli elementi della matrice \(A\). Esempi di calcolo di matrici inverse.
Esercizi 3: Determinanti
Esercizi 4: Matrice inversa

LEZIONE 4
Esercitazione su matrici, combinazioni lineari, determinanti.

LEZIONE 5
Rango di una matrice. Una matrice ha rango zero se e solo se è la matrice nulla. Se \(A\in M_{m,n}(\mathbb{R})\), allora \(\textrm{rk}A\leqslant\min\{m,\,n\}\) e se vale l'uguaglianza si dice che \(A\) ha rango massimo. Una matrice quadrata ha rango massimo se e solo se è invertibile. Il rango di una matrice \(A\) vale \(r\) se e solo se la matrice contiene un minore non nullo di ordine \(r\) e tutti i monori di \(A\) di ordine \(r+1\) sono nulli. Minori orlati. Teorema di Kronecker: il rango di una matrice vale \(r\) se e solo se la matrice contiene un minore non nullo di ordine \(r\) e tutti i suoi orlati di ordine \(r+1\) sono nulli.
Esercizi 5: Rango

LEZIONE 6
Esercitazione sul rango di matrici.

LEZIONE 7
Equazioni lineari in una o più incognite. Soluzione di un'equazione lineare. Sistemi lineari di tipo \(m\times n\) a coefficienti reali (con \(m\) equazioni ed \(n\) incognite). Soluzione di un sistema lineare. Sistemi compatibili, determinati, indeterminati, impossibili (o incompatibili). Scrittura compatta di un sistema lineare: un sistema lineare si scrive nella forma \(A\mathbf{X}=\mathbf{b}\), dove \(A\in M_{m,n}(\mathbb{R})\) è la matrice incompleta, \(\mathbf{b}\in \mathbb{R}^m\) è la colonna dei termini noti e \(\mathbf{X}=(x_1,x_2,\dots,x_n)^T\) la colonna delle indeterminate. Sistemi omogenei. Un sistema omogeneo non è mai impossibile, ammette sempre la soluzione banale; inoltre, se ammette una soluzione non banale, ne ammette infinite. Le soluzioni di un sistema non omogeneo sono date dalla somma di una (data) soluzione particolare e di una qualsiasi soluzione del sistema omogeneo associato. Un sistema lineare ammette una, nessuna o infinite soluzioni. Sistemi lineari quadrati di ordine \(n\). Teorema di Cramer: un sistema lineare quadrato con matrice dei coefficienti \(A\) è determinato se e solo se \(\textrm{det}A\neq0\) (indipendentemente dalla colonna dei termini noti). Risoluzione di un sistema crameriano col metodo della matrice inversa. Regola di Cramer per la risoluzione di un sistema crameriano. Un sistema lineare omogeneo quadrato con matrice dei coefficienti \(A\) è indeterminato se e solo se \(\textrm{det}A=0\). Una matrice quadrata ha rango massimo se e solo se le colonne (o le righe) di \(A\) sono linearmente indipendenti. Una matrice \(A\in M_{m,n}(\mathbb{R})\)  ha rango \(r\) se e solo se in \(A\) esistono \(r\) righe (o colonne) linearmente indipendenti e se \(r+1\) righe (o colonne) comunque scelte sono linearmente dipendenti. In una matrice \(A\in M_{m,n}(\mathbb{R})\)  il rango indica il massimo numero di righe (o colonne) linearmente indipendenti. 

LEZIONE 8
Teorema di Rouché-Capelli: un sistema lineare  \(A\mathbf{X}=\mathbf{b}\) è compatibile se e solo se il rango della matrice incompleta del sistema \(A\) e il rango della matrice completa del sistema \((A|\mathbf{b})\) sono uguali. In tal caso, detto \(r\) il rango, il sistema è determinato se \(n=r\), è invece indeterminato con \(\infty^{n-r}\) soluzioni, se \(r<n\). Esercitazione: sistemi lineari.
Esercizi 6: Sistemi lineari

LEZIONE 9
Un vettore applicato è individuato da un punto di applicazione, una direzione, un verso ed un modulo. L'insieme dei vettori geometrici applicati nel piano. Vettori geometrici liberi. Vettore nullo. Vettori equipollenti. Somma di due vettori (con la regola del parallelogramma o della poligonale) e moltiplicazione con scalare. Operazioni con i vettori liberi: somma e moltiplicazione con scalare reale. L'insieme dei vettori geometrici liberi del piano \(\mathcal{V}_2\). Definizione astratta di gruppo abeliano. Esempi di gruppi additivi e moltiplicativi. Spazi vettoriali reali. Esempi di spazi vettoriali: \( M_{m,n}(\mathbb{R})\), \(\mathbb{R}^n\),  \(\mathcal{V}^2\). Lo spazio vettoriale reale \(\mathbb{R}[x]\) dei polinomi a coefficienti reali nell'indeterminata \(x\). Principio di identità tra polinomi. Lo spazio vettoriale reale delle funzioni definite su un insieme non vuoto \(A\). In uno spazio vettoriale \(V\) il vettore nullo \(\mathbf{0}_V\) è unico; il simmetrico di un vettore \(v\in V\) è unico, lo si indica con \(-v\) ed è detto l'opposto di \(v\). Legge di annullamento del prodotto negli spazi vettoriali: presi \(\lambda\in\mathbb{R}\) e \(v\in V\), si ha che \(\lambda v=\mathbf{0}_V\) se e solo se \(\lambda=0_{\mathbb{R}}\) oppure \(v=\mathbf{0}_V\). Preso un vettore un vettore \(v\) di uno spazio vettoriale \(V\), si ha che \((-1)v=-v\). 

LEZIONE 10
Combinazioni lineari. Vettori linearmente dipendenti e linearmente indipendenti. Un vettore è linearmente dipendente se e solo se è nullo. Due vettori sono linearmente dipendenti se e solo se sono proporzionali. Dei vettori sono linearmente dipendenti se e solo se uno di essi è combinazione lineare dei rimanenti. Se in un insieme di vettori alcuni di essi sono linearmente dipendenti, allora tutti sono linearmente dipendenti. Sottospazi vettoriali. Dato lo spazio vettoriale \(V\), gli insiemi \(\{\mathbf{0}_V\}\) e \(V\) sono sottospazi vettoriali di \(V\). Un sottospazio vettoriale contiene necessariamente il vettore nullo. Esempi di sottospazi vettoriali. L'insieme \(\mathbb{R}_{\leqslant n}[x]\) dei polinomi di grado al più \(n\) con il polinomio nullo è un sottospazio vettoriale di \(\mathbb{R}[x]\).
Esercizi 7: Dipendenza lineare


LEZIONE 11
L'insieme delle soluzioni di un sistema lineare di tipo \(m\times n\) è un sottospazio vettoriale di \(\mathbb{R}^n\) se e solo se il sistema è omogeneo. Sia \(V\) uno spazio vettoriale e siano \(v_1,\ v_2,\,\dots, v_n\) vettori di \(V\), allora il sottoinsieme costituito dalle combinazioni lineari dei \(v_i\) è un sottospazio vettoriale di \(V\); esso è chiamato il sottospazio generato dai \(v_i\) ed è indicato con \(\mathcal{L}(v_1,\ v_2,\,\dots, v_n)\). Retta vettoriale. Piano vettoriale. Spazi vettoriali finitamente generati. Lo spazio \(\mathbb{R}[x]\) non è finitamente generato. Gli spazi \(\mathbb{R}^n\), \(\mathcal{M}_{m,n}(\mathbb{R})\) e \(\mathbb{R}_{\leqslant n}[x]\) sono finitamente generati. Dato lo spazio vettoriale \(V\), gli insiemi \(\{\mathbf{0}_V\}\) e \(V\) sono sottospazi vettoriali di \(V\).  Lo spazio \(\mathbb{R}[x]\) non è finitamente generato. Dato \(V\) uno spazio vettoriale e \(v_1, v_2,\,\dots, v_n\) vettori di \(V\), preso \(w\in\mathcal{L}(v_1, v_2,\,\dots, v_n)\), allora si ha \(\mathcal{L}(v_1, v_2,\,\dots, v_n, w)=\mathcal{L}(v_1, v_2,\,\dots, v_n)\). Dati i vettori \(v_1, v_2,\,\dots, v_n\) linearmente indipendenti di \(V\), preso \(w\not\in\mathcal{L}(v_1, v_2,\,\dots, v_n)\), allora i vettori \(v_1, v_2,\,\dots, v_n, w\) sono linearmente indipendenti. Una base di uno spazio vettoriale finitamente generato è un sistema di generatori linearmente indipendenti. Basi canoniche di \(\mathbb{R}^n\),  \(\mathbb{R}_{\leqslant n}[x]\) e \(M_{m,n}(\mathbb{R})\). Le due condizioni per definire una base sono indipendenti (e vanno verificate entrambe). Metodo degli scarti successivi: ogni spazio vettoriale non banale finitamente generato ha almeno una base. Esercitazione.
Esercizi 8: Sottospazi vettoriali

LEZIONE 12
Lemma di Steinitz: se \(\{v_1, v_2,\dots, v_n\}\) è una base di \(V\) e \(w_1, w_2, \dots, w_m\) sono \(m>n\) vettori di \(V\) allora i \(w_i\) sono linearmente dipendenti. Tutte le basi di uno spazio vettoriale finitamente generato hanno la stessa cardinalità che è detta la dimensione di \(V\) e si indica \(\dim V\). La dimensione di \(V\) indica il numero massimo di vettori linearmente indipendenti che si possono trovare in \(V\). La dimensione di \(V\) indica il numero minimo di generatori di \(V\). Se \(V\) è uno spazio vettoriale di dimensione \(n\), allora \(\{v_1, v_2,\dots, v_n\}\) è una base di \(V\) se e solo se \(v_1, v_2,\dots, v_n\) sono linearmente indipendenti, se e solo se \(v_1, v_2,\dots, v_n\) sono generatori di \(V\).  Coordinate di un vettore rispetto ad una base. Operazioni tra vettori in termini delle loro componenti rispetto ad una base. Teorema del completamento della base: Sia \(\{v_1, v_2,\dots, v_n\}\) una base di \(V\) e siano \(w_1, w_2, \dots, w_m\), con \(m<n\), vettori linearmente indipendenti  di \(V\); allora è possibile scegliere \(n-m\) vettori \(v'_1, v'_2, \dots, v'_{n-m}\) tra i \(v_i\) tali che  \(\{w_1, w_2,\dots, w_m, v'_1, \dots, v'_{n-m}\}\) sia una base di \(V\).
Esercizi 9: Basi e dimensione

LEZIONE 13
Siano \(w_1,w_2,\dots,w_m\) vettori di uno spazio vettoriale \( V\) di dimensione \(n\) e sia \(\mathcal B\) una base di \(V\). Sia \(A\in M_{m,n}(\mathbb R)\) la matrice che ha per righe le coordinate dei \(w_i\) rispetto a \(\mathcal B\). Allora \(\textrm{rk} A=r\) indica il massimo numero di vettori linearmente indipendenti tra i \(w_i\) ed \(r\) vettori linearmente indipendenti sono quelli corrispondenti alle righe di un qualsiasi minore non nullo di \(A\) di ordine \(r\). Inoltre, i \(w_i\) sono linearmente indipendenti se e solo se \(\textrm{rk} A=m\). Siano \(\mathcal B\) e \(\mathcal B'\) basi di uno spazio vettoriale \(V\) di dimensione finita; la matrice di passaggio da \(\mathcal B\) a \(\mathcal B'\) è la matrice che si ottiene scrivendo in colonna ordinatamente le coordinate dei vettori di \(\mathcal B'\) in funzione di quelli di \(\mathcal B\). Teorema del cambiamento di coordinate nel passaggio da una base ad un'altra: siano \(P\) la matrice di passaggio dalla base \(\mathcal B\) alla base \(\mathcal B'\), \(P'\) la matrice di passaggio dalla base \(\mathcal B'\) alla base \(\mathcal B\), \(X\) la colonna delle coordinate di un vettore \(v\in V\) rispetto alla base \(\mathcal B\) e \(X'\) la colonna delle coordinate di \(v\) rispetto alla base \(\mathcal B'\), allora si ha che \(P'=P^{-1}\), \(X'=P^{-1}X\) e infine \(X=PX'\).

LEZIONE 14
Cambiamenti di base e di coordinate: applicazioni ed esempi. Equazioni cartesiane e parametriche di un sottospazio vettoriale. Il numero di parametri necessari per dare le equazioni parametriche di \(W\) è uguale alla dimensione di \(W\). Se \(n=\textrm{dim}V\), il numero minimo di equazioni cartesiane per descrivere \(W\) è \(n-\textrm{dim}W\). Esempi. Se \(V\) è uno spazio vettoriale di dimensione \(n\) e \(W\) è un sottospazio di \(V\), il numero minimo di equazioni cartesiane necessarie per descrivere \(W\) è detto codimensione di \(W\) e \(\textrm{codim}W=n-\textrm{dim}W\). In particolare, per ogni sottospazio vettoriale \(W\) si ha \(n=\textrm{dim}W+\textrm{codim}W\). Se \(V\) è uno spazio vettoriale di dimensione finita e \(W\) è un sottospazio di \(V\) allora \(\textrm{dim}W\leqslant\textrm{dim}V\). Inoltre \(\textrm{dim}W=\textrm{dim}V\) se e solo se \(W=V\). L'intersezione di due sottospazi vettoriali è un sottospazio vettoriale. In generale, l'unione di due sottospazi vettoriali non è un sottospazio vettoriale. La somma di due sottospazi vettoriali è un sottospazio vettoriale ed è il più piccolo contenente l'unione dei due sottospazi. Un sistema di generatori per la somma dei sottospazi \(U\) e \(W\) è dato dall'unione di una base di \(U\) e una base di \(W\); per ottenere una base va poi applicato il metodo degli scarti successivi. Equazioni cartesiane di \(U\cap W\) sono date dal sistema contenente equazioni cartesiane di \(U\) e di \(W\). Teorema di Grassmann: Se \(U\) e \(W\) sono sottospazi vettoriali di uno spazio vettoriale di dimensione finita, allora vale la formula di Grassmann \(\textrm{dim}(U+W)+\textrm{dim}(U\cap W)=\textrm{dim}U+\textrm{dim}W\). 
Esercizi 10: Somma e intersezione di sottospazi

LEZIONE 15
Esempi di applicazione della formula di Grassmann. Dati due sottospazi \(U\) e \(W\) si ha che \(U+W=W\) se e solo se \(U\cap W=U\) se e solo se \(U\subseteq W\). Somma diretta di due sottospazi. Formula di Grassmann per la somma diretta: \(\textrm{dim}(U\oplus W)=\textrm{dim}U+\textrm{dim}W\). Sottospazi complementari. In uno spazio vettoriale finitamente generato ogni sottospazio ammette un complemento diretto (che non è unico in generale). Esercitazione.

LEZIONE 16
Applicazioni lineari tra spazi vettoriali. Un'applicazione lineare \(F:\ V\rightarrow W\) è tale che \(F(\mathbf{0}_V)=\mathbf{0}_W\) e \(F(-v)=-F(v)\), per ogni \(v\in V\). Le applicazioni lineari conservano le combinazioni lineari: data un'applicazione lineare \(F:\ V\rightarrow W\) e il vettore \(v=\lambda_1 v_1+\dots+\lambda_k v_k\), allora \(F(v)=\lambda_1 F(v_1)+\dots+\lambda_k F(v_k)\). Due applicazioni lineari sono uguali se e solo se assumono gli stessi valori sui vettori di una base dello spazio di partenza. Applicazione nulla. Applicazione identica. Restrizione di un'applicazione lineare ad un sottospazio vettoriale. Applicazione lineare data dalla moltiplicazione a sinistra per una matrice. La derivazione è un'applicazione lineare definita sullo spazio dei polinomi (o delle funzioni derivabili).  Teorema fondamentale di esistenza e unicità dell'applicazione lineare definita dai valori assunti sui vettori di una base (o teorema di estensione): dati gli spazi vettoriali \(V\) e \(W\), con \(V\) finitamente generato, presi \(\{v_1,\dots, v_n\}\) una base di \(V\) e \(\{w_1,\dots,w_n\}\) un sottinsieme di vettori qualsiasi di \(W\), allora esiste ed è unica l'applicazione lineare \(F:V\rightarrow W\) tale che \(F(v_1)=w_1,\,\dots,\,F(v_n)=w_n\). Esempi di applicazione del teorema di estensione. Matrice associata ad un'applicazione lineare rispetto a due basi. Formule di calcolo in termini di coordinate e matrice associata. Teorema di rappresentazione.


LEZIONE 17
Legge del cambiamento della matrice associata. Insieme immagine di un'applicazione lineare. Se \(F:\ V\rightarrow W\) è un'applicazione lineare, allora \(\textrm{Im} F\) è un sottospazio vettoriale di \(W\). Se \(F:\ V\rightarrow W\) è un'applicazione lineare, allora \(\textrm{Im} F\) è un sottospazio vettoriale di \(W\); inoltre se \(V\) è finitamente generato ed ha dimensione \(n\) allora \(\textrm{dim Im}F\leqslant n\) e se \(\{v_1,\dots, v_n\}\) è una base di \(V\), allora \(\{F(v_1),\,\dots,\,F(v_n)\}\) è un sistema di generatori di \(\textrm{Im} F\). La dimensione dell'immagine di un'applicazione lineare tra spazi vettoriali finitamente generati eguaglia il rango della matrice associata. Un'applicazione lineare \(F:\ V\rightarrow W\) è suriettiva se e solo se \(\textrm{Im}F=W\), e se \(V\) e \(W\) sono finitamente generati, \(F\) è suriettiva se e solo se \(\textrm{rk}A=\textrm{dim Im}F\). Controimmagine di un vettore. La controimmagine sotto un'applicazione lineare tra spazi vettoriali finitamente generati è trovata risolvendo un sistema lineare. Nucleo di un'applicazione lineare. Il nucleo di un'applicazione lineare è un sottospazio vettoriale del dominio e se dominio e insieme di arrivo sono finitamente generati, la codimensione del nucleo è uguale al rango di una matrice associata all'applicazione.

LEZIONE 18
Un'applicazione lineare è iniettiva se e solo se il suo nucleo è banale. Teorema del rango: siano \(V\) e \(W\) spazi vettoriali, con \(V\) finitamente generato, e sia \(F:\ V\rightarrow W\) un'applicazione lineare, allora vale la formula della dimensione: \(\textrm{dim}V=\textrm{dim Im}(F)+\textrm{dim Ker}(F)\). Esempi di applicazione del teorema del rango. Data l'applicazione lineare \(F:\ V\rightarrow W\) tra due spazi vettoriali finitamente generati, si ha che \(F\) è iniettiva se e solo se \(\textrm{dim Im}F=\textrm{dim}V\), \(F\) è suriettiva se e solo se \(\textrm{dim Im}F=\textrm{dim}W\), infine \(F\) è biettiva se e solo se \(\textrm{dim Im}F=\textrm{dim}W=\textrm{dim}W\). Sia \(F:\ V\rightarrow W\) un'applicazione lineare e sia \(\textrm{dim}V=\textrm{dim}W\), allora \(F\) è iniettiva se e solo se \(F\) è suriettiva, se e solo se \(F\) è biettiva. Sia \(F: V\longrightarrow W\) un'applicazione lineare tra spazi vettoriali di dimensione finita, se \(\textrm{dim}V>\textrm{dim}W\) allora \(F\) non può essere iniettiva, se invece \(\textrm{dim}W>\textrm{dim}V\) allora \(F\) non può essere suriettiva. Sia data l'applicazione lineare \(F:\ V\rightarrow W\) tra due spazi vettoriali finitamente generati e sia \(A\) una matrice associata ad \(F\), si ha che \(F\) è iniettiva se e solo se \(\textrm{rk}A=\textrm{dim}V\), \(F\) è suriettiva se e solo se \(\textrm{rk}A=\textrm{dim}W\). Esercitazione.

LEZIONE 19
Omomorfismi, endomorfismi, automorfismi di spazi vettoriali. Due spazi vettoriali finitamente generati sono isomorfi se e solo se hanno la stessa dimensione. Tutti gli spazi vettoriali di dimensione \(n\) sono isomorfi ad \(\mathbb{R}^n\). Considerazioni sul significato del concetto di isomorfismo. Composizione di applicazioni. La composizione di applicazioni lineari è un'applicazione lineare. Teorema di composizione operatoria: date le applicazioni tra spazi vettoriali f.g. \(F:\ V\rightarrow W\) e  \(G:\ W\rightarrow U\) con matrici associate rispettivamente \(B\) e \(A\), allora l'applicazione \(G\circ F:\ V\rightarrow U\) ha come matrice associata la matrice \(AB\). Teorema di Kronecker per il rango del prodotto di matrici: se \(A\) e \(B\) sono due matrici allora \(\textrm{rk}AB\leqslant\textrm{min}\{\textrm{rk}A,\ \textrm{rk}B\}\). Se si moltiplica una matrice \(A\) a destra o a sinistra per una matrice invertibile, allora il rango di \(A\) resta invariato. Le matrici associate ad una applicazione lineare hanno lo stesso rango (che coincide con la dimensione dell'immagine). Applicazioni invertibili. Un'applicazione è invertibile se e solo se è biettiva. Un'applicazione lineare \(F\) tra due spazi vettoriali f.g. è invertibile se e solo se le matrici associate ad \(F\) sono invertibili; in particolare la matrice di \(F^{-1}\) è l'inversa della matrice di \(F\) (a patto di usare le stesse basi). 

LEZIONE 20
Esercitazione in preparazione alla prova di Esonero.
Esercizi 11: Applicazioni lineari

LEZIONE 21
Introduzione alla diagonalizzazione: motivazione e applicazioni. Endomorfismi diagonalizzabili e basi diagonalizzanti. Autovalori e autovettori di un endomorfismo. Autospazi. Gli autospazi di un endomorfismo sono sottospazi vettoriali di dimensione maggiore o uguale a 1. Autovettori associati ad autovalori distinti sono linearmente indipendenti. Un endomorfismo non è invertibile se e solo se ammette l'autovalore nullo, in particolare l'autospazio associato a 0 coincide con il nucleo dell'endomorfismo. Ricerca di autovalori e autovettori. Un numero reale \(\lambda\) è autovalore per un endomorfismo \(F\) se e solo verifica l'equazione \(\textrm{det}(A-\lambda I_n)=0\), dove \(A\) è una matrice associata ad \(F\). Un vettore con coordinate \(X\in\mathbb{R}^n\) è un autovettore per \(F\) associato all'autovalore \(\lambda\) se e solo se le sue coordinate risolvono il sistema lineare omogeneo \((A-\lambda I_n)X=\mathbf{0}\). Matrice caratteristica. Polinomio caratteristico. Equazione caratteristica. Equazione secolare di Laplace. Teorema di invarianza del polinomio caratteristico: il polinomio caratteristico di un endomorfismo \(F\) non dipende dalla matrice di \(F\) scelta per calcolarlo. Matrici simili hanno lo stesso polinomio caratteristico. 

LEZIONE 22
Molteplicità algebrica \(\textrm{m.a.}(\lambda)\) e molteplicità geometrica \(\textrm{m.g.}(\lambda)\) di un autovalore \(\lambda\). Un endomorfismo diagonalizzabile ha autovalori tutti reali (non necessariamente distinti). Se \(\lambda\) è un autovalore di un endomorfismo allora \(1\leqslant \textrm{m.g.}(\lambda)\leqslant \textrm{m.a.}(\lambda)\). Teorema fondamentale della diagonalizzabilità: un endomorfismo di uno spazio vettoriale di dimensione finita è diagonalizzabile se e solo se ammette autovalori tutti reali e per ciascuno di questi molteplicità geometrica e molteplicità aritmetica coincidono. Se un endomorfismo ammette autovalori distinti allora è diagonalizzabile. 
Esercitazione su autovalori ed autovettori.
Esercizi 12: Diagonalizzazione

LEZIONE 23
Esercitazione in preparazione alla prova di esonero.

LEZIONE 24
Esercitazione in preparazione alla prova di esonero.

LEZIONE 25
Diagonalizzabilità di matrici. Polinomio caratteristico, autovalori, autovettori, autospazi di una matrice quadrata. Una matrice quadrata è diagonalizzabile se e solo se essa è simile ad una matrice diagonale. Esempi di diagonalizzazione di applicazioni lineari e matrici. Esercitazione.

LEZIONE 26
Prodotto scalare standard su \(\mathbb{R}^n\). Norma (o lunghezza) di un vettore, \(\parallel v\parallel=\sqrt{v\cdot v}\). Diseguaglianza di Cauchy-Schwarz: dati due vettori \(v\) e \(w\) si ha che \(|v\cdot w|\leqslant\parallel v\parallel \,\parallel w\parallel\). Proprietà della norma: la norma assume sempre valori positivi ed è nulla solo per il vettore nullo; la norma è positivamente omogenea di grado 1. Diseguaglianza triangolare. Angolo (convesso) compreso tra due vettori non nulli. Detto \(\theta\) l'angolo compreso tra due vettori non nulli \(v\) e \(w\), si ha che \(v\cdot w=\parallel v\parallel \,\parallel w\parallel \cos\theta\). Teorema di Pitagora. Versori. Normalizzazione di vettori. Basi ortogonali. Basi ortonormali. Dei vettori non nulli e a due a due ortogonali sono linearmente indipendenti. Normalizzando i vettori di una base ortogonale si ottiene una base ortonormale. Procedimento ortogonale di Gram-Schmidt. 

LEZIONE 27
Matrici ortogonali. Una matrice ortogonale è invertibile. Una matrice di ordine \(n\) è ortogonale se e solo se le sue righe (colonne) sono una base di ortonormale di \(\mathbb R^n\). Le matrici ortogonali hanno determinante uguale a \(\pm1\). Siano \(\mathcal B\) una base ortonormale di \(\mathbb R^n\), \(\mathcal B'\) un'altra base di \(\mathbb R^n\) e sia \(P\) la matrice di passaggio da \(\mathcal B\) a \(\mathcal B'\); allora la base \(\mathcal B'\) è ortonormale se e solo se \(P\) è una matrice ortogonale. Endomorfismi simmetrici di \(\mathbb R^n\). Un endomorfismo di \(\mathbb R^n\) è simmetrico se e solo se la sua matrice rispetto a una qualsiasi base ortonormale è una matrice simmetrica.  Un endomorfismo simmetrico ha autovalori tutti reali. Autovettori associati ad autovalori distinti di un endomorfismo simmetrico sono ortogononali.  Tereoma spettrale (per endomorfismi simmetrici): Ogni endomorfismo simmetrico di \(\mathbb R^n\) è diagonalizzabile rispetto ad una base ortonormale di suoi autovettori. 
Esercizi 13: Spazi vettoriali euclidei

LEZIONE 28
Teorema spettrale (per matrici simmetriche): Ogni matrice simmetrica è sia simile che congruente ad una matrice diagonale, ovvero per ogni matrice simmetrica \(A\) esistono una matrice diagonale \(D\) ed una matrice ortogonale \(M\) tali che \(D=M^{-1}AM=M^{T}AM\). Sistemi di riferimento affine nel piano. Coordinate affini di punti e vettori nel piano. Operazioni tra vettori in termini di coordinate. Presi due punti del piano \(A\) e \(B\), le coordinate del vettore \(\stackrel{\longrightarrow}{AB}\) sono date dalla differenza delle coordinate del punto finale \(B\) meno quelle del punto di applicazione \(A\); più in generale si ha che \(\stackrel{\longrightarrow}{AB}=v\) se e solo se \(B=A+v\) . Una retta nel piano è univocamente individuata da un suo punto e da un vettore ad essa parallelo. Vettore direzionale e parametri direttori di una retta. Equazione vettoriale di una retta: data una retta \(r\), un punto \(P_0\in r\) ed un vettore direzionale \({v}\) di \(r\), allora un punto \(P\) del piano appartiene ad \(r\) se e solo se \(\stackrel{\longrightarrow}{P_0P}=t\,{v}\), per qualche \(t\in \mathbb R\). Equazioni parametriche di una retta: data una retta \(r\), un punto \(P_0(x_0,\,y_0)\in r\) ed un vettore direzionale \({v}(l,\,m)\) di \(r\), allora equazioni parametriche di \(r\) sono date da \(\begin{cases}x=x_0+l\,t\\y=y_0+m\,t   \end{cases}\). Equazione cartesiana di una retta: una retta nel piano è rappresentata da un'equazione del tipo \(ax+by+c=0\), con \(a\) e \(b\) non contemporaneamente nulli, e viceversa, ogni equazione di questo tipo ha per grafico nel piano una retta. La retta di equazione \(ax+by+c=0\) ha per vettore direzionale il vettore \((-b,a)\). Dati \(P_1(x_1,y_1)\) e \(P_2(x_2,y_2)\) due punti distinti del piano, la retta che li congiunge ha equazioni parametriche date da \(\begin{cases}x=x_1+(x_2-x_1)\,t\\y=y_1+(y_2-y_1)\,t\end{cases}\) ed equazione cartesiana data da \(\begin{vmatrix}x-x_1&y-y_1\\x_2-x_1&y_2-y_1\end{vmatrix}=0\). Condizione di allineamento di tre punti. Rette parallele, rette coincidenti, rette parallele e distinte, rette incidenti. Posizione reciproca di due rette nel piano: siano date due rette \(r:\ ax+by+c=0\) e \(r':\ a'x+b'y+c'=0\), allora \(r\|r'\) se e solo se \(\textrm{rk}\begin{pmatrix}a&b\\a'&b'\end{pmatrix}=1\); in particolare sono parallele e coincidenti se e solo se \(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=1\), sono parallele e distinte se e solo se \(\textrm{rk}\begin{pmatrix}a&b\\a'&b'\end{pmatrix}=1\) e \(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\); infine \(r\) ed \(r'\) sono incidenti se e solo se \(\textrm{rk}\begin{pmatrix}a&b\\a'&b'\end{pmatrix}=\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\).  
Esercizi 14: Teorema spettrale
Esercizi 15: Piano affine

LEZIONE 29
Richiami sulle proprietà elementari dello spazio euclideo tridimensionale. Punti allineati e punti complanari. Vettori allineati e vettori complanari. Tre vettori di \(\mathcal V^3\) sono linearmente dipendenti se e solo se sono complanari. Lo spazio \(\mathcal V_O^3\) ha dimensione tre. Lo spazio affine tridimensionale \(\mathbb A^3(\mathbb R)\). Sistema di riferimento affine e coordinate affini nello spazio. Coordinate di vettori liberi ed applicati. I punti \(P_1,\ P_2,\ \dots,\ P_n\) sono allineati (rispettivamente complanari) se e solo se la matrice che ha per righe ordinatamente le coordinate dei vettori \(\stackrel{\longrightarrow}{P_1P_2}\), \(\dots\), \(\stackrel{\longrightarrow}{P_1P_n}\) ha rango 1 (rispettivamente rango 2). Equazione vettoriale di una retta: data una retta \(r\), un punto \(P_0\in r\) ed un vettore direzionale \({v}\) di \(r\), allora un punto \(P\) del piano appartiene ad \(r\) se e solo se \(\stackrel{\longrightarrow}{P_0P}=t\,{v}\), per qualche \(t\in \mathbb R\). Equazioni paramtriche di una retta: una retta parallela al vettore \( v=(l,m,n)\) e passante per il punto \(P_0=(x_0,y_0,z_0)\) ha equazioni parametriche  \(\begin{cases}x=x_0+l\,t\\y=y_0+m\,t\\z=z_0+n\,t   \end{cases}\). Condizioni operative per l'allineamento di tre punti e per la complanarità di quattro punti. Equazione vettoriale di un piano: dato un piano \(\pi\), un punto \(P_0\in \pi\) e due vettori non linearmente indipendenti \(v\) e \(w\) \({v}\) paralleli a \(\pi\), allora un punto \(P\) appartiene a \(\pi\) se e solo se \(\stackrel{\longrightarrow}{P_0P}=t\,{v}+t'\,w\), per qualche \(t,\,t'\in \mathbb R\). Equazioni parametriche di un piano: il piano parallelo ai vettori \( v=(l,m,n)\) e \( w=(l',m',n')\) e passante per il punto \(P_0=(x_0,y_0,z_0)\) ha equazioni parametriche  \(\begin{cases}x=x_0+l\,t+l\,t'\\y=y_0+m\,t+m\,t'\\z=z_0+n\,t+n\,t'\end{cases}\). Siano dati  \(P_1(x_1,y_1,z_1)\), \(P_2(x_2,y_2,z_2)\) e  \(P_3(x_3,y_3,z_3)\) tre punti non allineati dello spazio; il piano che li contiene ha equazioni parametriche date da \(\begin{cases}x=x_1+(x_2-x_1)\,t+(x_3-x_1)\,t'\\y=y_1+(y_2-y_1)\,t+(y_3-y_1)\,t'\\z=z_1+(z_2-z_1)\,t+(z_3-z_1)\,t'\end{cases}\).Tutti e soli i piani dello spazio sono rappresentati da un'equazione del tipo \(ax+by+cz+d=0\), con \(a,b,c\) non contemporaneamente nulli. Equazioni cartesiane di una retta nello spazio: tutte e sole le rette dello spazio sono definite da un sistema lineare di due equazioni in tre indeterminate del tipo \(\begin{cases}ax+by+cz+d=0\\ a'x+b'y+c'z+d'=0\end{cases}\), con \(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\). Piani coincidenti, piani paralleli e distinti, piani incidenti. Teorema di classificazione delle posizioni reciproche di due piani nello spazio: siano dati due piani \(\pi:\ ax+by+cz+d=0\) e \(\pi':\ a'x+b'y+c'z+d'=0\); allora \(\pi\) e \(\pi'\) sono paralleli e distinti se e solo se \(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=1\) e \(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\end{pmatrix}=2\); \(\pi\) e \(\pi'\) sono coincidenti se e solo se \(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\end{pmatrix}=1\); \(\pi\) e \(\pi'\) sono incidenti se e solo se \(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\). Teorema di classificazione delle posizioni reciproche tra retta e piano nello spazio: dati un piano  \(\pi:\ ax+by+cz+d=0\) ed una retta \(r:\ \begin{cases}a'x+b'y+c'z+d'=0\\ a''x+b''y+c''z+d''=0\end{cases}\), si ha che \(r\) e \(\pi\) sono propriamente paralleli se e solo se \(\textrm{det}\begin{pmatrix}a&b&c\\a'&b'&c'\\a''&b''&c''\end{pmatrix}=0\) e \(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\\a''&b''&c''&d''\end{pmatrix}=3\); si ha che \(r\subset\pi\) se e solo se  \(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\\a''&b''&c''&d''\end{pmatrix}=2\); risulta che \(r\) e \(\pi\) sono incidenti (in un solo punto) se e solo se \(\textrm{det}\begin{pmatrix}a&b&c\\a'&b'&c'\\a''&b''&c''\end{pmatrix}\neq0\). Un piano di giacitura \((a,b,c)\) ed una retta di parametri direttori \((l,m,n)\) sono paralleli se e solo se \(al+bm+cn=0\). Due rette sono parallele se e solo se hanno vettori direzionali proporzionali. Rette parallele sono complanari. Rette incidenti sono complanari. Rette sghembe. Teorema di classificazione delle posizioni reciproche di due rette nello spazio: date le rette \(r:\ \begin{cases}ax+by+cz+d=0\\ a'x+b'y+c'z+d'=0\end{cases}\) e \(s:\ \begin{cases}a''x+b''y+c''z+d''=0\\ a'''x+b'''y+c'''z+d'''=0\end{cases}\) e prese le matrici \(A= \begin{pmatrix}a&b&c\\a'&b'&c'\\a''&b''&c''\\a'''&b'''&c'''\end{pmatrix}\) e \(B= \begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\\a''&b''&c''&d''\\a'''&b'''&c'''&d'''\end{pmatrix}\), si ha che \(r\) e \(s\) sono sghembe se e solo se \(\textrm{det}B\neq0\),  \(r\) e \(s\) sono incidenti se e solo se \(\textrm{rk}B=\textrm{rk}A=3\), \(r\) e \(s\) sono propriamente parallele se e solo se \(\textrm{rk}B=3\) e \(\textrm{rk}A=2\), \(r\) e \(s\) sono coincidenti se e solo se \(\textrm{rk}B=2\). Esercitazione.
Esercizi 16: Piano euclideo
Esercizi 17: Spazio affine

LEZIONE 30
Spazio euclideo. Distanza tra due punti. Dato il piano \(ax+by+cz+d=0\), il vettore di giacitura di \(\pi\), \(v_\pi=(a,b,c)\), è ortogonale al piano \(\pi\). Data una retta \(r\) di vettore direzionale \(v_r\) ed un piano \(\pi\) di giacitura \(v_\pi\), si ha che \(r\) è parallela a \(\pi\) se e solo se \(v_r\) e \(v_\pi\) sono ortogonali, \(r\) è ortogonale a \(\pi\) se e solo se \(v_r\) e \(v_\pi\) sono paralleli (proporzionali). Due piani sono perpendicolari se e solo se lo sono le loro giaciture. Distanza di un punto da un piano: dati un punto \(P(x_0,\,y_0,\,z_0)\) e il piano \(\pi:\ ax+by+cz+d=0\), la distanza di \(P\) da \(\pi\) vale \(d(P,\pi)=\displaystyle\frac{|ax_0+by_0+cz_0+d|}{\sqrt{a^2+b^2+c^2}}\). Distanza di un punto da una retta. Distanza di una retta da un piano. Distanza tra due piani.
Esercizi 18: Spazio euclideo