Algebra lineare e geometria analitica pellegrini pdf

Algebra lineare e geometria analitica pellegrini pdf

OFFERTA DEL GIORNO

Il Maestro dei bambini turbolenti. Sandro di Lorenzo sculture in terracotta agli albori della Maniera

Perugia, 2020; br., pp. 504, ill. col., cm 20x24.

prezzo di copertina: € 80.00

Algebra lineare e geometria analitica pellegrini pdf


Costo totale: € 80.00 € 240.00 aggiungi al carrello
Algebra lineare e geometria analitica pellegrini pdf

Libri compresi nell'offerta:

Il Cinquecento. Parte Prima

Faenza, 2015; br., pp. 332, ill. b/n e col., cm 17x24.
(Storia delle Arti Figurative a Faenza).

OMAGGIO (prezzo di copertina: € 40.00)

Algebra lineare e geometria analitica pellegrini pdf


Ritratti di imperatori e profili all'antica. Scultura del Quattrocento nel Museo Stefano Bardini

A cura di Nesi A.
Saggio di Francesca Maria Bacci.
Firenze, 2012; br., pp. 199, ill. b/n, tavv. b/n, cm 17x24.
(Museo Stefano Bardini).

OMAGGIO (prezzo di copertina: € 25.00)

Algebra lineare e geometria analitica pellegrini pdf


Storia delle arti figurative a Faenza. III. Il Rinascimento. Pittura, miniatura, artigianato

Faenza, 2009; br., pp. 296, 225 ill. b/n e col., 225 tavv. b/n e col., cm 17x24.

OMAGGIO (prezzo di copertina: € 30.00)

Algebra lineare e geometria analitica pellegrini pdf


Storia delle arti figurative a Faenza. II. Il Gotico

Faenza, 2007; br., pp. 368, ill. b/n e col., tavv., cm 17x24.

OMAGGIO (prezzo di copertina: € 40.00)

Algebra lineare e geometria analitica pellegrini pdf


Storia delle arti figurative a Faenza. I. Le origini

Faenza, 2006; br., pp. 193, 22 ill. b/n, 98 tavv. col., cm 17x24.

OMAGGIO (prezzo di copertina: € 25.00)

Algebra lineare e geometria analitica pellegrini pdf

Algebra lineare e geometria analitica pellegrini pdf

Scarica Appunti geometria e algebra e più Dispense in PDF di Algebra Lineare e Geometria Analitica solo su Docsity! Appunti di Geometria e Algebra (per la facoltà di Ingegneria) Francesco D’Andrea Dipartimento di Matematica e Applicazioni “R. Caccioppoli” Università di Napoli Federico II, P.le Tecchio 80 – 80125 Napoli v1: 12 giugno 2011. Note Appunti del corso di “Geometria e Algebra” (6 CFU) per i corsi di laurea in Ingegneria Elettrica e Ingegneria Gestionale della Logistica e della Produzione (canale A-COP) dell’Università di Napoli Federico II, a.a. 2010-2011. (Attenzione: questo materiale è destinato esclusivamente agli studenti del corso, con preghiera di non divulgazione.) Testi consigliati [Lom] L.A. Lomonaco, Un’introduzione all’algebra lineare, Ed. Aracne (Roma). [Pel1] S. Pellegrini, A. Benini e F. Morini, Algebra Lineare 1, Ed. F. Apollonio (Brescia). [Pel2] S. Pellegrini, A. Benini e F. Morini, Algebra Lineare 2, Ed. F. Apollonio (Brescia). [BruLan] M. Brundu e G. Landi, Note di Algebra Lineare e Geometria (2011), on-line. [Par] G. Parigi e A. Palestini, Manuale di Geometria: esercizi e temi d’esame svolti, Ed. Pitagora (Bologna). Indice 1 Elementi di teoria degli insiemi (16/03/2011) 1 1.1 Notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Insiemi privi di struttura . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.3 Applicazioni tra insiemi . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2 Strutture algebriche: gruppi, anelli, campi (18/03/2011) 7 2.1 Operazioni di un insieme . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2.2 Gruppi, anelli, campi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 3 Sistemi lineari: definizioni e prime proprietà (23/03/2011) 12 3.1 Premesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 3.2 Generalità sui sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . 13 3.3 Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 3.4 Operazioni elementari su un sistema lineare . . . . . . . . . . . . . . . . 15 3.5 Esame dei casi più semplici di equazioni e sistemi lineari . . . . . . . . . 16 3.6 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 4 Spazi vettoriali e sottospazi (25/03/2011) 21 4.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 4.2 Proprietà elementari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 4.3 Sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 4.4 Operazioni su sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 5 Esercitazione su vettori e matrici (30/03/2011) 30 5.1 Esercizi su spazi e sottospazi . . . . . . . . . . . . . . . . . . . . . . . . 30 5.2 Esercizi su matrici 2× 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 5.3 Determinante di una matrice 3× 3 . . . . . . . . . . . . . . . . . . . . . 33 5.4 Determinante di una matrice n× n . . . . . . . . . . . . . . . . . . . . . 35 6 Dipendenza e indipendenza lineare (06/04/2011) 38 6.1 Dipendenza e indipendenza lineare . . . . . . . . . . . . . . . . . . . . . 38 6.2 Basi e componenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 7 Esercitazione su basi e dimensione (08/04/2011) 45 7.1 Proprietà delle basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 7.2 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 8 Spazi metrici (13/04/2011) 51 8.1 Lunghezze, angoli e proiezioni in R2 . . . . . . . . . . . . . . . . . . . . 51 8.2 Aree di triangoli e determinante . . . . . . . . . . . . . . . . . . . . . . 53 i Lezione I Elementi di teoria degli insiemi Sommario: notazioni; richiami di teoria degli insiemi; prodotto cartesiano; applica- zioni (funzioni) e loro proprietà; applicazioni iniettive, suriettive, biettive; applicazione identica e applicazione inversa; esempi. 1.1 Notazioni In matematica, per semplificare la scrittura di equazioni e teoremi, su fa uso di simboli specifici. Nella tabella seguente sono riportati i simboli più comuni. Altri verranno introdotti durante il corso. Tavola dei simboli più usati Simbolo Significato ∀ “per ogni” (detto quantificatore universale) ∃ “esiste” (detto quantificatore esistenziale) ∃! “esiste ed è unico” =⇒ implicazione logica ⇐⇒ “se e solo se” := definizione (a := b si legge “a per definizione è uguale a b”) : “tale che” ∧ “e” (detta congiunzione logica) ∨ “o” (detta disgiunzione logica) Assumeremo come primitivo il concetto di insieme (adotteremo quindi il punto di Insiemi vista della teoria ingenua degli insiemi, senza addentrarci nei problemi della teoria assiomatica). In maniera intuitiva, un insieme è una collezione di oggetti di natura arbitraria. Un insieme può essere definito elencando i suoi elementi, oppure specificando le proprietà soddisfatte dai suoi elementi. Ad esempio l’insieme dei numeri interi compresi fra −2 e 3 si può scrivere come A = { 0, 1, 2, 3,−1,−2 } , oppure A = { n ∈ Z : −2 ≤ n ≤ 3 } . (1.1) L’espressione (1.1) si legge A è l’insieme degli n contenuti in Z (quindi, interi) tale che n è maggiore o uguale a −2 e minore o uguale a 3. Una proposizione viene usualmente racchiusa fra parentesi graffe. 1 In un insieme, l’ordine degli elementi è irrilevante. Ad esempio {3, 14} = {14, 3}. Gli insiemi verranno indicati con lettere maiuscole (A,B,C, . . .), i loro elementi con lettere minuscole (a, b, c, . . .). L’espressione “a ∈ A” si legge “a appartiene ad A” (o “è elemento di”, o “è contenuto in”). Si può scrivere al rovescio: “A 3 a” vuol dire “A contiene a”. L’espressione “a /∈ A” vuol dire “a non è elemento di A”. Gli elementi di un insieme non devono necessariamente essere numeri: possono essere oggetti di natura arbitraria. Si pensi all’insieme dei punti di una retta, l’insieme dei giocatori di una squadra di calcio, l’insieme dei caratteri di un alfabeto, etc. Gli elementi di un insieme possono essere a loro volta insiemi. Ad esempio, siano A := {1, 2} e B := {1, 4}. Possiamo formare l’insieme C i cui elementi sono l’insieme A e l’insieme B: C := {A,B} = { {1, 2}, {1, 4} } Esiste una notazione specifica per gli insiemi numerici più importanti. Fra questi ricordiamo: N := {0, 1, 2, 3, 4, . . .} numeri naturali (incluso lo 0) Z := numeri interi (relativi, ossia positivi e negativi, incluso lo zero) Q := numeri razionali (quozienti di due interi) R := numeri reali C := numeri complessi Z+ := {1, 2, 3, . . .} interi positivi Z− := {−1,−2,−3, . . .} interi negativi R+ := reali positivi etc. 1.2 Insiemi privi di struttura Definizione 1.2.1. Un insieme A si dice sottoinsieme di un insieme B, e scriveremo Sottoinsieme A ⊆ B, se ogni elemento di A è anche elemento di B. Quindi: A ⊆ B ⇐⇒ ∀ x ∈ A, x ∈ B . Se esiste almeno un elemento di B che non appartiene ad A, diremo che A è un sottoinsieme proprio di B, e scriveremo A ⊂ B. Quindi: A ⊂ B ⇐⇒ { ∀ x ∈ A, x ∈ B } ∧ { ∃ b ∈ B : b /∈ A } . E’ facile mostrare che { A ⊆ B } ∧ { B ⊆ A } =⇒ A = B . 2 Definizione 1.2.2. Dati due insiemi A e B, la loro intersezione A ∩B è l’insieme Intersezione, unione, differenza degli elementi che appartengono sia ad A che a B, la loro unione A ∪ B è l’insieme degli elementi che che appartengono ad almeno uno dei due insiemi A e B, la loro differenza ArB è l’insieme di elementi che appartengono ad A ma non a B. Quindi: A ∩B := { x : x ∈ A ∧ x ∈ B } , A ∪B := { x : x ∈ A ∨ x ∈ B } , ArB := { x : x ∈ A ∧ x /∈ B } . Si indica con ∅ l’insieme vuoto, ovvero privo di elementi. Unione, intersezione e Insieme vuotodifferenza godono di una serie di proprietà elementari, la cui verifica è lasciata come esercizio. Ad esempio A ∩ A = A ∪ A = A A ∩ ∅ = ∅ A ∪ ∅ = A A ∩B = B ∩ A (proprietà commutativa di ∩) A ∪B = B ∪ A (proprietà commutativa di ∪) (A ∩B) ∩ C = A ∩ (B ∩ C) (proprietà associativa di ∩) (A ∪B) ∪ C = A ∪ (B ∪ C) (proprietà associativa di ∪) Un elenco più completo si può trovare nella Sezione 1.2 di [Pel1]. Definizione 1.2.3. Dati due insiemi A e B, si dice prodotto cartesiano di A e B, Prodotto cartesianoe si indica con A×B, l’insieme delle coppie ordinate aventi il primo elemento in A ed il secondo in B. Quindi: A×B := { (a, b) : a ∈ A ∧ b ∈ B } . Più ingenerale dati n insiemi A1, . . . , An: A1 × A2 × . . .× An := { (a1, a2, . . . , an) : ai ∈ Ai ∀ i = 1, . . . , n } . Esercizio 1.2.4. Determinare il prodotto cartesiano di A = {♣,♠} e B = {7, 12}. Esercizio 1.2.5. Determinare il prodotto cartesiano di A = {0, 1, 5} e B = {0, 1, 2} (notare che (0, 1) 6= (1, 0) in A×B). 1.3 Applicazioni tra insiemi Definizione 1.3.1. Dati due insiemi A e B si dice corrispondenza da A in B un Corrispondenza 3 Sia A un insieme qualsiasi. Chiamiamo applicazione identica su A, indicata con Applicazione identica idA, l’applicazione che associa ad ogni x ∈ A l’elemento x stesso. Quindi: idA : A→ A x 7→ idA(x) = x L’applicazione identica è biunivoca1. Definizione 1.3.9. Date due applicazioni f : A → B e g : B → C la loro composi- zione, indicata con g ◦ f : A→ C, è l’applicazione definita da Composizione (g ◦ f)(a) := g ( f(a) ) ∀ a ∈ A . Due applicazioni f e g si dicono uguali se hanno lo stesso dominio, lo stesso codominio, e f(x) = g(x) per ogni x nel dominio. Notiamo che le applicazioni f e g dell’esempio 1.3.6 non sono uguali, poichè hanno diverso dominio e diverso codominio. Anche le funzioni g e h dell’esercizio 1.3.7 non sono uguali, poichè hanno lo stesso codominio ma diverso dominio. Si può verificare facilmente che, per ogni f : A → B, vale l’uguaglianza fra applicazioni idB ◦ f = f = f ◦ idA . (1.2) Proposizione 1.3.10 (Proprietà associativa della composizione di applicazioni). Date tre applicazioni f : A→ B, g : B → C e h : C → D, si ha sempre h ◦ (g ◦ f) = (h ◦ g) ◦ f . Dimostrazione. Le due applicazioni anno lo stesso dominio A e lo stesso codominio C, inoltre [h ◦ (g ◦ f)](a) = h ( g ( f(a) )) = [(h ◦ g) ◦ f ](a) per ogni a ∈ A.  Una applicazione f : A→ B si dice invertibile se esiste g : B → A (detta inversa Applicazione inversadi f) tale che g ◦ f = idA , f ◦ g = idB . Si dimostra che f è invertibile se e solo se è biunivoca, e che l’applicazione inversa se esiste è anche unica. L’inversa di f si indica con f−1. Esempio 1.3.11. L’inversa dell’applicazione h : R+ → R+, h(x) = x2, è l’applicazione h−1 : R+ → R+, h−1(y) = √y. Esempio 1.3.12. L’applicazione idA è inversa di se stessa. Dall’equazione (1.2) segue infatti idA ◦ idA = idA , come caso particolare quando A = B ed f = idA. 1Ogni x ∈ A è immagine di se stesso, questo prova la suriettività, e idA(x) = idA(y) se e solo se x = y, questo prova l’iniettività. 6 Lezione II Strutture algebriche: gruppi, anelli, campi Sommario: operazione di un insieme (interna e esterna); proprietà associativa e commutativa; elemento neutro e inverso; gruppo; anello; campo. Esempi. 2.1 Operazioni di un insieme Definizione 2.1.1. Sia S un insieme. Si dice operazione interna (binaria) ∗ di S Operazione internauna applicazione f : S × S → S . Il risultato f((a, b)) dell’operazioni tra due elementi a, b ∈ S si indica con a ∗ b. Le operazioni elementari di somma e prodotto fra numeri sono “operazioni” degli in- siemi N,Z,Q,R nel senso della definizione 2.1.1. La sottrazione è una operazione di Z,Q,R, ma non è una operazione di N, poiché la sottrazione fra due numeri naturali non è necessariamente un numero naturale (ad esempio, 2 − 7 = −5 è un intero ne- gativo). La divisione non è una operazione di N o di Z (il rapporto fra due numeri naturali/interi non è sempre un numero naturale/intero) e non è una operazione nep- pure di Q o R poiché non si può dividere per 0. La divisione è una operazione, ad esempio, di Qr {0} ed Rr {0}. Esempio 2.1.2. Sia A un insieme e indichiamo con P(A) la collezione dei sottoinsiemi di A; P(A) è detto insieme delle parti di A. Allora unione, intersezione e differenza Insieme delle partifra insiemi sono operazioni interne di P(A), dette operazioni insiemistiche (vedere def. 1.2.2). Definizione 2.1.3. Una operazione ∗ di un insieme S si dice commutativa se per Proprietà commutativaogni a, b ∈ S si ha a ∗ b = b ∗ a , e si dice associativa se per ogni a, b, c ∈ S si ha 2 Proprietà associativa a ∗ (b ∗ c) = (a ∗ b) ∗ c . In tal caso scriveremo semplicemente a ∗ b ∗ c per indicare il risultato dell’operazione. 2Un’espressione del tipo a ∗ (b ∗ c) indica che bisogna svolgere prima l’operazione fra le parentesi tonde. 7 Somma e prodotto di due numeri godono della proprietà commutativa e associativa. La divisione non è commutativa né associativa. Infatti, ad esempio, 2 : 4 6= 4 : 2 e (16 : 4) : 2 6= 16 : (4 : 2) Come esercizio, si dica se la sottrazione è commutativa e/o associativa. Esercizio 2.1.4. Si studi l’operazione ∗ di N definita da a ∗ b = a+ 7b . Si dica se è commutativa e/o associativa. Definizione 2.1.5. Siano K e S due insiemi. Una operazione esterna • di S ad Operazione esternaoperatori in K è una applicazione K × S → S . L’immagine della coppia (λ, a) ∈ K × S si indica con λ • a. Vedremo esempi di operazioni esterne nelle lezioni successive. Un insieme S dotato di operazioni (interne o esterne) ∗1, . . . , ∗n è detto struttura Struttura algebricaalgebrica (ad n operazioni). Tale struttura algebrica si indicherà con (S; ∗1, . . . , ∗n). Definizione 2.1.6. Sia (G, ∗) un insieme con una operazione interna. Un elemento e ∈ G è detto elemento neutro rispetto a ∗ se per ogni a ∈ G si ha Elemento neutro a ∗ e = e ∗ a = a . Scriveremo (G, ∗, e) per indicare un insieme con una operazione interna ed un elemento neutro rispetto a tale operazione. Esempio 2.1.7. Il numero 0 è elemento neutro rispetto alla somma di due numeri, il numero 1 è elemento neutro rispetto al prodotto di due numeri. Proposizione 2.1.8. Sia (G, ∗) come sopra. Se esiste un elemento neutro rispetto a ∗, questo è unico. Dimostrazione. Supponiamo che e ed e′ siano due elementi neutri di (G, ∗). Allora e ∗ e′ = e′ poiché e è neutro; inoltre e ∗ e′ = e poiché anche e′ è neutro. Ne segue che e = e′.  Definizione 2.1.9. Sia (G, ∗, e) come sopra. Un elemento a ∈ G si dice sim- metrizzabile (o invertibile) in G rispetto a ∗ se esiste un elemento b ∈ G tale Elementi invertibiliche a ∗ b = b ∗ a = e . In tal caso b si dice simmetrico (o inverso) di a. 8 Un esempio di anello commutativo è (Z,+, 0, · , 1). I due elementi 0A e 1A dell’anello A sono spesso indicati semplicemente con 0 e 1, quando questo non generi confusione; 0A è detto “zero” dell’anello, e 1A è detto “unità” dell’anello. Si può facilmente dimostrare, usando la proprietà distributiva, che a · 0A = 0A · a = 0A per ogni a ∈ A. Con abuso di notazioni un anello (A,+, 0A, · , 1A) si può anche indicare semplicemente con A, omettendo di scrivere le operazioni, lo zero e l’unità. Anche (Q,+, 0, · , 1) è un anello commutativo. Però Q rispetto a Z ha una struttura più ricca: ogni elemento non nullo è invertibile rispetto al prodotto. Definizione 2.2.4. Un anello commutativo K si dice campo se ogni elemento a 6= 0 Campo è invertibile rispetto al prodotto. Quindi Q è un campo. Altri esempi di campi sono l’insieme R dei numeri reali e l’insieme C dei numeri complessi. Vedremo un esempio di anello non commutativo più avanti nel corso (esercizio 5.2.3). 11 Lezione III Sistemi lineari: definizioni e prime proprietà Sommario: generalità su equazioni lineari e sistemi (di equazioni) lineari; matrice dei coefficienti, dei termini noti e completa; esame dei casi più semplici; determinante di una matrice 2× 2. Esempi ed esercizi. 3.1 Premesse Gia nel corso degli studi preuniversitari si sono incontrate equazioni di primo grado (equazioni lineari) in una o più incognite, quali ad esempio 3x = 6 , oppure 2x+ y = 13 , e ci si è trovati a risolvere sistemi di equazioni lineari quali{ x+ y = 0 x− y = 5 Le equazioni lineari sono tra le più semplici equazioni (si confrontino, ad esempio, con le equazioni di secondo grado, studiate al liceo) e costituiscono uno degli oggetti di studio dell’algebra lineare. Osserviamo subito che il numero delle equazioni e delle incognite sarà da considerarsi a priori arbitrario. I coefficienti delle incognite potranno assumere qualsiasi valore reale; in particolare non escluderemo equazioni con coefficienti nulli, quali ad esempio 0x = 2 o 3x+ 0y = 7. Sebbene si possano considerare equazioni lineari a coefficienti (e soluzioni) in un qualsiasi campo K (vedere ad es. [Pel1]), per semplificare la trattazione ci limiteremo al caso K = R. Notazione: chiameremo n-upla di elementi di S un elemento dell’insieme n-uple Sn = S × S × . . .× S︸ ︷︷ ︸ n . Una n-upla (α1, . . . , αn) ∈ Sn è quindi un insieme ordinato di n elementi di S. 12 3.2 Generalità sui sistemi lineari Una equazione in n incognite x1, . . . , xn a coefficienti in R si dice lineare se è della Equazioni lineariforma: a1x1 + a2x2 + . . .+ anxn = b , (3.1) con ai ∈ R e b ∈ R. Una sua soluzione è una n-upla (α1, . . . , αn) ∈ Rn tale che, sostituendo ciascun αi ad xi in (3.1), l’equazione si riduce ad una identità fra numeri reali. Esempio 3.2.1. Si verifica facilmente che (4, 1, 6) ∈ R3 è una soluzione dell’equazione 3x1 + x2 − 2x3 = 1. Un sistema di m equazioni lineari in n incognite è un insieme di equazioni Sistemi lineari Σ :  a11x1 + a12x2 + . . . + a1nxn = b1 a21x1 + a22x2 + . . . + a2nxn = b2 ... ... ... ... ... am1x1 + am2x2 + . . . + amnxn = bm (3.2) con aij ∈ R e bi ∈ R. Una soluzione del sistema è una n-upla (α1, . . . , αn) ∈ Rn che risolve simultanea- mente tutte le m equazioni. Esercizio 3.2.2. Si verifichi che le triple (1, 0, 0) (3, 1, 0) (1,−1, 0) (5, 2, 0) sono soluzioni del sistema { x1 − 2x2 + x3 = 1 2x1 − 4x2 = 2 Si determini almeno un’altra soluzione diversa dalle quattro elencate. Chiamiamo soluzione generale del sistema l’insieme di tutte le sue soluzioni. La Soluzione generalesoluzione generale di un sistema Σ è quindi un sottoinsieme SΣ ⊆ Rn. Un sistema si dice compatibile (o risolubile) se ammette soluzioni; se invece non Sistemi risolubiliha soluzioni, il sistema si dirà incompatibile (in questo caso SΣ = ∅). Esempio 3.2.3. Si considerino i tre sistemi{ x1 + 3x2 = 0 x1 + 3x2 = 1 { x1 − x2 = 0 x1 + x2 = 2 { x1 + x2 = 0 2x1 + 2x2 = 0 Il primo è incompatibile (se ammettesse soluzione, si avrebbe l’assurdo 0 = 1); il secondo ammette (1, 1) come unica soluzione; qualunque coppia (t,−t) è soluzione del terzo sistema, per ogni valore del parametro reale t ∈ R. 13 2. moltiplicare una equazione per un numero reale diverso da zero; 3. sostituire un’equazione con quella ottenuta sommando ad essa un multiplo (non nullo) di un’altra equazione del sistema. Effettuare una qualsiasi successione di operazioni elementari su un sistema non cambia le soluzioni del sistema stesso. Moltiplicare ambo i membri di una equazione per 0 non diminuisce il numero delle soluzioni del sistema, in quanto qualunque soluzione di un sistema lineare è anche soluzione dell’equazione 0 = 0. 3.5 Esame dei casi più semplici di equazioni e sistemi lineari Esaminiamo i casi più semplici di equazioni e sistemi. La loro comprensione aiuterà nello studio di sistemi più generali. Nel caso di una equazione in una incognita la situazione è riassunta nel seguente schema: ax = b =⇒  (1) se a 6= 0 la soluzione esite, è unica ed è data da a−1b. (2) se a = 0 allora  (2′) se b 6= 0 il sistema è incompatibile (per nessun α ∈ R si ha l’identità 0α = b se b 6= 0) (2′′) se b = 0 l’equazione è 0x = 0 ed ammette co- me soluzione qualsiasi numero reale. La soluzione generale (l’insieme di tutte le soluzioni) è quindi R. Il caso di una equazione in n incognite (con n ≥ 2) è simile. Sia a1x1 + a2x2 + . . .+ anxn = b . Se tutti i coefficienti sono nulli l’equazione diventa 0 = b: se anche b = 0, qualunque n-upla (α1, . . . , αn) ∈ Rn è soluzione; se b 6= 0, allora l’equazione è incompatibile. Se almeno un coefficiente è non nullo, sia esso ad esempio a1, possiamo assegnare valori arbitrari (α2, . . . , αn) ∈ Rn−1 alle incognite x2, . . . , xn e ridurre l’equazione ad una ad una sola incognita a1x1 = b− (a2α2 + . . .+ anαn) , la quale ammette un’unica soluzione data da α1 = b− (a2α2 + . . .+ anαn) a1 . 16 Le soluzioni sono quindi in corrispondenza biunivoca con l’insieme Rn−1. Riassumendo: Sia a1x1 + a2x2 + . . .+ anxn = b. Allora: (1) se (a1, . . . , an) 6= (0, . . . , 0) le soluzioni in corrispondenza biunivoca con i punti dell’insieme Rn−1. (2) se (a1, . . . , an) = (0, . . . , 0) allora  (2′) se b 6= 0 il sistema è incompatibile. (2′′) se b = 0 ogni n-upla (α1, . . . , αn) ∈ Rn è una soluzione. Concludiamo questo studio preliminare considerando un sistema di 2 equazioni in 2 incognite: Σ : { a11x1 + a12x2 = b1 a21x1 + a22x2 = b2 Effettuiamo le seguenti operazioni sul sistema: 1. moltiplichiamo la prima equazione per a22, la seconda per −a12 e sommiamo membro a membro; 2. moltiplichiamo la prima equazione per −a21, la seconda per a11 e sommiamo membro a membro. Il risultato di queste operazioni è il sistema: Σ′ : { (a11a22 − a12a21)x1 = a22b1 − a12b2 (a11a22 − a12a21)x2 = a11b2 − a21b1 I sistemi Σ e Σ′ non sono necessariamente equivalenti, poiché non abbiamo fatto ancora ipotesi sui coefficienti, e nelle operazioni ai punti 1 e 2 potremmo aver moltiplicato per zero. Quello che possiamo dire per certo è che tutte le soluzioni di Σ sono anche soluzioni di Σ′, ovvero SΣ ⊆ SΣ′ . Ciascuna equazione di Σ′ è una equazione in una incognita: per ciascuna di esse vale quindi la discussione nel primo schema di questa sezione. In aggiunta, le incognite x1 e x2 in queste due equazioni moltiplicano lo stesso coefficiente, a11a22 − a12a21 . Per le due equazioni si verificheranno quindi simultaneamente i casi (1) o (2) dello schema citato. Studiamo ora il primo caso, mentre daremo il risultato nel secondo caso senza dimostrazione. 17 Se a11a22 − a12a21 6= 0 la soluzione della prima equazione in Σ′ è unica e data da α1 = a22b1 − a12b2 a11a22 − a12a21 , e la soluzione della seconda equazione è unica e data da α2 = a11b2 − a21b1 a11a22 − a12a21 . Il sistema Σ′ ammette quindi come unica soluzione la coppia (α1, α2) definita qui sopra. Siccome SΣ ⊆ SΣ′ , il sistema Σ o non ammette soluzioni, oppure ammette come unica soluzione la stessa di Σ′. Si verifica per sostituzione che vale il secondo caso: il sistema Σ da cui siamo partiti ammette come unica soluzione la coppia (α1, α2) definita qui sopra. Un’analisi di tutti i casi possibili è riassunta nel seguente schema. Si consideri il sistema { a11x1 + a12x2 = b1 a21x1 + a22x2 = b2 . Allora:  (1) se a11a22 − a12a21 6= 0: la soluzione esiste, è unica ed è data dalla coppia: (α1, α2) = ( a22b1 − a12b2 a11a22 − a12a21 , a11b2 − a21b1 a11a22 − a12a21 ) (2) se a11a22 − a12a21 = 0 allora  (2′) se (a22b1 − a12b2, a11b2 − a21b1) 6= (0, 0) il sistema è incompatibile. (2′′) se a22b1 − a12b2 = a11b2 − a21b1 = 0 il sistema è equivalente al sistema di una sola equazione in due incognite: a11x1 + a12x2 = b1 e la sua soluzione è ricondotta a quella di un sistema di una sola equazione. Data una matrice 2× 2: A = ( a b c d ) l’espressione ∣∣∣∣ a bc d ∣∣∣∣ = ad− bc è detta determinante della matrice A. Il determinante della matrice A si può anche Determinante indicare con la notazione |A| oppure con “ detA ”. 18 Lezione IV Spazi vettoriali e sottospazi Sommario: spazi vettoriali: definizione e proprietà elementari; spazi delle n-uple e delle matrici (reali); sottospazi: intersezione, somma e somma diretta. Esempi. 4.1 Introduzione Abbiamo visto nella lezione precedente che un sistema di equazioni lineari in n incognite è determinato dalla sua matrice completa, e che una soluzione è una n-upla di numeri reali. Per proseguire con lo studio di sistemi di equazioni lineari, è fondamentale approfondire le proprietà di n-uple e matrici. Ricordiamo che Rn = { X = (x1, x2, . . . , xn) : x1, x2, . . . , xn ∈ R } . L’elemento xi è detto componente i-esima di X (x1 è la prima componente, x2 la Componente i-esimaseconda, etc.). In questo contesto, un numero k ∈ R è detto uno scalare. Le n-uple possono essere sommate fra di loro e moltiplicate per uno scalare. Sia Y = (y1, y2, . . . , yn) ∈ Rn. Definiamo somma e moltiplicazione per uno scalare come segue: Operazioni di Rn X + Y := (x1 + y1, x2 + y2, . . . , xn + yn) , kX := (kx1, kx2, . . . , kxn) . Sia n-upla nulla 0Rn := (0, 0, . . . , 0) l’n-upla nulla. Si può verificare che Proposizione 4.1.1. Valgono le seguenti proprietà: i) (Rn,+, 0Rn) è un gruppo commutativo, con elemento neutro 0Rn e opposto −X := (−x1,−x2, . . . ,−xn) ii) ∀ k, k′ ∈ R e ∀ X, Y ∈ Rn si ha 1. (k + k′)X = kX + k′X 2. k(X + Y ) = kX + kY 3. k(k′X) = (kk′)X 4. 1X = X 21 Dimostrazione. La dimostrazione è una semplice verifica. Siano X, Y, Z tre n-uple. Allora: (X + Y ) + Z = (x1 + y1, x2 + y2, . . . , xn + yn) + (z1, z2, . . . , zn) = ( (x1 + y1) + z1, (x2 + y2) + z2, . . . , (xn + yn) + zn ) = ( x1 + (y1 + z1), x2 + (y2 + z2), . . . , xn + (yn + zn) ) = (x1, x2, . . . , xn) + (y1 + z1, y2 + z2, . . . , yn + zn) = X + (Y + Z) dove la terza uguaglianza segue dall’associatività della somma di numeri reali. Abbiamo dimostrato che + è una operazione associativa di Rn. Si verifica facilmente che è commutativa: X + Y = (x1 + y1, x2 + y2, . . . , xn + yn) = (y1 + x1, y2 + x2, . . . , yn + xn) = Y +X poiché è commutativa la somma di numeri reali. Chiaramente 0Rn è elemento neutro: X + 0Rn = (x1 + 0, x2 + 0, . . . , xn + 0) = (x1, x2, . . . , xn) = X , e per la proprietà commutativa si ha anche 0Rn +X = X+0Rn = X. Per finire notiamo che X + (−X) = (x1 − x1, x2 − x2, . . . , xn − xn) = (0, 0, . . . , 0) = 0Rn e per la proprietà commutativa (−X) + X = X + (−X) = 0Rn . Quindi ogni X è simmetrizzabile e il simmetrico (l’opposto in notazione additiva) è proprio la n-upla −X. Questo completa la prova del punto i). Per ogni k, k′ ∈ R si ha (k + k′)X = ( (k + k′)x1, (k + k ′)x2, . . . , (k + k ′)xn ) = (kx1 + k ′x1, kx2 + k ′x2, . . . , kxn + k ′xn) = (kx1, kx2, . . . , kxn) + (k ′x1, k ′x2, . . . , k ′xn) = kX + k′X , k(X + Y ) = ( k(x1 + y1), k(x2 + y2), . . . , k(xn + yn) ) = (kx1 + ky1, kx2 + ky2, . . . , kxn + kyn) = (kx1, kx2, . . . , kxn) + (ky1, ky2, . . . , kyn) = kX + kY , k(k′X) = ( k(k′x1), k(k ′x2), . . . , k(k ′xn) ) 22 = ( (kk′)x1, (kk ′)x2, . . . , (kk ′)xn ) = (kk′)X , 1X = (1 · x1, 1 · x2, . . . , 1 · xn) = (x1, x2, . . . , xn) = X . Questo completa la prova del punto ii).  Un insieme con due operazioni che soddisfano proprietà analoghe a quelle della proposizione 4.1.1 si dice spazio vettoriale (reale). La definizione di spazio vettoriale si può dare sostituendo ad R un qualsiasi campo K. Per semplicità di trattazione ci limitiamo al caso K = R, sebbene non ci sia alcuna sostanziale differenza con il caso generale. Definizione 4.1.2. Un insieme non vuoto V è detto spazio vettoriale (reale) se in Spazio vettorialeV sono definite una operazione interna di “somma” s : V × V → V , denotata con s(v,v′) = v + v′, ed una operazione esterna p di “prodotto per uno scalare”: p : R× V → V , denotate con la semplice giustapposizione p(k,v) = kv, soddisfacenti le proprietà seguenti: i) (V,+,0V ) è un gruppo commutativo, il cui elemento neutro indichiamo con 0V ; ii) ∀ k, k′ ∈ R e ∀ v,v′ ∈ V si ha 1. (k + k′)v = kv + k′v 2. k(v + v′) = kv + kv′ 3. k(k′v) = (kk′)v 4. 1v = v L’elemento 0V sarà indicato semplicemente con 0, quando questo non generi confusione. Le proprietà 1 e 2 si dicono “proprietà distributive” (del prodotto rispetto alla somma). Gli elementi di V si dicono vettori e saranno indicati in grassetto. L’elemento 0 si Vettori dirà vettore nullo, e l’opposto di un vettore v sarà indicato con −v. Scriveremo Differenza di vettori v − v′ = v + (−v′) per indicare la somma di un vettore v con l’opposto del vettore v′. 23 4.3 Sottospazi Definizione 4.3.1. Sia (G, ∗) un insieme con una operazione. Un sottoinsieme non Chiusura rispetto a un’operazione vuoto G′ ⊆ G si dice chiuso rispetto all’operazione ∗ se a ∗ b ∈ G′ ∀ a, b ∈ G′ . Ad esempio Z ⊂ R è chiuso rispetto all’operazione di somma, ma Zr{0} ⊂ Qr{0} non è chiuso rispetto all’operazione di divisione. Definizione 4.3.2. Sia V uno spazio vettoriale, con operazioni s e p, e W ⊆ V un sottoinsieme non vuoto. Diremo che W è un sottospazio vettoriale di V se, rispetto Sottospazi vettorialialle stesse operazioni p, s di V , è uno spazio vettoriale. In queste note, un sottospazio vettoriale verrà chiamato semplicemente “sottospazio”. Esistono due “criteri” elementari, descritti nei punti b) e c) della proposizione seguente, per stabilire quando un sottoinsieme è un sottospazio. Proposizione 4.3.3. Sia V uno spazio vettoriale e W ⊆ V un sottoinsieme non vuoto. Le seguenti condizioni sono equivalenti: a) W è un sottospazio di V ; b) ∀ k ∈ R e ∀ w,w′ ∈ W si ha b1) kw ∈ W , b2) w + w ∈ W ; c) ∀ k, k′ ∈ R e ∀ w,w′ ∈ W si ha kw + k′w′ ∈ W . La condizione ii) ci dice che W è chiuso rispetto alle operazioni di V . Dimostrazione. a) ⇒ b) per definizione di spazio vettoriale. Proviamo che b) ⇒ a). Assumiamo per ipotesi che a) sia soddisfatta. La proprietà associativa e commutativa valgono in V , quindi valgono anche in W . Similmente, le proprietà ii) della definizione 4.1.2 valgono in V , quindi valgono anche in W . Per provare che W è uno spazio vettoriale rimane da dimostrare che contiene il vettore nullo e l’inverso di ogni elemento. Per ipotesi kw ∈ W per ogni k ∈ R e w ∈ W : prendendo k = 0 si prova che 0 = 0w ∈ W ; prendendo k = −1 si prova che −w = (−1)w ∈ W . Quindi a) ⇐⇒ b). D’altronde dalla c) prendendo k′ = 0 si ottiene b1) e prendendo k = k′ = 1 si ottiene b2). Quindi c) ⇒ b). L’implicazione opposta è ovvia: dalla b1) kw ∈ W e k′w′ ∈ W per ogni k, k′,w,w′; dalla b2) v+v′ ∈ W per ogni v,v′ ∈ W , e in particolare prendendo v = kw e v′ = k′w′ si giunge alla tesi kw + k′w′ ∈ W .  26 Se V è uno spazio vettoriale, due sottospazi banali sono dati da {0} e da V stesso. Sottospazi banaliChe V sia un sottospazio è ovvio. Che lo sia {0} è una semplice verifica: per ogni k ∈ R e w,w′ ∈ {0} (quindi w = w′ = 0) si ha kw = 0 (legge di annullamento del prodotto) e w + w′ = 0 (per la proprietà dell’elemento neutro). Quindi il criterio b) della proposizione 4.3.3 {0} è sottospazio di V . Esempio 4.3.4. Molti esempi interessanti si incontrano nei corsi di analisi. Sia Sottospazi di funzioniFun(R,R) lo spazio vettoriale delle funzioni R→ R (cf. esempio 4.1.4 nel caso S = R). Numerose classi di funzioni sono chiuse rispetto alla somma e moltiplicazione per uno scalare, e formano quindi sottospazi di Fun(R,R). Fra queste ricordiamo: le funzioni continue, derivabili, le funzioni di classe Cn (con n ≥ 0), le funzioni di classe C∞. Esempio 4.3.5. Un esempio importante è dato dalle funzioni polinomiali (da non Funzioni polinomialiconfondere con i polinomi). Una funzione p : R → R si dice polinomiale (di ordine ≤ n) se è della forma p(x) = a0 + a1x+ a2x 2 + . . .+ anx n con a0, a1, . . . , an ∈ R. Si verifica facilmente (raccogliendo i coefficienti) che rispetto alle operazioni definite nell’esempio 4.1.4 si ha (p+ p′)(x) = (a0 + a ′ 0) + (a1 + a ′ 1)x+ (a2 + a ′ 2)x 2 + . . . (kp)(x) = ka0 + (ka1)x+ (ka2)x 2 + . . . per ogni p(x) = a0 + a1x + a2x 2 + . . . + anx n e p′(x) = a′0 + a ′ 1x + a ′ 2x 2 + . . . + a′mx m. Poiché il risultato delle due operazioni è ancora una funzione polinomiale, per il criterio b) della proposizione 4.3.3 tali funzioni formano un sottospazio di Fun(R,R). Un esempio importante di sottospazio si incontra nello studio dei sistemi lineari. Proposizione 4.3.6. Sia SΣ l’insieme delle soluzioni di un sistema Σ di m equazioni Soluzioni di un sistema lineare lineari in n incognite: ai1x1 + ai2x2 + . . .+ ainxn = bi ∀ i = 1, . . . ,m . (4.1) SΣ ⊆ Rn è un sottospazio se e solo se il sistema è omogeneo. Dimostrazione. Un sottospazio contiene sempre il vettore nullo. L’n-upla nulla è solu- zione di Σ solo se bi = 0 ∀ i = 1, . . . ,m, ovvero Σ è omogeneo. Questo prova che la condizione è necessaria. Assumiamo ora che Σ sia omogeneo, e mostriamo che per SΣ vale il criterio b) della proposizione 4.3.3. Sia k ∈ R, e siano Y = (y1, . . . , yn) e Z = (z1, . . . , zn) due soluzioni 27 del sistema. Dimostriamo che kY e Y + Z sono ancora soluzioni. Sostituendo kyj ad xj nell’equazione (4.1) (per ogni j = 1, . . . ,m) si trova ai1(ky1) + ai2(ky2) + . . .+ ain(kyn) = = kai1y1 + kai2y2 + . . .+ kainyn = = k(ai1y1 + ai2y2 + . . .+ ainyn) = 0 per ogni i = 1, . . . ,m. L’ultima uguaglianza segue dal fatto che per ipotesi Y è soluzione di Σ. Questo prova che kY è ancora soluzione di Σ. In maniera analoga sostituendo yj + zj ad xj nell’equazione (4.1) si trova ai1(y1 + z1) + ai2(y2 + z2) + . . .+ ain(yn + zn) = = (ai1y1 + ai2y2 + . . .+ ainyn) + (ai1z1 + ai2z2 + . . .+ ainzn) = 0 + 0 = 0 dove si è usata l’ipotesi che Y e Z risolvono Σ. Questo prova che anche Y + Z è soluzione di Σ.  4.4 Operazioni su sottospazi Le proprietà che seguono sono elementari e si dimostrano, come al solito, usando uno dei criteri della proposizione 4.3.3. Per la dimostrazione si veda il capitolo III di [BruLan] (prop. 2.3 e 2.5). Siano W1 e W2 sottospazi di V . Allora Intersezione e somma di sottospazi1. W1 ∩W2 è un sottospazio di V . 2. W1 +W2 := { v = w1 + w2 : w1 ∈ W1,w2 ∈ W2 } è un sottospazio di V . W1 +W2 è detto “somma” di W1 e W2. L’unione W1∪W2 in generale non è uno spazio vettoriale. Il più piccolo sottospazio di V che contiene W1 ∪W2 è W1 +W2. Osserviamo che l’insieme SΣ delle soluzioni di un sistema lineare omogeneo in n incognite è l’intersezione dei sottospazi di Rn dati dalle soluzioni di ciascuna equazione del sistema. Definizione 4.4.1. La somma W1 +W2 si dice diretta, e si indica con W1 ⊕W2, se Somma direttaogni v ∈ W1 +W2 può essere decomposto in un solo modo come somma v = w1 + w2 di w1 ∈ W1 e w2 ∈ W2. Proposizione 4.4.2. W1 +W2 è una somma diretta se e solo se W1 ∩W2 = {0}. Dimostrazione. Sia v = w1 + w2 = w ′ 1 + w ′ 2, con w1,w ′ 1 ∈ W1 e w2,w′2 ∈ W2. Allora u := w1 −w′1 = w′2 −w2 . 28 Esistono numerosi siti internet che permettono di disegnare il grafico di una funzione. Ad esempio: http://fooplot.com e http://graph-plotter.cours-de-math.eu. Esercizio 5.1.2 (2.8.3 di [Pel1]). Sia V := { f : R→ R x 7→ a cosx+ b sinx : a, b ∈ R } . Si verifichi che V è un sottospazio di Fun(R,R). Soluzione. Dati due qualsiasi elementi f(x) = a cosx+b sinx e f ′(x) = a′ cosx+b′ sinx di V , e due scalari k, k′ ∈ R raccoglientdo i coefficienti troviamo (kf + k′f ′)(x) = kf(x) + k′f ′(x) = k(a cosx+ b sinx) + k′(a′ cosx+ b′ sinx) = (ka+ k′a′) cosx+ (kb+ k′a′) sinx . Essendo una combinazione di cosx e sinx, kf + k′f ′ ∈ V e dal criterio c) della Prop. 4.3.3 segue che V è un sottospazio di Fun(R,R). X Esercizio 5.1.3 (2.8.4 di [Pel1]). Dire se le funzioni biunivoche R → R formano un sottospazio di Fun(R,R). Soluzione. Condizione necessaria affinché un sottoinsieme di uno spazio vettoriale sia un sottospazio è che contenga il vettore nullo. Nel caso di Fun(R,R), il vettore nullo è la funzione identicamente nulla, ovvero la funzione Funzione identicamente nulla f : R→ R , f(x) = 0 ∀ x . Tale funzione non è iniettiva né suriettiva, quindi non è biunivoca. Pertanto le funzioni biunivoche non formano un sottospazio di Fun(R,R). X Esercizio 5.1.4 (2.8.6 di [Pel1]). In R3 si considerino i sottospazi vettoriali U = {(x, y, z) ∈ R3 : x+ y = 4z} , W = {(a, 2b, 0) ∈ R3 : a, b ∈ R} . Si verifichi che U ∪W non è un sottospazio di R3. Soluzione. Usiamo il criterio b2) della Prop. 4.3.3. Dobbiamo trovare due vettori di U ∪W la cui somma non è contenuta in U ∪W . Si prenda ad esempio (2, 2, 1) ∈ U ⊂ U ∪W e (1, 0, 0) ∈ W ⊂ U ∪W . La loro somma (3, 2, 1) non è elemento di W (la terza componente non è zero) né di U , in quanto x+ y = 3 + 2 = 5 6= 4z = 4. X 31 5.2 Esercizi su matrici 2× 2 Il determinante di una matrice 2×2 è stato definito a pagina 18. Una regola mnemonica per ricordare la definizione è illustrata nella figura qui sotto: Il determinante della matrice si ottiene prendendo, con il segno +, il prodotto degli elementi sulla diagonale principale (in rosso) e sottraendo ad esso il prodotto degli elementi sulla diagonale opposta (in blu). Esercizio 5.2.1. Calcolare il determinante delle matrici: A = ( 2 1 4 7 ) , B = ( 5 5 2 4 ) . Soluzione. |A| = 2 ·7−1 ·4 = 10, |B| = 5 ·4−5 ·2 = 10. Notiamo che matrici differenti possono avere lo stesso determinante. X Esercizio 5.2.2 (simile a 3.6.4 di [Pel1]). Dire se per ogni A,B ∈ R2,2 vale al proprietà |A+B| = |A|+ |B| (linearità del determinante). Soluzione. Evidentemente tale proprietà non è valida. Un controesempio elementare è dato da A = ( 1 0 0 1 ) , B = ( −1 0 0 −1 ) . In questo caso A+B = 0, quindi |A+B| = 0. Ma |A| = |B| = 1 e |A|+ |B| = 2. X Esercizio 5.2.3 (simile a 1.8.49 di [Pel1]). Nell’insieme delle matrici 2 × 2 è definita una operazione interna di prodotto come segue: Prodotto di matrici 2× 2 ( a b c d )( a′ b′ c′ d′ ) = ( aa′ + bc′ ab′ + bd′ ca′ + dc′ cb′ + dd′ ) . Provare che tale operazione: possiede un elemento neutro, che indicheremo con I2; non è commutativa; è associativa. Dire se la struttura algebrica (R2,2, · , I2) è un gruppo. Dire se (R2,2,+, 0R2,2 , · , I2) è un anello; dire se esiste l’inversa di ogni matrice non nulla. Soluzione. L’elemento neutro esiste ed è dato dalla matrice Matrice identica I2 = ( 1 0 0 1 ) , 32 detta matrice identica di ordine 2, come si può verificare con una semplice sostitu- zione. Anche l’associatività del prodotto è una semplice verifica. Il prodotto non è commutativo, infatti prese ad esempio A = ( 0 1 0 0 ) , B = ( 0 0 1 0 ) , si ha AB = ( 1 0 0 0 ) 6= BA = ( 0 0 0 1 ) . (R2,2, · , I2) non è un gruppo, in quanto la matrice nulla non è invertibile. Infatti C · 0R2,2 = 0R2,2 per ogni C ∈ R2,2: quindi non esiste matrice C tale che C · 0R2,2 = I2. (R2,2,+, 0R2,2 , · , I2) è un anello: guardando la definizione 2.2.3, vediamo che la proprietà 1 è soddisfatta poiché R2,2 è uno spazio vettoriale; la 2 è soddisfatta; esiste un elemento neutro rispetto al prodotto, che qui abbiamo indicato con I2; rimangono le due proprietà distributive al punto 4, che si possono facilmente verificare usando la definizione di prodotto fra matrici. Per finire, esistono matrici diverse da zero che non sono invertibili. Sia ad esempio A′ la matrice A′ = ( 1 0 0 0 ) (5.1) e sia B′ una matrice generica: B′ = ( a b c d ) . Evidentemente B′A′ = ( a 0 c 0 ) 6= I2 = ( 1 0 0 1 ) qualunque siano i valori di a, b, c, d. Non esiste dunque nessuna matrice B′ che sia inversa della matrice A′ definita in (5.1). X Le matrici 2× 2 sono il primo esempio di anello non commutativo incontrato in questo corso. Notiamo che la matrice A′ in (5.1) ha determinante nullo; vedremo che questa è una proprietà generale delle matrici n× n: una matrice n× n è invertibile se e solo se il suo determinante è diverso da zero. 5.3 Determinante di una matrice 3× 3 In questa sezione vedremo come si calcola il determinante di una matrice 3× 3, e nella successiva di una matrice n × n per n arbitrario. Non daremo la definizione formale di determinante (chi fosse interessato la può trovare nella sezione 3.1 di [Pel1]), ma dei metodi concreti per il suo calcolo. 33 Esercizio 5.4.1. Scrivere lo sviluppo di Laplace di una generica matrice 3×3 rispetto all’ultima colonna. Soluzione. ∣∣∣∣∣∣∣ a11 a12 a13 a21 a22 a23 a31 a32 a33 ∣∣∣∣∣∣∣ = a13 ∣∣∣∣a21 a22a31 a32 ∣∣∣∣− a23∣∣∣∣a11 a12a31 a32 ∣∣∣∣+ a33∣∣∣∣a11 a12a21 a22 ∣∣∣∣ . X Esercizio 5.4.2 (3.6.6 punto 1, di [Pel1]). Dire per quale valore di k ∈ R la seguente matrice ha determinante nullo: A = 1 −1 00 1 −k 1 0 −k  . Soluzione. Usando lo sviluppo di Laplace rispetto alla terza colonna si trova: |A| = 0− (−k) ∣∣∣∣1 −11 0 ∣∣∣∣+ (−k)∣∣∣∣1 −10 1 ∣∣∣∣ = k − k = 0 . Il determinante è nullo per ogni valore di k. X Esercizio 5.4.3. Calcolare il determinante della matrice A =  0 1 2 0 4 0 1 2 3 1 1 0 0 2 1 4  Soluzione. Usando lo sviluppo di Laplace rispetto alla prima colonna si trova: |A| = 0 ∣∣∣∣∣∣∣ 0 1 2 1 1 0 2 1 4 ∣∣∣∣∣∣∣− 4 ∣∣∣∣∣∣∣ 1 2 0 1 1 0 2 1 4 ∣∣∣∣∣∣∣+ 3 ∣∣∣∣∣∣∣ 1 2 0 0 1 2 2 1 4 ∣∣∣∣∣∣∣− 0 ∣∣∣∣∣∣∣ 1 2 0 0 1 2 1 1 0 ∣∣∣∣∣∣∣ quindi sviluppando il determinante della seconda e terza matrice rispetto alla terza colonna = −4 · 4 ∣∣∣∣1 21 1 ∣∣∣∣+ 3 · (−2)∣∣∣∣1 22 1 ∣∣∣∣+ 3 · 4∣∣∣∣1 20 1 ∣∣∣∣ = −4 · 4 · (1− 2) + 3 · (−2) · (1− 4) + 3 · 4 · 1 = 16 + 18 + 12 = 46 . 36 Si noti che, quando si usa lo sviluppo di Laplace, conviene sempre scegliere la riga o la colonna contenente più zeri. X Enunciamo alcune proprietà del determinante, senza dimostrazione. Proposizione 5.4.4. Sia A ∈Mn(R). Allora: 1. se una riga (o una colonna) di A è nulla, |A| = 0; 2. se B è ottenuta da A scambiando fra di loro due righe (o due colonne), allora |B| = −|A|; 3. se A ha due righe (o due colonne) uguali, allora |A| = 0; 4. se B è ottenuta da A moltiplicando per k ∈ R gli elementi di una sua riga (o colonna), allora |B| = k|A|; 5. se A ha due righe (o due colonne) proporzionali, allora |A| = 0; 6. se una riga Ci di A è la somma di due n-uple Xi e Yi, allora |A| = |A′|+|A′′|, dove A′ si ottiene da A sostituendo a Ci la n-upla Xi e A ′′ si ottiene da A sostituendo a Ci la n-upla Yi; la stessa cosa vale per le colonne; 7. se una riga (o una colonna) di A è combinazione lineare delle altre, allora |A| = 0; 8. se B è ottenuta da A sommando a una sua riga (o colonna) una combinazione lineare delle altre righe (o colonne), allora |B| = |A|. Notiamo che dalla 2 e dallo sviluppo di Laplace si possono derivare tutte le altre proprietà. Per provare 1 basta usare lo sviluppo di Laplace rispetto alla riga (o colonna) nulla. Per provare 4 si fa lo sviluppo di Laplace rispetto alla riga (o colonna) che viene moltiplicata per k. La 3 segue dalla 2: se A ha due righe uguali, scambiandole si ottiene una matrice B = A e per 2 si ha |A| = |B| = −|A|, da cui |A| = 0. La 5 segue da 4 e 3. Per la 6 basta fare lo sviluppo di Laplace rispetto alla riga (o colonna) i e usare la proprietà distributiva del prodotto. La 7 segue da 3, 4 e 6. La 8 segue da 7 e 6. 37 Lezione VI Dipendenza e indipendenza lineare Sommario: dipendenza e indipendenza lineare, generatori, insiemi liberi, spazi fini- tamente generati, basi, basi canoniche di Rn e Rm,n, n-upla delle componenti. Esempi ed esercizi. 6.1 Dipendenza e indipendenza lineare Iniziamo con l’osservare che ogni vettore (x1, x2) ∈ R2 si può scrivere nella forma (x1, x2) = x1(1, 0) + x2(0, 1) (6.1) ed ogni matrice 2× 2 si può scrivere nella forma( a11 a12 a21 a22 ) = a11 ( 1 0 0 0 ) + a12 ( 0 1 0 0 ) + a21 ( 0 0 1 0 ) + a22 ( 0 0 0 1 ) . (6.2) In generale dato un qualsiasi spazio vettoriale V , se un vettore v ∈ V che si può scrivere Combinazioni linearicome v = a1v1 + a2v2 + . . .+ anvn , ai ∈ R,vi ∈ V, allora diremo che è combinazione lineare dei vettori v1, . . . ,vn. Proposizione 6.1.1. L’insieme di tutte le combinazioni lineari L(v1, . . . ,vn) := { v = a1v1 + a2v2 + . . .+ anvn : a1, . . . , an ∈ R } è un sottospazio di V detto “spazio generato dai vettori v1, . . . ,vn” (o anche “inviluppo lineare”, “copertura lineare” o in inglese “span”). I vettori v1, . . . ,vn si diranno suoi generatori. Generatori Dimostrazione. Usiamo il criterio c) della Prop. 4.3.3. Siano v = a1v1+a2v2+. . .+anvn e v′ = a′1v1 + a ′ 2v2 + . . .+ a ′ nvn due generici vettori di L(v1, . . . ,vn), e siano k, k′ ∈ R. Raccogliendo i coefficienti si trova: kv + k′v′ = (ka1 + k ′a′1)v1 + (ka2 + k ′a′2)v2 + . . .+ (kan + k ′a′n)vn . Quindi kv + k′v′ ∈ L(v1, . . . ,vn), essendo combinazione lineare dei vettori v1, . . . ,vn, e questo conclude la dimostrazione.  38 Esempio 6.2.2. Per ogni 1 ≤ i ≤ n, sia ei = ( i−1 volte︷ ︸︸ ︷ 0, . . . , 0 , 1, n−i volte︷ ︸︸ ︷ 0, . . . , 0 ) la n-upla con i-esima componente uguale a 1 e tutte le altre uguali a zero. Per ogni (x1, . . . , xn) ∈ Rn vale l’identità (x1, . . . , xn) = ∑n i=1 xiei . (6.3) Questo prova che i vettori ei sono generatori di Rn. Inoltre la combinazione lineare (6.3) è nulla solo se x1 = x2 = . . . = xn = 0, quindi i vettori formano una base Base canonica di Rn B = (e1, e2, . . . , en) detta base canonica di Rn. Esempio 6.2.3. Per ogni 1 ≤ i ≤ m e 1 ≤ j ≤ m, sia Eij ∈ Rm,n la matrice che ha 1 in posizione (i, j) e tutti gli altri elementi uguali a zero. Per ogni A = (aij) ∈ Rm,n vale l’identità A = ∑ i=1,...,m j=1,...,n aijEij . (6.4) Questo prova che le matrici Eij sono generatori di Rm,n. Inoltre la combinazione lineare (6.4) è nulla solo se aij = 0 per ogni i, j: quindi le matrici Eij formano una base Base canonica di Rm,n B = (E11, E12, . . . , E1n, E21, E22, . . . , E2n, . . . , Em1, Em2, . . . , Emn) detta base canonica di Rm,n. Esempio 6.2.4. B = (1, x, x2, . . . , xn) è una base per lo spazio delle funzioni polino- miali di grado non superiore ad n. Esempio 6.2.5. Per definizione, un insieme libero I = (v1, . . . ,vn) è una base di L(I). Esempio 6.2.6. L’insieme di vettori (1, 1), (1, 0) e (0, 1) genera R2 (contiene la base canonica), ma non è una base in quanto (1, 1) = (1, 0) + (0, 1) e i vettori non sono linearmente indipendenti. Teorema 6.2.7. B = (v1, . . . ,vn) è una base di V se e solo se ogni v ∈ V si può scrivere in un unico modo come combinazione lineare v = a1v1 + a2v2 + . . .+ anvn . Il coefficiente ai è detto componente i-esima di v nella base B, e scelta una base ogni Componenti vettore è univocamente determinato dalle sue componenti. Scriveremo v = (a1, a2, . . . , an)B per indicare le componenti di v nella base B. 41 Dimostrazione. Sia B una base di V e v = a1v1 + a2v2 + . . .+ anvn = a ′ 1v1 + a ′ 2v2 + . . .+ a ′ nvn . Allora (a1 − a′1)v1 + (a2 − a′2)v2 + . . .+ (an − a′n)vn = 0 . Per definizione di base, v1, . . . ,vn sono linearmente indipendenti, e quindi deve essere a1 = a ′ 1, a2 = a ′ 2, . . . , an = a ′ n. Se ne deduce che v si può scrivere in un unico modo come combinazione lineare dei vettori v1, . . . ,vn. Viceversa supponiamo ogni v ∈ V si possa scrivere in un unico modo come combi- nazione lineare dei vettori v1, . . . ,vn. Allora B genera V . Inoltre b1v1 + b2v2 + . . .+ bnvn = 0 implica b1 = b2 = . . . = bn = 0, altrimenti si avrebbero due modi differenti di scrivere 0 come combinazione lineare dei vettori v1, . . . ,vn. Se ne deduce che B è libero, ovvero una base.  Esempio 6.2.8. xi è la i-esima componente di (x1, . . . , xn) ∈ Rn rispetto alla base canonica; aij è una componente di A = (aij) ∈ Rm,n rispetto alla base canonica. Notiamo che se v = (a1, a2, . . . , an)B e v ′ = (a′1, a ′ 2, . . . , a ′ n)B, allora v + v′ = (a1 + a ′ 1, a2 + a ′ 2, . . . , an + a ′ n)B e kv = (ka1, ka2, . . . , kan)B per ogni k ∈ R. Scelta una base, le operazioni di V si traducono nelle operazioni fra n-uple. Come conseguenza immediata, dati m vettori wi = (ai1, ai2, . . . , ain)B , i = 1, . . . ,m , questi sono linearmente indipendenti se e solo se le corrispondenti n-uple di componenti sono linearmente indipendenti in Rn, e sono generatori di V se e solo se le n-uple delle componenti generano Rn. Esercizio 6.2.9. In R3 si individui, se esiste, un vettore dell’insieme I = { v1 = (1, 3, 2),v2 = (−2, 0, 3),v3 = (4, 5, 0),v4 = (0, 1, 4),v5 = (1, 0, 0) } esprimibile come combinazione lineare degli altri elementi di I. 42 Soluzione. Per la Prop. 6.1.7, come prima cosa occorre stabilire se i vettori sono linearmente indipendenti. La condizione a1v1 + a2v2 + . . .+ a5v5 = = a1(1, 3, 2) + a2(−2, 0, 3) + a3(4, 5, 0) + a4(0, 1, 4) + a5(1, 0, 0) = 0 è equivalente al sistema di tre equazioni in cinque incognite: a1 − 2a2 + 4a3 + 0a4 + a5 = 0 3a1 + 0a2 + 5a3 + a4 + 0a5 = 0 2a1 + 3a2 + 0a3 + 4a4 + 0a5 = 0 Dalla prima equazione ricaviamo a5 = −a1 + 2a2− 4a3. Le rimanenti danno il sistema di due equazioni in quattro incognite:{ 3a1 + 5a3 + a4 = 0 2a1 + 3a2 + 4a4 = 0 ovvero a3 = −35a1− 1 5 a4 e a2 = −23a1− 4 3 a4. Sostituendo queste due nell’equazione per a5 si ottiene a5 = −a1 + 2 ( − 2 3 a1 − 43a4 ) − 4 ( − 3 5 a1 − 15a4 ) = 1 15 a1 − 2815a4 . L’insieme delle soluzioni è dato quindi da( a1 , −23a1 − 4 3 a4 , −35a1 − 1 5 a4 , a4 , 1 15 a1 − 2815a4 ) (6.5) al variare di a1, a4 ∈ R. Poiché esistono soluzioni non nulle, l’insieme I è legato. Scegliendo a1 = 1 e a4 = 0 si trova v1 − 23v2 − 3 5 v3 + 0v4 + 1 15 v5 = 0 ovvero v1 = 2 3 v2 + 3 5 v3 − 115v5 è combinazione lineare degli altri vettori di I. X Esercizio 6.2.10 (2.8.7 di [Pel1]). In R4 si individui, se esiste, un vettore dell’insieme I = { w1 = (1, 3, 2,−1),w2 = (−2, 0, 3, 1),w3 = (4, 5, 0, 1),w4 = (0, 1, 4, 1),w5 = (1, 0, 0, 1) } esprimibile come combinazione lineare degli altri elementi di I. Soluzione. Si procede come nell’esercizio 6.2.9 e si ricava un sistema di quattro equa- zioni in cinque incognite a1, . . . , a5. Le prime tre equazioni sono le stesse dell’esercizio 6.2.9, la quarta è −a1 + a2 + a3 + a4 + a5 = 0 . (6.6) 43 dove k è il numero di vettori non nulli di I, Ii = Ii−1 r {ui} se ui ∈ L(u1, . . . ,ui−1) e Ii = Ii−1 in caso contrario. Per l’osservazione 6.1.4, si ha V = L(I) = L(I1) ⊇ L(I2) ⊇ . . . ⊇ L(Ik) . Quindi Ik generano V e sono linearmente indipendenti per il teorema 6.1.8. Ordinando a piacere i vettori di Ik si ottiene la base B′ cercata. Notiamo che B′ per costruzione ha meno elementi di I, quindi n ≤ m (per il punto i). Metodo del completamento ad una base . . . e del completamento ad una base Sia I libero. Applicando il metodo degli scarti successivi all’insieme di generatori I ′ = (u1, . . . ,um,v1, . . . ,vn) i primi m vettori non vengono eliminati perché per ipotesi sono linearmente indipen- denti. Si ricava quindi una base B′ ⊇ (u1, . . . ,um) = I. Per il punto i) B′ ha n elementi, quindi deve essere m ≤ n.  Esempio 7.1.3. Sia I = {v1 = (1, 1),v2 = (1, 0),v3 = (0, 1)}. Abbiamo visto nel- l’esempio 6.2.6 che I genera R2 ma non è libero. Applicando il metodo degli scarti successivi si vede che v1 6= 0 e v2 /∈ L(v1), quindi I2 = I1 = I. Poiché v3 = v1 − v2, I3 = Ir{v3} ed una base estratta da I è B = (v1,v2). Notiamo che la base estratta di- pende da come si ordinano i vettori dell’insieme I di partenza. Ad esempio ordinandoli come (v2,v3,v1) la base estratta è quella canonica B′ = (v2,v3). Come conseguenza del teorema precedente, tutte le basi di V hanno lo stesso numero n di elementi; tale numero è detto dimensione di V ed indicato con dim(V ). Per Dimensione convenzione dim({0}) = 0. Osservazione 7.1.4. dim(Rn) = n e dim(Rm,n) = m · n, come si evince contando gli elementi delle basi canoniche. Corollario 7.1.5. Sia V uno spazio finitamente generato e W ⊆ V un sottospazio. Allora dim(W ) ≤ dim(V ) e si ha l’uguaglianza se e solo se W = V . Dimostrazione. Una base I = (u1, . . . ,um) di W è un insieme libero di V , quindi dim(W ) = m ≤ dim(V ) per il punto iii) del teorema 7.1.2. Si può completare I ad una base B ⊇ I di V . Se dim(W ) = m = dim(V ), B ha lo stesso numero di elementi di I, da cui B = I devono essere uguali. Da questo si ricava che W = L(I) = L(B) = V .  Osservazione 7.1.6. Sia V uno spazio di dimensione n. Una immediata conseguenza del precedente corollario è che: ogni insieme libero di n elementi è una base; ogni insieme di n generatori è una base. 46 Enunciamo senza dimostrazione la formula di Grassmann. Dati due sottospazi Formula di GrassmannU,W di V , si ha dim(U +W ) + dim(U ∩W ) = dim(U) + dim(W ) . In particolare, se U +W è una somma diretta, dalla Prop. 4.4.2 segue che dim(U ⊕W ) = dim(U) + dim(W ) . 7.2 Esercizi Esercizio 7.2.1. Estrarre una base B di R3 dall’insieme I = ( v1 = (−14 , 0, 1 2 ),v2 = (0, 1, 1),v3 = (−1,−1, 1),v4 = (0, 0, 1),v5 = (1, 0, 0) ) . Soluzione. Applichiamo il metodo degli scarti successivi. Essendo i vettori tutti diversi da zero, I1 = I. I vettori di L(v1) hanno la seconda componente nulla, quindi v2 /∈ L(v1) e I2 = I1. Siccome v3 = 4v1 − v2 ∈ L(v1,v2), allora I3 = I2 r {v3}. La condizione v4 = a1v1 + a2v2 + a3v3 dà il sistema  −1 4 a1 − a3 = 0 a2 − a3 = 0 1 2 a1 + a2 + a3 = 1 Sostituendo le prime due equazioni, a1 = −4a3 e a2 = a3, nella terza troviamo −2a3 + a3 + a3 = 1, che non ammette soluzione. Quindi v4 /∈ L(v1,v2,v3) e I4 = I3. Non serve procedere oltre: B = (v1,v2,v4) è libero quindi, essendo dim(R3) = 3, è anche una base. X Esercizio 7.2.2. Completare ad una base B di R3 l’insieme {(1, 0,−1), (0, 0, 2)}. Soluzione. Usando la base canonica di R3 formiamo l’insieme di generatori: I = ( v1 = (1, 0,−1),v2 = (0, 0, 2), e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) ) . Applichiamo il metodo degli scarti successivi. I2 = I1 = I poiché v2 non è proporzionale a v1. Siccome e1 = v1 + 1 2 v2, si ha I3 = I2 r{e1}. Qualunque combinazione lineare dei primi tre vettori ha la seconda componente nulla, quindi e2 /∈ L(v1,v2, e1) e I4 = I3. Un insieme libero di tre elementi è una base, quindi B = (v1,v2, e2). X 47 Esercizio 7.2.3. Dire se 1. (3, 2) ∈ L [ (0, 0), (2, 2) ] ; 2. (3, 2) ∈ L [ (1,−1), (2, 2) ] ; 3. (0, 0) ∈ L [ (1,−1), (2, 2) ] ; 4. (3, 2) ∈ L [ (1, 1), (2, 2) ] ; 5. dire se B = ( (1,−1), (1, 2) ) è una base di R2. Soluzione. No, si, si, no, si. Andando in ordine: 1. L [ (0, 0), (2, 2) ] = {a1(0, 0) + a2(2, 2) : a1, a2 ∈ R} = {(2a2, 2a2) : a2 ∈ R} = {(x, y) ∈ R2 : x = y} è l’insieme dei vettori che hanno le due componenti uguali. Quindi (3, 2) /∈ L [ (0, 0), (2, 2) ] . 2. a1(1,−1) + a2(2, 2) = (3, 2) dà il sistema{ a1 + 2a2 = 3 −a1 + 2a2 = 2 Sommando le equazioni si ottiene 4a2 = 5, ossia a2 = 5 4 . Sostituendo nella prima si ottiene a1 = 3 − 52 = 1 2 . Quindi (3, 2) = 1 2 (1,−1) + 5 4 (2, 2) è elemento di L [ (1,−1), (2, 2) ] . 3. Questa è banale poiché (0, 0) = 0 · (1,−1) + 0 · (2, 2). 4. (3, 2) /∈ L [ (1, 1), (2, 2) ] poiché, come al punto 1, L [ (1, 1), (2, 2) ] = {(x, y) ∈ R2 : x = y} è l’insieme di vettori che hanno le due componenti uguali. 5. Ogni (x1, x2) ∈ R2 si può scrivere nella forma (x1, x2) = 2x1 − x2 3 (1,−1) + x1 + x2 3 (1, 2) (le componenti, come funzioni di x1 e x2, si ricavano come al solito risolvendo un sistema di due equazioni in due incognite), quindi B è una base di R2. X Esercizio 7.2.4 (2.8.8 punti 3-5, di [Pel1]). Dire quali dei seguenti insiemi di vettori di R3 sono liberi: 1. A3 = { (1, 0, 0), (1, 0,−2), (1, 1, 2), (0, 0, 1) } ; 2. A4 = { (1, 0, 1), (−2, 0,−2), (1, 0, 2) } ; 3. A5 = { (0, 1, 0), (0, 0, 0), (1, 3, 2) } . 48 Lezione VIII Spazi metrici Sommario: prodotto scalare; norma; disuguaglianza di Cauchy-Schwartz e disugua- glianza triangolare. Esempi ed esercizi. 8.1 Lunghezze, angoli e proiezioni in R2 Sia X = (x1, x2) ∈ R2. Abbiamo ricordato nell’osservazione 4.1.3 che X può essere α x2 x1 X = (x1, x2) O identificato con il segmento orientato # » OX nella figura qui a fianco. Tale segmento è la diagonale di un rettan- golo di base x1 ed altezza x2, e la sua lunghezza, che indichiamo con ‖X‖, è data dal teorema di Pitagora: ‖X‖ = √ x21 + x 2 2 . Se X 6= (0, 0), l’angolo α in figura è determinato dalle equazioni: cosα = x1√ x21 + x 2 2 = x1 ‖X‖ , sinα = x2√ x21 + x 2 2 = x2 ‖X‖ . (8.1) Consideriamo ora i due vettori non nulli X = (x1, x2) e Y = (y1, y2) in figura 2a. L’angolo ϑ in verde nella figura è detto angolo convesso fra X e Y (0 ≤ ϑ ≤ 180◦). Angolo fra X e YDalle formule di addizione di seno e coseno, ben note dalla trigonometria, ricaviamo: cosϑ = cos(α− β) = cosα cos β + sinα sin β = x1y1 + x2y2 ‖X‖ ‖Y ‖ , dove nell’ultimo passaggio abbiamo usato (8.1) per esprimere cosα e sinα, e l’espressione analoga in termini di Y per esprimere cos β e sin β. Dati due vettori X, Y ∈ R2 arbitrari, il loro prodotto scalare, indicato con X ·Y , Prodotto scalareè la grandezza X · Y = x1y1 + x2y2 . (8.2) Notiamo che ‖X‖ = √ X ·X. Se i vettori sono entrambi non nulli, allora cosϑ = X · Y/‖X‖ ‖Y ‖ (8.3) individua l’angolo convesso fra i due. Due vettori X e Y si dicono ortogonali se Vettori ortogonali e paralleli X · Y = 0, e si dicono paralleli se X · Y = ±||X|| ||Y ||. Notiamo che (0, 0) è sia ortogonale che parallelo a qualsiasi vettore di R2. Da (8.3) si vede che due vettori non nulli sono ortogonali se e solo se ϑ = 90◦ e sono paralleli se e solo se ϑ = 0◦ o 180◦. 51 ϑ β X = (x1, x2) Y = (y1, y2) α (a) Angolo fra X e Y ϑ X = (x1, x2) Y = (y1, y2) prY (X) (b) Proiezione di X in direzione di Y Figura 2: Angoli e proiezioni Esercizio 8.1.1. Sia Y = (y1, y2) ∈ R2 diverso da zero. Provare che X è parallelo ad Y se e solo se X = kY per qualche k ∈ R (dove k > 0 se i vettori hanno lo stesso verso, k = 0 se X = 0, e k < 0 altrimenti), ed è ortogonale ad Y se e solo se X = k(y2,−y1) per qualche k ∈ R. Dato un vettore Y non nullo, ed un vettore X arbitrario (anche zero) indichiamo con prY (X) la proiezione ortogonale di X sulla retta individuata da Y , ovvero il Proiezione ortogonalevettore rosso nella figura 2b. Determiniamo le componenti di prY (X): essendo parallelo ad Y , dall’esercizio 8.1.1 segue che prY (X) = kY . Se 0 ≤ ϑ ≤ 90◦, Y e prY (X) hanno lo stesso orientamento e k ≥ 0; se 90◦ < ϑ ≤ 180◦, k < 0. Assumiamo che sia 0 ≤ ϑ ≤ 90◦, ovvero k ≥ 0. Vediamo dalla figura 2b che la lunghezza del vettore prY (X) è pari a cosϑ · ‖X‖; ma è anche uguale a ‖kY ‖ = k‖Y ‖. Da (8.3) si ricava k = cosϑ · ‖X‖ ‖Y ‖ = X · Y ‖X‖ ‖Y ‖ ‖X‖ ‖Y ‖ = X · Y ‖Y ‖2 . Quindi prY (X) = X · Y ‖Y ‖2 Y . (8.4) Si dimostra in modo del tutto analogo che l’espressione (8.4) è valida anche quando 90◦ < ϑ ≤ 180◦. Chiudiamo questo paragrafo traducendo nel linguaggio dei vettori un ben noto teorema della geometria Euclidea, la disuguaglianza triangolare, la quale afferma Disuguaglianza triangolareche in un triangolo la lunghezza di un qualsiasi suo lato non può essere superiore alla somma delle lunghezze degli altri due. Applicata al triangolo in blu nella figura 3, poiché i tre lati hanno lunghezza ‖X‖, ‖Y ‖ e ‖X +Y ‖, la disuguaglianza si traduce in ‖X + Y ‖ ≤ ‖X‖+ ‖Y ‖ , (8.5) e in questa forma può essere dimostrata in tutta generalità per qualsiasi spazio vetto- riale dotato di un prodotto scalare, come illustrato nella prossima sezione. 52 XY O X + Y Figura 3: Disuguaglianza triangolare 8.2 Aree di triangoli e determinante Notiamo il triangolo di vertici O,X, Y in figura 2b ha base ‖Y ‖ ed altezza pari alla lunghezza del segmento tratteggiato, che per il teorema di Pitagora è data da√ ‖X‖2 − ‖prY (X)‖2 = ‖Y ‖−1 √ ‖X‖2 ‖Y ‖2 − |X · Y |2 = ‖Y ‖−1 √ (x21 + x 2 2)(y 2 1 + y 2 2)− (x1y1 + x2y2)2 = ‖Y ‖−1 √ x21y 2 2 + x 2 2y 2 1 − 2x1y1x2y2 = ‖Y ‖−1 √ (x1y2 − x2y1)2 = ‖Y ‖−1 |x1y2 − x2y1| . Quindi l’area del triangolo ÔXY è data da Area di ÔXY 1 2 base× altezza = 1 2 |x1y2 − x2y1| . Questo permette una interpretazione geometrica del determinante di una matrice 2×2. Significato del deter- minante Il modulo del determinante ∣∣∣∣ a11 a12a21 a22 ∣∣∣∣ è due volte l’area del triangolo di vertici O, X = (a11, a12) ed Y = (a21, a22); ovvero due volte l’area del triangolo di vertici O, X ′ = (a11, a21) ed Y ′ = (a12, a22). Il segno del determinante è positivo se ruotando X (risp. X ′) in senso antiorario in modo da sovrapporlo ad Y (risp. Y ′) si compie un angolo minore di 180◦, e negativo in caso contrario. Più in generale ci si può chiedere come si esprime l’area AXYZ di un triangolo di vertici X = (x1, x2), Y = (y1, y2) e Z = (z1, z2). Studiamo il caso in cui, ruotando in senso antiorario a partire dall’asse orizzontale, si incontrano nell’ordine prima Z, poi Y , poi X (come in figura 4), e che tutti e tre i vettori siano nel semipiano superiore. 53 Dimostrazione. Dal punto ii) della definizione 8.3.1 e dal punto v) della proposizione 8.3.2 si ricava ‖av‖ = √ (av) · (av) = √ a2(v · v) = |a| ‖v‖ . Dal punto iii) della definizione 8.3.1 e dal punto iv) della proposizione 8.3.2 segue che ‖v‖ = 0 ⇐⇒ v = 0. Dai punti i) e ii) della definizione 8.3.1 e dal punto v) della proposizione 8.3.2 si ricava ‖u + v‖2 = (u + v) · (u + v) = u · u + 2 u · v + v · v = ‖u‖2 + 2 u · v + ‖v‖2 .  Come nel caso di R2, possiamo definire l’angolo convesso ϑ fra due vettori non nulli v e w di uno spazio metrico V come cosϑ := v ·w ‖v‖ ‖w‖ . Poiché il coseno è compreso fra −1 e 1, affinché tale definizione abbia senso occorre verificare che il membro di destra dell’equazione è in modulo non superiore a 1. Questo è il contenuto del teorema che segue. Teorema 8.3.7 (Disuguaglianza di Cauchy-Schwartz). Per ogni v,w ∈ V , si ha |v ·w| ≤ ‖v‖ ‖w‖ . (8.8) Dimostrazione. Se w = 0 la disuguaglianza si riduce ad un banale 0 ≤ 0. Assumiamo allora che w 6= 0. Per ogni λ ∈ R, dal punto 3 della proposizione 8.3.6, applicato alla coppia u = λv e w, si ottiene 0 ≤ ‖v − λw‖2 = ‖v‖2 − 2λv ·w + λ2‖w‖2 , dove la prima disuguaglianza segue dal fatto che per definizione la norma di un vettore è non negativa. In particolare scegliendo λ = v ·w/‖w‖2 si ottiene 0 ≤ ‖v‖2 − 2(v ·w) 2 ‖w‖2 + (v ·w)2 ‖w‖2 = ‖v‖2 − (v ·w) 2 ‖w‖2 , ovvero (v · w)2 ≤ ‖v‖2 ‖w‖2. Prendendo la radice quadrata di ambo i membri della disuguaglianza, si prova (8.8).  Due vettori si dicono paralleli se |v ·w| = ‖v‖ ‖w‖ e si dicono ortogonali se v ·w = 0. Diciamo che due vettori paralleli hanno lo stesso verso se v ·w = ‖v‖ ‖w‖, e che hanno verso opposto se v ·w = −‖v‖ ‖w‖. 56 Corollario 8.3.8 (Disuguaglianza triangolare). Per ogni v,w ∈ V , si ha ‖v + w‖ ≤ ‖v‖+ ‖w‖ , (8.9) e vale l’uguaglianza se e solo se i vettori sono paralleli ed hanno lo stesso verso. Dimostrazione. Dal punto 3 della proposizione 8.3.6: ‖v + w‖2 = ‖v‖2 + 2v ·w + ‖w‖2 ≤ ‖v‖2 + 2‖v‖ ‖w‖+ ‖w‖2 = ( ‖v‖+ ‖w‖ )2 , dove la disuguaglianza segue da (8.8). Estraendo la radice si trova ‖v+w‖ ≤ ‖v‖+‖w‖. L’uguaglianza si ha esattamente quando v ·w = ‖v‖ ‖w‖.  Proposizione 8.3.9 (Teorema di Pitagora). Due vettori v,w ∈ V soddisfano ‖v + w‖2 = ‖v‖2 + ‖w‖2 , se e solo se sono ortogonali. Dimostrazione. Dal punto 3 della proposizione 8.3.6, ‖v + w‖2 − ‖v‖2 − ‖w‖2 = 2v ·w si annulla se e solo se v ·w = 0.  8.4 Proiezioni ortogonali In analogia al caso di R2, cf. equazione (8.4), se w 6= 0 il vettore Proiezioni prw(v) := v ·w ‖w‖2 w è detto proiezione (ortogonale) di v in direzione di w. Dato un vettore w 6= 0, ogni vettore v ∈ V si può decomporre nella forma v = v// + v⊥ con v// := prw(v) , v⊥ := v − prw(v) . Notiamo che v⊥ è ortogonale a w, infatti v// ·w = prw(v) ·w = v ·w ‖w‖2 w ·w = v ·w (8.10) e quindi v⊥ ·w = v ·w− v// ·w = 0. Dal punto 1 della proposizione 8.3.6, chiamando a = v ·w/‖w‖2, si ricava ‖v//‖ = ‖aw‖ = |a| ‖w‖ = |v ·w| ‖w‖ , 57 e quest’ultima equazione insieme a (8.10) ci dice che |v// ·w| = ‖v//‖ ‖w‖, ovvero v// è parallelo a w. Siccome v⊥ e v// sono ortogonali, dalla proposizione 8.3.9 si ricava ||v||2 = ||v//||2 + ||v⊥||2 . (8.11) Proposizione 8.4.1. Siano w 6= 0 e v = v// + v⊥ come sopra. Allora: a) v è parallelo a w ⇐⇒ v⊥ = 0 ; b) v è ortogonale a w ⇐⇒ v// = 0 . Dimostrazione. Da v⊥ ·w = 0 e v// ·w = ±‖v//‖ ‖w‖ segue che v ·w = v// ·w = ±‖v//‖ ‖w‖ . (8.12) Poiché w 6= 0, dal punto 2 della proposizione 8.3.6 segue che v ·w = 0⇔ ‖v//‖ = 0⇔ v// = 0. Questo prova il punto b). Da (8.12) segue anche che |v · w| = ‖v//‖ ‖w‖ è uguale a ‖v‖ ‖w‖ se e solo se ‖v‖ = ‖v//‖. Per l’equazione (8.11), questo è equivalente a ‖v⊥‖ = 0, ovvero a v⊥ = 0. Questo prova il punto a).  Corollario 8.4.2. Due vettori v,w ∈ V sono paralleli se e solo se sono linearmente dipendenti. Dimostrazione. Se w = 0 l’affermazione è banale. Se w 6= 0, segue dalla proposizione precedente che v è parallelo a w se e solo se v = v// = aw con a = v ·w/‖w‖2.  Proposizione 8.4.3. Siano v1, . . . ,vk ∈ V dei vettori non nulli e a due a due ortogo- nali, ovvero vi ·vj = 0 per ogni i 6= j, 1 ≤ i, j ≤ k. Allora v1, . . . ,vk sono linearmente indipendenti. Dimostrazione. Sia u := a1v1 + a2v2 + . . .+ akvk = 0 . Siccome vi · vj = 0 ∀ i 6= j, prendendo il prodotto scalare di u con vi si ottiene u · vi = aivi · vi = ai||vi||2 = 0 , ovvero ai = 0 (per ipotesi vi 6= 0) per ogni i = 1, . . . , k. Questo prova l’indipendenza lineare.  58 Lezione IX Basi ortonormali e metodo di Gram-Schmidt Sommario: basi ortonormali; metodo di Gram-Schmidt; sottospazi ortogonali. Esem- pi ed esercizi. 9.1 Basi ortonormali Sia V uno spazio metrico di dimensione n. Osservazione 9.1.1. Notiamo (proposizione 8.4.3) che n vettori non nulli e a due a due ortogonali sono linearmente indipendenti, quindi per l’osservazione 7.1.6 formano una base di V . Definizione 9.1.2. Una base B = (u1,u2, . . . ,un) di V si dice ortonormale se Base ortonormale i) ui · uj = 0 per ogni i 6= j; ii) ‖ui‖ = 1 per ogni i = 1, . . . , n. Esempio 9.1.3. La base canonica di Rn è ortonormale rispetto al prodotto scalare canonico. Proposizione 9.1.4. Sia B = (u1,u2, . . . ,un) una base ortonormale di V , e v ∈ V un vettore qualsiasi. Allora v = (v · u1)u1 + (v · u2)u2 + . . .+ (v · un)un . In altri termini, la componente i-esima ai di v nella base B è data da ai = v · ui. Dimostrazione. Per definizione di base, esistono a1, . . . , an ∈ R tali che v = a1u1 + . . .+ anun . Da i) e ii) della definizione 9.1.2 e dalla linearità del prodotto scalare segue che v · ui = ai(ui · ui) + ∑ j 6=i aj(uj · ui) = ai‖ui‖+ ∑ j 6=i aj · 0 = ai per ogni i = 1, . . . , n.  Proposizione 9.1.5. Sia B = (u1,u2, . . . ,un) una base ortonormale di V , e siano v = (a1, . . . , an)B e w = (b1, . . . , bn)B due qualsiasi vettori di V . Allora v ·w = a1b1 + a2b2 + . . .+ anbn . In altre parole, in una base ortonormale il prodotto scalare fra due vettori coincide con il prodotto scalare canonico fra le n-uple delle componenti. 61 Dimostrazione. Se v = ∑n i=1 aiui e v = ∑n j=1 bjuj, dalla linearità del prodotto scalare segue che v ·w = n∑ i,j=1 aibj(ui · uj) . Poichè ui · uj è zero se i 6= j ed è 1 se i = j, si ricava la tesi: v ·w = ∑n i=1 aibi.  9.2 Metodo di Gram-Schmidt Sia V uno spazio metrico di dimensione n, e (v1,v2, . . . ,vn) una base qualsiasi di V . E’ possibile ricavare da essa una base ortonormale come illustrato nel seguito (metodo di Gram-Schmidt). Il primo passo è definire dei vettori (w1,w2, . . . ,wn) in maniera ricorsiva: Passo 1 w1 = v1 , w2 = v2 − prw1(v2) , w3 = v3 − prw1(v3)− prw2(v3) , ... ... wi = vi − ∑i−1 j=1 prwj(vi) , (1 < i ≤ n) . Lemma 9.2.1. I vettori (w1,w2, . . . ,wn) sono una base di V e soddisfano wi ·wj = 0 per ogni i 6= j. Dimostrazione. Per l’osservazione 9.1.1, n vettori ortogonali non nulli formano una base. I vettori sono chiaramente non nulli, infatti w1 = v1 6= 0 e per i ≥ 2, se per assurdo wi = 0 se ne dedurrebbe che vi = ∑i−1 j=1 prwj(vi) è combinazione lineare degli altri vettori di B, contraddicendo l’ipotesi che B è una base. L’ortogonalità si dimostra per induzione. Per la proprietà delle proiezioni, w1 è orto- gonale a w2. Sia 3 ≤ i ≤ n. Per ipotesi induttiva, assumiamo che {w1,w2, . . . ,wi−1} siano a due a due ortogonali, e mostriamo che wi è ortogonale ad ogni vettore wk dell’insieme, con k = 1, . . . , i− 1. Per costruzione wk ·wi = wk · ( vi − ∑i−1 j=1 prwj(vi) ) . Il vettore prwj(vi) è parallelo a wj, e quindi per ipotesi induttiva è ortogonale a wk se j 6= k. Si ricava wk ·wi = wk · ( vi − prwk(vi) ) . Poiché vi − prwk(vi) è ortogonale a wk (vedere pag. 57), si ha wk ·wi = 0.  62 Il secondo passo consiste nel normalizzare i vettori ottenuti. Chiamiamo Passo 2 u1 = w1 ‖w1‖ , u2 = w2 ‖w2‖ , . . . un = wn ‖wn‖ . Abbiamo ui · uj = wi ·wj ‖wi‖ ‖wj‖ = 0 ∀ i 6= j , ui · ui = wi ·wi ‖wi‖2 = 1 ∀ i = 1, . . . , n . Per l’osservazione 9.1.1, B = (u1,u2, . . . ,un) è una base ortonormale di V . Corollario 9.2.2. Ogni spazio metrico finitamente generato ammette una base or- tonormale (si trova una base con il metodo degli scarti successivi, e da questa una ortonormale con il metodo di Gram-Schmidt). 9.3 Sottospazi ortogonali Sia V uno spazio metrico di dimensione n. Lemma 9.3.1. Siano v,w1,w2, . . . ,wk ∈ V . Se v è ortogonale a ciascuno dei vettori w1,w2, . . . ,wk, allora è ortogonale ad ogni loro combinazione lineare. Dimostrazione. Per ipotesi v ·wi = 0 per ogni i. Dalla linearità del prodotto scalare segue che v · (a1w1 + a2w2 + . . .+ akwk) = a1(v ·w1) + a2(v ·w2) + . . .+ ak(v ·wk) = 0 per ogni a1, . . . , ak ∈ R.  Definizione 9.3.2. Sia W ⊆ V un sottospazio vettoriale. L’insieme Complemento ortogonale W⊥ := { v ∈ V : v ·w = 0 ∀ w ∈ W } è detto complemento ortogonale di W . Proposizione 9.3.3. W⊥ è un sottospazio vettoriale di V . Dimostrazione. Per ogni a1, a2 ∈ R, v1,v2 ∈ W⊥, il vettore a1v1 + a2v2 soddisfa (a1v1 + a2v2) ·w = a1(v1 ·w) + a2(v2 ·w) = 0 per ogni w ∈ W . Quindi a1v1 + a2v2 ∈ W⊥ e per il criterio c) della proposizione 4.3.3 l’insieme W⊥ è un sottospazio vettoriale di V .  Osservazione 9.3.4. Sia W = L(w1,w2, . . . ,wk). Dal lemma 9.3.1 segue che W⊥ = { v ∈ V : v ·wi = 0 ∀ i = 1, . . . , k } . 63 Soluzione. Notiamo che i vettori sono gli stessi dell’esercizio precedente, ma ordinati in maniera differente. Come per l’esercizio precedente: w1 = v1 = (0, 0, 1) , w2 = v2 − prw1(v2) = (0, 1, 1)− (0,1,1)·(0,0,1) ‖(0,0,1)‖2 (0, 0, 1) = (0, 1, 1)− (0, 0, 1) = (0, 1, 0) , w3 = v3 − prw1(v3)− prw2(v3) = (1, 1, 1)− (1,1,1)·(0,0,1)‖(0,0,1)‖2 (0, 0, 1)− (1,1,1)·(0,1,0) ‖(0,1,0)‖2 (0, 1, 0) = (1, 1, 1)− (0, 0, 1)− (0, 1, 0) = (1, 0, 0) . I vettori hanno già norma 1, quindi (w1,w2,w3) è la base cercata. X Esercizio 9.4.3. Sia W il sottospazio di R4 generato dai vettori v1 = (1, 1, 0, 1) , v2 = (1, 0,−1, 2) , v3 = (1,−2, 0, 0) . Trovare una base ortonormale di W e di W⊥. Soluzione. Come per l’esercizio precedente, w1 = v1 = (1, 1, 0, 1) , w2 = v2 − prw1(v2) = (1, 0,−1, 2)− (1,0,−1,2)·(1,1,0,1) ‖(1,1,0,1)‖2 (1, 1, 0, 1) = (1, 0,−1, 2)− (1, 1, 0, 1) = (0,−1,−1, 1) , w3 = v3 − prw1(v3)− prw2(v3) = (1,−2, 0, 0)− (1,−2,0,0)·(1,1,0,1)‖(1,1,0,1)‖2 (1, 1, 0, 1)− (1,−2,0,0)·(0,−1,−1,1) ‖(0,−1,−1,1)‖2 (0,−1,−1, 1) = (1,−2, 0, 0) + 1 3 (1, 1, 0, 1)− 2 3 (0,−1,−1, 1) = ( 4 3 ,−1, 2 3 ,−1 3 ) . Dividendo ciascun vettore per la sua norma si trova la soluzione finale: u1 = w1 ‖w1‖ = 1√ 3 (1, 1, 0, 1) , u2 = w2 ‖w2‖ = 1√ 3 (0,−1,−1, 1) , u3 = w3 ‖w3‖ = 1√ 30 (4,−3, 2,−1) . Una base ortonormale di W è data da (u1,u2,u3). Siccome dim(W ) + dim(W †) = 4 e dim(W ) = 3, una base di W † è formata da un unico vettore u4 = (x1, x2, x3, x4). Tale vettore deve risolvere il sistema √ 3 u1 · u4 = x1 + x2 + x4 = 0√ 3 u2 · u4 = −x2 − x3 + x4 = 0√ 30 u3 · u4 = 4x1 − 3x2 + 2x3 − x4 = 0 66 Dalle prime due equazioni si ricava x1 = −x2 − x4 e x3 = −x2 + x4. Sostituendo nell’ultima si trova x4 = −3x2. Quindi u4 = (2, 1,−4,−3)x2. Dalla condizione ‖u4‖ = 1 si ricava 1 = ‖u4‖2 = (22 + 12 + (−4)2 + (−3)2)x22 = 30x22 . Quindi x2 = 1√ 30 e una base ortonormale diW⊥ è data dal vettore u4 = 1√ 30 (2, 1,−4,−3). Notiamo che avremmo potuto scegliere x2 = − 1√30 ottenendo u4 = − 1√ 30 (2, 1,−4,−3), anch’esso base ortonormale di W⊥. X Esercizio 9.4.4. Sia W il sottospazio degli (x1, x2, x3) ∈ R3 soluzione dell’equazione 2x1 + x2 = 0. Trovare una base ortonormale di W e W ⊥ (rispetto al prodotto scalare canonico di R3). Soluzione. I vettori di W hanno la forma (x1,−2x1, x3) = x1(1,−2, 0) + x3(0, 0, 1). Una base è quindi ( v1 = (0, 0, 1),v2 = (1,−2, 0) ) . I vettori sono già ortogonali, quindi u1 = v1 ‖v1‖ = (0, 0, 1) , u2 = v2 ‖v2‖ = 1√ 3 (1,−2, 0) . Un vettore u3 = (x1, x2, x3) ∈ W⊥ soddisfa{ u1 · u3 = x3 = 0√ 3 u2 · u3 = x1 − 2x2 = 0 Quindi u3 = (2, 1, 0)x2. Da ‖u3‖2 = (22 + 12)x22 = 5x22 = 1 si ricava x2 = 1√5 ed u3 = 1√ 5 (2, 1, 0) è una base ortonormale di W⊥. X 67 Lezione X Matrici Sommario: matrice trasposta; vettori riga/vettori colonna; prodotto righe per colon- ne; inversa ed aggiunta di una matrice. Esempi ed esercizi. 10.1 Prodotto righe per colonne Se A ∈ Rm,n è la matrice A :=  a11 a12 . . . a1n a21 a22 . . . a2n ... ... ... am1 am2 . . . amn  chiamiamo trasposta di A la matrice tA ∈ Rn,m che si ottiene da A scambiando le Matrice traspostarighe con le colonne, ovvero tA =  a11 a21 . . . am1 a12 a22 . . . am2 ... ... ... a1n a2n . . . amn  . Quindi l’elemento di tA in posizione (i, j) è aji, per ogni i = 1, . . . , n e j = 1, . . . ,m. Ad esempio t( 1 2 3 4 5 6 ) = 1 42 5 3 6  . Osservazione 10.1.1. Notiamo che t(tA) = A per ogni matrice A. Inoltre, siccome il determinante si può calcolare con lo sviluppo di Laplace per righe e per colonne, e il risultato non cambia, se ne deduce che |tA| = |A| per ogni matrice A. Una matrice 1× n è semplicemente una n-upla di numeri reali, e sarà anche detta Vettori riga e vettori colonna vettore riga. Una matrice n× 1 è anch’essa una n-upla di numeri reali, scritti in una colonna, e sarà detta per questo vettore colonna. Se X = (x1, x2, . . . , xn) è una matrice 1× n ed Y = t(y1, y2, . . . , yn) è una matrice n× 1, definiamo il loro prodotto come X · Y = x1y1 + x2y2 + . . .+ xnyn . Notiamo che X · Y è semplicemente il prodotto scalare canonico fra le n-uple X e tY . 68 Dimostrazione. Si usa (10.1). L’elemento di matrice in posizione (i, k) di A(BC) è dato da ∑n j=1 aij (∑p h=1 bjhdhk ) = ∑ j=1,...,n h=1,...,p aijbjhdhk , l’elemento di matrice in posizione (i, k) di (AB)C è dato da∑p h=1 (∑n j=1 aijbjh ) dhk = ∑ j=1,...,n h=1,...,p aijbjhdhk . Le due espressioni coincidono, poichè l’ordine in cui si effettuano le due sommatorie è irrilevante.  Se A = (aij) ∈ Mn(R) è una matrice quadrata, gli elementi aii (1 ≤ i ≤ n) si dice che formano la diagonale principale (o semplicemente la diagonale) di A. Ad Diagonale principaleesempio, nella matrice seguente gli elementi sulla diagonale principale sono in rosso3 7 11 0 2 3 2 5  . Chiamiamo matrice identica di ordine n, indicata con In, la matrice n × n che ha Matrice identicatutti gli elementi sulla diagonale principale uguali ad 1, e tutti gli altri uguali a 0: In =  1 0 0 . . . 0 0 1 0 . . . 0 0 0 1 . . . 0 ... ... ... ... 0 0 0 . . . 1  . La proposizione che segue è di semplice verifica. Proposizione 10.2.2 (Elemento neutro). Per ogni A ∈ Rm,n si ha Elemento neutro ImA = AIn = A . In particolare, In è elemento neutro rispetto al prodotto in Mn(R). Sia λ ∈ R, A,A′ ∈ Rm,n e B,B′ ∈ Rn,p. Chiamiamo Xi le colonne di A, X ′i le colonne di A′, Yk le righe di B e Y ′ k le righe di B ′. Quindi: A =  X1 X2 ... Xm  A′ =  X ′1 X ′2 ... X ′m  B = ( Y1 Y2 . . . Yp ) B′ = ( Y ′1 Y ′ 2 . . . Y ′ p ) 71 Notiamo che la somma di matrici definita nell’esempio 4.1.5 corrisponde alla somma dei loro vettori riga/colonna, A+ A′ =  X1 +X ′ 1 X2 +X ′ 2 ... Xm +X ′ m  , B +B′ = ( Y1 + Y ′ 1 Y2 + Y ′ 2 . . . Yp + Y ′ p ) , (10.2) ed il prodotto per uno scalare è dato semplicemente da λA =  λX1 λX2 ... λXm  , λB = ( λY1 λY2 . . . λYp ) . (10.3) Proposizione 10.2.3 (Bilinearità). Per ogni λ ∈ R, A,A′ ∈ Rm,n e B,B′ ∈ Rn,p Bilinearità del prodottovalgono le proprietà i) (A+ A′)B = AB + A′B; ii) A(B +B′) = AB + AB′; iii) (λA)B = A(λB) = λ(AB). Dimostrazione. Il prodotto fra matrici Rm,n×Rn,p → Rm,p è definito usando il prodotto scalare canonico di Rn, e la proposizione è una immediata conseguenza della linearità del prodotto scalare. Chiamiamo Xi ed X ′ i rispettivamente le righe di A ed A ′, Yk e Y ′ k rispettivamente le colonne di B e B′. Da (10.1) e (10.2) si ricava (A+ A′)B = ( (Xi +X ′ i) · Yk ) = ( Xi · Yk +X ′i · Yk ) = ( Xi · Yk ) + ( X ′i · Yk ) = AB + A′B , A(B +B′) = ( Xi · (Yk + Y ′k) ) = ( Xi · Yk +Xi · Y ′k ) = ( Xi · Yk ) + ( Xi · Y ′k ) = AB + AB′ . Nella seconda uguaglianza abbiamo usato la linearità del prodotto scalare. In maniera simile da (10.1) e (10.3) si ricava λ(AB) = λ ( Xi · Yk ) = ( λ(Xi · Yk) ) = { ( (λXi) · Yk ) = (λA)B( Xi · (λYk) ) = A(λB) dove la terza uguaglianza segue dalla linearità del prodotto scalare.  Osservazione 10.2.4. (Mn(R),+, 0, ·, In) è un anello non commutativo. 72 Proposizione 10.2.5. Per ogni A,A′ ∈ Rm,n, B ∈ Rn,p e λ ∈ R si ha Proprietà della trasposizionei) t(A+ A′) = tA+ tA′ ; ii) t(AB) = ( tB) · ( tA) ; iii) t(λA) = λ( tA) ; Dimostrazione. Notiamo che se X = (x1, x2, . . . , xn) ed X ′ = (x′1, x ′ 2, . . . , x ′ n) sono due vettori riga, allora t(X+X ′) = t(x1+x ′ 1, x2+x ′ 2, . . . , xn+x ′ n) =  x1 + x ′ 1 x2 + x ′ 2 . . . xn + x ′ n  =  x1 x2 . . . xn +  x′1 x′2 . . . x′n  = tX+tX ′ . Chiamiamo Xi ed X ′ i rispettivamente le righe di A ed A ′, Yk e Y ′ k rispettivamente le colonne di B e B′. Da (10.2), e dalla precedente osservazione, segue che t(A+ A′) = t  X1 +X ′ 1 X2 +X ′ 2 ... Xm +X ′ m  = ( t(X1 +X ′ 1) t(X2 +X ′ 2) . . . t(Xm +X ′ m) ) = ( tX1 + tX ′1 tX2 + tX ′2 . . . tXm + tX ′m ) = ( tX1 tX2 . . . tXm ) + ( tX ′1 tX ′2 . . . tX ′m ) = t  X1 X2 ... Xm + t  X ′1 X ′2 ... X ′m  = tA+ tA′ . Questo prova il punto i). Per il punto ii) osserviamo prima che se X è un vettore riga e Y un vettore colonna, t(X · Y ) = X · Y = (tX) · (tY ), dove la prima uguaglianza segue dal fatto che X · Y è uno scalare (ovvero una matrice 1 × 1) e la seconda dalla simmetria del prodotto scalare. Quindi t(AB) =  X1 · Y1 X1 · Y2 . . . X1 · Yp X2 · Y1 X2 · Y2 . . . X2 · Yp ... ... ... Xm · Y1 Xm · Y2 . . . Xm · Yp  =  t(X1 · Y1) t(X2 · Y1) . . . t(Xm · Y1) t(X1 · Y2) t(X2 · Y2) . . . t(Xm · Y2) ... ... ... t(X1 · Yp) t(X2 · Yp) . . . t(Xm · Yp)  =  (tY1) · (tX1) (tY1) · (tX2) . . . (tY1) · (tXm) (tY2) · (tX1) (tY2) · (tX2) . . . (tY2) · (tXm) ... ... ... (tYp) · (tX1) (tYp) · (tX2) . . . (tYp) · (tXm)  73 Con lo sviluppo di Laplace rispetto alla prima colonna si calcola |A| = −35. Usando il teorema di Laplace si calcola l’inversa: A−1 = 1 |A| t(A∗) = − 1 35  1 14 −192 −7 −3 −8 −7 12  . X Esercizio 10.3.5. Determinare aggiunta ed inversa della matrice Inversa di una matri- ce 2× 2 A = ( a11 a12 a21 a22 ) . Soluzione. Ricordiamo che |A| = a11a22 − a12a21, e l’inversa esiste se |A| 6= 0. In tal caso, usando il teorema di Laplace si trova: A∗ = ( a22 −a21 −a12 a11 ) , A−1 = 1 a11a22 − a12a21 ( a22 −a12 −a21 a11 ) , Si può verificare che effettivamente AA−1 = A−1A = I2. X Esercizio 10.3.6. Sia A la matrice A = 1 0 1λ 1 2 0 2 1  . Dire per quali valori di λ la matrice è invertibile, e per tali valori determinare l’inversa. Soluzione. Con lo sviluppo di Laplace rispetto alla prima riga si calcola |A| = 2λ− 3. La matrice quindi è invertibile se λ 6= 3/2. In questo caso, aggiunta ed inversa sono date da A∗ =  + ∣∣∣∣ 1 22 1 ∣∣∣∣ −∣∣∣∣ λ 20 1 ∣∣∣∣ +∣∣∣∣ λ 10 2 ∣∣∣∣ − ∣∣∣∣ 0 12 1 ∣∣∣∣ +∣∣∣∣ 1 10 1 ∣∣∣∣ −∣∣∣∣ 1 00 2 ∣∣∣∣ + ∣∣∣∣ 0 11 2 ∣∣∣∣ −∣∣∣∣ 1 1λ 2 ∣∣∣∣ +∣∣∣∣ 1 0λ 1 ∣∣∣∣  =  −3 −λ 2λ2 1 −2 −1 λ− 2 1  . e A−1 = 1 |A| t(A∗) = 1 2λ− 3  −3 2 −1−λ 1 λ− 2 2λ −2 1  . X 76 Lezione XI Il metodo di eliminazione di Gauss Sommario: matrici triangolari e determinante; metodo di eliminazione di Gauss; sistemi (di equazioni lineari) ridotti e a scala. Esempi ed esercizi. 11.1 Matrici triangolari Definizione 11.1.1. Una matrice A = (aij) ∈ Rm,n si dice Matrici triangolari • triangolare superiore se aij = 0 per ogni i > j; • triangolare inferiore se aij = 0 per ogni i < j. Una matrice triangolare si dice completa se aii 6= 0 per ogni i. La trasposta di una matrice triangolare superiore è una triangolare inferiore. Nel seguito considereremo solo matrici triangolari superiori. Una matrice triangolare superiore ha quindi la forma  a11 a12 a13 . . . a1m . . . a1n 0 a22 a23 . . . a2m . . . a2n 0 0 a33 . . . a3m . . . a3n ... ... ... . . . ... ... 0 0 0 . . . amm . . . amn  ︸ ︷︷ ︸ m ︸ ︷︷ ︸ n−m  a11 a12 a13 . . . a1n 0 a22 a23 . . . a2n 0 0 a33 . . . a3n ... ... ... . . . ... 0 0 0 . . . ann 0 0 0 . . . 0 ... ... ... ... 0 0 0 . . . 0   n m− n (se m ≤ n) (se m > n) Notiamo che se A ∈Mn(R) è una matrice quadrata triangolare superiore, ripetendo n volte lo sviluppo di Laplace rispetto alla prima colonna si ottiene: |A| = a11 ∣∣∣∣∣∣∣∣∣∣∣∣ a22 a23 a24 . . . a2n 0 a33 a34 . . . a3n 0 0 a44 . . . a4n ... ... ... . . . ... 0 0 0 . . . ann ∣∣∣∣∣∣∣∣∣∣∣∣ = a11a22 ∣∣∣∣∣∣∣∣∣∣ a33 a34 . . . a3n 0 a44 . . . a4n ... ... . . . ... 0 0 . . . ann ∣∣∣∣∣∣∣∣∣∣ = a11a22a33 ∣∣∣∣∣∣∣ a44 . . . a4n 0 . . . ... 0 . . . ann ∣∣∣∣∣∣∣ = . . . = a11a22a33 · · · ann . 77 Il determinante di A è quindi il prodotto degli elementi sulla sua diagonale principale. Determinante di matrici triangolari Il determinante è diverso da zero (e quindi, per il teorema 10.3.3, A è invertibile) se e solo se aii 6= 0 ∀ i, ovvero se e solo se A è una matrice triangolare completa. 11.2 Il metodo di eliminazione di Gauss E’ possibile effettuare delle operazioni elementari su un sistema di m equazioni lineari che permettono di ottenere un sistema equivalente, ovvero con le stesse soluzioni (vedere pagina 15). Se E è la matrice completa del sistema, ed E1, . . . , Em le sue righe, tali operazioni elementari corrispondono alle seguenti operazioni sulle righe di E: (I) scambiare fra di loro due righe Ei ed Ej, con i 6= j; (II) sostituire una riga Ei con λEi, con λ 6= 0; (III) sostituire una riga Ei con Ei + λEj, con i 6= j e λ ∈ R. Se E è una matrice quadrata, per i punti 2 e 8 della proposizione 5.4.4, l’operazione (I) trasforma E in una nuova matrice E ′ con |E ′| = −|E|, mentre l’operazione (III) trasforma E in una nuova matrice E ′ con |E ′| = |E|. Il metodo di eliminazione di Gauss permette di trasformare una qualsiasi ma- Metodo di eliminazione di Gauss trice A = (aij) ∈ Rm,n in una triangolare superiore B usando le operazioni (I) e (III). Se A è una matrice quadrata, |B| = ±|A| ed il segno è positivo se si è usata la trasfor- mazione (I) un numero pari di volte, altrimenti è negativo. Se A è la matrice completa di un sistema lineare (di m equazioni in n − 1 incognite), B è la matrice completa di un sistema lineare equivalente. Il metodo consiste in p passi, con p = min(m − 1, n). Se la prima colonna di A Passo 1 è nulla saltiamo direttamente al passo 2, altrimenti riordiniamo le righe in modo da ottenere una matrice A′ = (a′ij) ∈ Rm,n con a′11 6= 0. Dette Ei le righe di A′, chiamiamo A′′ = (a′′ij) ∈ Rm,n la matrice ottenuta da A′ sostituendo, per ogni i = 2, . . . ,m, la riga Ei con Ei − a′i1(a′11)−1E1; notiamo che a′′i1 = a′i1 − a′i1(a′11)−1a′11 = 0. Il risultato del primo passo è quindi: A =  a11 a12 a13 . . . a1n a21 a22 a23 . . . a2n a31 a32 a33 . . . a3n ... ... ... ... am1 am2 am3 . . . amn  −→ A ′′ = a′11 a ′ 12 a ′ 13 . . . a ′ 1n 0 a′′22 a ′′ 23 . . . a ′′ 2n 0 a′′23 a ′′ 33 . . . a ′′ 3n ... ... ... ... 0 a′′m2 a ′′ m3 . . . a ′′ mn   Il secondo passo consiste nel prendere la sottomatrice (m−1)×(n−1) di A′′ evidenziata Passo 2 e applicare ad essa il primo passo, ottenendo una matrice A′′′ della forma: 78 Esercizio 11.2.4. Usando il metodo di eliminazione di Gauss, calcolare il determinante della matrice A =  0 3 5 1 2 8 2 4 3 9 6 0 0 0 8 −4  . Soluzione. Notiamo che le prime tre righe di A formano la matrice dell’esempio 11.2.1. Procedendo come nell’esempio, dopo due passi si ottiene la matrice: 3 9 6 0 0 2 −2 4 0 0 8 −5 0 0 8 −4  . Dette E ′i le righe di quest’ultima matrice, l’ultimo passo consiste nel sostituire E ′ 4 con E ′4 − E ′3, ottenendo la matrice T =  3 9 6 0 0 2 −2 4 0 0 8 −5 0 0 0 1  . Quindi |T | = 3 · 2 · 8 · 1 = 48. Siccome abbiamo effettuato uno scambio (E1 ed E3 nel primo passo), si ha |A| = −|T | = −48. X Ripetiamo l’esercizio 5.3.2 usando il metodo di eliminazione di Gauss, e mostriamo come con questo metodo i calcoli siano estremamente più semplici. Esercizio 11.2.5. Dire per quali valori di a, b, c ∈ R è nullo il determinante della matrice A = 1 a a21 b b2 1 c c2  . Soluzione. Dette Ei le righe di A, il primo passo è A E2→E2−E1 E2→E2−E1−−−−−−−→ A′ = 1 a a20 b− a b2 − a2 0 c− a c2 − a2  . Il secondo passo consiste nell’annullare il termine in posizione (3, 2). Per fare questo, dette E ′i le righe di A ′, sostituiamo E ′3 con E ′ 3 − c−ab−aE ′ 2 ed otteniamo A′ E′3→E′3− c−a b−aE ′ 2−−−−−−−−−→ A′′ = 1 a a20 b− a b2 − a2 0 0 (c2 − a2)− c−a b−a(b 2 − a2)  . 81 Notiamo che b2 − a2 = (b− a)(b+ a). Quindi l’elemento in posizione (3, 3) è (c2 − a2)− c− a b− a (b2 − a2) = (c2 − a2)− (c− a)(b+ a) = c2 − bc− ac+ ab = c(c− b)− a(c− b) = (c− a)(c− b) . Il risultato è: A′′ = 1 a a20 b− a b2 − a2 0 0 (c− a)(c− b)  . Poiché non abbiamo effettuato scambi di righe: |A| = |A′′| = (b− a)(c− a)(c− b) . Il determinante è nullo se e solo se almeno due dei tre coefficienti sono uguali, ovvero se e solo se almeno due righe di A sono uguali. X 11.3 Sistemi ridotti e a scala Definizione 11.3.1. • Una matrice si dice ridotta per righe se ogni riga non nulla ha un elemento Matrici ridottenon nullo sotto il quale ci sono solo zeri (o meglio, sotto il quale non ci sono elementi diversi da zero). • Se A è una matrice ridotta per righe ed X una sua riga non nulla, chiamiamo speciale il primo elemento di X non nullo (da sinistra) sotto il quale ci sono Elementi specialisolo zeri. • Un sistema di equazioni lineari si dice ridotto se la matrice dei coefficienti è Sistemi ridottiridotta per righe. • Un sistema di equazioni lineari si dice a scala se la matrice dei coefficienti è Sistemi a scalatriangolare superiore completa8. Un esempio di matrice ridotta per righe è: A =  0 7 5 0 0 3 1 3 2 4 0 0 0 0 0 0 0 0 0 4 11 13 0 0 0 0 0 1 0 0  . (11.1) Gli elementi speciali sono evidenziati in rosso. 8In realtà la definizione di sistema a scala è un po’ più generale di cos̀ı, ma a noi interesseranno solo questo tipo di sistemi. 82 Osservazione 11.3.2. Una matrice è ridotta per righe se e solo se eliminando le righe nulle e riordinando le colonne si ottiene una matrice triangolare superiore completa. Per trasformare una matrice ridotta per righe in una a triangolare superiore com- pleta è sufficiente, dopo aver eliminato le righe nulle, riordinare le colonne in modo che gli elementi speciali siano sulla diagonale principale. Ad esempio per la matrice (11.1), basta eliminare la terza riga, quindi scambiare la terza colonna con la quarta e mettere l’ultima colonna al primo posto: A −→  0 7 5 0 0 3 1 3 2 4 0 0 0 4 11 13 0 0 0 0 0 1 0 0  −→ A′ =  3 0 7 0 5 0 0 1 3 4 2 0 0 0 4 13 11 0 0 0 0 1 0 0  . I sistemi ridotti sono i più semplici da risolvere. Prima di discutere il metodo generale, studiamo l’esempio in cui la matrice dei coefficienti è la matrice A in (11.1). Si consideri il sistema  0x1 + 7x2 + 5x3 + 0x4 + 0x5 + 3x6 = 6 1x1 + 3x2 + 2x3 + 4x4 + 0x5 + 0x6 = 0 0x1 + 0x2 + 0x3 + 0x4 + 0x5 + 0x6 = λ 0x1 + 4x2 + 11x3 + 13x4 + 0x5 + 0x6 = 9 0x1 + 0x2 + 0x3 + 1x4 + 0x5 + 0x6 = 2 dove λ ∈ R è un parametro. La terza equazione è del tipo 0 = λ e se λ 6= 0 il sistema è incompatibile. Studiamo quindi il caso λ = 0 e facciamo vedere che è compatibile determinandone le soluzioni. La terza equazione è del tipo 0 = 0 e può essere eliminata. Il valore di x5 è arbitrario, in quanto moltiplica zero in tutte le equazioni. Riordinando le variabili si ottiene un sistema la cui matrice dei coefficienti è la matrice A′ qui sopra: 3x6 + 7x2 + 5x3 = 6 1x1 + 3x2 + 4x4 + 2x3 = 0 4x2 + 13x4 + 11x3 = 9 1x4 = 2 Per risolvere le equazioni rimaste, procediamo dal basso verso l’alto risolvendo ciascuna equazione rispetto alla variabile che moltiplica l’elemento speciale, quindi sostituiamo l’espressione ottenuta nelle equazioni rimanenti. Al primo passo si ottiene x4 = 2, che sostituito nelle equazioni rimanenti dà 3x6 + 7x2 + 5x3 = 6 1x1 + 3x2 + 2x3 = −4x4 = −8 4x2 + 11x3 = 9− 13x4 = −15 83 Notiamo che per risolvere un sistema ridotto non è necessario riordinare le colonne e trasformarlo in uno a scala. Si può risolvere direttamente per sostituzione, dal basso verso l’alto, risolvendo ciascuna equazione nell’incognita che moltiplica l’elemento spe- ciale di quella riga. Le incognite che non moltiplicano elementi speciali corrispondono a parametri liberi. Esercizio 11.3.5. Risolvere il sistema 2x1 + x2 + 2x3 + 1x4 = 1 2x1 + 3x2 − x3 = 3 1x1 + x3 = 0 Soluzione. Notiamo che il sistema è compatibile, in quanto non ha equazioni del tipo 0 = b, con b termine noto non nullo. La soluzione generale dipenderà da n −m = 1 parametro (n = 4 sono le incognite e m = 3 le equazioni non nulle). Risolviamo dal basso verso l’alto rispetto all’incognita che moltiplica l’elemento speciale, evidenziato in rosso. Dall’ultima equazione si ottiene x1 = −x3, e sostituendo nelle rimanenti due: { −2x3 + x2 + 2x3 + 1x4 = 1 −2x3 + 3x2 − x3 = 3 ovvero semplificando { x2 + 1x4 = 1 3x2 − 3x3 = 3 Dalla seconda equazione si ricava x2 = x3+1, che sostituita nella prima dà x3+1+1x4 = 1, ovvero x4 = −x3. Detto x3 = t, le soluzioni sono date da (x1, x2, x3, x4) = (−t, t+ 1, t,−t) per ogni valore del parametro t ∈ R. X 86 Lezione XII Riduzione di sistemi lineari Sommario: riduzione di una matrice; soluzione di un sistema lineare generale; calcolo dell’inversa di una matrice per riduzione e con il metodo di eliminazione di Gauss. Esempi ed esercizi. 12.1 Riduzione di una matrice In questa sezione spieghiamo come trasformare una matrice E in una matrice F ridotta Riduzione di una matrice per righe, usando l’operazione (III) di pagina 78. Il metodo è una variante del metodo di eliminazione di Gauss. Sia E = (aij) ∈ Rm,n, Ei1 la prima riga non nulla di E e sia ai1j1 il primo elemento non nullo di Ei1 . Per ottenere una matrice E ′ = (a′ij) che abbia tutti zeri sotto l’elemento a′i1j1 effettuiamo la sostituzione Ek −→ Ek − (ai1j1)−1akj1Ei1 per ogni k > i1. L’elemento ai1j1 è un elemento speciale della matrice E ′. Notiamo che a′ij = aij per ogni i ≤ i1, e che l’elemento a′i1j1 ha tutti zeri sotto di lui. Sia ora E ′i2 la prima riga non nulla di E ′ con i2 > i1, e sia ai2j2 il primo elemento non nullo di E ′i2 . Con la sostituzione E ′k −→ E ′k − (a′i2j2) −1a′kj2E ′ i2 , per ogni k > i2, otteniamo una matrice E ′′ = (a′′ij) che ha a ′′ ij = a ′ ij per ogni i ≤ i2, e tale che l’elemento a′′i1j1 ha tutti zeri sotto di lui. Iterando il procedimento dopo un numero finito di passi (al più m) si ottiene una matrice F ridotta per righe, in quanto ogni riga non nulla ha almeno un elemento con tutti zeri sotto. Esempio 12.1.1. Riduciamo la matrice A =  2 1 −1 13 1 1 −1 0 1 1 9  Si ha i1 = j1 = 1 ed il primo passo è quindi A E2→E2− 32E1 E3→E3−0E1−−−−−−−−→ A′ =  2 1 −1 10 −12 52 −52 0 1 1 9  87 Quindi i2 = j2 = 2 ed il secondo passo è A′ E′3→E′3+2E′2−−−−−−−→ A′′ =  2 1 −1 10 −12 52 −52 0 0 6 4  A′′ è la matrice ridotta cercata. Esempio 12.1.2. Riduciamo la matrice A =  0 1 −2 1 3 −1 1 −9 0 4 −8 7 4 −3 6 5  Stavolta i1 = 1, j1 = 2 ed il primo passo è A E2→E2+E1 E3→E3−4E1 E4→E4+3E1−−−−−−−→ A′ =  0 1 −2 1 3 0 −1 −8 0 0 0 3 4 0 0 8  La seconda riga ha già un elemento speciale, quindi possiamo saltare al terzo passo. Evidentemente i3 = 3 e j3 = 4. L’ultimo passo è A′ E′4→E′4− 8 3 E′3−−−−−−−−→ A′′ =  0 1 −2 1 3 0 −1 −8 0 0 0 3 4 0 0 0  La matrice A′′ è ridotta per righe. 12.2 Soluzione di sistemi lineari generali Dato un sistema di matrice completa E = (A|B), possiamo trasformarlo in un sistema Soluzione di sistemi lineari generali equivalente di matrice F = (A′|B′) tale che A′ è ridotta per righe, usando il metodo illustrato nella sezione precedente. Tale sistema può quindi essere risolto con il metodo di sostituzione delle variabili. Attenzione: in questo caso ci interessa ridurre per righe solo la matrice dei coefficienti. Osservazione 12.2.1. Se F = (A′|B′) è ridotta per righe, A′ non è necessariamente ridotta per righe. Ad esempio: F = (A′|B′) = ( 0 1 1 1 1 0 ) 88 Possiamo trasformare il sistema in uno equivalente riducendo la matrice (A|In), e quindi risolverlo per sostituzione. Illustriamo questo metodo calcolando l’inversa della matrice A = 0 3 05 9 7 5 6 8  Abbiamo E = (A|I3) =  0 3 0 1 0 05 9 7 0 1 0 5 6 8 0 0 1  Evidentemente i1 = 1 e j1 = 2. Dette Ei le righe della matrice E, il primo passo è E E2→E2−3E1 E3→E3−2E1−−−−−−−→ E ′ =  0 3 0 1 0 05 0 7 −3 1 0 5 0 8 −2 0 1  Notiamo che i2 = 2 e j2 = 1. Dette E ′ i le righe di E ′, il passo successivo è E ′ E3→E3−E2−−−−−−−→ E ′′ = (A′′|B′′) =  0 3 0 1 0 05 0 7 −3 1 0 0 0 1 1 −1 1  Dobbiamo ora risolvere il sistema A′′X = B′′, ovvero svolgendo il prodotto righe per colonne:  3x21 3x22 3x235x11 + 7x31 5x12 + 7x32 5x13 + 7x33 x31 x32 x33  =  1 0 0−3 1 0 1 −1 1  Risolvendo dal basso verso l’alto per sostituzione si trova: A−1 = X =  −2 8 5 −7 5 1 3 0 0 1 −1 1  Si può verificare che la matrice trovata è effettivamente l’inversa di A. 12.4 Determinare una base per riduzione Proposizione 12.4.1. Sia A = (aij) ∈ Rk,n una matrice triangolare superiore com- pleta ed Ei = (0, . . . , 0, aii, ai,i+1, . . . , ain) ∈ Rn le sue righe, con i = 1, . . . , k e k ≤ n. I vettori Ei sono linearmente indipendenti. 91 Dimostrazione. La condizione x1E1 + x2E2 + . . .+ xkEk = 0 è equivalente al sistema di n equazioni in k incognite: a11x1 = 0 a12x1 + a22x2 = 0 a13x1 + a23x2 + a33x3 = 0 a1kx1 + a2kx2 + a3kx3 + . . .+ akkxk = 0 ... ... a1nx1 + a2nx2 + a3nx3 + . . .+ aknxk = 0 Notiamo che la matrice dei coefficienti è la trasposta di A. Risolvendo dall’alto verso il basso: poiché a11 6= 0, deve essere x1 = 0; sostituendo x1 = 0 nelle altre equazioni, dalla seconda equazione, poiché a22 6= 0, ricaviamo x2 = 0; procedendo in questo modo si dimostra che l’unica soluzione del sistema è x1 = x2 = . . . = xk = 0, ovvero i vettori Ei sono linearmente indipendenti.  Corollario 12.4.2. Le righe non nulle di una matrice ridotta per righe sono vettori linearmente indipendenti (per l’osservazione 11.3.2). Il metodo di riduzione di una matrice può essere usato per calcolare la dimensione di un sottospazio di Rn. Più in generale può essere usato per calcolare la dimensione di un sottospazio di uno spazio vettoriale V di cui si conosca una base. Siano Xi = (ai1, ai2, . . . , ain) ∈ Rn dei vettori, con i = 1, . . . , k, e sia W ⊆ Rn il sottospazio generato da tali vettori. Evidentemente detta A è la matrice che ha Xi come righe, ed X ′i le righe di una matrice ridotta A ′ ottenuta da A usando (III), allora W = L(X1, . . . , Xk) = L(X ′i, . . . , X ′k). I vettori non nulli dell’insieme {X ′i, . . . , X ′k}, essendo linearmente indipendenti (cor. 12.4.2) sono una base di W . Un discorso analogo vale se Xi sono le n-uple delle componenti di vettori vi ∈ V in una base B fissata, con n = dim(V ). Esercizio 12.4.3. Determinare una base del sottospazio W di R3 generato dai vettori v1 = (1, 0,−2) , v2 = (−1, 1, 3) , v3 = (2, 1,−3) . Esprimere tali vettori come combinazione lineare dei vettori della base trovata. Soluzione. Sia A la matrice che ha per righe vi: A =  1 0 −2−1 1 3 2 1 −3  . 92 Riduciamo la matrice A: A E2→E2+E1 E3→E3−2E1−−−−−−−→ A′ =  1 0 −20 1 1 0 1 1  E′3→E′3−E′2−−−−−−−→ A′′ =  1 0 −20 1 1 0 0 0  , dove abbiamo chiamato Ei = vi le righe di A ed E ′ i le righe di A ′. Una base di W è data dalle righe non nulle di A′′, ovvero i vettori w1 = (1, 0,−2) , w2 = (0, 1, 1) . Le componenti dei vettori vi nella base B = (w1,w2) sono date da v1 = (1, 0)B , v2 = (−1, 1)B , v3 = (2, 1)B . X Esercizio 12.4.4. Determinare una base del sottospazio W di M2(R) generato dalle matrici A1 = ( 1 2 −3 0 ) , A2 = ( 1 5 −3 1 ) , A3 = ( 2 7 −6 1 ) . Determinare le componenti di tali matrici nella base trovata. Soluzione. Sia B la base canonica di M2(R). In tale base A1 = (1, 2,−3, 0)B , A2 = (1, 5,−3, 1)B , A3 = (2, 7,−6, 1)B . Riduciamo la matrice E ∈ R3,4 che ha per righe le 4-uple delle componenti di A1, A2, A3: E =  1 2 −3 01 5 −3 1 2 7 −6 1  E2→E2−E1E3→E3−2E1−−−−−−−→ E ′ =  1 2 −3 00 3 0 1 0 3 0 1  E3→E3−E1−−−−−−−→ E ′′ =  1 2 −3 00 3 0 1 0 0 0 0  . La matrice E ′′ è ridotta, le sue righe non nulle: B1 = (1, 2,−3, 0)B = ( 1 2 −3 0 ) , B2 = (0, 3, 0, 1)B = ( 0 3 0 1 ) , formano una base B′ = (B1, B2) di W . Si può verificare che in questa base: A1 = (1, 0)B′ , A2 = (1, 1)B′ , A3 = (2, 1)B′ . X 93