Feuille Cours3 Espace Vectoriel
Télécharger le Feuille Cours3 Espace Vectoriel en pdf
Pages : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36
Page 1 : Cours d'Algèbre II : Première année préparatoireCY-TECHKhaoula Ben Abdeljelil GuezguezAnnée scolaire 2020 2021
Page 2 : 2
Page 3 : Table des matièresTable des matières. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .i1Systèmes linéaires11.1Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .11.2Échelonner un système d'équations linéairespar la méthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . .21.3Rang d'une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . .61.3.1La matrice des coecients . . . . . . . . . . . . . . . . . . . .71.3.2Le rang et les systèmes linèaires . . . . . . . . . . . . . . . . .71.4Systèmes de Cramer. . . . . . . . . . . . . . . . . . . . . . . . . . .82Groupe92.1Lois de composition internes. . . . . . . . . . . . . . . . . . . . . .92.1.1Propriétés usuelles des lci. . . . . . . . . . . . . . . . . . . .92.2Structure de groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . .112.2.1Dénition et exemples. . . . . . . . . . . . . . . . . . . . .112.2.2Sous-groupes. . . . . . . . . . . . . . . . . . . . . . . . . . .122.2.3Morphismes de groupes . . . . . . . . . . . . . . . . . . . . . .143Espace vectoriel213.1Espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .213.2Sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . .223.2.1Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . .223.3Sous-espace vectoriel engendré par une partie d'un espace vectoriel . .233.3.1Combinaisons linéaires . . . . . . . . . . . . . . . . . . . . . .233.3.2Dénitions et propriétés. . . . . . . . . . . . . . . . . . . . .233.4Famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . .243.4.1Sous-espace vectoriel engendré par une famille nie de vecteurs 243.4.2Famille génératrice . . . . . . . . . . . . . . . . . . . . . . . .253.4.3Famille libre, famille liée . . . . . . . . . . . . . . . . . . . . .263.4.4Base d'un espace vectoriel . . . . . . . . . . . . . . . . . . . .273.4.5Composante dans une base . . . . . . . . . . . . . . . . . . . .283.5Somme, Somme directe, sous-espaces vectoriels supplémentaires. . .293.5.1Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . .293.5.2Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . .293.5.3Somme directe des sous-espaces vectoriels. . . . . . . . . . .303.5.4Sous-espaces vectoriels supplémenatires dans un espace vectoriel 31i
Page 4 : TABLE DES MATIÈRESii
Page 5 : Chapitre 1Systèmes linéairesL'objectif de ce chapitre est d'introduire et de résoudre des systèmes de n équa-tions à p inconnues. La technique principale, appelée méthode du Pivot de Gauss esttrès importante et on s'en servira beaucoup, notamment dans le cadre de l'algèbrelinéaire et donc des matrices.1.1IntroductionDénition 1.1. On appelle système linéaire S de n équations à p inconnues unsystème d'équations de la formeS :a1,1x1 + a1,2x2 + · · · + a1,pxp=b1L1a2,1x1 + a2,2x2 + · · · + a2,pxp=b2L2...=...an,1x1 + an,2x2 + · · · + an,pxp=bnLnoù les ai,j sont des nombres réels xés appelés coecients du système et les bii=1,...,nsont des réels xés qui constituent le second membre du système. Les x1, . . . , xp sontles p inconnues du sytème.Par commodité, chaque équation est repérée par un nom : Li pour i-ème ligne.Une solution du système est un p-uplet x1; x2; . . . ; xp pour lesquels toutes les équa-tions sont vériées.Résoudre le système S, c'est trouver l'ensemble des solutions de ce système.Tout étudiant a déjà rencontré par exemple des systèmes de deux équations àdeux inconnues pour lesquelles deux méthodes de résolution ont été présentées : parsubstitution ou combinaisons linéaires. On verra dans la suite qu'on va généraliserla méthode de combinaisons linéaires. On peut commencer par vérier qu'on saitfaire sans diculté l'exercice suivant.Dénition 1.2. Un système est dit :1. compatible lorsqu'il admet au moins une solution, incompatible s'il n'en admetaucune ;2. homogène lorsque le second membre est constitué uniquement de coecientsnuls. On appelle système homogène associé à un système S le système ob-tenu en gardant les mêmes coecients et en remplaçant le second membrepar des 0 ;1
Page 6 : 1 . Systèmes linéaires3. de Cramer lorsque n = p et lorsque le système possède une unique solution ;4. triangulaire ou échelonné lorsqu'il est de la forme :a1,1x1+a1,2x2+· · ·+a1,nxn=b1a2,2x2+· · ·+a2,nxn=b2......= ...an,nxn=bn5. Deux systèmes sont dits équivalents lorsqu'ils ont le même ensemble de solu-tions.Tout système linéaire se ramène à un système échelonné équivalent en utilisanttrois types d'opérations élémentaires :1. Intervertir deux équations : ,2. Intervertir l'ordre des inconnues,3. Remplacer une équation par combinaisosns linéaires des autres équations.1.2Échelonner un système d'équations linéairespar la méthode de GaussL'idée est de résoudre le système en combinant des lignes pour éliminer descoecients, car ce genre d'opérations permet toujours de se ramener à un systèmeéquivalent à celui de départ.Proposition 1.3. Les opérations suivantes conduisent à un système équivalent ausystème précédent : 1Li ↔Lj : échanger les lignes i et j.2Li ←aLi, où a R : multiplier la ligne i par a.3Li ←Li + bLj, où i ̸= j, b R : ajouter b fois la ligne j à la ligne a.4Li ←aLi + bLj, où i ̸= j, a R, b R : remplacer Li par aLi + bLjÉtant donné un système d'équations linéaires, la méthode du pivot de Gaussa pour but est de construire un système échelonné qui soit équivalent au systèmedonné ; les systèmes échelonnés sont, en eet, faciles à résoudre.Un premier exemplePour expliquer cette méthode le plus simple est de commencer par un exemple.Considérons le système dont les inconnues sont x, y, z, t et où a, b sont desparamètres xés.Sx+2y+zt=aE12x+4yz5t=5aE2x2y+z+3t=bE3Choisissons une équation avec un coecient non nul pour la première inconnue x. Icila première équation convient avec le coecient 1, pour x, qu'on appelle le premier2
Page 7 : 1.2 Échelonner un système d'équations linéairespar la méthode de Gausspivot. On va utiliser ce pivot de notre algorithme pour faire disparaître l'inconnuex des autres équations. Pour cela on ajoute à ces équations la première multipliéepar un coecient convenable. On obtient un système linéaire équivalent :S′x+2y+zt=aE′1 = E13z3t=3aE′2 = E2 2E1+2z+2t=b + aE′3 = E3 + E1Examinons maintenant le système obtenu en supprimant la première équation. Onremarque que la variable x n'y apparaît pas. La variable suivante y non plus. On estramené à un système de deux équations avec ici deux variables en moins. Choisissonsnotre deuxième pivot. On le trouve dans l'équation E′2. C'est le coecient 3 dez. Nous allons l'utiliser pour éliminer z des équations suivantes ici, il n'en restequ'une. Réécrivons notre nouveau système :S′′x+2y+zt=aE′′1 = E′13z3t=3aE′′2 = E′20=b + 3aE′′3 = E′3 + 23E′2Le système obtenu a la forme d'un escalier, avec deux grandes marches. On ditqu'on a échelonné le système.Description de l'algorithmeRappelons que le but est d'obtenir un système équivalent au système donné etqui soit échelonné c'est-à-dire de la forme :x1+a1,2x2+.........+a1,nxn=b1x2+a2,3x3 + ...+a2,nxn=b2...xp + ap,p+1xp+1 + ...+ap,nxn=bp0=bp+1...0=bmavec 1 p m. Avec l'exemple précédent on peut comprendre facilement le fonc-tionnement de l'algorithme pour un système quelconque d'équations.1. On cherche un pivot, premier coecient non nul d'une certaine variable xidans une des équations. Par permutation, cette équation devient la premièreéquation.2. On utilise ce pivot et cette équation pour éliminer xi des équations suivantes.Pour cela on ajoute cette équation multipliée par un coecient convenableaux équations suivantes.3. S'il y a des équations dont le premier membre est nul 0 = . . . on les place endernier.3
Page 8 : 1 . Systèmes linéaires4. On recommence à l'étape 1 avec le système privé de la première équation.L'algorithme s'arrête lorsqu'il ne reste plus que des équations 0 = . . ..Proposition 1.4.1. Un système échelonné possède des solutions si et seule-ment si les équations de compatibilité sont satisfaites portant sur les don-nées.2. Si ces conditions sont satisfaites alors toute donnée des inconnues non prin-cipales détermine une unique solution du système. C'est équivaut à dire lessolutions du sytème sont paramétrées par les inconnues non principales :Les inconnues des lignes non nulles s'appellent les inconnues principales, oupivotsExprimons plus en détails une des étapes de cet algorithme. L'objectif est d'ob-tenir, à l'issue de l'étape k un système de la forme Hk suivante :xn1+a1,n1+1xn1+1+.........+a1,nxn=b1xn2+a2,n2+1xn2+1 + ...+a2,nxn=b2...xnk + ak,nk+1xnk+1 + ...+ak,nxn=bk0 + ak+1,nk+1xnk+1 + ...+ak+1,nxn=bk+1...0 + am,nk+1xnk+1 + ...+am,nxn=bm,avec 1 n1 n2 ... nk n.Décrivons à présent l'étape k de la méthode du Pivot de Gauss : étant donné unsystème de la forme Hk1, nous allons le transformer de façon à obtenir un systèmede la forme Hk.Nous noterons Ej la jeme équation du système. On ne modie pas les k 1 premières équations du système linéaire. Si tous les coecients al,m avec l k et m nk1 sont nuls, alors, pourtout l k, l'équation El s'écrit : 0 = bl. Le système a donc la forme voulue.L'algorithme s'arrête. Sinon, on pose nk := minm : l k : al,m ̸= 0. Alors, quitte à échangerla ligne k avec une ligne p k telle que ap,nk ̸= 0, on se ramène au cas oùak,nk est non nul ce sera notre pivot pour l'étape k.On remplace alors l'équation Ek par1ak,nk Ek pour se ramener à : ak,nk = 1. Puis, pour tout p k, on remplace Ep par Ep ap,nkEk an d'éliminer lestermes en xnk des équations k + 1, ..., m. Le système d'équations linéaires ainsi obtenu est alors de la forme Hk, l'étapek est nie.Un autre exemple4
Page 9 : 1.2 Échelonner un système d'équations linéairespar la méthode de GaussPour résoudre le système suivant dans R4, on veut échelonner ce système :x+yz+t=1E18t=2E22x+2y+z+3t=2E32z+u=0E4Nous allons utiliser la méthode précédente : à chaque étape, le pivot sera encadré.Les systèmes d'équations linéaires obtenus sont équivalents au système donné.Il y a un terme en x dans la première équation, notre premier pivot de Gausssera ce terme : nous l'utilisons pour éliminer les termes en x des autres équationsx+yz+t=1E18t=2E23z+t=0E′3 = E3 2E12z+0+u=0E4Nous oublions à présent la première ligne ; il n'y a pas de terme en y dans leséquations E2, E′3 et E4 ; il y a un terme en z dans E′3 mais pas dans E2 ; nouspermutons donc les équations E2 et E′3x+yz+t=1E13z+t=0E′2 = E′38t=2E′′3 = E22z+0+u=0E4Nous divisons la deuxième équation par 3 de sorte à avoir z au lieu de 3z dans ladeuxième équationx+yz+t=1E1z+13t=0E′′2 = 13E′28t=2E′′32z+0+u=0E4Le terme en z de la deuxième équation est notre nouveau pivot de Gauss ; nousl'utilisons pour éliminer les termes en z des équations situés en dessousx+yz+t=1E1z+13t=0E′′28t=2E′′323t+u=0E′4 = E4 2E′′2Nous oublions à présent la deuxième équation ; il y a un terme en t dans la troisièmeéquation, nous divisons la troisième équation par 8 de sorte à avoir t à la place de8t dans cette équationx+yz+t=1E1z+13t=0E′′2t=14E′′′3 = 18E′′323t+u=0E′45
Page 10 : 1 . Systèmes linéairesLe terme en t de la troisième équation devient notre nouveau pivot de Gauss : nousl'utilisons pour éliminer les termes en t de la quatrième équationx+yz+t=1E1z+13t=0E′′2t=14E′′′3 = 18E′′3u=16E′′4 = E′4 + 23E′′′3 Ce système d'équations linéaires est échelonné et équivalent à notre système initial.1.3Rang d'une matriceDénition 1.5. Une matrice B est dite èchelonnèe en lignes si1. chaque ligne non nulle de B commence avec strictement plus de 0 que la ligneprécédente, et2. les lignes nulles ne contenant que des 0 de B viennent en bas après leslignes non nulles.Toute matrice A peut se réduire à une matrice échelonnée en lignes B par unesuite d'opérations élémentaires sur les lignes. On appelle B la forme échelonnée enlignes de A.Une des concepts fondamentaux dans l'algèbre linéaire est le rang d'une matrice. Iladmet de plusieurs dénitions équivalentes. En voici la première.Dénition 1.6. Le rang d'une matrice A est le nombre de lignes non nulles danssa forme échelonnée en lignes. On le note rgA.Exemple 1.7. La matrice suivante A se réduit en sa forme échelonnée en lignespar les pivotagesA =13622510338174L2 ←L2 2L1 et L3 ←L3 3L1136201210112L3 ←L3 L2136201210011.Donc on a rgA = 3. Pour la matrice suivanteC =132141011L2 ←L2L1132011011L3 ←L3L2132011000on a rgC = 2.Théorème 1.8. Pour toute matrice A on argA ⩽nombre de lignes de A,rgA ⩽nombre de colonnes de A.6
Page 11 : 1.3 Rang d'une matriceIdée de la preuve. En réduisant la matrice A en une matrice échelonnée en lignessimilaire à celle-ci13045021380007200000les pivots les premiers coecients non nuls des lignes non nulles sont dans lignesdistinctes et dans des colonnes distinctes. Donc on anombre de pivots ⩽nombre de lignes de A,nombre de pivots ⩽nombre de colonnes de A.Le nombre de pivots est aussi le nombre de lignes non nulles de la forme échelonnéede A, d'oùnombre de pivots = rgA.1.3.1La matrice des coecientsOn peut associer une matrice à chaque membre d'un système linéaire. Pour lesystèmex 3y + 6z + 2w=1,2x 5y + 10z + 3w=0,3x 8y + 17z + 4w=1,on a des matricesA =13622510338174b =101avec A la matrice des coecients regroupant les coecients des variables du membrede gauche du système, et le vecteur colonne b contient le membre de droite. Quandon met les deux ensemble, on a la matrice augmentée quéon a déjà vueB =136212510303817411.3.2Le rang et les systèmes linèairesOn va étudier les systèmes linéaires en considérant le membre de gauche commexe, mais le membre de droite comme éventuellement variable. Dans cette optique,il est convenable de considérer le rang d'un systeme linéaire comme dépendantuniquement de son membre de gauche. D'où :Dénition 1.9. Le rang d'un système linéaire est le rang de sa matrice des coe-cients A.Par exemple, le rang du système ci-dessus est 3, selon les calculs faits sur la pageprécédente.7
Page 12 : 1 . Systèmes linéaires1.4Systèmes de CramerOn peut donner des critères selon lesquels un système sera de Cramer.Théorème 1.10. Un système de n équations à n inconnues est un système deCramer si la méthode du pivot de Gauss fait apparaître successivement n pivotsnon nuls.Théorème 1.11. Un système est de Cramer si et seulement si son système admetune seule solution.Exercice . Pour quelles valeurs du paramètre λ le système suivant est de Cramer.2x + 3y + z = 4x + λy + 2z = 57x + 3y + λ 5z = 78
Page 13 : Chapitre 2Groupe2.1Lois de composition internesDans tout ce chapitre, E est un ensemble.Dénition 2.1. On appelle loi de composition interne sur E lci toute applicationde E × E dans E.Dénition 2.2. On appelle magma tout couple constitué d'un ensemble et d'unelci.Exemple 2.3. Z, est un magma, mais pas N, , car 4 /N.Dans toute la suite, est une lci sur E.2.1.1Propriétés usuelles des lciDénition 2.4. Soit E, un magma.On dit que E est associatif si pour tout x, y, z E, on a : x y z = x y z.L'élément x y z = x y z est alors noté x y z.On dit que E est commutatif si pour tout x, y E, on a : x y = y x.Soit ♯une seconde lci sur E. On dit que dans E est distributive par rapport à ♯sipour tout x, y, z E, on a : x y♯z = x y♯x z y♯z x = y x♯z x.Remarque 2.5. On dit que dans E, est distributive à gauche par rapport à ♯sipour tout x, y, z E, on a : x y♯z = x y♯x z. De même, on a la notion dedistributivié à droite.Exemple 2.6.1. C, R, Q, Z, N avec + ou × sont associatifs, mais pas Z, car 1 2 3 ̸= 1 2 3.2. C, R, Q, Z, N avec + ou × sont commutatifs, mais pas Z, , ni FR, R, ◦.3. Sur C, R, Q, Z, N× est distributive par rapport à +, et sur PE, et sontdistributives l'une par rapport à l'autre.9
Page 14 : 2 . GroupeDénition 2.7.1. Soit e E. on dit que e est un élément neutre à gaucheresp. à droite pour si pour tout x E on a ex = x resp. xe = x. Ondit que e est un élément neutre pour si c'est un élément neutre à gauche età droite, i.e. pour tout x E, e x = x e = x.2. Soit e un neutre pour et soit x E. On dit que x est inversible à gaucheresp. à droite s'il existe un élément y E tel que y x = e resp. xy = e.Un tel élément y s'appelle UN inverse à gauche resp. à droite de x. On ditque x est inversible s'il est inversible à gauche et à droite, i.e. il existe y Etel que y x = x y = e. Dans ce cas y est UN inverse de x.Exemple 2.8. 0 est un élément neutre pour + dans R, C, Q, Z, N. 1 est un élément neutre pour × dans R, C, Q. 1E est un élément neutre pour dans FE, E, et les bijections sont tous leséléments inversibles de cet ensemble.Remarque 2.9.1. Être inversible d'un seul côté ne sut pas pour être inver-sible tout court.2. Un neutre est toujours inversible et est son propre inverse.Proposition 2.10. Si admet un neutre, alors ce neutre est unique.Preuve:Soient e et e′ deux neutres. Alors e e′ = e et e e′ = e′, donc e = e′.□Proposition 2.11. On suppose la loi associative, et admettant un neutre e. Si unélément est inversible, alors il a un seul inverse.Preuve:Soient y et y′ deux inverses de x E. Alors y x = e et xy′ = e. Donc y xy′ =y e = y et y x y′ = e y′ = y′, d'où y = y′.□Remarque 2.12. On utilise souvent les notations additives et multiplicatives.1. En notation additive, est en général notée +,x + x + · · · + x nfoisse note nx, et si x est inversible, son inverse se note x. On l'appelle alorsplutôt l'opposé de x. De même, on notera le neutre d'une telle structure 0,ou 0E.2. En notation multiplicative, est en général remplacée par × et ce symboleest même souvent omis, x × x × · · · × x nfois se note xn et si x estinversible, son inverse se note x1. De même, on notera le neutre d'une tellestructure 1, ou 1E.Pour éviter toute erreur, on essaiera au maximum de n'utiliser la notation addi-tive que pour des lois qui ont les mêmes propriétés que la loi + sur R.Par exemple, noter + une lci non commutative peut-être déroutant, ainsi que pourune lci pour laquelle tous les éléments ne sont pas inversibles. La notation + esten général réservée à des lci commutatives et pour lesquelles les éléments sont tousinversibles.Ce n'est pas le cas pour la notation multiplicative, qui est la plus couramment utili-sée pour des lois associatives, mais sans plus. Par exemple il est fréquent d'utiliser ×10
Page 15 : 2.2 Structure de groupemême pour une lci non commutative et pour laquelle les éléments ne sont pas tousinversibles. Donc faites attention, par défaut on aura xy ̸= yx, et x1 n'existera pasforcément !Dans toute la suite, on adoptera la notation multiplicative, et on suppose que E aun neutre noté 1.Proposition 2.13. On suppose la loi associative. Soient x, y, z E.1. Simplication par un inversible : si x est inversible, alors xy = xz ⇔y = z.2. Inverse d'un produit : si x et y sont inversibles alors x y l'est aussi etx y1 = y1 x1. Attention : l'inverse de x y n'a aucune raisond'être x1 y1.3. Puissances négatives : si x est inversible, on pose pour n N, xn = x1n.Alors xn = xn1.4. Inverse d'un inverse : si x est inversible, x1 l'est aussi et x11 = x.Preuve:3 Par récurrence. Vrai si n = 0 ou 1. Si vrai pour n, alors xn+1 xn1 =xn x x1 xn = xn e xn = xn xn = e.4 Vrai par unicité de l'inverse.□Dénition 2.14. Soit E, un magma et F une partie de E. On dit que F estune partie stable de E par si pour tous x, y F, x y F.Exemple 2.15. 1, 1 est une partie stable de R, ×, mais pas 2, 2.2.2Structure de groupe2.2.1Dénition et exemplesDénition 2.16. On appelle groupe tout magma associatif, ayant un neutre, et donttout élément est inversible. Si un groupe est commutatif ce qui signie en fait que saloi est commutative, il est dit abélien. Par défaut on utilise la notation multiplicativepour un groupe, sauf pour les groupes abéliens pour lesquels on utilise la notationadditive.Exemple 2.17.1. C, R, Q, Z sont des groupes avec la loi +, mais pas avec laloi ×.2. Pour n N, Cn, Rn, Qn, Zn sont des groupes avec la loi +.3. C, R, Q, sont des groupes avec la loi ×.11
Page 16 : 2 . Groupe4. N n'est un groupe ni avec la loi + ni avec la loi ×.Dénition 2.18. Soit X un ensemble non vide. On appelle groupe des permutationsde X l'ensemble des bijections de X dans X. Comme son nom l'indique, c'est ungroupe, si on le munit de la loi de composition ◦. On le note SX.2.2.2Sous-groupesDans toute la suite, G, est un groupe de neutre e. On adopte la notationmultiplicativeDénition 2.19. On appelle sous-groupe de G tout ensemble H vériant les pro-priétés suivantes :1. H G ;2. e H ;3. Stabilité par produit : x, y H, x y H ;4. Stabilité par passage à l'inverse : x H, on a x1 H.Exemple 2.20. Sont des sous-groupes :1. e et G dans G, .2. U dans C, ×.3. nZ dans Z, +.4. H = f SR f0 = 0 dans SR, ◦.Proposition 2.21. Un ensemble H est un sous groupe de G si et seulement si Hest un sous-ensemble non vide de G et pour tout x, y H2, on a x1 y H.Preuve:Montrons l'implication et sa réciproque :1. "⇒" Supposons que H est un sous-groupe de G. Alors H contient e et n'estdonc pas vide. De plus, soit x, y H. H étant stable par passage à l'inverse,on a alors x1 H et par stabilité par produit, on a donc x1 y H.2. "⇐" Réciproquement, supposons que H est non vide et que pour tout x, y H2, on a x1 y H. Montrons que H possède les trois propriétés énuméréesdans sa dénition :a H étant non vide, il possède au moins un élé- ment x0. On a alors e =x10x0 H.12
Page 17 : 2.2 Structure de groupeb Soit x H. On a alors x, e H2, donc x1 e H.c Soit x, y H. D'après ce qui précède, on a alors x1 H, doncx1, y H2, donc x y = x11 y H.□Remarque 2.22. On obtient une proposition vraie également en remplaçant ci-dessus la condition x1 y H par x y1 H.Théorème 2.23. Un sous-groupe muni de la loi induite du groupe est lui-même ungroupe.Preuve:Soit G, un groupe de neutre e et H un sous-groupe de G.1. Montrons qu'on peut restreindre : G × G →G au départ à H × H et àl'arrivée à H. On appellera alors loi induite par sur H cette restriction de .On a H×H G×G, donc la restriction au départ est légitime, pour eectuerla restriction à l'arrivée, il sut de montrer que pour tout x, y H2, on ax y H, c'est-à-dire que H est stable par . Or H est un sous-groupe de Gdonc c'est évident.2. H muni de la loi induite par est un magma associatif. En eet G, estun magma associatif, on a doncx, y, z G3x y z = x y zOr H G doncx, y, z H3x y z = x y zDonc la restriction de à 0H est associative, d'où le résultat.3. e est neutre pour la loi induite par sur H. En eet, e est le neutre de ,doncx Ge x = x e = xD'où le résultat.4. Tout élément de H admet un inverse pour la loi induite par . En eet toutélément x de H admet un inverse x1 dans G pour la loi et par stabilité del'inverse sur le sous-groupe H, on a x1 H. Donc tout élément de H admetun inverse dans H pour la loi induite par .5. On déduit des points précédents que H muni de la loi induite par est ungroupe.□Remarque 2.24. Il est plus facile de montrer qu'un ensemble est un sous-groupeque de montrer que c'est un groupe pas besoin de redémontrer l'associativité, etc..Par exemple U, × est un groupe, vu comme sous-groupe de C, ×.À chaque fois que l'on essaiera de montrer qu'un ensemble est muni d'une structurede groupe, on tentera de le voir comme un sous-groupe d'un groupe bien connu.Remarque 2.25. La réciproque de ce théorème est également vraie bien que moinsutilisée : si H est un sous-ensemble de G tel que, muni de la loi induite par cellede G, H soit un groupe, alors H est un sous-groupe de G.Exemple 2.26. Si n N, Un est un sous-groupe de U, ×, donc Un, × est ungroupe.13
Page 18 : 2 . Groupe2.2.3Morphismes de groupesDénition 2.27. Soient G, et G′, ♯ deux groupes et ϕ : G →G′.1. On dit que ϕ est un morphisme du groupe G, dans le groupe G′, ♯, six, y G,ϕx y = ϕx♯ϕy.2. Tout morphisme d'un groupe dans lui-même est appelé endomorphisme.3. Tout morphisme de G dans G′ qui est une bijection est appelé isomorphismede G sur G′. Dans ce cas on dit que G et G′ sont isomorphes. Un morphismequi est à la fois un isomorphisme et un endomorphisme est appelé automor-phisme.Exemple 2.28.1. Z, + →Z, +, x 7→2x est un morphisme, mais pas unisomorphisme.2. C, × →R, ×, z 7→z, est un morphisme, mais pas un isomorphisme.3. R, + →C, ×, x 7→eix, est un morphisme, mais pas un isomorphisme.4. R, + →R+, ×, x 7→ex est un isomorphisme de réciproque ln, qui estaussi un isomorphisme.Exemple 2.29. Etudions les applications suivantes1. Si n N,ϕn:C, ×→C, ×z7→zn14
Page 19 : 2.2 Structure de groupe2. Si n Net a1, . . . , an Kn, l'applicationϕn:Kn, +→K, +x1, . . . , xn7→a1x1 + · · · + anxnDans toute la suite, G, et G′, ♯ sont deux groupes de neutres e et e′, onadopte une notation muliplicative, et ϕ : G →G′ est un morphisme.Théorème 2.30. Soit ϕ un morphisme de G sur G′, on a, e et e′ désignant lesneutres de G et G′ :1. ϕe = e′ ;2. x G, ϕx1 = ϕx1.Preuve:1. On a ϕe♯ϕe = ϕe e = ϕe = ϕe♯e′, donc en simpliant par ϕe, onen déduit ϕe = e′.2. Soit x G. Alors ϕx1♯ϕx = ϕx1 x = ϕe = e.□Corollaire 2.31. Sous les mêmes hypothèses, on ax Gk Zϕxk = ϕxk.Preuve:Soit x G. D'après le théorème ci-dessus, on aϕx0 = ϕe = e′ = ϕx0.On peut alors démontrer par récurrence que pour tout n N, on a ϕxn = ϕxnl'hérédité résulte directement de la dénition de morphisme.D'après le théorème ci-dessus, pour tout n N,ϕxn = ϕxn1d'où ϕxn = ϕxn. On en déduit le résultat.□Exemple 2.32.1. C→R, z 7→z est un morphisme de C, × dans R, ×,donc pour tout z C, on a 1z =1 z 15
Page 20 : 2 . Groupe2. exp est un morphisme de C, + dans C, ×, donc pour tout z C, ez =1ez .3. ln est un morphisme de R+, × dans R, +, donc pour tout x R+, on aln 1x = lnx.Théorème 2.33.1. La composée de deux morphismes de groupes est un mor-phisme de groupe. Plus précisément, soit G1, 1, G2, 2 et G3, 3 troisgroupes, ϕ un morphisme de G1 dans G2 et ϕ un morphisme de G2 dans G3.Alors ψ ◦ϕ est un morphisme de G1 dans G3.2. La fonction réciproque d'un isomorphisme en tant qu'application bijectiveest un isomorphisme. Plus précisément, soit G1, 1 et G2, 2 deux groupeset ϕ un isomorphisme de G1 sur G2. Alors ϕ1 est un isomorphisme de G2sur G1.Preuve:□16
Page 21 : 2.2 Structure de groupeThéorème 2.34.1. L'image d'un sous-groupe par un morphisme de groupesest un sous-groupe.2. L'image réciproque d'un sous-groupe par un morphisme est un sous-groupe.Preuve:Les démonstrations pour montrer qu'un ensemble est un sous-groupe ont TOU-JOURS la même structure.1. Soient G, et G′, ♯ deux groupes de neutres respectifs e et e′, et ϕ : G →G′un morphisme de groupes. Soit H un sous-groupe de G. Montrons que ϕHest un sous-groupe de G′.a On a évidemment ϕH G′ et de plus e H et e′ = ϕe ϕH.b Soit x, y ϕH. Alors x possède un antécédent x′ H et y un antécédenty′ H par ϕ. On a alors successivementx♯y1=ϕx′♯ϕy′1par dénition dex′ et y′=ϕx′♯ϕy′1car ϕ est un morphisme=ϕx′ y′1car ϕ est un morphismeDonc x♯y1 ϕH.ϕH est donc un sous-groupe de G′.2. Gardons les même notations que dans le premier point, et notons H′ unsous-groupe de G′.a On a évidemment ϕ1H′ G et de plus e′ H′ et e′ = ϕe H′ donce ϕ1H′.b Soit x, y ϕ1H′. Alors ϕx, ϕy H′ et donc ϕxy1 = ϕx♯ϕy1 H′ donc x y1 ϕ1H′.ϕ1H est donc un sous-groupe de G.□Remarque 2.35. lorsque l'on veut montrer qu'un ensemble est muni d'une structurede groupe, on commence toujours par essayer de l'identier comme image réciproqueou directe d'un sous-groupe d'un groupe bien connu par un morphisme.Dénition 2.36.1. On appelle noyau de ϕ, noté Ker ϕ, l'image réciproque dee′ par ϕ, autrement dit l'ensemble des antécédents de e′ par ϕKer ϕ = x G ϕx = e′.2. On appelle image de ϕ notée Im ϕ, l'image directe de G par ϕ. Autrement ditIm ϕ = ϕx x G.Théorème 2.37. Les noyaux et les images sont des sous-groupes respectivement deG et G′.Preuve:Montrons que Ker ϕ est un sous-groupe de G :17
Page 22 : 2 . Groupe1. On a évidemment Ker ϕ G et de plus ϕe = e′ donc Ker ϕ est un sous-ensemble non vide de G.2. Soit x, y Ker ϕ. Alors on a successivementϕx y1=ϕx♯ϕy1=e′♯e′1=e′Donc x y1 Kerϕ.Donc Ker ϕ est un sous-groupe de G.□Remarque 2.38. lorsque l'on veut montrer qu'un ensemble est muni d'une structurede groupe, on commence toujours par essayer de l'identier comme noyau ou imaged'un morphisme.Exemple 2.39. U est le noyau du morphisme module , de C, × dans R, ×.Proposition 2.40. Soit ϕ : G →G′ un morphisme de groupes, soit x, y G. Alorsϕx = ϕy si et seulement si x y1 Ker ϕ.Preuve:ϕx = ϕy si et seulement si ϕx♯ϕy1 = e′ si et seulement si ϕxy1 = e′. □Théorème 2.41.1. ϕ injectif si et seulement si Ker ϕ = e.2. ϕ surjectif si et seulement si Im ϕ = G′.Preuve:18
Page 23 : 2.2 Structure de groupe1. On montre l'implication et sa réciproque :"⇒" Supposons ϕ injectif. Alors e′ a au plus un antécédent par ϕ. Or ϕe = e′donc il en a au moins un : e. Donc Ker ϕ = e."⇐" Réciproquement, supposons Ker ϕ = e et montrons que ϕ est injectif.Soit x, y G2 vériant ϕx = ϕy. Alors on a succesivementϕx y1=ϕx♯ϕy1 car ϕ est un morphisme=ϕx♯ϕx1=e′Donc x y1 Kerϕ, donc x y1 = e, donc x = y.□Remarque 2.42. Pour montrer qu'un morphisme est injectif, on utilisera TOU-JOURS le noyau et JAMAIS ou presque la méthode classique pour des fonctionsquelconques : c'est beaucoup plus rapide !19
Page 24 : 2 . Groupe20
Page 25 : Chapitre 3Espace vectoriel3.1Espace vectorielL'ensemble K désigne toujours R ou C.Dénition 3.1. On appelle K-espace vectoriel ou espace vectoriel sev K toutensemble non vide E muni d'une loi de comoposition interne notéeet d'une loide composition externe notée . :K × E→Eλ, x7→λ.xtelles que :1 E, est un groupe abélien ;2 λ, µ K, x E, on a λ + µ.x = λ.x µ.x ;3 λ K, x, y E, on a λ.x y = λ.x λ.y ;4 λ, µ K, x E, on a λ.µ.x = λ × µ.x ;5 x E, on a 1.x = x.Les éléments d'un espace vectoriel sont appelés vecteurs ; et les éléments de K sontappelés scalaires.Lorsqu'il n'y a pas de confusion, on dira espace vectoriel au lieu de K-espacevectoriel.Exemple 3.2.1 L'ensemble des vecteurs du plan est un espace vectoriel.2 K, +, × est un K-espace vectoriel.4 Sur R2, on dénit les deux lois suivantes : pour x, y, x′, y′ R2 et λ R,x, y x′, y′ := x + x′, y + y′ et λ x, y := λ × x, λ × yalors R2, , est un R-espace vectoriel.21
Page 26 : 3 . Espace vectoriel5 Plus généralement : Si E1, E2, . . . , En sont n espaces vectoriels, alors l'espaceproduit E := E1×E2×· · ·×En est un espace vectoriel pour les lois suivantes :Pour tous x1, x2, . . . , xn, y1, y2, . . . , yn E et λ K, on dénitx1, x2, . . . , xn y1, y2, . . . , yn = x1 + y1, x2 + y2, . . . , xn + ynλ x1, x2, . . . , xn = λ × x1, λ × x2, . . . , λ × xn.6 L'ensemble KnX, +, × des polynômes de degré inférieur ou égal à n ad-ditionné du polynôme nul est un espace vectoriel.Proposition 3.3. Pour tout λ, µ K et pour tout x, y E, on a : λ.x = 0E ⇐⇒λ = 0 ou x = 0E.3.2Sous-espace vectorielDans toute la suite l'ensemble E, , . désignera un espace vectoriel sur K.3.2.1DénitionDénition 3.4. Soit F un sous-ensemble de E. On dit que F est un sous-espacevectoriel de E si F possède les propriétés suivantes :1 0E F ;2 x, y F, x y F. Autrement dit F est stable par l'addition ;3 x F et λ K, λ.x F. Autrement dit, F est stable par la multiplicationpar scalaire.Remarque 3.5. Tout sous-espace vectoriel de E, est un espace vectoriel pour leslois induites par E.Exemple 3.6.1 Si E est un espace vectoriel, alors 0E et E sont des sous-espaces vectoriel de E.2 Si E = R2, alors F = x, 0; x R est un sous-espace vectoriel de E.De même, si x0, y0 R2, alors Fλx0, λy0; λ R est un sous-espacevectoriel de E.3 L'ensemble F = x, y, z R3 z = 0 est un sous-esapce vectoriel de R3.4 H = x1, . . . , xn Rn x1 + · · · + xn = 0 est un sous-espace vectorielde Rn. En eet Rn est un R-espace vectoriel de vecteur nul 0 = 0, . . . , 0.H Rn et 0 = 0, . . . , 0 H car 0 + · · · + 0 = 0. Soient λ, µ R et x =x1, . . . , xn, y = y1, . . . , yn H. On a λx+µy = λx1+µy1, . . . , λxn+µyn.Or λx1 + µy1 + · · · + λxn + µyn = λx1 + · · · + xn + µy1 + · · · + yn = 0car x1 + · · · + xn = y1 + · · · + yn = 0 puisque x, y H donc λx + µy H.Corollaire 3.7. Soit E, , . un espace vectoriel et F un sous-ensemble de E F E. Si F vérie les propriétés 1 et 2 suivantes alors F est un sous-espace vectorielde E :1 F est non vide F contient l'élément neutre de E.22
Page 27 : 3.3 Sous-espace vectoriel engendré par une partie d'un espace vectoriel2 x, y F × F, λ K, alors λ.x y F.Exemple 3.8. Les parties suivantes ne sont pas des sous-espaces vectoriels de R2 : x, y R2 x + y = 1 car ne contient par le vecteur nul ; x, y R2 xy = 0 car non stable par addition ; x, y R2 x + y Z car non stable par produit extérieur.Proposition 3.9. Soient E, , . un espace vectoriel et E1, . . . , En des sous-espacesvectoriels de E, alors l'intersection F = Tnk=1 Ei est un sous-espace vectoriel de E.Preuve:Pour tout i, on a 0 Ei, donc 0 F. Soient x, y F et λ K alors pour tout i,on a λ.x µ.y Ei donc λ.x µ.y est dans l'intersection de tout les Ei.□Remarque 3.10. La réunion de deux sous-espace vectoriels n'est pas en général unsous-espace vectoriel.En eet, si E, , . = R2, , , les sous-ensembles :E1 = x, y R2 x + y = 0etE2 = x, y R2 x y = 0sont deux sous-espaces vectoriels de R2 mais E1 E2 n'est pas un sous-espace vec-toriel.Car par exemple, soient x, y R, on a x, x E1 et y, y E2 mais x, x y, y n'appartient ni à E1 ni à E2.3.3Sous-espace vectoriel engendré par une partied'un espace vectoriel3.3.1Combinaisons linéairesSoit x1, . . . , xp une famille de vecteurs d'un espace vectoriel E, , .. Toutvecteur de E de la forme a1.x1 + . . . ap.xp = Ppk=1 ak.xk, où les ak R est appelécombinaison linéaire des vecteurs xk, k = 1 . . . , p.Remarque 3.11. On peut généraliser cette notion à une famille innie de vecteurs,mais dans ce cas il faut que la suite des scalaires soit à support ni.3.3.2Dénitions et propriétésSoit A un sous-ensemble non-vide de l'espace vectoriel E, , .. On note vectA,l'ensemble des combinaisons linéaires d'éléments de A. On a doncvectA = PaA λa.a λa est une famille de scalaires à support ni.Donc un élément x de E appartient à vectA, si et seulement si, il existe x1, . . . , xn A et des scalaires λ1, . . . , λn, tels que : x = λ1.x1 · · · λn.xn.23
Page 28 : 3 . Espace vectorielThéorème 3.12. Soit A une partie d'un espace vectoriel E, , .. vectA est l'uniquesous-espace vectoriel de E vériant :1 A vectA,2 vectA est inclus dans tout sous-espaces vectoriels contenant A.Le sous-espace vectoriel vectA se comprend comme étant le plus petit sous-espacevectoriel contenant A, on l'appelle espace vectoriel engendré par A.Corollaire 3.13. vectA est l'intersection de tous les sous-espaces vectoriels de Econtenant A.Corollaire 3.14. A est un sous-espace vectoriel, si et seulement si, vectA = A.Exemple 3.15.1 vectensemble vide = 0E car l'espace nul est le plus petitsous-espace vectoriel de E.2 vectE = E car vect E est le plus petit sous-espace vectoriel contenant E.3 Soit A = u. Montrons que vectu = λu λ K = Ku.Puisque u A vectA et puisque vectA est un sous-espace vectoriel ona λu vectA, pour tout λ K.Ainsi Ku vectu.Par double inclusion on obtient Ku = vectu.4 Soit A = u, v. Par double inclusion, on montre comme ci-dessus quevectu, v = λu + µv λ, µ K = Ku + Kv.Proposition 3.16. Si A et B deux parties de E alors A B =⇒vectB vectA.Preuve:Supposons que A B. On a alors A vectB or vectB est un sous-espacevectoriel donc vectA vectB.□Proposition 3.17. Si A et B sont deux parties de E alors vectAB = vectA+vectB.Exemple 3.18. Pour F et G deux sous-espaces vectoriels de E. vectFG = F+G.Ainsi F + G apparait comme étant le plus petit sous-espace vectoriel contenant F etG.3.4Famille de vecteurs3.4.1Sous-espace vectoriel engendré par une famille nie devecteursSoient E un K-espace vectoriel et F = ei1in une famille nie de vecteurs deE.Dénition 3.19. On appelle combinaison linéaire des vecteurs de la famille F =e1, . . . , en tout vecteurs x de E pouvant s'écrire x = Pni=1 λiei avec λ1, . . . , λn desscalaires de K bien choisis.24
Page 29 : 3.4 Famille de vecteursDénition 3.20. On appelle espace vectoriel engendré par la famille F = ei1in,le sous-espace vectoriel engendré par la partie e1, . . . , en. On le note vect F, vectei1inou vecte1, . . . , en.Exemple 3.21. Le sous-espace vectoriel engendré par la famille vide est l'espacenul 0E.Théorème 3.22. Si e1, . . . , en est une famille de vecteurs de E alors vecte1, . . . , enest l'ensemble des combinaisons linéaires des vecteurs e1, . . . , en, c'est-à-dire :vecte1, . . . , en = Pni=1 λiei λ1, . . . , λn K.Exemple 3.23.1 Cas n = 1, vectu = λu λ K = Ku.2 Cas n = 2, vectu, v = λu + µv λ, µ K = Ku + Kv.3 Dans R3, considérons u = 1, 1, 1, v = 0, 1, 2.vectu, v = λ, λ + µ, 2µ λ, µ K.Remarque 3.24. Il est ecace d'établir qu'une partie est un sous-espace vectorielen observant que celle-ci est engendré par une famille de vecteurs.Exemple 3.25.1 Dans R3, considérons P = a + b, a b, 2b a, b R.Puisque P = vectu, v, avec u = 1, 1, 0 et v = 1, 1, 2, P est un sous-espace vectoriel de R3.2 Dans R3, considérons P = x, y, z x + y z = 0.Puisque x + y z = 0 ↔z = x + y, on a P = vect1, 0, 1, 0, 1, 1. ainsi Pest un sous-espace vectoriel de R3.3.4.2Famille génératriceDénition 3.26. On dit qu'une famille F = ei1in de vecteurs de E est généra-trice de E, si tout vecteur x de E s'écrit comme combinaison linéaire des vecteursde la famille F, c'est-à-dire :x E, λ1, . . . , λn Kn x = λ1e1 + · · · + λnen = Pni=1 λiei.Remarque 3.27. La famille F est génératrice de E, si et seulement si, vectF =E.Exemple 3.28.1 Dans E = Rn, on pose ei = 0, . . . , 1, 0 . . . , 0 Rn où 1 sesitue en ième position. La famille B = ei1in est génératrice de Rn. Eneet, x = x1, . . . , xn Rn, on peut écrire x = x1e1 + · · · + xnen.2 Dans E = R, la famille 1 est génératrice. En eet, x R, x = x.1.3 Dans E = C vu comme R-espace vectoriel, la famille F = 1, i est généra-trice. En eet, pour tout z C, on peut écrire z = a.1 + b.i, avec a = ℜzet b = Imz.Proposition 3.29. Si e1, . . . , en, en+1 est une famille génératrice et si en+1 vecte1, . . . , en alors la sous-famille e1, . . . , en est génératrice.25
Page 30 : 3 . Espace vectoriel3.4.3Famille libre, famille liéeDénition 3.30. Un vecteur u est dit colinéaire à un vecteur v de E s'il existeα K tel que u = αv. Deux vecteurs u et v sont dits colinéaires si l'un des deux estcolinéaire à l'autre.Attensionu est colinéaire à v n'équivaut pas à v est colinéaire à v. En eet, le vecteur nul estcolinéaire à tout vecteurs mais tout veceturs n'est pas colinéaire au vecetur nul.Dénition 3.31.1 On dit que la famille e1, . . . , en de vecteurs de E est libresi elle vérie λ1, . . . , λn K, λ1e1 + · · · + λne = 0 →λ1 = . . . λn = 0. Ondit que les veceturs e1, . . . , en sont linéairement indépendants.2 On dit que la famille e1, . . . , en est liée si elle n'est pas libre ce qui signieλ1, λn K, λ1e1 + . . . λnen = 0 et λ1, . . . , λn ̸= 0, . . . , 0. Une égalitéλ1e1 + · · · + λnen = 0 avec λ1, . . . , λn non tous nuls est appelée relationlinéaire sur les vecteurs e1, . . . , en.Exemple 3.32. Soit u E, étudions la liberté de la famille u. Si u ̸= 0 alorsλ K, λu = 0 ⇒λ = 0. Par suite, la famille u est libre.Si u = 0 alors on peut écrire λu = 0 avec λ = 1 ̸= 0. Par suite, la famillle 0 estliée.Proposition 3.33. Soient n 2 et e1, . . . , en une famille de vecteurs de E. On aune équivalence entre :i e1, . . . , en est liée ;ii L'un des vecteurs e1, . . . , en est combinaison linéaire des autres.Exemple 3.34.1 Soient u, u E.u, v est liée, si et seulement si, α K, u = αv ou β K, v = βu.Ansi, la famille u, v est liée, si et seulement si, u et v sont colinéaires.2 Dans E = R3, considérons les vecteurs u = 1, 2, 1, v = 1, 1, 1, w =1, 1, 0 et la famille F = u, v, w. Etudions la liberté de la famille F. Soientα, β, γ R.αu + βv + γw = 0 ⇔α + β + γ = 02α β + γ = 0α + β = 0.Aprés résolution du système, on obtient αu+βv +γw = 0 ⇔α = β = γ = 0,la famille F est donc libre.3 Dans E = R3, considérons les vecteurs u = 1, 1, 0, v = 2, 1, 1, w =0, 1, 1 et la famille F = u, v, w. Etudions la liberté de la famille F.Soient α, β, γ R.αu + βv + γw = 0 ⇔α + 2β = 0α β = 0β + γ = 0.26
Page 31 : 3.4 Famille de vecteursAprés la résolution du système, on obtient αu+βv +γw = 0 ⇔ α = 2βγ = β.On en déduit que la famille F est liée car on a notament la relation linéaire2u + v w = 0.4 Dans E = FR, R, considérons les fonctions f : x 7→1, g : x 7→cosx, h :x 7→sinx et montrons que la famille f, g, h est libre. Soient α, β, γ RSupposons αf +βg +γh = 0. Pour tout x R, on a : α+βcosx+γsinx = 0.Pour x = 0, on obtient l'équation α + β = 01. Pour x = Π/2, on obtientl'équation α + γ = 02. Pour x = Π, on obtient l'équation αβ = 03. Ona : 1 et 3 donnent α = β = 0 et par 2 on obtient γ = 0. Finalement lafamille f, g, h est libre.Remarque 3.35.1 Toute sous-famille d'une famille libre est libre.2 Toute sur-famille d'une famille liée, en particulier toute famille contenant levecteur nul est liée.3 Une sur-famille d'une famille libre n'est pas nécessairement libre.Proposition 3.36. Si e1, . . . , en est une famille libre et si en+1 /vecte1, . . . , enalors la sur-famille e1, . . . , en, en+1 est libre.3.4.4Base d'un espace vectorielDénition 3.37. On dit qu'une famille B = ei1in = e1, . . . , en de vecteurs deE est une base de E si celle-ci est libre et génératrice.Exemple 3.38.1 Dans E = Kn, on pose ei = 1, . . . , 0, 1, 0, . . . , 0 Kn où1 se situe en ième position. On a déja vu que B = e1, . . . , en est génératricede Kn ; montrons qu'elle est libre. Soient λ1, . . . , λn K. Supposons queλ1e1 +· · ·+λnen = 0. On a λ1, . . . , λn = 0, . . . , 0 et donc λ1 = · · · = λn =0. Finalement , la famille B est libre et génératrice de Kn, c'est une base deKn.2 Considérons la famille 1, i déléments du R-espace vectoriel C. On a déja vuque cette famille est génratrice ; montrons qu'elle est libre. Soient λ, µ R.Supposons que λ.1 + µ.i = 0. En identiant parties réelles et imaginaires, onobtient λ = µ = 0. Finalement, la base B est libre est génératrice du R-espacevectoriel C, c'est une base de C.Remarque 3.39. La famille 1, i est liée dans le C-espace vectoriel C. Elle n'estpas donc une base du C-espace vectoriel C.Théorème 3.40 Théorème de la base extraite. De toute famille génératrice niede E, on peut extraire une base de E. En particulier, un espace de dimension nieadmet une base.Théorème 3.41 Théorème de la base incomplète. Si E est de dimension nie,alors toute famille libre de E peut-être complétée en une base de E. Pour la complé-ter, il sut de considérer certains vecteurs d'une famille génératrice de E.En particulier, on déduit des résultats précédents que tout espace vectoriel dedimension nie admet une base nie.27
Page 32 : 3 . Espace vectorielThéorème 3.42 Théorème et dénition. Si E est de dimension nie, alors toutesles bases de E ont le même nombre d'éléments. Ce nombre s'appelle la dimensionde E et est noté dimE.Corollaire 3.43. Si E est de dimension n et si x1 . . . , xn est une famille de nvecteurs de E, alors les conditions suivantes sont équivalentes :1. x1, . . . , xn est une famille libre de E ;2. x1, . . . , xn est une famille génératrice de E ;3. x1, . . . , xn est une base de E.Remarque 3.44.1. En particulier, dans un espace de dimension n, une famillelibre a toujours au plus néléments, et une famille génératrice a toujours aumoins n éléments.2. Si E et F sont de dimension nie, alors dimE × F = dimE + dimF.En particulier, dimKn = n.3. Si E et F sont de dimension nie, alors dimLE, F = dimE × dimF.4. dimKnX = n + 1.Dénition 3.45. Soit x1, . . . , xn une famille nie de vecteurs d'un K-espace vec-toriel E, on appelle rang de x1, . . . , xn la dimension de F = vectx1, . . . , xn.Lemme 3.46. Dans un espace engendré par n vecteurs u1, . . . , un, toute famillev1, . . . , vn+1 de n + 1 vecteurs est liée.Lemme 3.47. Le cardinal d'une famille libre est plus petit que celui d'une famillegénératrice Si F1 est une famille libre et F2 une famille génératrice de E, on acardF1 ⩽cardF2Remarque 3.48. Soit E est K-espace vectoriel.1. Si E = 0E, on a dim E = 0.2. Si F est une famille libre de E, on a : card F ⩽dim E3. Si F est une famille génératrice de E, on a : card F ⩾dim EProposition 3.49. Si E est un espace vectoriel de dimension nie et si F est unsous-espace vectoriel de E, alors F est de dimension nie et on a dimF ⩽dimE.De plus, on a dimF = dimE ⇔F = E.3.4.5Composante dans une baseThéorème 3.50. Si B = ei1in est une base d'un K-espace vectoriel de E alorsx E, !λ1, . . . , λn Kn, x = λ1e1 + . . . λnen.Dénition 3.51. Avec les notations ci-dessous, les scalaires λ1, . . . , λn sont appelésles composants de x dans la base B ou encore les composantes de x.Remarque 3.52. Les composantes d'un vecteur dépendant de la base dans laquelleon travaille.28
Page 33 : 3.5 Somme, Somme directe, sous-espaces vectoriels supplémentairesExemple 3.53.1 Dans E = Kn, considérons la base canonique B = e1, . . . , enet le vecteur x = x1, . . . , xn. Puisque x = x1e1 +· · ·+xnen, les composantesdu vecteurs x dans la base B sont les saclaires x1, . . . , xn.2 Dans le R-espace vectoriel C, les composantes de z C dans la base cano-nique 1, i sont ℜz et ImzThéorème 3.54. Si B = ei1in est une base de E alors pour tout vecteur x ety de composantes x1, . . . , xn et y1, . . . , yn dans B, les composantes de x + y sontx1 + y1, . . . , xn + yn et celle de λx sont λx1, . . . , λxn.3.5Somme, Somme directe, sous-espaces vectorielssupplémentaires3.5.1IntroductionLa réunion de deux sous-espaces n'est pas en général un sous-espace, sauf castrès particulier. L'opération d'addition permet de dénir la somme de deux sous-espaces ; cette somme s'avère être en fait le plus petit sous-espace contenant leurréunion. La propriété d'unicité de l'écriture d'un vecteur comme somme de vecteursappartenant à deux sous-espaces donnés conduit à la notion de somme directe et desous-espaces supplémentaires.3.5.2Somme de sous-espaces vectorielsDénition 3.55. Soit E un K-espace vectoriel et soient F et G deux sous-espacesvectoriels de E : On appelle somme de F et de G l'ensemble, noté F + G ; desvecteurs qui sont la somme d'un vecteur de F et d'un vecteur de G :F + G = u E u = f + g, f F, g G.En d'autres termes, les vecteurs de la somme F + G sont caractérisés paru F + G ⇐⇒f F, g G tels que u = f + g.Remarque 3.56. La somme F + G des sous-espaces vectoriels F et G est donc estun ensemble. Cet ensemble contient F. En eet, si f F, alors f = f +0E F +Gcar 0E G : Ainsi F F + G.Théorème 3.57. La somme F + G de deux sous-espaces vectoriels F et G d'unespace vectoriel E est un sous-espace vectoriel de E.Preuve:F + G E puisque tout élément h de F + G s'écrit h = f + g ; avec f dans F doncdans E et g dans G donc dans E, et que la somme de deux éléments de E est unélément de E.Le vecteur nul 0E est dans F + G : en eet 0E = 0E + 0E avec 0E F et 0E G ;puisque F et G sont des sous-espaces vectoriels de E.Si u et v sont dans H et si λ et µ sont des scalaires, on peut écrire u = f1 + g1et v = f2 + g2 ; avec f1 et f2 dans F et g1 et g2 dans G. Alors λu + µv = λf1 +µf2 + λg1 + µug2. Or F est un sous-espace vectoriel de E ; donc λf1 + µf2 F.De même, λg1 + µg2 G. Ainsi λu + µv2 F + G.□29
Page 34 : 3 . Espace vectorielExemple 3.58. Soient u1; u2; u3 trois vecteurs de l'espace vectoriel E.Que peut-on dire de la somme vectu1; u2 + vectu3? On au vectu1; u2 +vectu3 ⇐⇒f vectu1; u2; g vectu3; tels que u = f + g.Or, on sait quef vectu1; u2⇐⇒a1; a2 K2 tel que f = a1u1 + a2u2 et g vectu3⇐⇒a3 K tel que g = a3u3.On en déduit donc nalement queu vectu1, u2 + vectu3⇐⇒a1, a2, a3 K3tel que u = a1u1 + a2u2 + a3u3⇐⇒u vectu1, u2, u3Ceci prouve que vectu1, u2 + vectu3 = vectu1, u2, u3.3.5.3Somme directe des sous-espaces vectorielsDénition 3.59. Soient F et G deux sous-espaces vectoriels de E : On dit que lasomme F + G est directe si tout vecteur de F + G se décompose de manière uniquecomme la somme d'un élément de F et d'un élément de G.Lorsque F et G sont en somme directe, on note F +G = F G. Pratiquement, lessous-espaces vectoriels en somme directe sont caractérisés par le théorème suivant :Théorème 3.60. Soit E un K-espace vectoriel et soient F et G deux sous-espacesvectoriels de E. Alors :F + G est directe ⇔F G = 0EPreuve:Supposons la somme F +G directe. Soit u F G. On peut alors écrire u = 0E +u ;avec 0E F et u G et on a aussi u = u + 0E avec u F et 0E G. Puisquela somme F + G est directe, la décomposition de u suivant F et G est unique etainsi u = 0E. Ceci prouve que le seul vecteur qu'on puisse trouver dans F G est levecteur nul, c'est-à-dire que F G 0E. Mais l'inclusion inverse est vraie puisqueF et G sont deux sous-espaces vectoriels de E. Donc F G = 0E.Réciproquement, supposons que F G = 0E et montrons que la somme F + Gest directe. Supposons que l'on aitu = f1 + g1 = f2 + g2,avec f1 et f2 dans F et g1 et g2 dans G. Alors f1 f2 = g2 g1. Puisque f1 f2 Fet g2 g1 G, le vecteur v = f1 f2 = g2 g1 appartient à F G. PuisqueF G = 0E, on a donc f1 f2 = g2 g1 = 0E, ce qui assure que f1 = f2 etg1 = g2, Ainsi, l'écriture de u comme somme d'un élément de F et d'un élément deG est unique, ce qui signife que la somme F + G est directe.□Exemple 3.61. Deux droites sécantes en vecteur nul du plan R2 ou de l'espace R3sont en somme directe puisque leur intersection est réduite au vecteur nul. Deuxplans sécants de l'espace R3 ne peuvent être en somme directe puisque leur intersec-tion est une droite et ne contient donc pas que le vecteur nul.30
Page 35 : 3.5 Somme, Somme directe, sous-espaces vectoriels supplémentaires3.5.4Sous-espaces vectoriels supplémenatires dans un espacevectorielDénition 3.62. Soit E un K-espace vectoriel et soient F et G deux sous-espacesvectoriels de E. On dit que F et G sont supplémentaires dans E si la somme F + Gest directe et si celle-ci vaut E. On a donc :F et G supplémentaires dans E ⇔E = F G.On dit aussi que G est un supplémentaire de F dans E.La caractérisation des sous-espaces espaces vectoriels supplémentaires se traduitpar le théorème suivant :Théorème 3.63. Soient F et G sont deux sous-espaces vectoriels de E. Les propo-sitions suivantes sont équivalents :1 F et G sont supplémentaires dans E.2 Pour tout u E ; il existe un couple unique de vecteurs f F et g G ettels que u = f + g.3 dim F + dim G = dim E et F G = 0E.4 Si BF est une base de F et Si BG est une base de G alors B = BF BG estune base de E.Remarque 3.64. Attention de ne pas confondre la notion d'espaces en sommedirecte avec la notion d'espaces supplémentaires dans un autre. Par exemple, deuxdroites sécantes de R3 sont supplémentaires dans le plan qui les contient, mais pasdans l'espace R3 : en eet, leur somme est directe et vaut exactement le plan P =D1 D2, et non l'espace tout entierRemarque 3.65. Un sous-espace possède plusieurs supplémentaires. Par exemple,si D1; D2; D3 sont trois droites deux à deux sécantes en 0, 0 de E = R2, alors D2et D3 sont des supplémentaires de D1 dans R2 puique dim D1+dim D2 = dim R2 = 2et dim D1 + dim D3 = dim R2 et D1 D2 = D1 D3 = 0, 0.Exemple 3.66. Soit E = R3. On demande de vérifer que F = x; y; z R3 x y + z = 0 et G = x; x; x R3 sont supplémentaires dans E.On montre d'abord que F = vect1, 1, 0, 0, 1, 1. F est donc un plan vectoriel deR3 et aussi un sous-espace vectoriel de R3. De même G = vect1, 1, 1 est unedroite vectorielle de R3 est donc un sous-espace vectoreil de R3.Une méthode pour montrer que F et G sont supplémentaires dans R3 ; est de vérierque tout vecteur u = x1; x2; x3 de R3 se décompose de manière unique commesomme d'un vecteur f = f1; f2; f3 de F et d'un vecteur g = g1; g2; g3 de G.Nous devons donc résoudre l'équation u = f + g, d'inconnues f et g et montrerqu'elle admet une solution unique.Or, f F ⇐⇒f2 = f1 + f3 ⇐⇒f = f1; f1 + f3; f3.De même g G ⇐⇒g = g1; g1; g1. On a donc :x = f + g ⇐⇒f1 + g1 = x1f1 + g1 + f3 = x2f3 + g1 = x3⇐⇒f1 + g1 = x1f3 = x2 x1g1 = x3 f3 = x1 x2 + x331
Page 36 : 3 . Espace vectorielOn voit donc que ce système admet une unique solution donnée par :f1 = x1 g1 = x2 x3f3 = x2 x1g1 = x1 x2 + x3Ceci signie donc que les vecteurs f et g recherchés existent et qu'ils sont uniques.On a bien prouvé que R3 = F G.Exemple 3.67. Soit E = FR, R : Vérier que F = f : R →R f est paireet G = f : R →R festimpaire sont supplémentaires dans E. On a déjà vuque F est un sous-espace vectoriel de E. On prouve de même que G est un sous-espace vectoriel de E. Il nous reste à vérier que tout élément de E se décompose demanière unique comme la somme d'un élément de F et d'un élément de G ; ce quirevient à prouver que toute fonction f de R dans R peut s'écrire d'une seule façoncomme la somme d'une fonction paire et d'une fonction impaire. Contrairementà l'exemple précédent, ceci ne débouche pas sur un système d'équations à résoudre.Nous allons ici procéder à l'aide d'un raisonnement par analyse et synthèse. Analysedu problème : Supposons que l'on puisse écrire f = p + i avec p paire et i impaire,et essayons d'exprimer p et i en fonction de f. Pour tout x R, on a d'abordfx = px + ix. Puisque px = px et ix = ix ; on a aussi, pour toutréel x, on a fx = px + ix = px ix. En ajoutant et soustrayantmembre à membre fx et fx ; il vientpx = 12fx + fxix = 12fx fxCette analyse du problème nous permet donc de conclure que, si la décomposition def en somme d'une fonction paire et d'une fonction impaire est possible, alors celle-ciest unique puisqu'on a trouvé une seule valeur posible de px et de ix : Il nousreste simplement à vérier que les fonctions données répondent bien aux exigencesdu problème posé, c'est-à-dire que p est paire, que i est impaire et que p + i = f :Synthèse du problème : Partant de f fonction quelconque de R dans R ; soient p eti dénies par :px = 12fx + fxix = 12fx fxOn a bien px + ix = fx ; c'est-à-dire f = p + i. De plus, on a px =12fx + fx = px ; donc p est paire. On vérie de même que i est impaire.Ainsi, F et G sont supplémentaires dans E.Proposition 3.68. Tout sous-espace d'un espace de dimension nie admet un sup-plémentaire.Théorème 3.69 Formule de Grassmann. Soit E un espace vectoriel de dimensionnie et soient F,G deux sous-espaces vectoriels de E. AlorsdimF + G = dimF + dimG dimF G.En particulier, F et G sont en somme directe si et seulement si dimF + G =dimF + dimG.32
Pages : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36