0% ont trouvé ce document utile (0 vote)
14 vues256 pages

Algebre Bilineaire Algebre 4

Transféré par

otmanelbadaoui065
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
14 vues256 pages

Algebre Bilineaire Algebre 4

Transféré par

otmanelbadaoui065
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
Vous êtes sur la page 1/ 256

Polycopié d’Algèbre bilinéaire (Algèbre 4)

Bakir Farhi

To cite this version:


Bakir Farhi. Polycopié d’Algèbre bilinéaire (Algèbre 4). Licence. Algèbre bilinéaire (Algèbre 4),
Alger, Algérie. 2024, pp.255. �hal-04826107�

HAL Id: hal-04826107


https://hal.science/hal-04826107v1
Submitted on 8 Dec 2024

HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est


archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non,
lished or not. The documents may come from émanant des établissements d’enseignement et de
teaching and research institutions in France or recherche français ou étrangers, des laboratoires
abroad, or from public or private research centers. publics ou privés.

Distributed under a Creative Commons Attribution - NonCommercial - NoDerivatives 4.0


International License
Préface

La rédaction de ce polycopié a commencé lors de mes premières années


d’enseignement à l’Université de Béjaia (de 2012/2013 à 2016/2017) où j’ai
dirigé le module d’Algèbre 4 (Algèbre bilinéaire) au sein de cet établi-
ssement. A l’origine, il s’agissait simplement d’un cours léger et incomplet
qui dépassait à peine 70 pages. Cependant, il était largement suffisant pour
l’enseignement dans cette université souffrant de problèmes de gestion. En
2022/2023, j’ai rejoint la nouvelle Ecole de Mathématiques NHSM (1) d’Al-
ger. Le niveau élevé de certains étudiants de cette école m’a alors encouragé
à reprendre mes activités pédagogiques ; en particulier le développement
de la version basique du polycopié en question, étant donné que je suis
responsable du module d’Algèbre de 2ème année (classes préparatoires).
Sans plus attendre, passons à la présentation des différents chapitres du
présent polycopié :
Dans le premier chapitre, nous définissons ce qu’est une application
bilinéaire d’un produit de deux K-espaces vectoriels dans un autre K-espace
vectoriel (où K est un corps commutatif). Nous nous focalisons pour toute
la suite sur le cas particulier des formes bilinéaires symétriques sur un K-
espace vectoriel, en introduisant leurs propriétés essentielles ; à savoir :
la définition, la positivité (lorsque K = R) et la non-dégénérescence. Lorsque
K = R, les deux premières propriétés réunies définissent un produit scalaire
réel.
Dans le deuxième chapitre, nous nous penchons tout particulièrement
sur les formes bilinéaires sur un K-espace vectoriel E de dimension finie. La
fixation d’une base de E permet de représenter une forme bilinéaire f de E
par un tableau (carré) de nombres, appelé matrice associée à f .
(1). National Higher School of Mathematics.
Tout comme pour les endomorphismes de E, la matrice associée à une
forme bilinéaire f de E, relativement à une base donnée de E, facilite
l’étude de f ainsi que la caractérisation de ses propriétés. Par exemple, une
forme bilinéaire symétrique est caractérisée par une matrice symétrique, une
forme bilinéaire symétrique non dégénérée est caractérisée par une matrice
symétrique inversible, etc.
Nous établissons enfin une formule de changement de base. Il s’agit d’une
formule matricielle permettant de déterminer la matrice associée à une
forme bilinéaire de E relativement à une nouvelle base de E, connaissant
sa matrice associée relativement à une ancienne base de E.
Au troisième chapitre, nous définissons et étudions la forme quadratique
associée à une forme bilinéaire symétrique d’un espace vectoriel. Nous verrons
qu’il y a une correspondance bijective entre les formes bilinéaires symétriques et
les formes quadratiques d’un espace vectoriel, tout en explicitant la réciproque
de cette correspondance. La forme bilinéaire symétrique associée (via cette
correspondance) à une forme quadratique q est appelée la forme polaire de
q. Dans le cas d’un espace vectoriel de dimension finie, la reconnaissance
d’une forme quadratique q est toute simple : q s’exprime par un polynôme
homogène de second degré en les coordonnées (relatives à une base donnée
de l’espace vectoriel en question). A partir de ce polynôme homogène de
second degré, on obtient immédiatement la forme polaire de q.
La seconde partie du chapitre est consacrée à l’étude de l’orthogonalité
pour une forme bilinéaire symétrique (ou une forme quadratique) d’un espace
vectoriel E. Nous établissons en particulier quelques propriétés de l’or-
thogonal d’une partie de E et étudions les familles et les bases orthogonales
(resp. orthonormées) de E. Nous démontrons le théorème fondamental se-
lon lequel ≪ tout espace vectoriel de dimension finie E possède au moins une
base orthogonale pour une forme bilinéaire symétrique donnée sur E ≫. Aussi,
nous clarifions l’intérêt d’une base orthogonale pour une forme bilinéaire
symétrique d’un espace vectoriel de dimension finie sans pour autant
donner les méthodes de détermination de telles bases. Ces méthodes font
l’objet d’étude des chapitres suivants.
Au quatrième chapitre, nous étudions la réduction de Gauss des formes
quadratiques sur un espace vectoriel E de dimension finie. Il s’agit d’une
technique algorithmique qui consiste à transformer un polynôme ho-
mogène de second degré en une combinaison linéaire de carrés de formes
linéaires linéairement indépendantes. Ces formes linéaires définissent des
nouvelles coordonnées relatives à une nouvelle base de E. La matrice
représentant la forme quadratique en question relativement à cette nou-
velle base est alors diagonale. Nous fournissons également, en complément,
une méthode alternative matricielle pour réduire une forme quadratique.
Nous étudions ensuite l’équivalence des formes quadratiques de E. Deux
formes quadratiques q et q′ de E sont dites équivalentes s’il est possible de
passer de l’expression de l’une à l’expression de l’autre par une transforma-
tion linéaire bijective ; autrement dit, s’il existe un automorphisme u de E tel
que q′ = q(u). La classification des formes quadratiques de E se fait alors mo-
dulo l’équivalence qui vient d’être définie. Dans le cas complexe (c’est-à-dire
d’un espace vectoriel complexe), on montre facilement que deux formes
quadratiques de E sont équivalentes si et seulement si elles ont le même
rang. Cependant dans le cas réel, l’invariant qui caractérise l’équivalence
des formes quadratiques n’est plus le rang mais un autre plus subtile, in-
troduit par Sylvester en 1852 et nommé signature. Ces deux invariants (rang
et signature) se déduisent immédiatement de la réduction de Gauss d’une
forme quadratique.
Nous fournissons en complément la méthode des déterminants de Sylvester,
permettant de calculer la signature d’une forme quadratique réelle (non
dégénérée) sans la réduire préalablement. De cette méthode découle le
critère de Sylvester caractérisant (par un simple calcul de déterminants) la
définition positive des matrices réelles symétriques.
Le cinquième chapitre est consacré à l’étude des espaces préhilbertiens
réels en général, et euclidiens en particulier. Les espaces de Hilbert sont intro-
duits brièvement, car nous avons jugé qu’ils relèvent davantage de la topolo-
gie, voire de l’analyse hilbertienne, que de l’algèbre bilinéaire. Dans ce chapitre,
nous découvrons les propriétés métriques d’un espace préhilbertien. Nous
verrons ainsi (à travers l’inégalité de Cauchy-Schwarz et l’inégalité de Min-
kowski) qu’un espace préhilbertien est un cas particulier d’un espace vectoriel
normé, mais géométriquement plus riche, car il est doté de notions telles
que l’orthogonalité et l’écart angulaire, absentes dans un quelconque espace
vectoriel normé. Ces deux dernières notions permettent d’étendre, aux es-
paces préhilbertiens, les théorèmes de Pythagore et d’Al-Kashi. D’ailleurs, le
théorème d’Al-Kashi est, en quelque sorte, redémontré en utilisant le produit
scalaire canonique de R2 .
Dans la seconde partie du chapitre, nous étudions le procédé de Gram-
Schmidt qui permet (en particulier) de construire une base orthonormée d’un
espace euclidien à partir d’une base quelconque de celui-ci. L’interprétation
géométrique de ce procédé est reportée au sixième chapitre.
Au sixième chapitre, nous étudions les projections orthogonales d’un es-
pace préhilbertien réel. Nous établissons une formule pour la projection
orthogonale d’un vecteur x d’un espace préhilbertien (réel) E sur un sous-
espace de dimension finie F de E, moyennant une base orthonormée de
F. Par le théorème de Pythagore, nous montrons immédiatement que la
projection orthogonale de x sur F est le vecteur de F le plus proche de x,
ce qui fournit un moyen de calculer la distance de x à F, à l’aide d’une
base orthonormée de F. Nous verrons juste après que les déterminants de
Gram permettent de calculer cette même distance sans faire appel à une
base orthonormée de F (une base quelconque de F suffit).
Nous terminons le chapitre en question par une interprétation géo-
métrique de l’algorithme de Gram-Schmidt qui se sert justement des projec-
tions orthogonales.
Au septième chapitre, nous introduisons l’importante notion de l’adjoint
d’un endomorphisme d’un espace préhilbertien réel. Plusieurs types par-
ticuliers et remarquables d’endomorphismes d’un espace préhilbertien
(réel) émergent de cette notion ; parmi ceux-ci, citons les endomorphismes
autoadjoints (ou symétriques), antisymétriques, orthogonaux et normaux. Tous
ces types d’endomorphismes sont étudiés et caractérisés matriciellement
lorsque l’espace préhilbertien en question est de dimension finie et muni
d’une base orthonormée. La théorie spectrale de ces endomorphismes par-
ticuliers est, quant à elle, repoussée au neuvième chapitre.
Au huitième chapitre, nous étudions la notion d’une forme hermitienne
d’un espace vectoriel complexe. Cette notion est considérée comme l’ana-
logue de la notion d’une forme bilinéaire symétrique d’un espace vectoriel
réel pour les espaces vectoriels complexes. Elle permet essentiellement
d’étendre le concept du produit scalaire d’un espace vectoriel réel aux es-
paces vectoriels complexes. Nous établissons des analogues complexes de
toutes les notions et de tous les résultats des chapitres 1 à 6, ce qui fait de
ce chapitre le plus long de tous les autres !
Au neuvième et dernier chapitre, nous introduisons l’importante notion
de l’adjoint d’un endomorphisme d’un espace préhilbertien complexe, dont
l’analogue pour les espace préhilbertiens réels est déjà traitée au chapitre 7.
Nous étudions les endomorphismes particuliers découlant de cette notion,
à savoir les endomorphismes hermitiens, antihermitiens, unitaires et normaux.
Nous fournissons également la caractérisation matricielle de tous ces types
d’endomorphismes lorsque l’espace préhilbertien (complexe) en question
est de dimension finie et muni d’une base orthonormée.
La seconde partie de ce chapitre, sans doute la plus importante et la
moins triviale de ce polycopié, est essentiellement consacrée à la théorie
spectrale des types d’endomorphismes susmentionnés d’un espace hermitien
(c’est-à-dire d’un espace préhilbertien complexe de dimension finie). Nous
appelons théorème spectral pour une certaine classe d’endomorphismes
d’un espace préhilbertien (réel ou complexe) de dimension finie un théo-
rème qui énonce que tout endomorphisme de la classe considérée est dia-
gonalisable dans une base orthonormée de l’espace en question.
Nous établissons d’abord le théorème spectral pour les endomorphismes
hermitiens d’un espace hermitien, puis pour les endomorphismes autoadjoints
d’un espace euclidien, et enfin pour les endomorphismes normaux d’un espace
hermitien. Des analogues matriciels des différents théorèmes spectraux sont
alors déduits.
Il découle de ces analogues matriciels un résultat remarquable sur les
formes hermitiennes (resp. bilinéaires symétriques) d’un espace hermitien (resp.
euclidien). Ce résultat énonce que ≪ pour toute forme hermitienne (resp. bi-
linéaire symétrique) f d’un espace hermitien (resp. euclidien) E, il existe une
base orthonormée de E qui soit f -orthogonale ≫.
Il découle également des théorèmes spectraux matriciels une formule
pour la signature d’une forme quadratique (réelle ou hermitienne) à partir du
spectre d’une matrice associée.
Nous achevons ce chapitre par le théorème de trigonalisation de Schur se-
lon lequel ≪ tout endomorphisme d’un espace hermitien (resp. euclidien) est
trigonalisable dans une base orthonormée de l’espace en question ≫. Dans le
cas d’un endomorphisme normal (resp. autoadjoint) d’un espace hermitien
(resp. euclidien), la trigonalisation de Schur devient systématiquement une
diagonalisation ; du coup, nous obtenons une nouvelle démonstration du
théorème spectral pour les endomorphismes normaux d’un espace hermi-
tien.
Aussi, nous avons fait suivre chaque chapitre d’une série importante
d’exercices dont la plus longue est celle du chapitre 9 en raison de son im-
portance. Ces séries d’exercices commencent toujours par les exercices
calculatoires (qui sont indispensables) et vont progressivement vers le
théorique. Nous avons intégré aussi à la fin du polycopié une liste de
sujets d’examen que l’auteur a proposé durant les années précédentes à
l’Université de Béjaia ou à NHSM, et en dernier se trouve une liste biblio-
graphique (pour les trois langues : français, arabe et anglais) qui nous a
servi de source d’inspiration.
Pour finir, nous tenons à informer les lecteurs que ce polycopié est une
première version ; par conséquent des erreurs typographiques (voire même
mathématiques) sont susceptibles d’apparaı̂tre. Nous espérons qu’ils nous
contacteront pour nous les signaler afin que nous puissions les corriger
dans les prochaines versions.

Bakir FARHI
Béjaia, le 29 janvier 2016,
puis
Alger, le 12 juin 2024
Table des matières

1 Formes bilinéaires et produits scalaires réels 1


1.1 Premières définitions et exemples . . . . . . . . . . . . . . . . 2
1.2 Le noyau d’une forme bilinéaire symétrique . . . . . . . . . . 4
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2 Représentation matricielle des formes bilinéaires en dimension


finie 8
2.1 Matrice associée à une forme bilinéaire . . . . . . . . . . . . . 8
2.2 L’équivalent matriciel d’une forme bilinéaire symétrique . . 11
2.3 Calcul pratique du noyau d’une forme bilinéaire symétrique 13
2.4 Formule de changement de base . . . . . . . . . . . . . . . . 14
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

3 Formes quadratiques et orthogonalité 19


3.1 Forme quadratique associée à une forme bilinéaire symétrique 19
3.2 Reconnaissance rapide d’une forme quadratique en dimen-
sion finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.4 Familles et bases orthogonales pour une forme bilinéaire
symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.5 L’intérêt d’une base orthogonale . . . . . . . . . . . . . . . . 30
3.6 Familles et bases orthonormées . . . . . . . . . . . . . . . . . 30
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

4 Réduction et classification des formes quadratiques réelles et


complexes 36
4.1 Réduction de Gauss des formes quadratiques . . . . . . . . . 36
4.1.1 Description de l’algorithme de Gauss . . . . . . . . . 37

i
4.2 Une méthode alternative matricielle pour
réduire une forme quadratique . . . . . . . . . . . . . . . . . 41
4.3 Equivalence des formes quadratiques . . . . . . . . . . . . . 44
4.3.1 Equivalence des formes quadratiques complexes . . . 46
4.3.2 Equivalence des formes quadratiques réelles . . . . . 47
Calcul de la signature d’une forme quadratique réelle
par la méthode des déterminants de Sylvester 56
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

5 Espaces euclidiens, espaces préhilbertiens réels et espaces de Hil-


bert réels 66
5.1 Norme associée à un produit scalaire . . . . . . . . . . . . . . 66
5.2 Orthogonalité dans un espace préhilbertien . . . . . . . . . . 70
5.2.1 Extension de certains théorèmes classiques de géo-
métrie euclidienne . . . . . . . . . . . . . . . . . . . . 70
L’écart angulaire non orienté de deux vecteurs d’un
espace préhilbertien . . . . . . . . . . . . . . 71
5.2.2 Construction d’une famille orthonormée d’un espace
préhilbertien . . . . . . . . . . . . . . . . . . . . . . . . 73
L’algorithme de Gram-Schmidt . . . . . . . . . . . . . 73
L’algorithme de Gram-Schmidt . . . . . . . . . . . . . 73
Description de l’algorithme . . . . . . . . . . . . . . . 74
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

6 Projections orthogonales dans un espace préhilbertien réel 85


6.1 Projection sur un sous-espace parallèlement à un autre sous-
espace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
6.2 Projections orthogonales . . . . . . . . . . . . . . . . . . . . . 87
6.3 Distance d’un point par rapport à un sous-espace vectoriel
de dimension finie d’un espace préhilbertien . . . . . . . . . 89
6.4 Interprétation géométrique de l’algorithme de Gram-Schmidt 95
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

7 Endomorphismes adjoint, autoadjoint, orthogonal et normal d’un


espace préhilbertien réel 103
7.1 Adjoint d’un endomorphisme . . . . . . . . . . . . . . . . . . 103
7.2 Endomorphismes autoadjoints . . . . . . . . . . . . . . . . . 107
7.3 Endomorphismes antisymétriques . . . . . . . . . . . . . . . 111
7.4 Endomorphismes orthogonaux . . . . . . . . . . . . . . . . . 111
7.5 Endomorphismes normaux . . . . . . . . . . . . . . . . . . . 118
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

— ii —
8 Espaces hermitiens, espaces préhilbertiens complexes et espaces
de Hilbert complexes 124
8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
8.2 Applications sesquilinéaires . . . . . . . . . . . . . . . . . . . 126
8.3 Le noyau d’une forme hermitienne . . . . . . . . . . . . . . . 130
8.4 Représentation matricielle d’une forme sesquilinéaire sur
un C-espace vectoriel de dimension finie . . . . . . . . . . . 131
8.4.1 Matrice associée à une forme sesquilinéaire . . . . . . 132
8.4.2 L’équivalent matriciel d’une forme hermitienne sur E 135
8.4.3 Calcul pratique du noyau d’une forme hermitienne . 137
8.4.4 Formule de changement de base . . . . . . . . . . . . 137
8.5 Formes quadratiques hermitiennes et orthogonalité . . . . . 138
8.5.1 Forme quadratique hermitienne associée à une forme
hermitienne . . . . . . . . . . . . . . . . . . . . . . . . 139
8.5.2 Reconnaissance rapide d’une forme quadratique her-
mitienne et détermination rapide de sa forme polaire
(en dimension finie) . . . . . . . . . . . . . . . . . . . 142
8.5.3 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . 143
8.5.4 Réduction de Gauss des formes quadratiques hermi-
tiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
8.5.5 Une méthode alternative matricielle pour réduire
une forme quadratique hermitienne . . . . . . . . . . 150
8.5.6 Equivalence des formes quadratiques hermitiennes . 152
8.5.7 Calcul de la signature d’une forme quadratique her-
mitienne par la méthode des déterminants de Sylvester154
8.6 Norme associée à un produit scalaire complexe . . . . . . . . 156
8.7 Orthogonalité dans un espace préhilbertien complexe . . . . 159
8.7.1 Construction d’une base orthonormée pour un es-
pace hermitien . . . . . . . . . . . . . . . . . . . . . . 159
8.7.2 Supplémentaire orthogonal et projection orthogonale 160
8.7.3 Distance d’un vecteur par rapport à un sous-espace
vectoriel de dimension finie d’un espace préhilbertien
complexe . . . . . . . . . . . . . . . . . . . . . . . . . . 162
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164

9 Endomorphismes spéciaux d’un espace préhilbertien complexe et


théorèmes spectraux 167
9.1 Adjoint d’un endomorphisme . . . . . . . . . . . . . . . . . . 168
9.2 Endomorphismes hermitiens . . . . . . . . . . . . . . . . . . 170
9.3 Endomorphismes antihermitiens . . . . . . . . . . . . . . . . 172
9.4 Endomorphismes unitaires . . . . . . . . . . . . . . . . . . . 173

— iii —
9.5 Endomorphismes normaux . . . . . . . . . . . . . . . . . . . 176
9.6 Le théorème spectral pour les endomorphismes hermitiens . 177
9.7 Le théorème spectral pour les endomorphismes autoad-
joints d’un espace euclidien . . . . . . . . . . . . . . . . . . . 182
9.8 Le théorème spectral pour les endomorphismes normaux . . 184
9.9 Le théorème de trigonalisation de Schur . . . . . . . . . . . . 187
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194

Quelques sujets d’examen des années précédentes 204

Bibliographie 240

— iv —
Notations
ssi L’abrégé de l’expression ≪ si et seulement si ≫.
:= Egalité par définition qu’on représente aussi parfois par le
déf
signe = .
ℜ(z) La partie réelle d’un nombre complexe z.
ℑ(z) La partie imaginaire d’un nombre complexe z.
K[X] Le K-espace vectoriel des polynômes à coefficients dans K
(où K est un corps commutatif, le plus souvent égale à R ou
C).
Kn [X] Le K-espace vectoriel des polynômes à coefficients dans K,
ayant un degré ≤ n (où K est un corps commutatif et n est
un entier naturel).
0K L’élément neutre de la première loi d’un corps commutatif
K.
0E Le vecteur nul d’un espace vectoriel E.
0 (ou 0End(E) ) L’endomorphisme nul d’un certain espace vectoriel E.
IdE L’endomorphisme identité d’un espace vectoriel E.
(0) La matrice nulle d’un certain format.
δij Le symbole de Kronecker (où i et j sont des entiers stricte-


1 si i = j
ment positifs). On a par définition δij :=   .
0 sinon
In La matrice identité d’ordre n (où n est un entier strictement
positif). On a In = (δij )1≤i, j≤n .
diag(λ1 , . . . , λn ) La matrice diagonale (d’ordre n) dont les éléments diago-
naux sont λ1 , . . . , λn (dans cet ordre, en décroissant).
(c1 |c2 | . . . |cn ) Matrice obtenue en mettant des vecteurs colonnes donnés
c1 , c2 , . . . , cn l’un après l’autre (où n est un entier strictement
positif).
 
 ℓ1 
 
 
 ℓ2 
 
  Matrice obtenue en mettant des vecteurs lignes donnés
 
 .. 
 .  ℓ1 , ℓ2 , . . . , ℓn l’un au dessous de l’autre (où n est un entier
 
  strictement positif).
 
ℓn
Vect(X) Le sous-espace vectoriel engendré par une partie X d’un
certain espace vectoriel.

—v—
MB ( f ) La matrice associée à un endomorphisme ou à une forme
bilinéaire ou à une forme sesquilinéaire f d’un espace vec-
toriel de dimension finie (2) , relativement à une base B de
cet espace.
MB (q) La matrice associée à une forme quadratique (resp. à une
forme quadratique hermitienne) q d’un espace vectoriel
(resp. d’un C-espace vectoriel) de dimension finie, relati-
vement à une base B de cet espace.
f |F La restriction de f à F (où F est un sous-espace vectoriel
d’un grand espace E et f pourrait être une forme bilinéaire
symétrique sur E, une forme quadratique sur E, un endo-
morphisme de E lorsque F est stable par f , etc).
Mn (K) L’ensemble des matrices carrées d’ordre n à coefficients dans
K (où n est un entier strictement positif et K est un corps
commutatif).
Mn,m (K) L’ensemble des matrices de format n × m (i.e., à n lignes et
m colonnes) à coefficients dans K (où n et m sont des entiers
strictement positifs et K est un corps commutatif).
End(E) l’espace vectoriel constitué des endomorphismes d’un es-
pace vectoriel E.
GL(E) Le groupe des automorphismes d’un espace vectoriel E.
GLn (K) Le groupe linéaire d’ordre n sur K (où n est un entier stricte-
ment positif et K est un corps commutatif) ; c’est-à-dire l’en-
semble des matrices carrées d’ordre n, à coefficients dans K,
qui sont inversibles.
O(E) Le groupe orthogonal d’un espace euclidien E (voir §7.4).
On (R) Le groupe orthogonal de degré n sur R, où n est un entier
strictement positif (voir §7.4).
U(E) Le groupe unitaire d’un espace hermitien E (voir §9.4).
Un (C) Le groupe unitaire de degré n sur C, où n est un entier
strictement positif (voir §9.4).
det Déterminant (d’un endomorphisme en dimension finie ou
d’une matrice).
tr Trace (d’un endomorphisme en dimension finie ou d’une
matrice).
(1). Bien entendu, l’espace vectoriel en question doit être complexe lorsqu’il s’agit d’une
forme sesquilinéaire.

— vi —
rg Le rang (d’une matrice, d’un endomorphisme, d’une forme
bilinéaire, d’une forme quadratique, d’une forme sesqui-
linéaire ou d’une forme quadratique hermitienne) d’un es-
pace vectoriel de dimension finie (3) .
sgn(q) La signature d’une forme quadratique réelle (resp. hermi-
tienne) q d’un espace vectoriel réel (resp. complexe) de di-
mension finie.
~·~
u v Le produit scalaire de deux vecteurs u ~ et ~v d’un plan ou
d’un espace euclidien (~ u·~v := k~
uk · k~ u, ~
vk · cos(~ v)).
Ker f Cela pourrait désigner (selon le contexte) ou bien le noyau
d’une application linéaire entre deux espaces vectoriels, ou
bien le noyau d’une forme bilinéaire symétrique d’un cer-
tain espace vectoriel, ou encore le noyau d’une forme her-
mitienne d’un certain C-espace vectoriel.
x, y Produit scalaire de deux vecteurs x et y d’un certain espace
préhilbertien (réel ou complexe).
x, y us Produit scalaire usuel de deux vecteurs x et y de Rn ou Cn
(où n est un entier strictement positif).
t
A La matrice transposée d’une matrice A.
A La matrice obtenue en remplaçant chaque coefficient d’une
matrice complexe A par son conjugué.
A∗ La matrice adjointe d’une matrice complexe A. Elle est
définie par : A∗ := t A.
f∗ L’adjoint d’un endomorphisme f d’un espace préhilbertien
(défini aux chapitres 7 et 9).
P f (resp. PA ) Le polynôme caractéristique d’un endomorphisme f (resp.
d’une matrice carrée A) d’un K-espace vectoriel de dimen-
sion finie (resp. de Mn (K), avec n ∈ N∗ ), où K est l’un des
corps commutatifs R ou C.
σK ( f ) (resp. Le spectre (dans K) (4) d’un endomorphisme f (resp. d’une
σK (A)) matrice carrée A) d’un K-espace vectoriel de dimension finie
(resp. de Mn (K), avec n ∈ N∗ ), où K est l’un des corps
commutatifs R ou C.
(2). Bien entendu, l’espace vectoriel en question doit être complexe lorsqu’il s’agit d’une
forme sesquilinéaire ou d’une forme quadratique hermitienne.
(3). C’est-à-dire l’ensemble des valeurs propres de f (resp. de A), appartenant au corps
commutatif K.

— vii —
C k ([a, b], R) Le R-espace vectoriel des fonctions réelles de classe C k sur
l’intervalle [a, b] (où k est un entier positif et a et b sont
des nombres réels tels que a < b). Le cas particulier k =
0 correspond au R-espace vectoriel des fonctions réelles
continues sur l’intervalle [a, b].
A⊥ f (resp. A⊥q ) L’orthogonal d’une partie A d’un espace vectoriel par rap-
port à une forme bilinéaire symétrique ou à une forme her-
mitienne(4) f (resp. à une forme quadratique ou à une forme
quadratique hermitienne(4) q) de celui-ci. S’il n’y a pas d’am-
biguı̈té sur f ou q, on écrit simplement A⊥ au lieu de A⊥ f ou
A⊥ q .

(4). Bien entendu, l’espace vectoriel en question doit être complexe lorsqu’il s’agit d’une
forme hermitienne ou d’une forme quadratique hermitienne.

— viii —
Chapitre 1
Formes bilinéaires et produits
scalaires réels

Laservpremi ère forme du produit scalaire pouvait être ob-


ée dans un livre du mathématicien et astronome
arabo-persan Ben Messaoud al-Kashi, publié en 1428.
Al-Kashi travailla en tant qu’astronome à Samarcande
(en Ouzbékistan) et fut un grand maı̂tre de la trigo-
nométrie. L’un de ses travaux remarquables consista en
le calcul du nombre sin 1◦ avec une grande précision
à partir du nombre sin 3◦ (connu à l’époque avec une
grande précision). Il effectua ce calcul en résolvant une
équation de troisième degré par une méthode itérative
aujourd’hui connue sous le nom de méthode du point
fixe. On lui doit également l’invention des fractions
úæ AºË@ Xñª‚Ó áK. YJ‚Ô  HAJ
 g. áK YË@  « décimales, une excellente approximation du nombre π
(restée un record pendant plus d’un siècle) et d’impor-
(Ð 1439 - Ð 1350 ) tants travaux en Algèbre et en Arithmétique. Il fut incon-
testablement le plus grand mathématicien de son temps
et, avec l’arabo-andalou al-Qalsadi, l’un des derniers
grands mathématiciens de la civilisation musulmane.

Sommaire
1.1 Premières définitions et exemples . . . . . . . . . . . . . 2
1.2 Le noyau d’une forme bilinéaire symétrique . . . . . . . 4
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

Pour tout ce qui suit, on fixe K un corps commutatif et on désigne par

1
B. Farhi Chap 1. Formes bilinéaires et produits scalaires

E, F et G des K-espaces vectoriels.

1.1 Premières définitions et exemples


Définition 1.I.— On appelle application bilinéaire de E × F dans G toute
application f : E × F → G qui est linéaire par rapport à chacune de ses deux
variables ; c’est-à-dire qui vérifie pour tous λ1 , λ2 ∈ K, tous x, x1 , x2 ∈ E et
tous y, y1 , y2 ∈ F :
(i) f (λ1 x1 + λ2 x2 , y) = λ1 f (x1 , y) + λ2 f (x2 , y).
(ii) f (x, λ1 y1 + λ2 y2 ) = λ1 f (x, y1 ) + λ2 f (x, y2 ).
Dans le cas particulier correspondant à G = K, on dira que f est une forme
bilinéaire de E × F.

Exemple 1.I.— Soit :

f : R2 × R2 → R
.
u, ~
(~ u, ~
v) 7→ det(~ v)

— Montrer que f est une forme bilinéaire.


   
u v
~ = u1 , ~
Pour u v = v1 ∈ R2 , on a bien det(~ u, ~v) = u1 v2 − u2 v1 . En utilisant cette
2 2
expression, la bilinéarité de f est immédiate. 

Définition 1.II.— Une application bilinéaire f : E × E → G est dite


symétrique si elle vérifie :

∀x, y ∈ E : f (x, y) = f (y, x).

Pour toute la suite de ce polycopié, on s’intéressera unique-


ment aux formes bilinéaires et en particulier aux formes bi-
linéaires symétriques.

Exemple 1.II.— Soit :

f : R2 × R2 → R
.
u, ~
(~ ~·~
v) 7→ u v

— Montrer que f est une forme bilinéaire symétrique.

—2—
B. Farhi Chap 1. Formes bilinéaires et produits scalaires

   
u v
~ = u1 , ~
Pour u v = v1 ∈ R2 , on a bien u ~ ·~v = u1 v1 + u2 v2 . En utilisant cette expression,
2 2
la symétrie et la bilinéarité de f sont immédiates. 

Définition 1.III.— Soit f : E × E → K une forme bilinéaire symétrique.


On dit que f est définie si :

∀x ∈ E : f (x, x) = 0K =⇒ x = 0E .

Définition 1.IV.— Soit f : E × E → R une forme bilinéaire symétrique.


— On dit que f est positive si :

∀x ∈ E : f (x, x) ≥ 0.

— On dit que f est définie positive si f est à la fois définie et positive ; ce


qui revient à dire que f vérifie :

∀x ∈ E \ {0E } : f (x, x) > 0.

Définition 1.V (produit scalaire réel).— On prend K = R. On appelle


produit scalaire sur E toute forme bilinéaire symétrique, définie positive sur
E.

Notation.— Un produit scalaire de E est généralement désigné par le


symbole h , i. On écrit x , y pour désigner le produit scalaire de deux
vecteurs x et y de E.
Exemple 1.III (Le produit scalaire usuel de Rn ).— Soit n ∈ N∗ et
f : Rn × Rn −→ R
   
x1   y1 
 .   . 
 ..  ,  ..  7−→ x1 y1 + · · · + xn yn .
   
   
xn yn
— Montrer que f est un produit scalaire sur Rn .

La bilinéarité et la symétrie de f sont immédiates. De plus, pour tout x =


t
(x1 , . . . , xn ) ∈ Rn , on a : f (x, x) = x21 + · · · + x2n ≥ 0 (car c’est une somme de nombres
réels, tous positifs) et f (x, x) = 0 ssi x1 = · · · = xn = 0 (car, une somme de nombres
réels positifs est nulle ssi tous ces nombres sont nuls) ; c’est-à-dire ssi x = 0Rn . Ainsi
f est une forme bilinéaire symétrique définie positive de Rn ; c’est-à-dire que c’est
un produit scalaire de Rn . 

Appellation et notation.— Le produit scalaire de Rn (n ∈ N∗ ) introduit


à l’exemple 1.III s’appelle le produit scalaire usuel de Rn et se note h , ius . Le
produit scalaire usuel de deux vecteurs x et y de Rn est ainsi noté x , y us .

—3—
B. Farhi Chap 1. Formes bilinéaires et produits scalaires

Exemple 1.IV (En dimension infinie).— Posons E := C 0 ([0, 1], R) et


soit
ϕ : E × E −→ R
R1 .
( f, g) 7−→ 0 f (x)g(x) dx
— Montrer que ϕ est un produit scalaire sur E.

La bilinéarité et la symétrie de ϕ sont immédiates. De plus, pour tout f ∈ E, on


R1
a : ϕ( f, f ) = 0 f 2 (x) dx ≥ 0 (car c’est une intégrale d’une fonction positive). Enfin,
en appliquant la propriété des intégrales de Riemann selon laquelle ≪ l’intégrale
d’une fonction continue et positive sur un intervalle fermé borné de R est nulle si
et seulement si la fonction en question est nulle sur tout l’intervalle d’intégration ≫,
on a pour tout f ∈ E :
Z 1
ϕ( f, f ) = 0 ⇐⇒ f 2 (x) dx = 0
0
⇐⇒ f 2 (x) = 0, ∀x ∈ [0, 1] (car f 2 est continue et positive sur [0, 1])
⇐⇒ f (x) = 0, ∀x ∈ [0, 1]
⇐⇒ f = 0E .

Par conséquent, ϕ est une forme bilinéaire symétrique définie positive sur E ; autre-
ment dit, ϕ est un produit scalaire sur E. 

1.2 Le noyau d’une forme bilinéaire symétrique


Définition 1.VI.— Soit f une forme bilinéaire symétrique sur E. On
appelle noyau de f le sous-ensemble de E, noté Ker f et défini par :

Ker f := x ∈ E : f (x, y) = 0K , ∀y ∈ E .
Proposition 1.1.— Le noyau de toute forme bilinéaire symétrique f sur E
est un sous-espace vectoriel de E.
Démonstration.— Soit f une forme bilinéaire symétrique sur E. On
constate d’abord que Ker f est non vide car 0E ∈ Ker f (étant donné que f
est bilinéaire). Par suite, pour tous λ1 , λ2 ∈ K et tous x1 , x2 ∈ Ker f , on a par
définition même du noyau de f :
f (x1 , y) = 0K et f (x2 , y) = 0K (∀y ∈ E).
Mais puisque f est bilinéaire, il s’ensuit que pour tout y ∈ E, on a :
f (λ1 x1 + λ2 x2 , y) = λ1 f (x1 , y) + λ2 f (x2 , y)
= λ 1 0K + λ 2 0K
= 0K .

—4—
B. Farhi Chap 1. Formes bilinéaires et produits scalaires

Ce qui montre que (λ1 x1 + λ2 x2 ) ∈ Ker f . Ainsi l’on conclut que toute
combinaison linéaire de deux vecteurs de Ker f reste dans Ker f ; d’où Ker f
est bien un sous-espace vectoriel de E. 

Remarque 1.I.— On pourra redémontrer la proposition 1.1 d’une autre


façon en introduisant les formes linéaires fy (y ∈ E), définies par :

fy : E → K
.
x 7→ f (x, y)

On a alors immédiatement :
\
Ker f = Ker fy .
y∈E

Comme les ensembles Ker fy (y ∈ E) sont tous des sous-espaces vectoriels


de E (en tant que noyaux de formes linéaires) alors leur intersection Ker f
l’est également. CQFD.

Définition 1.VII.— Une forme bilinéaire symétrique f de E est dite non


dégénérée si Ker f = {0E }.

Exemple 1.V.— Montrer que toute forme bilinéaire symétrique définie


de E est non dégénérée. En particulier, tout produit scalaire réel de E
(lorsque K = R) est une forme bilinéaire symétrique non dégénérée.

Soit f une forme bilinéaire symétrique définie de E. Pour tout x ∈ Ker f , on a par
définition même f (x, y) = 0, ∀y ∈ E. En prenant en particulier y = x, on obtient
f (x, x) = 0 ; ce qui entraı̂ne (puisque f est définie) que x = 0E . Ce raisonnement
montre que l’on a Ker f ⊂ {0E }. L’inclusion inverse étant triviale (puisque Ker f est
un sous-espace vectoriel de E), d’où Ker f = {0E } et f est bien non dégénérée. 

—5—
B. Farhi Chap 1. Formes bilinéaires et produits scalaires

Exercices

Exercice 1.1. Soit f : R2 × R2 → R l’application définie par :


! !!
x x′
f , := xx′ + 4xy′ + 4x′ y + 16yy′ .
y y′

1. Montrer que f est une forme bilinéaire symétrique positive sur R2 .


2. f est-t-elle définie positive ?

Exercice 1.2. Soit f : R3 × R3 → R l’application définie par :


   ′ 
x x  1 1 1
   
f  y ,  y′  := xx′ + yy′ + zz′ + (xy′ + x′ y) + (xz′ + x′ z) + (yz′ + y′ z).
   ′  2 2 2
z z

— Montrer que f est un produit scalaire sur R3 .

Exercice 1.3. Soit h , i : R[x] × R[x] → R l’application définie par :


Z 1
hP, Qi := P(x)Q(x) dx (∀P, Q ∈ R[x]).
0

— Montrer que h , i est un produit scalaire sur R[x].

Exercice 1.4. Posons E := C 1 ([0, 1], R) et soit h , i : E × E → R l’application


définie par :
Z 1
h f, gi := f ′ (x)g′ (x) dx + f (0)g(0) (∀ f, g ∈ E).
0

— Montrer que h , i est un produit scalaire sur E.

Exercice 1.5. Posons E := C 0 ([0, 1], R) et Soit ϕ : E × E → R l’application


définie par :
Z 1
ϕ( f, g) := f (x)g(x) cos(πx) dx (∀ f, g ∈ E).
0

1. Montrer rapidement que ϕ est une forme bilinéaire symétrique sur


E.

—6—
B. Farhi Chap 1. Formes bilinéaires et produits scalaires

2. Montrer que ϕ n’est pas positive.


3. Montrer que ϕ est non dégénérée.

Exercice 1.6. Etant donnés n et m deux entiers strictement positifs, mon-


trer que le produit scalaire usuel de Mn,m (R) (où Mn,m (R) est naturellement
identifié à Rn×m ) peut être défini par la formule matricielle pratique sui-
vante :
hA , Bius = tr(t A B) (∀A, B ∈ Mn,m (R)).

Exercice 1.7. Soient n un entier strictement positif et E le R-espace vectoriel


Mn (R) des matrices réelles carrées d’ordre n. Considérons l’application

f : E2 −→ R
.
(A, B) 7−→ n tr(AB) − tr(A)tr(B)

1. Montrer que f est une forme bilinéaire symétrique sur E.


2. Montrer que f est dégénérée.
3. Désignons par E0 le sous-espace vectoriel de E constitué des matrices
de trace nulle et par f0 la restriction de f à E0 . Montrer que f0 est non
dégénérée.

—7—
Chapitre 2
Représentation matricielle des
formes bilinéaires en dimension
finie

Sommaire
2.1 Matrice associée à une forme bilinéaire . . . . . . . . . . 8
2.2 L’équivalent matriciel d’une forme bilinéaire symétrique 11
2.3 Calcul pratique du noyau d’une forme bilinéaire symétrique 13
2.4 Formule de changement de base . . . . . . . . . . . . . . 14
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

Pour tout ce qui suit, on fixe un corps commutatif K et un K-espace


vectoriel (non nul) E de dimension finie, notée n (n ∈ N∗ ).

2.1 Matrice associée à une forme bilinéaire


Soit B = (e1 , e2 , . . . , en ) une base de E. On considère f une forme bi-
linéaire sur E. Pour tout couple (x, y) de vecteurs de E, tels que
X
n X
n
x= xi ei et y = yi ei
i=1 i=1

(avec x1 , x2, . . . , xn , y1, y2 , . . . , yn ∈ K), on a (en vertu de la bilinéarité de f ) :


 
Xn X
n 
 
f (x, y) = f  xi ei , y j e j 
 
i=1 j=1

8
B. Farhi Chap 2. Représentation matricielle des formes bilinéaires

 
X
n  X n 
 
= xi f ei , y j e j 
 
i=1 j=1
X
n X
n
= xi y j f (ei , e j )
i=1 j=1
X
n X
n
= xi y j f (ei , e j).
i=1 j=1

D’où la formule : X
f (x, y) = f (ei , e j )xi y j (2.1)
1≤i, j≤n

Cette dernière formule montre que la forme bilinéaire f est entièrement


déterminée par la donnée des nombres f (ei , e j ) (1 ≤ i, j ≤ n). D’où l’idée de
représenter f par ce paquet de nombres :

Définition 2.I.— On définit la matrice associée à f relativement à la


base B = (e1 , e2 , . . . , en ) de E, que l’on note MB ( f ), par :
 
MB ( f ) := f (ei , e j ) .
1≤i, j≤n

Exemple 2.I.— Montrer que la matrice associée au produit scalaire


usuel de Rn relativement à la base canonique de Rn est la matrice identité
d’ordre n.

DEn désignant
E par C = (e1 , e2 , . . . , en ) la base canonique de Rn , on a clairement
ei , ej = δi j (∀i, j ∈ {1, 2, . . . , n}). La matrice associée à h , ius relativement à C est
us
donc égale à (δi j )1≤i, j≤n = In . 

Exemple 2.II.— Soit f la forme bilinéaire sur R2 , définie par :

f : R2 × R2 → R
.
(u, v) 7→ det(u, v)

— Déterminer la matrice associée à f relativement à la base canonique de


R2 .

En désignant par C = (e1 , e2 ) la base canonique de R2 , on a bien : det(e1 , e1 ) = 0,


det(e1 , e2 ) = 1, det(e
 2 , e1 ) = −1 et det(e2 , e2 ) = 0. La matrice associée à f relativement
0 1
à C est donc M = −1 0 . 

—9—
B. Farhi Chap 2. Représentation matricielle des formes bilinéaires

La proposition suivante établit une formule matricielle exprimant f (x, y)


(x, y ∈ E) en fonction des coordonnées des vecteurs x et y relativement à
une base fixée de E et de la matrice associée à f relativement à la même
base. En fait, cette formule n’est autre qu’une traduction matricielle de la
formule (2.1).
Proposition 2.1.— Soit B = (e1 , e2 , . . . , en ) une base de E et soient f une
forme bilinéaire sur E et A la matrice qui représente f relativement à B. Alors, pour
 
x1 
 
tous vecteurs x, y ∈ E, représentés respectivement par les coordonnées X =  ... 
 
xn
 
 y1 
 
et Y =  ...  de Kn relativement à la base B de E, on a :
 
yn

f (x, y) = t XAY. (2.2)


 
x1 
 
Démonstration.— Soient x et y deux vecteurs de E et soient X =  ... 
 
xn
 
y
 1 
 
et Y =  ...  leurs coordonnées respectives relativement à la base B. On a :
 
yn
  
 f (e1 , e1 ) . . . f (e1 , en )  y1 
 .. .. ..   . 
t
XAY = (x1 , . . . , xn )  . . .   .. 
  
  
f (en , e1) . . . f (en , en ) yn
 
 n   y1 
 X Xn
  . 
=  f (ei , e1 )xi , . . . , f (ei , en )xi   .. 
 
i=1 i=1 yn
 n 
X X
n


=  f (ei , e j )xi  y j
j=1 i=1
X
= f (ei , e j)xi y j
1≤i, j≤n

= f (x, y) (en vertu de (2.1)).


La proposition est démontrée. 

Bien qu’il est simple et immédiat, le corollaire suivant est souvent utile.

— 10 —
B. Farhi Chap 2. Représentation matricielle des formes bilinéaires

Corollaire 2.2.— Soient x et y deux vecteurs de Rn dont les coordonnées


respectives relativement à la base canonique de Rn sont notées X et Y. Alors, le
produit scalaire usuel de x et y est donné par la formule matricielle :

x, y us = t XY.

Démonstration.— D’après l’exemple 2.I, la matrice associée à h , ius


relativement à la base canonique de Rn est In . En utilisant la proposition
2.1, on a donc :
x , y us = t X In Y = t XY.
Le corollaire est démontré. 

Exemple 2.III.— Déterminer l’expression de la forme bilinéaire de R3


dont la matrice associée relativement à la base canonique de R3 est :
 
 1 3 4
 
A =  1 2 0 .
 
−2 1 1

Désignons par f la forme bilinéaire de R3 dont A est la matrice associée relativement


 
x
 1 
à la base canonique de R . En utilisant la formule (2.1), on a pour tous x = x2  , y =
3
x3
 
 y1 
 y2  ∈ R3 :
 
y3
X
f (x, y) = ai j xi y j = x1 y1 + 3x1 y2 + 4x1 y3 + x2 y1 + 2x2 y2 − 2x3 y1 + x3 y2 + x3 y3 . 
1≤i, j≤3

Remarque 2.I.— Les formules équivalentes (2.1) et (2.2) montrent qu’on


a une correspondance bijective entre Mn (K) et l’ensemble des formes bi-
linéaires sur E. Pour tous A, B ∈ Mn (K), on a donc :
 
∀X, Y ∈ Kn : t XAY = t XBY ⇐⇒ A = B .

2.2 L’équivalent matriciel d’une forme bilinéaire


symétrique
La proposition suivante établit l’équivalent matriciel d’une forme bi-
linéaire symétrique sur E.

— 11 —
B. Farhi Chap 2. Représentation matricielle des formes bilinéaires

Proposition 2.3.— Soit B une base de E et soient f une forme bilinéaire sur
E et A ∈ Mn (K) la matrice qui représente f relativement à B. Alors la forme
bilinéaire f est symétrique si et seulement si la matrice A est symétrique (1) .
 
x1 
 
Démonstration.— Dans cette démonstration, on note par X =  ... 
 
xn
 
y
 1 
 
et Y =  ...  les coordonnées respectives de deux vecteurs x et y de E,
 
yn
relativement à la base B. On a :
f est symétrique ⇐⇒ ∀x, y ∈ E : f (x, y) = f (y, x)
⇐⇒ ∀X, Y ∈ Kn : t XAY = t YAX (en vertu de la proposition 2.1).
Or, comme t YAX ∈ K (pour X, Y ∈ Kn ), on a (2) :
 
t
YAX = t t YAX = t Xt AY.
D’où :
f est symétrique ⇐⇒ ∀X, Y ∈ Kn : t XAY = t Xt AY
⇐⇒ A = t A (en vertu de la remarque 2.I)
⇐⇒ A est symétrique.
Ce qui achève cette démonstration. 

Remarque 2.II.— La proposition 2.3 montre qu’on a une correspon-


dance bijective entre l’ensemble des formes bilinéaires symétriques sur E
et l’ensemble des matrices carrées symétriques d’ordre n, à coefficients
dans K. Cette correspondance constitue en réalité un isomorphisme d’es-
paces vectoriels ; ce qui permet d’en déduire que le K-espace vectoriel des
n(n+1)
formes bilinéaires symétriques sur E est de dimension 2 .

Définitions 2.II.— Soit A une matrice carrée symétrique d’ordre n, à


coefficients dans K.
— On dit que A est définie si la forme bilinéaire symétrique qu’elle
représente (relativement à une certaine base de Kn ) est définie ; c’est-
à-dire si :
∀X ∈ Kn : t XAX = 0K =⇒ X = 0Kn .
(1). Rappelons qu’une matrice A ∈ Mn (K) est dite symétrique si elle vérifie : t A = A.
(2). En fait, on identifie une matrice carrée d’ordre 1 à son unique coefficient.

— 12 —
B. Farhi Chap 2. Représentation matricielle des formes bilinéaires

— Prenons K = R. On dit que A est positive si la forme bilinéaire


symétrique qu’elle représente (relativement à une certaine base de
Rn ) est positive ; c’est-à-dire si :

∀X ∈ Rn : t
XAX ≥ 0.

— Prenons K = R. On dit que A est définie positive si la forme bilinéaire


symétrique qu’elle représente (relativement à une certaine base de
Rn ) est définie positive ; c’est-à-dire si :

∀X ∈ Rn \ {0Rn } : t
XAX > 0.

2.3 Calcul pratique du noyau d’une forme bi-


linéaire symétrique
Nous verrons dans la proposition qui suit que la représentation matri-
cielle d’une forme bilinéaire symétrique de E permet d’en déduire immé-
diatement son noyau tout comme si c’était un endomorphisme de E.

Proposition 2.4.— Soient f une forme bilinéaire symétrique de E et A la


matrice qui la représente relativement à une certaine base B de E. Soit aussi u un
endomorphisme de E dont A est la matrice associée relativement à B. Alors, on a :

Ker f = Ker u.

Démonstration.— Posons B = (e1 , e2 , . . . , en ). Tout au long de cette dé-


   
x1   y1 
 .   
monstration, on note par X =  ..  et Y =  ...  les coordonnées respectives
 
   
xn yn
de deux vecteurs x et y de E. Nous introduisons ϕ la forme bilinéaire
symétrique de E dont la matrice associée relativement à B est In . En vertu
de (2.1), on a donc pour tous x, y ∈ E :
X X
n
ϕ(x, y) = δij xi y j = xi yi .
1≤i, j≤n i=1

Montrons d’abord que ϕ est non dégénérée. Tout vecteur x de Ker ϕ vérifie
ϕ(x, ei ) = 0, ∀i ∈ {1, 2, . . . , n}. Mais comme ϕ(x, ei ) = xi , on obtient que xi = 0
pour tout i ∈ {1, 2, . . . , n}, c’est-à-dire que X = 0Kn ; ce qui équivaut à x = 0E .
On vient donc d’établir que Ker ϕ ⊂ {0E }. L’inclusion inverse étant triviale

— 13 —
B. Farhi Chap 2. Représentation matricielle des formes bilinéaires

puisque Ker ϕ constitue un sous-espace vectoriel de E. D’où l’on conclut


que Ker ϕ = {0E } et ϕ est ainsi non dégénérée.
Maintenant, en utilisant la formule (2.2) de la proposition 2.1, on a pour
tous x, y ∈ E :

f (x, y) = t XAY
et

ϕ(x, u(y)) = t X In (AY) = t XAY

(car le vecteur u(y) est représenté dans B par les coordonnées AY, étant
donné que l’endomorphisme u de E est représenté par la matrice A relati-
vement à B). On a donc visiblement pour tous x, y ∈ E :

f (x, y) = ϕ(x, u(y)). (2.3)

En se servant enfin de cette précieuse formule (2.3), on a :

Ker f = {y ∈ E : f (x, y) = 0K , ∀x ∈ E}
= {y ∈ E : ϕ(x, u(y)) = 0K , ∀x ∈ E}
= {y ∈ E : u(y) ∈ Ker ϕ}
= {y ∈ E : u(y) = 0E } (car ϕ est non dégénérée)
= Ker u.

Ce qui achève cette démonstration. 

Corollaire 2.5.— Soient f une forme bilinéaire symétrique de E et A ∈


Mn (K) la matrice associée à f relativement à une certaine base B de E. Alors f
est non dégénérée si et seulement si A est inversible ; c’est-à-dire si et seulement si
det A , 0.

Démonstration.— C’est une conséquence immédiate de la définition


de la non-dégénérescence d’une forme bilinéaire symétrique de E et de la
proposition 2.4. 

2.4 Formule de changement de base


Dans ce qui suit, on verra comment la représentation matricielle d’une
forme bilinéaire de E change lorsqu’on effectue un changement de base de
E.

— 14 —
B. Farhi Chap 2. Représentation matricielle des formes bilinéaires

Proposition 2.6.— Soient B et B ′ deux bases de E et P la matrice de passage


de B vers B ′ . Soit aussi f une forme bilinéaire sur E, représentée dans la base B
par une matrice A et dans la base B ′ par une matrice A′ . Alors, on a :

A′ = t PAP.

Démonstration.— Soient x et y deux vecteurs quelconques de E et


soient X et Y leurs coordonnées respectives dans la base B et X′ et Y′ leurs
coordonnées respectives dans la base B ′ . On a donc X = PX′ et Y = PY′ .
Par suite, d’après la proposition 2.1, on a d’une part :

f (x, y) = t XAY = t (PX′ )A(PY′ ) = t X′t PAPY′ = t X′ (t PAP)Y′ (2.4)

et d’autre part :
f (x, y) = t X′ A′ Y′ . (2.5)
La comparaison entre (2.4) et (2.5) donne :
t
X′ A′ Y′ = t X′ (t PAP)Y′ .

Comme cette dernière formule est vraie pour tous X′ , Y′ ∈ Kn , il s’ensuit


(en vertu de la remarque 2.I) que l’on a :

A′ = t PAP.

Ce qui achève cette démonstration. 

La formule de changement de bases établie par la proposition 2.6 nous


amène à introduire une relation d’équivalence assez importante sur l’en-
semble Mn (K). Cette relation met simplement dans une même classe toutes
les matrices de Mn (K) qui représentent une même forme bilinéaire sur Kn
relativement aux différentes bases de Kn .

Définition 2.III.— Deux matrices A et B de Mn (K) sont dite congruentes


si elles représentent une même forme bilinéaire de Kn relativement à deux
bases (différentes ou identiques) de Kn .

En tenant compte de la proposition 2.6, on peut reformuler cette définition


(matriciellement) comme ceci :

Définition 2.IV (équivalente à la précédente).— Deux matrices A et B


de Mn (K) sont dite congruentes s’il existe une matrice P ∈ GLn (K) tel que
l’on ait :
B = t PAP.

— 15 —
B. Farhi Chap 2. Représentation matricielle des formes bilinéaires

Remarque 2.III.— Comme la multiplication d’une matrice A de Mn (K)


par une matrice de GLn (K) (à droite ou à gauche) ne fait pas changer le
rang de A, on déduit de la définition 2.IV que deux matrices congruentes
de Mn (K) ont forcément le même rang. Ce qui autorise (et rend légitime)
la définition suivante.

Définition 2.V.— Soit f une forme bilinéaire sur E. On définit le rang


de f , que l’on note rg( f ), comme étant le rang d’une matrice A de Mn (K)
qui représente f relativement à une certaine base de E.

Exemple 2.IV.— Soit f une forme bilinéaire symétrique sur E. Montrer


la formule :
dimKer f + rg( f ) = n.
— En déduire que f est non dégénérée si et seulement si rg( f ) = n.

Fixons une base B de E et soit A la matrice associée à f relativement à B. Intro-


duisons u l’endomorphisme de E dont A est la matrice associée relativement à B.
D’après le théorème du rang, on a :

dimKer u + dimIm u = dimE = n.

Mais comme Ker u = Ker f (en vertu de la proposition 2.4) et dimIm u = rg(A) =
rg( f ) (car A est une représentation matricielle de l’endomorphisme u et de la forme
bilinéaire f en même temps), il en résulte que :

dimKer f + rg( f ) = n,

comme il fallait le prouver.


— Maintenant, f est non dégénérée veut dire (par définition même) que Ker f = {0E} ;
ce qui équivaut à dire que dimKer f = 0. La formule précédente permet ainsi de
conclure que f est non dégénérée ssi rg( f ) = n. 

— 16 —
B. Farhi Chap 2. Représentation matricielle des formes bilinéaires

Exercices

Exercice 2.1. Soit f : R2 × R2 → R définie par :


! !! ! ! !
x1 y1 x1 x2 2
f , = x1 y1 − 4x1 y2 − 4x2 y1 + 10x2 y2 ∀ , ∈R .
x2 y2 x2 y2

1. Vérifier rapidement que f est une forme bilinéaire symétrique sur


R2 .
2. Ecrire la matrice A représentant f relativement à la base canonique
du R-espace vectoriel R2 .
3. Déterminer de deux façons différentes la matrice B représentant f
relativement à la nouvelle base B = (u1 , u2 ) de R2 , avec :
! !
1 2
u1 = et u2 = .
1 1

(a) En utilisant la définition d’une matrice associée à une forme


bilinéaire relativement à une base donnée.
(b) En utilisant la formule de changement de base.
4. La forme bilinéaire symétrique f est-elle positive ?

Exercice 2.2. Soit ϕ : R2 [X] × R2 [X] → R l’application définie par :

ϕ(P, Q) = P(0)Q(0) + P(1)Q(1) + P(−1)Q(−1) (∀P, Q ∈ R2 [X]).

1. Montrer que ϕ est un produit scalaire sur R2 [X].


2. Ecrire la matrice associée à ϕ relativement à la base canonique de
R2 [X].

Exercice 2.3. Soit f : R3 × R3 → R l’application définie par :


   
x1   y1   
   
f x2  ,  y2  := 2 x1 y1 − 4 x2 y2 − 2 x3 y3 − x1 y2 + x2 y1 + 3 x2 y3 + x3 y2 .
   
x3 y3

1. Vérifier rapidement que f est une forme bilinéaire symétrique sur le


R-espace vectoriel R3 .
2. Déterminer Ker f .

— 17 —
B. Farhi Chap 2. Représentation matricielle des formes bilinéaires

Exercice 2.4. Soient n un entier strictement positif et A une matrice réelle


symétrique de d’ordre n.
— Montrer que si la matrice A est définie positive alors sa matrice inverse
A−1 est aussi (symétrique) définie positive.

Exercice 2.5. Soient E un R-espace vectoriel de dimension finie et h , i1 et


h , i2 deux produits scalaires sur E.
— Montrer qu’il existe un unique automorphisme u de E pour lequel on
ait :
x , y 2 = u(x) , y 1 (∀x, y ∈ E).

— 18 —
Chapitre 3
Formes quadratiques et
orthogonalité

Sommaire
3.1 Forme quadratique associée à une forme bilinéaire symétrique 19
3.2 Reconnaissance rapide d’une forme quadratique en di-
mension finie . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.4 Familles et bases orthogonales pour une forme bilinéaire
symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.5 L’intérêt d’une base orthogonale . . . . . . . . . . . . . . 30
3.6 Familles et bases orthonormées . . . . . . . . . . . . . . 30
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

Pour tout ce qui suit, on fixe K un corps commutatif, de caractéristique (1)


différente de 2, et E un K-espace vectoriel.

3.1 Forme quadratique associée à une forme bi-


linéaire symétrique
Définition 3.I.— Soit f une forme bilinéaire symétrique sur E. On ap-
pelle forme quadratique associée à f l’application :
(1). Cela signifie (grossièrement parlant) que l’élément 2K := 1K + 1K est inversible dans
K. La division sur 2 (qui s’impose dans certaines formules) est donc possible dans K. De
toutes les façons, les corps qui nous intéressent à ce niveau sont R et C (tous les deux
étant de caractéristique nulle, bien différente de 2).

19
B. Farhi Chap 3. Formes quadratiques et orthogonalité

q: E → R
.
x 7→ q(x) := f (x, x)
Exemple 3.I.— La forme quadratique associée au produit scalaire usuel
h , ius de Rn , avec n ∈ N∗ (voir l’exemple 1.III) est donnée par :

q: Rn → R
 
x1 
  .
x =  ...  7→ q(x) = hx , xius = x21 + x22 + · · · + x2n
 
xn

On reconnaı̂t le carré de la norme euclidienne de Rn (notée k · k2 ). Nous


généralisons ce phénomène plus loin en montrant que la forme quadra-
tique associée à n’importe quel produit scalaire (réel) de E est le carré d’une
norme (assez particulière) de E.

Définition 3.II.— On appelle forme quadratique de E toute application


q : E → R tel qu’il existe une forme bilinéaire symétrique f sur E pour
laquelle on ait :
f (x, x) = q(x) (∀x ∈ E).

Par définition même, à toute forme bilinéaire symétrique de E est as-


sociée une unique forme quadratique sur E, mais ce qui n’est pas tout
à fait clair c’est l’inverse. On se demande explicitement si, étant donnée
une forme quadratique q sur E, celle-ci est associée à une unique forme
bilinéaire symétrique f de E. Et, dans l’affirmative, comment déterminer
f ? Ceci est l’objet de la proposition suivante :

Proposition 3.1.— Toute forme quadratique q sur E est associée à une unique
forme bilinéaire symétrique f sur E, qui est donnée par la formule :

1 
f (x, y) = q(x + y) − q(x) − q(y) (∀x, y ∈ E). (3.1)
2
Démonstration.— Soit q une forme quadratique sur E et f une forme
bilinéaire symétrique sur E dont q est la forme quadratique associée. En
utilisant la bilinéarité et la symétrie de f , on a pour tous x, y ∈ E :

q(x + y) = f (x + y, x + y)
= f (x, x) + f (x, y) + f (y, x) + f (y, y)
= q(x) + q(y) + 2 f (x, y).

— 20 —
B. Farhi Chap 3. Formes quadratiques et orthogonalité

D’où l’on tire :


1 
q(x + y) − q(x) − q(y) ,
f (x, y) =
2
ce qui est la formule requise pour f , confirmant en particulier son unicité.
La proposition est démontrée. 

On vient d’établir ainsi une correspondance bijective entre l’ensemble


des formes bilinéaires symétriques de E et l’ensemble des formes quadra-
tiques de E.
Définition 3.III.— Soit q une forme quadratique de E. On appelle forme
polaire associée à q, l’unique forme bilinéaire symétrique f dont q est la
forme quadratique associée. En vertu de la proposition 3.1, on peut définir
f par :
f : E2 −→ R
 .
(x, y) 7−→ f (x, y) := 12 q(x + y) − q(x) − q(y)
Remarque 3.I.— Il est à noter que d’autres formules exprimant la
forme polaire f associée à une forme quadratique donnée q de E, en fonc-
tion de q, existent. Parmi ces formules, la suivante :
1 
f (x, y) = q(x + y) − q(x − y) .
4
La preuve de cette formule est laissée au lecteur.

Appellation 3.I.— Etant données q une forme quadratique de E et f sa


forme polaire, toute identité exprimant f en fonction de q s’appelle identité
de polarisation.

Définitions 3.IV.— Soit q une forme quadratique sur E.


1. Supposons que E est de dimension finie. On définit le rang de q, que
l’on note rg(q), comme étant le rang de sa forme polaire.
2. On dit que q est non dégénérée si sa forme polaire est non dégénérée.
3. On dit que q est définie si sa forme polaire est définie ; c’est-à-dire si
elle vérifie la propriété :
∀x ∈ E : q(x) = 0 =⇒ x = 0E .

4. On suppose pour ce qui suit que K = R.


— On dit que q est positive si sa forme polaire est positive ; c’est-à-
dire si elle vérifie la propriété :
∀x ∈ E : q(x) ≥ 0.

— 21 —
B. Farhi Chap 3. Formes quadratiques et orthogonalité

— On dit que q est définie positive si elle est à la fois définie et


positive ; c’est-à-dire si elle vérifie la propriété :
∀x ∈ E \ {0E } : q(x) > 0.

— On dit que q est négative si elle vérifie la propriété :

∀x ∈ E : q(x) ≤ 0.

— On dit que q est définie négative si elle est à la fois définie et


négative ; c’est-à-dire si elle vérifie la propriété :
∀x ∈ E \ {0E } : q(x) < 0.

Remarque 3.II.— On montrera plus loin (voir le corollaire 4.6) que


lorsque K = R, une forme quadratique définie de E est nécessairement
ou bien définie positive ou bien définie négative. Cela résulte en fait de la
continuité d’une forme quadratique réelle dans un certain sens.

3.2 Reconnaissance rapide d’une forme quadra-


tique et détermination rapide de sa forme po-
laire (en dimension finie)
La reconnaissance rapide de l’expression d’une forme quadratique d’un
espace vectoriel de dimension finie ainsi que la détermination immédiate
de sa forme polaire sont établies dans la proposition suivante :
Proposition 3.2.— Supposons que E est de dimension finie n (avec n ≥ 1)
et soient B = (e1 , e2 , . . . , en ) une base de E et q : E → K une application. Alors
q est une forme quadratique sur E si et seulement si l’expression
q (x1 e1 + x2 e2 + · · · + xn en ) (x1 , x2, . . . , xn ∈ K)
est un polynôme homogène de second degré, à coefficients dans K, en x1, x2 , . . . , xn (2) ,
c’est-à-dire de la forme :. X
aij xi x j ,
1≤i≤j≤n

(2). Un polynôme homogène de second degré, à coefficients dans K, en n variables


x1 , . . . , xn est un polynôme P ∈ K[x1 , . . . , xn ], constitué de monômes quiPsont tous de
même degré égale à 2 ; il est donc forcément de la forme P(x1 , . . . , xn ) = 1≤i≤ j≤n ai j xi x j ,
avec les ai j (1 ≤ i ≤ j ≤ n) sont des éléments de K. Un tel polynôme vérifie la formule
d’Euler : P(kx1 , . . . , kxn ) = k2 P(x1 , . . . , xn ) (∀k, x1 , . . . , xn ∈ K).

— 22 —
B. Farhi Chap 3. Formes quadratiques et orthogonalité

où les aij (1 ≤ i ≤ j ≤ n) sont des éléments de K.


— De plus, si tel est le cas alors la forme polaire associée à q est donnée par :

f : E2 −→ K
X
n
1 X  
(x, y) 7−→ f (x, y) = aii xi yi + aij xi y j + x j yi ,
i=1
2 1≤i<j≤n

où l’on a désigné par x1 , x2 , . . . , xn et y1 , y2 , . . . , yn les coordonnées respectives de


deux vecteurs x et y de E relativement à B.

Démonstration.— Durant cette démonstration, on désigne par x1 , x2,


. . . , xn et y1 , y2 , . . . , yn les coordonnées respectives de deux vecteurs x et y
de E.
• (⇒) Supposons que q est une forme quadratique sur E et soit f sa forme
polaire. Alors pour tous x1 , x2 , . . . , xn ∈ K, on a en vertu de la bilinéarité et
de la symmétrie de f :

q (x1 e1 + · · · + xn en ) = f (x1 e1 + · · · + xn en , x1 e1 + · · · + xn en )
X
= f (ei , e j ) xi x j
1≤i, j≤n
X
n X
= f (ei , ei ) x2i + 2 f (ei , e j ) xi x j ,
i=1 1≤i<j≤n

qui est visiblement un polynôme homogène de second degré, à coefficients


dans K, en x1 , x2, . . . , xn .
• (⇐) Inversement, supposons que q(x1 e1 + x2 e2 + · · · + xn en ) (x1 , x2 , . . . , xn ∈
K) est un polynôme homogène de second degré, à coefficients dans K, en
x1 , x2, . . . , xn ; que l’on peut donc écrire sous la forme :
X
q (x1 e1 + x2 e2 + · · · + xn en ) = aij xi x j
1≤i≤j≤n

(avec aij ∈ K pour tous 1 ≤ i ≤ j ≤ n). En définissant alors f : E2 → K par :

X
n
1 X  
f (x, y) := aii xi yi + aij xi y j + x j yi (∀x, y ∈ E),
i=1
2 1≤i<j≤n

on vérifie immédiatement que :


• f est une forme bilinéaire symétrique sur E,

— 23 —
B. Farhi Chap 3. Formes quadratiques et orthogonalité

• f (x, x) = q(x) (∀x ∈ E).


Par conséquent, q est la forme quadratique associée à la forme bilinéaire
symétrique f ; autrement dit, q est une forme quadratique sur E et f est sa
forme polaire. Ce qui complète la preuve de la proposition. 

Définition 3.V.— Soient B une base de E et q une forme quadratique


de E. On définit la matrice associée à q relativement à B, que l’on note MB (q),
comme étant la matrice associée à la forme polaire de q relativement à B.
Faisons remarquer que MB (q) est une matrice symétrique de Mn (K).

Exemple 3.II.— Soit

q: R3 −→ R
 
x1  .
 
x = x2  7−→ q(x) = x21 + x1 x2 + x1 x3 + 2x2 x3
 
x3

1. Montrer que q est une forme quadratique sur R3 .


2. Déterminer la forme polaire associée à q puis la matrice associée à q
relativement à la base canonique de R3 .

Durant cette solution, on note par C la base canonique de R3 et on désigne par


t
(x1 , x2 , x3 ) et t (y1 , y2 , y3 ) les coordonnées respectives de deux vecteurs x et y de R3 .
1. Comme q(x) est visiblement un polynôme homogène de second degré (à co-
efficients réels) alors q est bien une forme quadratique sur R3 (en vertu de la
proposition 3.2).
2. Soit f la forme polaire de q. Pour déterminer l’expression de f , on peut se
servir de la formule (3.1) :

1 
f (x, y) = q(x + y) − q(x) − q(y) (∀x, y ∈ R3 ).
2

En suivant cependant cette démarche, les calculs à effectuer sont longs. En se


servant plutôt de la proposition 3.2 (étant donné qu’on est en dimension finie),
la détermination de f est beaucoup plus immédiate. En effet, l’expression de
f (x, y) (x, y ∈ R3 ) s’obtient simplement en échangeant dans l’expression  de

2 1
q(x) chaque xi (1 ≤ i ≤ 3) par xi yi et chaque xi x j (1 ≤ i < j ≤ 3) par 2 xi y j + x j yi .
On obtient alors pour tous x, y ∈ R3 :

1  1  
f (x, y) = x1 y1 + x1 y2 + x2 y1 + x1 y3 + x3 y1 + x2 y3 + x3 y2 .
2 2

— La matrice associée à q relativement à la base canonique de R3 est, par


définition, la matrice associée à f relativement à la même base. En posant

— 24 —
B. Farhi Chap 3. Formes quadratiques et orthogonalité

MC (q) = MC ( f ) = (ai j )1≤i, j≤3 , on a (d’après la formule (2.1) et la définition des


coefficients ai j ) : X
f (x, y) = ai j x i y j .
1≤i, j≤3

Il suffit d’identifier cette formule avec la précédente pour déduire les valeurs
des coefficients ai j de la matrice MC (q). On obtient au final :
 1 1
 1 2 2

 
MC (q) =  21 0 1  . 
 
1
2 1 0

Remarque 3.III.— Pour une forme quadratique réelle q d’expression


P(x1 , x2, . . . , xn ) relativement à une certaine base B de E (où P est un
polynôme homogène de second degré, à coefficients réels), on vérifie
immédiatement que la matrice associée à q relativement à B est donnée
par : !
1 ∂2 P
MB (q) = .
2 ∂xi ∂x j 1≤i, j≤n
 
∂2 P
La matrice ∂xi ∂x j s’appelle la matrice hessienne de P ; elle est définie
1≤i, j≤n
plus généralement pour toute fonction f : Rn → R admettant des dérivées
partielles secondes. Si particulièrement f est de classe C 2 sur un certain
ouvert de Rn alors sa matrice hessienne (sur cet ouvert) est symétrique (en
vertu d’un théorème de Schwarz).

3.3 Orthogonalité
Dans cette section, on fixe une forme bilinéaire symétrique f de E et on
note q la forme quadratique associée à f .

Définitions 3.VI.—
• On dit que deux vecteurs x et y de E sont orthogonaux par rapport à f
(ou par rapport à q) et on écrit x ⊥ f y (ou x ⊥q y) si :

f (x, y) = 0K .

Cette même propriété s’exprime aussi en disant que x et y sont f -


orthogonaux (ou q-orthogonaux). S’il n’y a pas d’ambiguı̈té sur f (et q),
on dit simplement que x et y sont orthogonaux et on écrit x ⊥ y.

— 25 —
B. Farhi Chap 3. Formes quadratiques et orthogonalité

• Lorsqu’un vecteur x de E est orthogonal à lui même, on dit qu’il est


isotrope. L’ensemble de tous les vecteurs isotropes de E s’appelle le
cône isotrope de E.
• Etant donnée une partie A de E, on appelle l’orthogonal de A par
rapport à f (ou par rapport à q) le sous-ensemble de E, noté A⊥ f (ou
A⊥q ), et défini par :

A⊥ f := x ∈ E : f (x, y) = 0K , ∀y ∈ A .

Autrement dit, A⊥ f est l’ensemble des vecteurs de E qui sont f -


orthogonaux à tous les vecteurs de A.
S’il n’y a pas d’ambigüité sur f (et q), on écrit A⊥ au lieu de A⊥ f (ou
A⊥q ).
Cas particuliers : On a :

∅⊥ f = {0E }⊥ f = E
E⊥ f = Ker f.

Dans la proposition qui suit, on établira quelques propriétés simples


mais importantes sur l’orthogonal d’une partie d’un espace vectoriel.

Proposition 3.3.—
1. Pour toute partie A de E, l’ensemble A⊥ est un sous-espace vectoriel de E.
2. Pour tous A, B ∈ P(E), on a :

A ⊂ B =⇒ B⊥ ⊂ A⊥ .

3. Pour tout A ∈ P(E), on a :

A⊥ = Vect(A)⊥ .

4. Pour tout A ∈ P(E), on a :


A ⊂ A⊥⊥
(où A⊥⊥ := (A⊥ )⊥ ).

Démonstration.—
1. Soit A une partie de E et montrons que A⊥ est un sous-espace vectoriel
de E. Il s’agit de montrer que :

∀x, x′ ∈ A⊥ , ∀α, α′ ∈ K : αx + α′ x′ ∈ A⊥ .

— 26 —
B. Farhi Chap 3. Formes quadratiques et orthogonalité

Soient x, x′ ∈ A⊥ et α, α′ ∈ K et montrons que (αx + α′ x′ ) ∈ A⊥ . Pour tout


y ∈ A, en utilisant le fait que f est bilinéaire puis le fait que f (x, y) =
f (x′ , y) = 0K (car x, x′ ∈ A⊥ ), on a :
f (αx + α′ x′ , y) = α f (x, y) + α′ f (x′ , y) = α · 0K + α′ · 0K = 0K .
Ce qui montre que (αx + α′ x′ ) ∈ A⊥ , comme on devait le prouver. Le sous-
ensemble A⊥ de E est donc bien un sous-espace vectoriel de E.
2. Soient A et B deux parties de E. Supposons que A ⊂ B et montrons que
B⊥ ⊂ A⊥ . Pour tout x ∈ E, on a :
x ∈ B⊥ ⇐⇒ ∀y ∈ B : f (x, y) = 0K
=⇒ ∀y ∈ A : f (x, y) = 0K (puisque par hypothèse A ⊂ B)
⇐⇒ x ∈ A⊥ .
D’où l’implication ≪ ∀x ∈ E : x ∈ B⊥ ⇒ x ∈ A⊥ ≫, équivalente à l’inclusion
requise B⊥ ⊂ A⊥ .
3. Soit A une partie de E et montrons que A⊥ = Vect(A)⊥ . L’inclusion triviale
A ⊂ Vect(A) entraı̂ne (en vertu de la propriété du point 2. de la proposition)
que Vect(A)⊥ ⊂ A⊥ . Il ne reste donc qu’à montrer l’inclusion dans l’autre
sens, qui est : A⊥ ⊂ Vect(A)⊥ . Pour ce faire, soit x ∈ A⊥ et montrons que
x ∈ Vect(A)⊥ . Le fait ≪ x ∈ A⊥ ≫ signifie que x est f -orthogonal à tous les
vecteurs de A. Mais ceci entraı̂ne (en vertu de la bilinéarité de f ) que x est
aussi f -orthogonal à toutes les combinaisons linéaires (à coefficients dans
K) de vecteurs de A ; c’est-à-dire à tous les vecteurs de Vect(A). Ce qui
prouve que x ∈ Vect(A)⊥ . L’inclusion A⊥ ⊂ Vect(A)⊥ est ainsi démontrée.
D’où l’égalité ensembliste requise A⊥ = Vect(A)⊥ .
4. Soit A une partie de E et montrons que A ⊂ A⊥⊥ . Soit donc x ∈ A et
montrons que x ∈ A⊥⊥ . Cela revient à montrer que x est orthogonal à
tous les vecteurs de A⊥ . Ce qui équivaut à montrer (puisque la relation
≪ orthogonal à ≫ est symétrique) que tout vecteur de A

est orthogonal à x.
Mais ceci est évident puisque (par définition même de l’ensemble A⊥ ) tout
vecteur de A⊥ est orthogonal à tous les vecteurs de A et en particulier à x.
D’où x ∈ A⊥⊥ et l’inclusion A ⊂ A⊥⊥ est ainsi démontrée.
La proposition est démontrée. 

3.4 Familles et bases orthogonales pour une forme


bilinéaire symétrique
Dans cette section, on fixe sur E une forme bilinéaire symétrique f et
on désigne par q la forme quadratique qui lui est associée.

— 27 —
B. Farhi Chap 3. Formes quadratiques et orthogonalité

Définition 3.VII.— Une famille F de E est dite orthogonale pour f


(ou simplement orthogonale s’il n’y a pas d’ambiguı̈té sur f ) si pour tous
x, y ∈ F , avec x , y, on a : x ⊥ f y. Autrement dit, si :

f (x, y) = 0K (∀x, y ∈ F , avec x , y).

— Lorsqu’une base B de E est une famille orthogonale pour f , on dit que


B est une base orthogonale de E pour f (ou simplement une base orthogonale
de E s’il n’y a pas d’ambiguı̈té sur f ).
— L’expression ≪ orthogonale pour f ≫ est quelquefois remplacée par l’une
des expressions suivantes : ≪ orthogonale pour q ≫, ≪ f -orthogonale ≫, ≪ q-
orthogonale ≫.

Lorsque E est de dimension finie, la détermination d’une base ortho-


gonale de E pour f est très utile pour la simplification et la classification
de la forme bilinéaire symétrique f ; heureusement d’ailleurs qu’une telle
base existe toujours !
Théorème 3.4.— Supposons que E est de dimension finie. Il existe alors au
moins une base orthogonale de E pour f .

Démonstration.— Pour avoir une meilleur rigueur mathématique dans


la démonstration qu’on va donner, nous reformulons le théorème à démon-
trer ainsi :
Tout K-espace vectoriel de dimension finie (≥ 1) possède une base
orthogonale pour une forme bilinéaire symétrique donnée sur cet es-
pace.
Sans perte de généralité, supposons que la forme bilinéaire symétrique en
question est non identiquement nulle (sinon, toute base de l’espace vec-
toriel en question est orthogonale et l’énoncé est trivialement vrai). On
raisonne par récurrence sur la dimension d de l’espace vectoriel en ques-
tion.
• Si d = 1. Dans ce cas, toute base de l’espace vectoriel en question convient.
• Soit d ≥ 2 un entier. Supposons que l’énoncé ci-dessus est vrai pour tout
K-espace vectoriel de dimension (d−1) et toute forme bilinéaire symétrique
sur cet espace et montrons qu’il reste encore vrai pour tout K-espace vec-
toriel de dimension d et toute forme bilinéaire symétrique sur ce dernier.
Soit donc E un K-espace vectoriel de dimension d et g une forme bilinéaire
symétrique non identiquement nulle sur E . Nous allons montrer (en trois
étapes) que E possède bien une base g-orthogonale.
1ère étape : Montrons par l’absurde que E possède au moins un vecteur non

— 28 —
B. Farhi Chap 3. Formes quadratiques et orthogonalité

isotrope pour g (i.e., un vecteur u tel que g(u, u) , 0K ). En supposant le


contraire (i.e., ∀u ∈ E : g(u, u) = 0K ) et en utilisant (3.1), on a pour tous
x, y ∈ E :
1  1
g(x, y) = g(x + y, x + y) − g(x, x) − g(y, y) = (0K − 0K − 0K ) = 0K .
2 2
Ce qui contredit l’hypothèse ≪ g est non identiquement nulle ≫. Ainsi E
possède au moins un vecteur non isotrope pour g. Pour la suite, nous
fixons u ∈ E tel que g(u, u) , 0K .
2ème étape : On introduit H := {u}⊥ . On sait (d’après le point 1 de la
proposition 3.3) que H est un sous-espace vectoriel de E . Nous allons
en dire plus sur H . En introduisant
gu : E −→ K
,
x 7−→ gu (x) := g(x, u)
qui est une forme linéaire non identiquement nulle de E (car g est une
forme bilinéaire de E et gu (u) = g(u, u) , 0K ), on a :
n o
H = x ∈ E : x ⊥g u

= x ∈ E : g(x, u) = 0K

= x ∈ E : gu (x) = 0K
= Ker gu .
Ainsi, H est le noyau d’une forme linéaire non identiquement nulle de E ;
c’est-à-dire que H est un hyperplan de E . D’où :
dimH = dimE − 1 = d − 1.
Par ailleurs, le fait que g(u, u) , 0K entraı̂ne immédiatement que H ∩
Vect(u) = {0E }. Ce qui montre que les deux sous-espaces vectoriels H et
Vect(u) de E sont en somme directe. Il résulte de cela que :
dim (H ⊕ Vect(u)) = dimH + dimVect(u) = (d − 1) + 1 = d = dimE .
D’où l’on conclut que :
H ⊕ Vect(u) = E .
Autrement dit, H et Vect(u) sont supplémentaires dans E .
3ème étape : comme dimH = d − 1 (voir la 2ème étape) alors, d’après notre
hypothèse de récurrence, il existe une base (e1 , . . . , ed−1 ) de H , orthogonale
pour la forme bilinéaire symétrique g|H de H . En se servant du fait que
H et Vect(u) sont supplémentaire dans E (établi à la 2ème étape) et de la
définition même de H , il en résulte que (e1 , . . . , ed−1 , u) est une base de E ,
orthogonale pour g. Le K-espace vectoriel E possède donc au moins une
base g-orthogonale. Ce qui achève cette récurrence et cette démonstration.

— 29 —
B. Farhi Chap 3. Formes quadratiques et orthogonalité

3.5 L’intérêt d’une base orthogonale


Supposons que E est de dimension finie, notée n (n ∈ N∗ ) et fixons-nous
une forme bilinéaire symétrique f sur E et une base B = (e1 , e2 , . . . , en ) de
E, orthogonale pour f . Pour tous i, j ∈ {1, 2, . . . , n}, posons aij = f (ei , e j).
Comme B est f -orthogonale, on a aij = 0K pour tous i, j ∈ {1, 2, . . . , n} tels
que i , j. La matrice associée à f relativement à B s’écrit alors :
 
a11 (0)
 .. 
MB ( f ) =  .  ,

 
(0) ann
qui est visiblement diagonale. Nous retenons donc que :

La matrice associée à f relativement à une base f -orthogonale est une


matrice diagonale.

Nous pouvons donc reformuler le théorème 3.4 de la façon remarquable


suivante :

Toute forme bilinéaire symétrique d’un espace vectoriel de dimension finie


est diagonalisable (3) .

Ce résultat éclaire la différence qu’on a avec la réduction des endomor-


phismes (étudiée en Algèbre 3) qui ne se limite pas à la diagonalisation, vu
que celle-ci n’est pas toujours possible.
Inversement, il est facile à montrer que si la matrice associée à f rela-
tivement à une certaine base B ′ de E est diagonale alors B ′ est une base
f -orthogonale.

3.6 Familles et bases orthonormées


Dans cette section, une forme bilinéaire symétrique f sur E est fixée.
Définition 3.VIII.— Une famille F de E est dite orthonormée pour f
(ou simplement orthonormée s’il n’y a pas d’ambiguı̈té sur f ) si pour tous
x, y ∈ F , on a : 


1K si x = y
f (x, y) = 
 .
0K si x , y

(2). C’est-à-dire représentable par une matrice diagonale.

— 30 —
B. Farhi Chap 3. Formes quadratiques et orthogonalité

— Lorsqu’une base B de E est une famille orthonormée pour f , on dit que


B est une base orthonormée de E pour f (ou simplement une base orthonormée
de E s’il n’y a pas d’ambiguı̈té sur f ).
— En désignant par q la forme quadratique associée à f , l’expression
≪ orthonormée pour f ≫ est quelquefois remplacée par l’une des expressions

suivantes : ≪ orthonormée pour q ≫, ≪ f -orthonormée ≫, ≪ q-orthonormée ≫.


Remarques 3.IV.—
1. Toute famille f -orthonormée de E est (à fortiori) une famille f -
orthogonale.
2. Si E est de dimension finie, notée n (n ∈ N∗ ), et B = (e1 , e2 , . . . , en )
est une base orthonormée de E alors la matrice associée à la forme
bilinéaire symétrique f de E relativement à B est :
   
MB ( f ) := f (ei , e j ) = δij = In .
1≤i, j≤n 1≤i, j≤n

3. Même lorsque E est de dimension finie, l’existence d’une base ortho-


normée de E n’a pas toujours lieu.
Exemple 3.III.— Prenons K = R et supposons que E est de dimension
finie, notée n (n ∈ N∗ ), et que f constitue un produit scalaire sur E. Montrer
que E possède une base orthonormée pour f .
Considérons une base f -orthogonale (u1 , u2 , . . . , un ) de E (l’existence d’une telle
base est garantie par le théorème 3.4). Comme f est définie positive (car c’est un
produit scalaire de E), on a pour tout i ∈ {1, 2, . . . , n} : f (ui , ui ) > 0. Posons pour tout
i ∈ {1, 2, . . . , n} :
ui
ei := p .
f (ui , ui )
D’une part, il est évident que la famille (e1 , e2 , . . . , en ) (tout comme (u1 , u2 , . . . , un )) est
une base de E. D’autre part, en se servant de la bilinéarité de f et de l’orthogonalité
de la famille (u1 , u2 , . . . , un ), on a pour tous i, j ∈ {1, 2, . . . , n} :
  (
 u i uj  1 0 si i , j
f (ei , e j ) = f  p , p  = p
 f (u i , u j ) =
f (ui , ui ) f (u j , u j ) f (u i , u i ) f (u j , u j ) 1 si i = j
= δi j .

Ce qui montre que la base (e1 , e2 , . . . , en ) de E est f -orthonormée. Le R-espace vecto-


riel E possède donc bien une base f -orthonormée. 

Lorsque E est de dimension finie, les méthodes de détermination de


bases orthogonales ou orthonormées (pour un produit scalaire par exemple)
de E seront détaillées dans les chapitres à venir.

— 31 —
B. Farhi Chap 3. Formes quadratiques et orthogonalité

Exercices

Exercice 3.1. Soit q : R3 → R l’application définie par :


     
x1   x1  
   x  
q x2  := (x1 + x2 + x3 )(x1 + 3x2 + 5x3 ) ∀  2  ∈ R3  .
     
x3 x3

1. Montrer que q est une forme quadratique sur R3 .


2. Déterminer la forme polaire associée à q.
3. Déterminer la matrice associée à q relativement à la base canonique
de R3 puis le rang de q.

Exercice 3.2. Soit :


q : R2 [X] −→ R
P 7−→ q(P) := |P(i)|2

(où i désigne le nombre complexe −1).
1. Montrer que q est une forme quadratique positive sur R2 [X].
2. Cette forme quadratique q est-elle définie positive ? Justifier votre
réponse.
3. Déterminer la forme polaire associée à q puis la matrice associée à q
relativement à la base canonique de R2 [X].
4. Soit P(X) := X2 + X + 1.
— Déterminer {P}⊥ et sa dimension.

Exercice 3.3. On note E := C 0 ([0, 1], R). Soit :

q : E −→ R
R1
f 7−→ 0 f (x) f (1 − x) dx.

1. Montrer que q est une forme quadratique sur E tout en précisant la


forme polaire qui lui est associée.
2. Cette forme quadratique q est-elle positive ? Justifier votre réponse.

— 32 —
B. Farhi Chap 3. Formes quadratiques et orthogonalité

Exercice 3.4. Le R-espace vectoriel R3 est muni de la forme quadratique q


définie par :
     
x1   x1  
     3
q x2  := x21 + x22 − x23 ∀ x
  2  ∈ R  .

    
x3 x3

Soit H le plan d’équation : x1 + x2 + x3 = 0.


1. Déterminer H⊥ puis H⊥⊥ . Que constatez vous ?
2. Déterminer l’ensemble des vecteurs isotropes pour q tout en précisant
sa nature géométrique.

Exercice 3.5. Soit q la forme quadratique réelle de R3 , définie par :


   
 x 
   
q(X) := x2 − 4xz − 4yz ∀X =  y ∈ R3 
   
z

et (Pt ) (t ∈ R) le plan vectoriel de R3 d’équation :

tx + y + z = 0.

1. Montrer que q est non dégénérée.


2. Déterminer les valeurs de t pour lesquelles (Pt ) contient un vecteur
q-isotrope non nul.
3. Déterminer les valeurs de t pour lesquelles la restriction de q à (Pt )
reste non dégénérée.

Exercice 3.6. Soient n un entier strictement positif et A une matrice sy-


métrique de Mn (R). On considère l’application q : Rn → R, définie par :

0 x1 x2 . . . xn    
x1  x1  
 x  
   
q(X) := x2 A ∀X =  .2  ∈ Rn  .
..   .  
  .  
.    
xn
xn

1. Montrer que q constitue une forme quadratique sur Rn tout en expli-


citant sa matrice associée relativement à la base canonique de Rn .
2. Déterminer la condition sur A pour laquelle q est non dégénérée.
3. Déterminer la condition sur A pour laquelle q est définie positive.

— 33 —
B. Farhi Chap 3. Formes quadratiques et orthogonalité

Exercice 3.7. Soient K un corps commutatif et E un K-espace vectoriel


muni d’une forme bilinéaire symétrique f .
— Montrer que toute famille f -orthonormée de E est libre.
Exercice 3.8. Soient K un corps commutatif et E un K-espace vectoriel de
dimension finie, muni d’une forme bilinéaire symétrique f .
1. Montrer que pour tout sous-espace vectoriel F de E, on a :
dim F + dim F⊥ ≥ dim E.
☞ Utiliser l’application linéaire
ψ : E −→ F∗
,
x 7−→ fx |F
où pour tout x ∈ E, fx ∈ E∗ est définie par
fx : E → K
.
y 7→ f (x, y)

2. En déduire que si f est définie alors on a pour tout sous-espace


vectoriel F de E :
F ⊕ F⊥ = E et F⊥⊥ = F.
Exercice 3.9. Soient K un corps commutatif, E un K-espace vectoriel de
dimension finie et f une forme bilinéaire symétrique sur E. On admet le
théorème suivant :

Théorème. Pour tout sous-espace vectoriel F de E, on a



dim E = dim F + dim F⊥ − dim F ∩ Ker f .

— Montrer que pour tout sous-espace vectoriel F de E, on a


F⊥⊥ = F + Ker f.
Exercice 3.10. Soient E := C 0 ([0, 1], R) et h , i le produit scalaire sur E défini
par :
Z 1
h f, gi := f (x)g(x) dx (∀ f, g ∈ E).
0
On note par P l’ensemble des fonctions polynomiales sur [0, 1].
— Montrer que P ⊥ = {0E }.
☞ Utiliser le théorème de Weierstrass suivant :

— 34 —
B. Farhi Chap 3. Formes quadratiques et orthogonalité

Théorème (Weierstrass). Pour toute fonction continue f sur [0, 1], il


existe une suite de polynômes (Pn )n∈N qui converge uniformément vers
f sur [0, 1].

— 35 —
Chapitre 4
Réduction et classification des
formes quadratiques réelles et
complexes

Sommaire
4.1 Réduction de Gauss des formes quadratiques . . . . . . 36
4.1.1 Description de l’algorithme de Gauss . . . . . . . 37
4.2 Une méthode alternative matricielle pour
réduire une forme quadratique . . . . . . . . . . . . . . . 41
4.3 Equivalence des formes quadratiques . . . . . . . . . . . 44
4.3.1 Equivalence des formes quadratiques complexes . 46
4.3.2 Equivalence des formes quadratiques réelles . . . 47
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

Pour tout ce qui suit, on se donne un corps commutatif K, de ca-


ractéristique (1) différente de 2, et un K-espace vectoriel E de dimension
finie, notée n (avec n ∈ N∗ ). On se donne aussi une forme quadratique q
(non identiquement nulle) sur E.

4.1 Réduction de Gauss des formes quadratiques


Au théorème 3.4, on a vu que le K-espace vectoriel E possède au moins
une base q-orthogonal et au § 3.5, on a expliqué que si O = (u1 , u2, . . . , un ) est
(1). Cela a été déjà expliqué dans la première note d’en bas de page du chapitre
précédent.

36
B. Farhi Chap 4. Réduction et classification des formes quadratiques

une telle base alors la matrice associée à q relativement à O est diagonale. Si


l’on désigne cette matrice par D = diag(λ1 , λ2 , . . . , λn ) (avec λ1 , λ2, . . . , λn ∈
K), on a donc pour tout x = x1 u1 + x2 u2 + · · · + xn un ∈ E :
q(x) = λ1 x21 + λ2 x22 + · · · + λn x2n .
Une telle écriture de q (i.e., une combinaison linéaire de carrés de formes
linéaires, K-linéairement indépendantes) s’appelle réduction (ou réduite) de
q.
En partant de l’expression de q relativement à une base quelconque
de E, on va établir dans ce qui suit un algorithme efficace (dû à Gauss)
permettant d’obtenir (en un nombre limité d’étapes) une réduite de q.
Soit B = (e1 , e2 , . . . , en ) une base de E. D’après la proposition 3.2, l’ex-
pression de q relativement à B s’écrit (pour tout x = x1 e1 +x2 e2 +· · ·+xn en ∈
E, avec x1 , x2 , . . . , xn ∈ K) :
X
q(x) = aij xi x j ,
1≤i≤j≤n

où les aij sont des scalaires (i.e., ∈ K). L’algorithme de Gauss pour réduire
q est un procédé récurrent. Il montre principalement la démarche à suivre
pour écrire q(x) (x ∈ E) comme combinaison linéaire d’un carré d’une forme
linéaire et d’un polynôme homogène de second degré en (n − 1) autres
formes linéaires. Le reste est claire : il suffit de réitérer ce procédé autant
de fois que nécessaire jusqu’à écrire q(x) comme combinaison linéaire de
carrés de formes linéaires. L’algorithme assure l’indépendance linéaires
des formes linéaires qui apparaissent en chaque étape ; il assure donc en
particulier l’indépendance linéaire des formes linéaires qui apparaissent
à la réduction finale. Ces dernières formes linéaires peuvent donc être
considérées comme des coordonnées relatives à une nouvelle base de E.
Celle ci sera justement la base orthogonale correspondante à la forme
réduite de q en question.

4.1.1 Description de l’algorithme de Gauss


• Si n = 1. Dans ce cas, la forme quadratique q est déjà réduite et il n’y a
rien à faire.
• Supposons pour la suite que n ≥ 2. On distingue les deux cas suivants :
1er cas : (si les aii ne sont pas tous nuls).
Quitte à permuter (2) les coordonnées x1 , x2 , . . . , xn , on peut supposer que
(2). Une permutation des coordonnées correspond à une permutation des vecteurs de
la base de E en question.

— 37 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

a11 , 0. On écrit alors q(x) (x = x1 e1 + x2e2 + · · ·+ xn en ∈ E) comme polynôme


de second degré en x1 (à coefficients dans K[x2 , x3 , . . . , xn ]), puis on le
mettra sous sa forme canonique. Plus précisément, on a pour tout x =
x1 e1 + x2 e2 + · · · + xn en ∈ E :
X X
q(x) = a11 x21 + a1 j x1 x j + aij xi x j
2≤j≤n 2≤i≤j≤n
 
 X  X
 
= a11 x21 +  a1 j x j  x1 + aij xi x j
 
2≤j≤n 2≤i≤j≤n
   
 X   X
 2  1
   
= a11  x +  a x 
1 j j 1  x + aij xi x j
 1  a11
   
2≤j≤n 2≤i≤j≤n
   2 

  X 
2
 X   X

 1   1  

= a11   x + a x 
 − 
 a x   + aij xi x j .
  1 2a ij j 
  2a11 1 j j 

 11
2≤j≤n 2≤j≤n
 2≤i≤j≤n

En posant :
1 X
L1 (x1 , x2 , . . . , xn ) := x1 + a1 j x j
2a11 2≤j≤n
(qui est l’expression d’une forme linéaire sur E), il vient que :
X
2
q(x) = a11 L1 (x1 , x2 , . . . , xn ) + bij xi x j ,
2≤i≤j≤n

pour certains bij ∈ K (s’exprimantP en fonction des aij ).


Remarquer que l’expression 2≤i≤j≤n bij xi x j est un polynôme homogène de
second degré en les (n − 1) coordonnées x2 , x3 , . . . , xn .
2nd cas : (Si les aii sont tous nuls).
Comme q est non identiquement nulle, l’un au moins des aij (i , j) est non
nul. Quitte à permuter les coordonnées x1 , x2, . . . , xn , on peut supposer que
a12 , 0. On a alors pour tout x = x1 e1 + x2 e2 + · · · + xn en ∈ E :
X
q(x) = a12 x1 x2 + aij xi x j .
1≤i<j≤n
(i, j),(1,2)

En effectuant le changement de coordonnées (3) :




 x1 = y1 + y2



 x2 = y1 − y2 ,

 xi = yi (pour 3 ≤ i ≤ n)
(3). Un changement de coordonnées correspond à un changement de base.

— 38 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

on obtient : X
q(x) = a12 y21 − a12 y22 + bij yi y j ,
1≤i<j≤n

pour certains bij ∈ K (s’exprimant en fonction des aij ).


On se ramène ainsi au premier cas avec les nouvelles coordonnées y1 , y2 , . . . ,
yn .
Conclusion : La procédure de ci-dessus (c’est-à-dire celle du premier cas
ou bien celle du second cas suivie de celle du premier) aboutit à l’écriture
de q(x) comme combinaison linéaire d’un carré d’une forme linéaire L1 sur
E et d’un polynôme homogène de second degré en (n − 1) formes linéaires
L2 , L3 , . . . , Ln sur E (avec L1 , L2 , . . . , Ln sont K-linéairement indépendantes).
L’itération de ce procédé finit par obtenir la réduction recherchée.
Nous illustrons l’algorithme de Gauss avec l’exemple suivant :
Exemple 4.I.— Déterminer une forme réduite de Gauss de la forme
quadratique q de R4 , définie par :

q(x) := x21 + x22 + x23 + x24 + 2x1x2 + 2x1x3 + 2x1x4 (∀x = t (x1 , x2, x3 , x4 ) ∈ R4 ).

— En déduire une base orthogonale de R4 pour q.

On est dans le 1er cas de l’algorithme de Gauss (puisque a11 = 1 , 0). Pour tout
x = t (x1 , x2 , x3 , x4 ) ∈ R4 , on a :

q(x) := x21 + x22 + x23 + x24 + 2x1 x2 + 2x1 x3 + 2x1 x4


 
= x21 + (2x2 + 2x3 + 2x4 ) x1 + x22 + x23 + x24
= (x1 + (x2 + x3 + x4 ))2 − (x2 + x3 + x4 )2 + x22 + x23 + x24
 
= (x1 + x2 + x3 + x4 )2 − x22 + x23 + x24 + 2x2 x3 + 2x2 x4 + 2x3 x4 + x22 + x23 + x24
= (x1 + x2 + x3 + x4 )2 − 2x2 x3 − 2x2 x4 − 2x3 x4 .

En posant : 
y1 = x1 + x2 + x3 + x4
yi = xi (pour i = 2, 3, 4) ,
il vient que :
q(x) = y21 − q′ (y2 , y3 , y4 ),
avec
q′ (y2 , y3 , y4 ) := 2y2 y3 + 2y2 y4 + 2y3 y4 (∀y2 , y3 , y4 ∈ R).
L’expression q′ définit clairement une forme quadratique de R3 . Pour q′ , on est
dans le 2nd cas de l’algorithme de Gauss. Comme le suggère la procédure de Gauss,
posons : 

 y 2 = z2 + z3


 y 3 = z2 − z3 .
 y 4 = z4

— 39 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

On a alors pour tous y2 , y3 , y4 ∈ R :

q′ (y2 , y3 , y4 ) = 2(z22 − z23 ) + 2(z2 + z3 )z4 + 2(z2 − z3 )z4


= q′′ (z2 , z3 , z4 ),

avec
q′′ (z2 , z3 , z4 ) := 2z22 − 2z23 + 4z2 z4 (∀z2 , z3 , z4 ∈ R).
L’expression de q′′ définit une forme quadratique de R3 et se situe visiblement dans
le premier cas de l’algorithme de Gauss. En suivant la procédure de Gauss pour q′′ ,
on a pour tous z2 , z3 , z4 ∈ R :
 
q′′ (z2 , z3 , z4 ) = 2 z22 + 2z2 z4 − 2z23
n o
= 2 (z2 + z4 )2 − z24 − 2z23
= 2 (z2 + z4 )2 − 2z23 − 2z24 .

En remontant, il vient que :

q(x) = y21 − 2 (z2 + z4 )2 + 2z23 + 2z24 .

Il ne reste qu’à poser :


 L =y = x1 + x2 + x3 + x4

 1 1

 y2 + y3 x2 + x3



 L2 = z2 + z4 = + y4 = + x4
2 2



 y 2 − y 3 x2 − x3 ,

 L3 = z3 = =

 2 2
L4 = z4 = y4 = x4

pour avoir :
q(x) = L21 − 2L22 + 2L23 + 2L24 ,

qui représente une forme réduite de Gauss pour q.


— Désignons par B la base de R4 qui correspond à cette forme réduite de q ; c’est-
à-dire la base de R4 dont les coordonnées de tout X = t (x1 , x2 , x3 , x4 ) ∈ R4 sont
L(X) = t (L1 (X), L2 (X), L3 (X), L4 (X)). Désignons aussi par P la matrice de passage de la
base canonique de R4 vers B. On a donc pour tout X ∈ R4 :

X = P L(X).

L’expression de X en fonction de L(X) permet ainsi d’en tirer immédiatement P, puis


B. Partant des expressions ci-dessus des Li en fonction des xi (1 ≤ i ≤ 4), les calculs
donnent :  x = L − 2L + L

 1 1 2 4

 x2 = L2 + L3 − L4

 .
 x3 = L2 − L3 − L4

x4 = L4
D’où : 1
 −2 0 1 
0 1 1 −1
P = 0 1 −1 −1 .

0 0 0 1

— 40 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

Enfin B = (u1 , u2 , u3 , u4 ), avec :


1  −2 0 1
       
0  1 1 −1
u1 = 0 , u2 =  1  , u3 = −1 , u4 = −1 ,
       
0 0 0 1

qui est nécessairement q-orthogonale. 

4.2 Une méthode alternative matricielle pour


réduire une forme quadratique
Supposons donnée une forme quadratique q sur E dont la matrice
associée relativement à une certaine base de E est désignée par A (A ∈
Mn (K), symétrique). Réduire q revient à trouver une matrice P ∈ GLn (K)
telle que la matrice produit t PAP soit diagonale. Pour déterminer une telle
matrice P, on se base sur les faits suivants :
— Multiplier une matrice M ∈ Mn (K) par une matrice P = (pij )1≤i, j≤n ∈
Mn (K) à droite (c’est-à-dire former la matrice MP) revient à modifier
les colonnes de M en changeant chacune d’elles par une certaine
ème
Pn précisément, la i
combinaison linéaire de toutes les colonnes. Plus
colonne Ci de M (1 ≤ i ≤ n) sera changée par k=1 pki Ck .
— Multiplier une matrice M ∈ Mn (K) par une matrice Q = (qij )1≤i, j≤n ∈
Mn (K) à gauche (c’est-à-dire former la matrice QM) revient à modifier
les lignes de M en changeant chacune d’elles par une combinaison
ème ligne L de M
linéaire de toutes les lignes. PlusPnprécisément, la i i
(1 ≤ i ≤ n) sera changée par k=1 qik Lk . En prenant Q = t P (avec
P = (pij )1≤i, j≤n ∈ Mn (K)), on en déduit que la matrice t PM s’obtient
P
en changeant chaque ième ligne Li de M (1 ≤ i ≤ n) par nk=1 pki Lk . On
voit alors que les transformations M → MP et M → t PM se réalisent
par les mêmes combinaisons linéaires, sauf que pour la première
transformation, ces combinaisons linéaires agissent sur les colonnes
de M alors que pour la seconde, elles agissent sur les lignes de M.
Il résulte de ces deux faits qu’étant donnée A ∈ Mn (K), symétrique, une
matrice du type t PAP (P ∈ GLn (K)) s’obtient en changeant les colonnes de
A par des combinaisons linéaires de toutes les colonnes de A, puis les
lignes de la matrice obtenue par les mêmes combinaisons linéaires (4) des
(4). Toute combinaison linéaire (resp. ensemble de combinaisons linéaires) de colonnes
doit être suivi(e) d’une combinaison linéaire (resp. ensemble de combinaisons linéaires)
identique(s) de lignes.

— 41 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

lignes de cette matrice. On peut bien entendu inverser ces manipulations


en commençant par transformer les lignes de A puis les colonnes de la
matrice qui en résulte. Pour avoir P ∈ GLn (K), il faut veiller à ce que
les combinaisons linéaires utilisées définissent un automorphisme de Kn .
En pratique, ces procédures seront répétées jusqu’à l’aboutissement d’une
matrice diagonale. Par ailleurs, pour récupérer la matrice P (qui fait que
t
PAP soit diagonale), il suffit d’appliquer à la matrice identité In toutes
les transformations de la procédure concernant les colonnes (les colonnes
seulement (5) !). Cette méthode matricielle de réduction des formes quadra-
tiques est illustrée d’abord par l’exemple suivant :
Exemple 4.II.— Réduire la forme quadratique q de R4 , définie par :

q(x) := x21 + 2x22 + 3x23 + 2x1 x2 + 2x2 x3 + 4x3 x4

(∀x = t (x1 , x2, x3 , x4 ) ∈ R4 ) et déterminer une base orthogonale de R4 pour


q.

La matrice associée à q relativement à la base canonique de R4 est :


1 1 0 0

1 2 1 0
A = 0 1 3 2 .

0 0 2 0

La méthode matricielle décrite ci-dessus, visant à trouver une matrice diagonale


congruente à A, est constituée des étapes suivantes :
1 1 0 0 1 0 0 0 1 1 0 0 1 0 0 0
   
1 2 1 0 0 1 0 0 L2 →L2 −L1 0 1 1 0 0 1 0 0
0 1 3 2 0 0 1 0 −→ 0 1 3 2 0 0 1 0
   
0 0 2 0 0 0 0 1 0 0 2 0 0 0 0 1
| {z } | {z }
A I4
1 0 0 0 1 −1 0 0
 
C2 →C2 −C1 0 1 1 0 0 1 0 0
−→ 0 1 3 2 0 0 1 0
 
0 0 2 0 0 0 0 1
1 0 0 0 1 −1 0 0
 
L3 →L3 −L2 0
 1 1 0 0
 1 0 0
−→ 0 0 2 2 0 0 1 0
0 0 2 0 0 0 0 1
1 0 0 0 1 −1 1 0
  
C3 →C3 −C2 0 1 0 0 0 1 −1 0
−→ 0 0 2 2 0 0 1 0
 
0 0 2 0 0 0 0 1

(5). En appliquant à In toutes les transformations concernant les colonnes (et uniquement
celles-ci), In se transforme en In P = P. Ce qui permet de récupérer la matrice P.

— 42 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

1 0 0 0  1 −1 1 0
  
L4 →L4 −L3 0 1 0 0  0 1 −1 0
−→ 0 0 2 2  0 0 1 0
 
0 0 0 −2 0 0 0 1
1 0 0 0  1 −1 1 −1
 
C4 →C4 −C3 0
 1 0 0  0
 1 −1 1 
−→ 0 0 2 0  0 0 1 −1 .
0 0 0 −2 0 0 0 1
1 0 0 0  1 −1 1 −1
   
0 1 0 0  0 1 −1 1 
En posant D := 0 0 2 0  = diag(1, 1, 2, −2) et P := 0 0 
1 −1, on a alors
  
0 0 0 −2 0 0 0 1
t
PAP = D. Une base q-orthogonale B de R4 est constituée des vecteurs colonnes de
1 −1 1 −1
       
0 1 −1 1
P ; soit B = (u1 , u2 , u3 , u4 ), avec u1 = 0, u2 =  0 , u3 =  1  et u4 = −1. En outre,
       
0 0 0 1
pour tout y = y1 u1 + y2 u2 + y3 u3 + y4 u4 ∈ R4 (y1 , y2 , y3 , y4 ∈ R), on a :

q(y) = y21 + y22 + 2y23 − 2y24 ,

ce qui est une forme réduite de q. 

Remarque 4.I.— Parfois la méthode matricielle décrite ci-dessus né-


cessite un grand nombre d’étapes ; c’est le cas par exemple des formes
quadratiques dont la réduction de Gauss présente un second cas de l’al-
gorithme. Essayons par exemple de traiter l’exemple 4.I par la méthode
matricielle :

La matrice associée à q relativement à la base canonique de R4 est


1 1 1 1

1 1 0 0
A = 1 0 1 0 .

1 0 0 1

La méthode matricielle visant à réduire q est alors constituée des étapes suivantes :

1 1 1 1 1 0 0 0 L2 →L2 −L1 1 1 1 1  1 0 0 0


  L3 →L3 −L1  
1
 1 0 0 0
 1 0 0 L4 →L4 −L1 0
 0 −1 −1 0
 1 0 0
1 0 1 0 0 0 1 0 −→ 0 −1 0 −1 0 0 1 0
1 0 0 1 0 0 0 1 0 −1 −1 0 0 0 0 1
| {z } | {z }
A I4
C2 →C2 −C1 1 0 0 0  1 −1 −1 −1
C3 →C3 −C1  
C4 →C4 −C1 0 0 −1 −1 0 1 0 0 
−→   
0 −1 0 −1 0 0 1 0 
0 −1 −1 0 0 0 0 1

— 43 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

1 0 0 0  1 −1 −1 −1
  
L2 →L2 −L3 0
 1 −1 0  0 1
 0 0 
−→ 0 −1 0 −1 0 0 1 0 
0 −1 −1 0 0 0 0 1
1 0 0 0  1 0 −1 −1
 
C2 →C2 −C3 0 2 −1 0  0 1 0 0 
−→ 0 −1 0 −1 0 −1 1 0 
 
0 0 −1 0 0 0 0 1
1 0 0 0  1 0 −1 −1
 
L3 →2L3 +L2 0
 2 −1 0  0
 1 0 0 
−→ 0 0 −1 −2 0 −1 1 0 
0 0 −1 0 0 0 0 1
1 0 0 0  1 0 −2 −1
 
C3 →2C3 +C2 0 2 0 0  0 1 1 0 
−→ 0 0 −2 −2 0 −1 1 0 
 
0 0 −2 0 0 0 0 1
1 0 0 0  1 0 −2 −1
 
L4 →L4 −L3 0
 2 0 0  0
 1 1 0 
−→ 0 0 −2 −2 0 −1 1 0 
0 0 0 2 0 0 0 1
1 0 0 0 1 0 −2 1 
  
C4 →C4 −C3 0 2 0 0 0 1 1 −1
−→ 0 0 −2 0 0 −1 1 −1 .
  
0 0 0 2 0 0 0 1
1 0 −2 1 
 
0 1 1 −1
En posant D := diag(1, 2, −2, 2) et P := 0 −1 1 −1, on a alors t PAP = D. La
 
0 0 0 1
famille B = (u1 , u2 , u3 , u4 ), constituée des vecteurs colonnes de P, est donc une base
q-orthogonale de R4 et on a pour tous y1 , y2 , y3 , y4 ∈ R :

q(y1 u1 + y2 u2 + y3 u3 + y4 u4 ) = y21 + 2y22 − 2y23 + 2y24 ,

ce qui est une forme réduite de q. 

Un important commentaire. Dans la procédure matricielle ci-dessus, il est


à noter que la 3ème transformation L2 → L2 − L3 suivie de son analogue
C2 → C2 − C3 n’ont pour objectif que d’avoir le second coefficient diagonal
de la matrice en cours de transformation non nul.

4.3 Equivalence des formes quadratiques


Définition 4.I.— Soient q et q′ deux formes quadratiques de E. On dit
que q et q′ sont équivalentes, et on écrit q ∼ q′ , s’il existe un automorphisme

— 44 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

u de E tel que l’on ait pour tout x ∈ E :


q′ (x) = q(u(x)).
Autrement dit, q et q′ sont équivalentes si elles sont représentées par un
même polynôme homogène de second degré relativement à deux bases
(distinctes ou confondues) de E.
Remarques 4.II.—
— Deux formes quadratiques q et q′ de Kn sont équivalentes signifie
qu’on peut passer de l’expression de l’une à l’expression de l’autre
en effectuant un changement de coordonnées (c’est-à-dire un change-
ment de variables linéaire et bijectif). Plus explicitement, q ∼ q′ signi-
fie qu’il existe des formes linéaires L1 , L2 , . . . , Ln de Kn , K-linéairement
indépendantes, tel que l’on ait pour tout X ∈ Kn :
q′ (X) = q(L1 (X), L2 (X), . . . , Ln (X)).
— Etant données q et q′ deux formes quadratiques de E, il est immédiat
que q et q′ sont équivalentes si et seulement si leurs matrices associées
(relativement à une certaine base de E) sont congruentes.
— La relation binaire ∼ (sur l’ensemble des formes quadratiques de E)
constitue une relation d’équivalence.
Exemple 4.III.— Soient q1 , q2 et q3 les trois formes quadratiques réelles
de R2 , définies par :
! !
2 2 2 2 x 2
q1 (X) := x − y , q2 (X) := xy et q3 (X) := x + y ∀X = ∈R .
y
— Montrer que q1 est équivalente à q2 mais que q1 n’est pas équivalente à
q3 .
 
x
Pour tout y ∈ R2 , on a :

   
x 2 2 x+y
q1 y = x − y = (x + y)(x − y) = q2 x−y .

Ainsi, en définissant :
u : R2 −→ R2 
x x+y ,
y 7−→ x − y

qui est visiblement un automorphisme de R2 , on a bien q1 (X) = q2 (u(X)) (∀X ∈ R2 ).


Ce qui montre que q1 et q2 sont équivalentes.
— En revanche, q1 et q3 ne sont pas équivalentes puisque q3 est positive alors que q1
ne l’est pas. 

— 45 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

Dans ce qui suit, nous allons classifier les formes quadratiques de E


modulo la relation d’équivalence ∼. Nous étudions plus précisément les cas
K = C et K = R et nous établissons pour chacun des deux un critère simple
caractérisant l’équivalence. Bien que l’étude de l’équivalence des formes
quadratiques est toute simple pour le cas complexe, elle l’est moins pour le
cas réel, puisqu’elle n’a été clarifiée qu’en 1852 par le mathématicien anglais
J.J. Sylvester. Quant au cas rationnel (i.e., K = Q), il est beaucoup plus
difficile que les deux derniers et dépasse d’ailleurs de loin le cadre que nous
avons réservé à ce polycopié. Ce cas, qui relève en fait de l’arithmétique,
a maintenant révélé ses secrets grâce au remarquable théorème de Hasse-
Minkowski.

4.3.1 Equivalence des formes quadratiques complexes


Dans toute cette sous-section, on prend K = C.

Théorème 4.1.— Soit q une forme quadratique sur E, de rang noté r. Il existe
alors une base (v1 , v2 , . . . , vn ) de E tel que l’on ait pour tout x = x1 v1 + x2 v2 +
· · · + xn vn ∈ E (avec x1 , x2, . . . , xn ∈ C) :

q(x) = x21 + x22 + · · · + x2r .

Démonstration.— Soit O = (u1 , u2 , . . . , un ) une base de E, orthogonale


pour q (l’existence d’une telle base est garantie par le théorème 3.4). La
matrice associée à q relativement à cette base est D = diag(λ1 , λ2 , . . . , λn ),
avec λi := q(ui ) ∈ C pour tout i ∈ {1, 2, . . . , n}. Le rang de q (noté r), qui est
égale au rang de D, est donc égale au nombre des λi (1 ≤ i ≤ n) qui sont non
nuls. Quitte à permuter les vecteurs ui (1 ≤ i ≤ n) de la base O, on peut donc
supposer que λi , 0 pour i = 1, 2, . . . , r et λi = 0 pour r < i ≤ n. Moyennant
cette supposition, on a D = diag(λ √ 1 , λ2 , . . . , λ
√ √r , 0, 0, . . . , 0). Par suite, en
désignant respectivement par λ1 , λ2 , . . . , λr des racines carrés des
nombres complexes λ1 , λ2, . . . , λr et en considérant la nouvelle base
!
1 1 1
(v1 , v2 , . . . , vn ) := √ u1 , √ u2 , . . . , √ ur , ur+1 , ur+2 , . . . , un
λ1 λ2 λr
de E, on a pour tout x = x1 v1 + x2 v2 + · · · + xn vn ∈ E (avec x1 , x2 , . . . , xn ∈ C) :

q(x) = q (x1 v1 + x2 v2 + · · · + xn vn )
!
x1 x2 xr
= q √ u1 + √ u2 + · · · + √ ur + xr+1 ur+1 + xr+2 ur+2 + · · · + xn un
λ1 λ2 λr

— 46 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

!2 !2 !2
x1 x2 xr
= λ1 √ + λ2 √ + · · · + λr √
λ1 λ2 λr
2 2 2
= x1 + x2 + · · · + xr .

Le théorème est démontré. 

Du théorème 4.1 résulte le corollaire suivant qui caractérise l’équivalence


des formes quadratiques complexes.

Corollaire 4.2.— Deux formes quadratiques de E sont équivalentes si et


seulement si elles ont le même rang.

Démonstration.— Soient q et q′ deux formes quadratiques de E.


• Supposons que q ∼ q′ . Les matrices associées à q et q′ (relativement à une
certaine base de E) sont donc congruentes ; ce qui entraı̂ne qu’elles ont le
même rang (voir la remarque 2.III). Autrement dit : rg(q) = rg(q′ ).
• Inversement, supposons que rg(q) = rg(q′ ) et désignons par r le rang
commun à q et q′ . D’après le théorème 4.1, il existe deux bases (vi )1≤i≤n
et (v′i )1≤i≤n de E tel que l’on ait pour tout x = x1 v1 + x2 v2 + · · · + xn vn =
x′1 v′1 + x′2 v′2 + · · · + x′n v′n ∈ E (avec x1 , x2 , . . . , xn , x′1 , x′2, . . . , x′n ∈ C) :

q(x) = x21 + x22 + · · · + x2r


q′ (x) = x′2 ′2
1 + x2 + · · · + xr .
′2

Ce qui montre que q et q′ sont représentées par un même polynôme ho-


mogène de second degré (relativement aux bases (vi )1≤i≤n et (v′i )1≤i≤n res-
pectivement). D’où l’on conclut que q ∼ q′ . Le corollaire est démontré. 

4.3.2 Equivalence des formes quadratiques réelles


Dans toute cette sous-section, on prend K = R.

Théorème 4.3 (Le théorème de Sylvester).— Soit q une forme quadra-


tique sur E, de rang noté r. Il existe alors une base (v1 , v2 , . . . , vn ) de E et
un couple (p, m) ∈ N2 , vérifiant p + m = r, tel que l’on ait pour tout x =
x1 v1 + x2 v2 + · · · + xn vn ∈ E (avec x1 , x2 , . . . , xn ∈ R) :

q(x) = x21 + x22 + · · · + x2p − x2p+1 − x2p+2 − · · · − x2p+m .

De plus, le couple (p, m) est le même pour toutes les bases de E jouissant de la même
propriété. Autrement dit, (p, m) dépend uniquement de la forme quadratique q.

— 47 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

Démonstration.—
• Existence de la base (v1 , v2 , . . . , vn ) de E et du couple (p, m) : (facile)
Soit O = (u1 , u2 , . . . , un ) une base de E, orthogonale pour q (l’existence
d’une telle base est garantie par le théorème 3.4). La matrice associée à q
relativement à cette base est D = diag(λ1 , λ2 , . . . , λn ), avec λi := q(ui ) ∈ R
pour tout i ∈ {1, 2, . . . , n}. Le rang r de q, qui est égale au rang de D, est donc
égale au nombre des λi (1 ≤ i ≤ n) qui sont non nuls. Quitte à permuter
les vecteurs ui (1 ≤ i ≤ n) de la base O, on peut donc supposer que λi , 0
pour i = 1, 2, . . . , r et λi = 0 pour r < i ≤ n. Moyennant cette supposition,
on a D = diag(λ1 , λ2 , . . . , λr , 0, . . . , 0). On définit p, m ∈ N par :

p := Card {i ∈ {1, 2, . . . , r} : λi > 0}


m := Card {i ∈ {1, 2, . . . , r} : λi < 0} .

On a bien p + m = r. Quitte à permuter encore les vecteurs u1 , u2 , . . . , ur , on


peut supposer que λi > 0 pour i = 1, 2, . . . , p et λi < 0 pour i = p + 1, p +
2, . . . , p + m. Moyennons nous cette supposition et considérons la nouvelle
base de E :

 1 1 1 1 1
(v1 , v2 , . . . , vn ) :=  √ u1 , √ u2 , . . . , p up , p up+1 , p up+2 ,
λ1 λ2 λp −λp+1 −λp+2

1 
..., p up+m , up+m+1 , up+m+2 , . . . , un  .
−λp+m
Pour tout x = x1 v1 + x2 v2 + · · · + xn vn (avec x1 , x2, . . . , xn ∈ R), on a :

q(x) = q(x1 v1 + x2 v2 + · · · + xn vn )

 x1 x2 xp xp+1 xp+2
= q  √ u1 + √ u2 + · · · + p up + p up+1 + p up+2
λ1 λ2 λp −λp+1 −λp+2

xp+m 
+···+ p up+m + xp+m+1 up+m+1 + xp+m+2 up+m+2 + · · · + xn un 
−λp+m

!2 !2  2
x1 x2  xp 
= λ1 √ + λ2 √ + · · · + λp  p 
λ1 λ2 λp
 2  2  2
 xp+1   xp+2   xp+m 
+ λp+1  p  + λp+2  p
 
 + · · · + λp+m  p
 


−λp+1 −λp+2 −λp+m
= x21 + x22 + · · · + x2p − x2p+1 − x2p+2 − · · · − x2p+m .

— 48 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

Ce qui est bien la représentation requise pour q.


• Invariance du couple (p, m) : (Sylvester)
Soient (v1 , v2 , . . . , vn ) et (w1 , w2 , . . . , wn ) deux bases de E fournissant la
réduction requise pour q dans notre théorème et soient respectivement
(p, m) et (p′ , m′) les deux couples de N2 correspondant ; c’est-à-dire les
couples de N2 pour lesquels on ait pour tout x = x1 v1 + x2 v2 + · · · + xn vn =
y1 w1 + y2 w2 + · · · + yn wn ∈ E (avec x1 , x2, . . . , xn , y1, y2 , . . . , yn ∈ R) :
q(x) = x21 + x22 + · · · + x2p − x2p+1 − x2p+2 − · · · − x2p+m
. (4.1)
= y21 + y22 + · · · + y2p′ − y2p′ +1 − y2p′ +2 − · · · − y2p′ +m′

Il s’agit de montrer que (p, m) = (p′ , m′). Comme p + m = r et p′ + m′ = r, on


a p + m = p′ + m′ et il suffit juste de montrer que p = p′ . Pour ce faire, nous
considérons les quatre sous-espaces vectoriels de E suivants :
F := Vect(v1 , v2 , . . . , vp ) ; G := Vect(vp+1 , vp+2 , . . . , vn )
F′ := Vect(w1 , w2 , . . . , wp′ ) ; G′ := Vect(wp′ +1 , wp′ +2 , . . . , wn ).
En vertu de (4.1), on a :
q(x) > 0 , ∀x ∈ F \ {0E }
q(x) ≤ 0 , ∀x ∈ G
q(x) > 0 , ∀x ∈ F′ \ {0E }
q(x) ≤ 0 , ∀x ∈ G′ .
Montrons par l’absurde que F ∩ G′ = {0E }. En supposant le contraire, c’est-
à-dire qu’il existe x ∈ F ∩ G′ tel que x , 0E , on a d’une part q(x) > 0 (puisque
x ∈ F \ {0E }) et d’autre part q(x) ≤ 0 (puisque x ∈ G′ ). Ce qui fournit une
contradiction apparente et montre qu’on a effectivement F ∩ G′ = {0E }. Ce
dernier fait entraı̂ne que les deux sous-espaces vectoriels F et G′ de E sont
en somme directe. On a par conséquent :
dimF + dimG′ = dim(F ⊕ G′ ) ≤ dimE = n.
C’est-à-dire :
p + (n − p′ ) ≤ n.
Ce qui donne :
p ≤ p′ .
Un raisonnement analogue montre que F′ ∩ G = {0E } et puis que p′ ≤ p.
Il en résulte ainsi que p = p′ , comme il fallait le prouver. Ceci complète la
preuve du théorème. 

— 49 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

Définition 4.II.— Etant donnée q une forme quadratique de E, le couple


(p, m) de N2 fourni par le théorème 4.3 s’appelle la signature de q et se note
sgn(q).

L’importance de la signature d’une forme quadratique réelle de E


est établie par le corollaire suivant, qui est une conséquence directe du
théorème 4.3. Ce corollaire est connu sous le nom du principe d’inertie de
Sylvester.

Corollaire 4.4 (Le principe d’inertie de Sylvester).— Deux formes qua-


dratiques réelles q et q′ de E sont équivalentes si et seulement si elles ont la même
signature.

Démonstration.— Soient q et q′ deux formes quadratiques de E.


• Supposons que q et q′ sont équivalentes. Ceci équivaut à dire que q et
q′ sont représentées par un même polynôme homogène de second degré
(relativement à deux bases bien choisies de E). Ce polynôme homogène
de second degré (vu comme une forme quadratique de Rn ) est doté d’une
signature (p, m) ∈ N2 qui est commune à q et q′ . D’où sgn(q) = sgn(q′ ).
• Inversement, supposons que q et q′ ont une même signature (p, m) (avec
(p, m) ∈ N2 , p + m ≤ n). Dans ce cas, q et q′ sont représentées toutes les deux
par le même polynôme homogène du second degré

x21 + x22 + · · · + x2p − x2p+1 − x2p+2 − · · · − x2p+m

(relativement à deux bases bien choisies de E). Ce qui entraı̂ne que q et q′


sont équivalentes. Le corollaire est démontré. 

La signature d’une forme quadratique réelle q de E permet également


de déduire certaines des caractéristiques de q, comme : sa positivité, sa
définition, sa dégénérescence, etc. Ceci est, en fait, naturel étant donné
que la signature de q est l’invariant caractérisant q modulo la relation
d’équivalence des formes quadratiques de E. On a le corollaire suivant :

Corollaire 4.5.— Soit q une forme quadratique de E et soit (p, m) sa signa-


ture (avec (p, m) ∈ N2 et p + m ≤ n). Alors, on a :

q est positive ⇐⇒ m = 0
q est définie positive ⇐⇒ (p, m) = (n, 0)
q est non dégénérée ⇐⇒ p + m = n.

— 50 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

Démonstration.— D’après le théorème 4.3, il existe une base (v1, v2 , . . . ,


vn ) de E pour laquelle on ait pour tout x = x1 v1 + x2 v2 + · · · + xn vn ∈ E (avec
x1 , x2, . . . , xn ∈ R) :
q(x) = x21 + x22 + · · · + x2p − x2p+1 − x2p+2 − · · · − x2p+m .
• Montrons la première équivalence du corollaire. Si m = 0, on obtient
que q(x) (x ∈ E) est une somme de carrés de nombres réels, donc q(x) ≥ 0
(∀x ∈ E). Ce qui revient à dire que la forme quadratique q est positive.
Inversement, si m , 0, on aura m ≥ 1 et par suite q(vp+1 ) = −1 < 0. Ce qui
entraı̂ne que q n’est pas positive. La première équivalence du corollaire est
ainsi démontrée.
• Montrons la deuxième équivalence du corollaire. Supposons que q est
définie positive. Donc q est (à fortiori) positive et on a par conséquent
m = 0 (d’après la 1ère équivalence du corollaire, déjà démontrée). Par suite,
si l’on suppose que p < n, on obtient q(vp+1 ) = 0, bien que vp+1 , 0E ; ce qui
contredit notre supposition du fait que q est définie positive. On a donc
forcément p = n. D’où (p, m) = (n, 0), comme il fallait le prouver.
Inversement, supposons que (p, m) = (n, 0). On a alors clairement pour tout
x = x1 v1 +x2 v2 +· · ·+xn vn ∈ E (avec x1 , x2, . . . , xn ∈ R) : q(x) = x21 +x22 +· · ·+x2n ≥
0 et

q(x) = 0 ⇐⇒ x21 + x22 + · · · + x2n = 0


⇐⇒ x1 = x2 = · · · = xn = 0
⇐⇒ x = 0E .

Ce qui montre que q est définie positive. La deuxième équivalence du


corollaire est ainsi démontrée.
• Montrons enfin la troisième équivalence du corollaire. D’après l’exemple
2.IV, la forme quadratique q est non dégénérée si et seulement si rg(q) = n ;
c’est-à-dire ssi p + m = n (puisque rg(q) = p + m). La troisième équivalence
du corollaire est ainsi démontrée.
Ceci achève la preuve du corollaire. 

On a aussi le corollaire complémentaire suivant dont une partie se


déduit immédiatement du corollaire 4.5.
Corollaire 4.6.— Soit q une forme quadratique de E et soit (p, m) sa signa-
ture (avec (p, m) ∈ N2 et p + m ≤ n). Alors on a :
q est négative ⇐⇒ p = 0
q est définie négative ⇐⇒ (p, m) = (0, n)

— 51 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

q est définie ⇐⇒ q est ou bien définie positive


ou bien définie négative
⇐⇒ (p, m) ∈ {(n, 0), (0, n)}.

Démonstration.— En remarquant que sgn(−q) = (m, p), les deux pre-


mières équivalences du corollaire sont des conséquences immédiates des
deux premières équivalences du corollaire 4.5. En outre, la quatrième
équivalence du corollaire est une conséquence directe des équivalences
qui la précèdent. Il ne reste donc qu’à montrer la troisième équivalence du
corollaire ; à savoir que la forme quadratique q est définie si et seulement si
elle est définie positive ou définie négative. Comme l’implication indirecte
de cette équivalence est encore triviale, il ne nous reste en fait qu’à montrer
l’implication directe :

q est définie =⇒ q est ou bien définie positive ou bien définie négative.

Pour ce faire, nous procédons par l’absurde. Supposons que q est définie
mais qu’elle n’est ni définie positive ni définie négative. Il existe donc deux
vecteurs u, v ∈ E \ {0E } tels que :

q(u) < 0 et q(v) > 0.

Considérons par suite la fonction réelle :

ϕ : [0, 1] −→ R
.
t 7−→ q (tu + (1 − t)v)

En désignant par f la forme polaire de q, on a (en se servant de la bilinéarité


et de la symétrie de f ) pour tout t ∈ [0, 1] :

ϕ(t) := q (tu + (1 − t)v)


= f (tu + (1 − t)v, tu + (1 − t)v)
= t2 f (u, u) + 2t(1 − t) f (u, v) + (1 − t)2 f (v, v)
= q(u)t2 + 2 f (u, v)t(1 − t) + q(v)(1 − t)2 .

Ce qui montre que la fonction ϕ est polynomiale (de degré ≤ 2). Par
conséquent, ϕ est continue sur [0, 1]. De plus, on a ϕ(0) = q(v) > 0 et
ϕ(1) = q(u) < 0. Donc, d’après le théorème des valeurs intermédiaires, il
existe α ∈]0, 1[ tel que ϕ(α) = 0 ; soit q (αu + (1 − α)v) = 0. Mais puisque q
est supposée définie, il en découle que l’on a : αu + (1 − α)v = 0E . D’où l’on
α
tire que v = α−1 u. Ce qui donne :

— 52 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

   
α α 2
q(v) = q u = q(u) < 0 (puisque q(u) < 0).
α−1 α−1
Or ceci contredit le fait que q(v) > 0. Cette contradiction confirme l’impli-
cation requise et complète cette démonstration. 

Remarque 4.III.— La signature (p, m) d’une forme quadratique q de E


est aussi générée par les formules :
n o
p= max dim F : q|F est définie positive
F est un sous-espace
vectoriel de E
n o
m= max dim F : q|F est définie négative .
F est un sous-espace
vectoriel de E

Les preuves de ces formules sont laissées au soin du lecteur.

Exemple 4.IV (Extrait de l’examen de l’année 2013-2014).— Pour tout


ce qui suit, k désigne un paramètre réel. On considère qk la forme quadra-
tique réelle de R3 , définie par :

qk (x) := x2 + 2y2 + kz2 + 2xy + 2yz (∀x = t (x, y, z) ∈ R3 ).

1. Réduire qk par la méthode de Gauss.


2. En déduire le rang et la signature de qk en distinguant les valeurs du
paramètre réel k.
3. Quelles sont les valeurs du paramètre réel k pour lesquelles qk est
définie positive ?
4. Déterminer une base de R3 qui soit qk -orthogonale.
5. Soit q′ la forme quadratique réelle de R3 , définie par :

q′ (x) := 2xy + 2xz − yz (∀x = t (x, y, z) ∈ R3 ).

(a) Réduire q′ par la méthode de Gauss.


(b) En déduire les valeurs de k pour lesquelles qk et q′ sont équiva-
lentes.
(c) On prend dans cette question k = 0. Déterminer trois formes
linéaires L1 , L2 et L3 en x, y, z (R-linéairement indépendantes) tel
que l’on ait :
q0 (L1 , L2 , L3 ) = q′ (x, y, z).

— 53 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

1. Pour tout x = t (x, y, z) ∈ R3 , on a :


qk (x) = x2 + 2y2 + kz2 + 2xy + 2yz
= (x2 + 2xy) + 2y2 + 2yz + kz2
n o
= (x + y)2 − y2 + 2y2 + 2yz + kz2
= (x + y)2 + y2 + 2yz + kz2
= (x + y)2 + (y + z)2 + (k − 1)z2 .
En posant :  ′

 x′
 = x+y

 y = y+z , (4.2)
 z′ = z
il vient que :
qk (x) = x′2 + y′2 + (k − 1)z′2 ,
ce qui est une forme réduite de Gauss de qk . Noter que l’algorithme de Gauss
assure que les formes linéaires x′ , y′ et z′ sont R-linéairement indépendantes, donc
correspondent à un changement de coordonnées dans le R-espace vectoriel R3 .
2.
• Le rang de qk est égale au nombre de coefficients non nuls dans l’écriture de qk sous
sa forme réduite de Gauss. On a donc :
(
2 si k = 1
rg(qk ) = .
3 si k , 1

• La signature de qk est égale au couple (p, m), avec p et m désignent respectivement le


nombre de coefficients strictement positifs et le nombre de coefficients strictement
négatifs dans l’écriture de qk sous sa forme réduite de Gauss. On a donc :


(2, 0) si k = 1


sgn(qk ) = 
(3, 0) si k > 1 .

(2, 1) si k < 1

3. La forme quadratique qk est définie positive ssi sgn(qk ) = (dim R3 , 0) = (3, 0). Il en
résulte, en vertu du résultat de la question précédente, que qk est définie positive ssi
k > 1.
4. On a :
 ′  ′ ′ ′
 
 x′ = x + y
  x = x ′ − y′ + z

 y′ = y + z
(4.2) : 

⇐⇒   y = y′ − z

z = z z = z
   ′  
x x′  1 −1 1 
⇐⇒  y = P  y  avec P := 0 1 −1 .
z z′ 0 0 1
Cette matrice P représente la matrice de passage de la base canonique de R3 vers
une nouvelle base de R3 où qk est représentée par sa forme réduite de Gauss. Cette
nouvelle base est : (v1 , v2 , v3 ), avec :
     
1 −1  1 
v1 := 0 , v2 :=  1  et v3 := −1
0 0 1

— 54 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

et est (de toute évidence) qk -orthogonale.


5.
(a) On est dans le second cas de l’algorithme de Gauss. Le coefficient de yz étant
non nul (= −1) ; l’algorithme de Gauss nous incite à poser :


 y = u+v


 z = u−v .
 x = w

Ainsi, pour tout x = t (x, y, z), q′ (x) se transforme en :

q′ (x) = 2w(u + v) + 2w(u − v) − (u + v)(u − v)


2 2
= 4uw −
 u +v 
2 2
= v − u − 4uw
n o
= v2 − (u − 2w)2 − 4w2
= v2 + 4w2 − (u − 2w)2 .
En posant : 

 1 1


 u′ = v = y− z

 2 2


 v′ = 2w = 2x







 1 1

 w′ = u − 2w = −2x +
y+ z
2 2
(qui sont des formes linéaires R-linéairement indépendantes), on obtient :

q′ (x) = u′2 + v′2 − w′2 .

Ce qui est une forme réduite de Gauss de q′ .


(b) D’après la forme réduite de Gauss précédente de q′ , on a sgn(q′ ) = (2, 1).
D’après le principe d’inertie de Sylvester, les deux formes quadratiques qk et q′
sont équivalentes si et seulement si elles ont la même signature ; donc si et seule-
ment si sgn(q) = (2, 1). Il résulte du résultat de la question 2 que qk ∼ q′ si et seulement
si k < 1 .
(c) D’après le résultat de la question 5.(a), on a :
q′ (x, y, z) = u′2 + v′2 − w′2 , (4.3)

avec u′ (x, y, z) = 12 y − 21 z, v′ (x, y, z) = 2x et w′ (x, y, z) = −2x + 12 y + 12 z. Par ailleurs, en


vertu du résultat de la question 1 pour k = 0, on a pour tous L1 , L2 et L3 des formes
linéaires en x, y, z :

q0 (L1 , L2 , L3 ) = (L1 + L2 )2 + (L2 + L3 )2 − L23 . (4.4)

L’identification entre (4.3) et (4.4) suggère de prendre L1 , L2 et L3 telles que :


 ′

 L1 + L2 = u′


 L2 + L3 = v .
 L3 = w′

— 55 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

Ce qui donne : 

 L1
 = u′ − v′ + w′

 L2 = v ′ − w′ .
 L3 = w′
C’est-à-dire :     

 1 1 1 1

 L1 = y − z − 2x + −2x + y + z

 2 2 2 2

  

 1 1

 L2= 2x − −2x + y + z .

 2 2



 1 1

 L3= −2x + y + z
2 2
En simplifiant, on obtient enfin :


 L1 = −4x + y





 1 1
 L2 = 4x − y− z

 2 2 .



 1 1


 L3 = −2x + y + z
2 2

Ce sont des formes linéaires R-linéairement indépendantes, vérifiant : q0 (L1 , L2 , L3 ) =


q′ (x, y, z). Bien entendu, pour une raison de simplification d’écriture, on a noté Li
au lieu de Li (x, y, z) (i = 1, 2, 3). Noter aussi que ces forme linéaires L1 , L2 et L3
qu’on vient de trouver ne sont pas les uniques formes linéaires en x, y, z telles que
q0 (L1 , L2 , L3 ) = q′ (x, y, z). 

Calcul de la signature d’une forme quadratique réelle par la méthode


des déterminants de Sylvester
Étant donnés n ∈ N∗ et A = (aij )1≤i, j≤n une matrice réelle carrée d’ordre
n, rappelons qu’un mineur principal de A est un déterminant d’une sous-
matrice carrée de A que l’on obtient en fixant les mêmes indices (i.e.,
les mêmes numéros) pour les lignes et les colonnes à extraire de A. Plus
explicitement, un mineur principal d’ordre k de A (où k ∈ {1, 2, . . . , n}) est
un déterminant d’une sous-matrice de A de la forme (aij )i, j∈I , où I est un
sous-ensemble (ordonné) de cardinal k de l’ensemble {1, 2, . . . , n}. Nous
renvoyons le lecteur au cours de 1ère année d’Algèbre 2 pour réviser cette
notion dont l’intérêt fondamental est le calcul du rang d’une matrice. Pour
ce qui va suivre, nous aurons besoin d’introduire un type bien particulier
de mineurs principaux d’une matrice carrée :
Définition 4.III.— Soient n ∈ N∗ et A = (aij )1≤i, j≤n ∈ Mn (R). Pour
k ∈ {1, 2, . . . , n}, on appelle mineur principal dominant d’ordre k de A le
déterminant extrait de A suivant :
 
Dk := det aij .
1≤i, j≤k

— 56 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

On prend aussi par convention D0 = 1.

Pour calculer la signature d’une forme quadratique réelle, la méthode


de Sylvester utilise les mineurs principaux dominants de sa matrice as-
sociée (relativement à une base fixée du R-espace vectoriel ambiant). Il
s’énonce comme suit :
Théorème 4.7 (Sylvester).— Soient n un entier strictement positif, E un
R-espace vectoriel de dimension n et B = (e1 , e2 , . . . , en ) une base de E. Soient
aussi q une forme quadratique sur E et A = (aij )1≤i, j≤n la matrice associée à q
relativement à B. Considérons les mineurs principaux dominants de A, qui sont :
 
D0 := 1 et Dk := det aij pour k = 1, 2, . . . , n,
1≤i, j≤k

et supposons que Dk , 0 pour tout k ∈ {1, 2, . . . , n}. Considérons aussi s le


nombre de changements de signes dans la suite finie ordonnée D0 , D1, . . . , Dn .
Alors, on a :
sgn(q) = (n − s, s).

Démonstration.— Nous allons construire par un procédé identique


à celui de Gram-Schmidt (que l’on verra au chapitre suivant) une base
C = (u1 , u2 , . . . , un ) de E qui soit orthogonale pour q et pour laquelle on ait
pour tout k ∈ {1, 2, . . . , n} :

Vect (u1 , u2 , . . . , uk ) = Vect (e1 , e2 , . . . , ek ) .

Pour ce faire, nous allons procéder par récurrence sur k ; c’est-à-dire que
nous construirons les uk (1 ≤ k ≤ n) de proche en proche.
• Pour k = 1, nous prenons simplement u1 = e1 .
• Soit k ∈ {2, 3, . . . , n}. Supposons que u1 , u2 , . . . , uk−1 sont déjà construits de
sorte qu’ils soient deux à deux q-orthogonaux et satisfassent :

Vect (u1 , u2 , . . . , uk−1 ) = Vect (e1 , e2 , . . . , ek−1 ) .

Nous devons construire alors un vecteur uk de E qui soit q-orthogonal à


chacun des ui (1 ≤ i ≤ k − 1) et tel que l’on ait :

Vect (u1 , u2 , . . . , uk ) = Vect (e1 , e2 , . . . , ek ) .

Nous nous proposons de chercher un tel uk de la forme :

X
k−1
uk = e k + λ i ui , (4.5)
i=1

— 57 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

où les λi sont des réels à déterminer pour avoir uk ⊥q ui , ∀i ∈ {1, 2, . . . , k−1}.
Cette forme de uk assure immédiatement que :

Vect (u1 , u2 , . . . , uk ) = Vect (u1 , u2 , . . . , uk−1 , ek ) = Vect (e1 , e2 , . . . , ek−1 , ek )

(en vertu de l’hypothèse de récurrence). Il ne reste donc qu’à choisir les


λi convenablement pour avoir uk ⊥q ui pour tout i ∈ {1, 2, . . . , k − 1}. En
désignant par ϕ la forme polaire de q, on a pour tout j ∈ {1, 2, . . . , k − 1} :
 
uk ⊥q u j ⇐⇒ ϕ uk , u j = 0
 
 X
k−1

⇐⇒ ϕ ek + λi ui , u j  = 0
i=1
  Xk−1  
⇐⇒ ϕ ek , u j + λ i ϕ ui , u j = 0
i=1
   
⇐⇒ ϕ ek , u j + λ jϕ u j , u j = 0

(puisque les ui , 1 ≤ i ≤ k − 1, sont deux à deux q-orthogonaux d’après notre


hypothèse de récurrence). D’où pour tout j ∈ {1, 2, . . . , k − 1}, on a :
   
uk ⊥q uj ⇐⇒ ϕ ek , u j + λ j q u j = 0. (4.6)

Cette relation (4.6) montre que la détermination des λ j (1 ≤ j ≤ k − 1) tel


que nous le souhaitons est possible (et unique) dès que q(u j ) , 0 pour
1 ≤ j ≤ k − 1. Montrons que nous sommes effectivement dans cette si-
tuations. Pour ce faire, introduisons la restriction qk−1 de la forme qua-
dratique q au sous-espace vectoriel Ek−1 := Vect(e1 , e2, . . . , ek−1 ) de E ; soit
qk−1 := q Vect(e ,e ,...,e ) , qui constitue donc une forme quadratique sur Ek−1 =
1 2 k−1
Vect(e1 , e2 , . . . , ek−1 ) = Vect(u1 , u2, . . . , uk−1 ). Nous constatons que la matrice
associée à qk−1 relativement à la base (e1 , e2, . . . , ek−1 ) de Ek−1 est (aij )1≤i, j≤k−1 ,
qui est de déterminant Dk−1 , 0. Donc qk−1 est non dégénérée. D’autre part,
la matrice associée à qk−1 relativement à la base (6) (u1 , u2 , . . . , uk−1 ) de Ek−1

est diag q(u1 ), q(u2 ), . . . , q(uk−1 ) (puisque les vecteurs ui , 1 ≤ i ≤ k − 1, sont
deux à deux q-orthogonaux), qui est de déterminant q(u1 )q(u2 ) · · · q(uk−1 ).
Mais puisque nous venons de voir que qk−1 est non dégénérée, on a cer-
tainement q(u1 )q(u2 ) · · · q(uk−1 ) , 0 ; ce qui assure que q(u j ) , 0 pour tout
j ∈ {1, 2, . . . , k − 1}, comme nous l’avons prétendu. Par conséquent, on peut
prendre pour tout j ∈ {1, 2, . . . , k − 1} :
(6). (u1 , u2 , . . . , uk−1 ) est effectivement une base de Ek−1 car elle est génératrice minimale
de cet espace.

— 58 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

ϕ(ek , u j)
λj = − .
q(u j )

Ce qui permet d’avoir (en vertu de (4.6)) : uk ⊥q u j pour tout j ∈ {1, 2, . . . ,


k−1}. Cette récurrence ainsi achevée nous fournit une famille q-orthogonale
(u1 , u2 , . . . , un ) de E, satisfaisant :

Vect (u1 , u2 , . . . , uk ) = Vect (e1 , e2 , . . . , ek ) pour tout k ∈ {1, 2, . . . , n}.

En particulier, on a (en prenant k = n) :

Vect (u1 , u2, . . . , un ) = Vect (e1 , e2 , . . . , en ) = E.

Ainsi (u1 , u2 , . . . , un ) est une famille génératrice de E ; mais comme elle est
de surplus minimale (puisque dim E = n), elle constitue même une base
de E. D’où (u1 , u2 , . . . , un ) est une base q-orthogonale de E.
Reprenons maintenant nos notations de ci-haut en posant plus géné-
ralement pour tout k ∈ {1, 2, . . . , n} :

Ek := Vect (e1 , e2 , . . . , ek ) = Vect (u1 , u2 , . . . , uk )


et
qk := q E .
k

Constatons que pour tout k ∈ {1, 2, . . . , n}, la famille (u1 , u2 , . . . , uk ) constitue


une base de Ek , étant donné qu’elle est génératrice minimale de Ek . Pour k ∈
{1, 2, . . . , n}, les matrices associées à la forme quadratique qk relativement
aux bases (e1 , e2 , . . . , ek ) et (u1 , u2 , . . . , uk ) de Ek sont respectivement (aij )1≤i, j≤k
et diag(q(u1 ), q(u2 ), . . . , q(uk )). Ces deux dernières matrices de Mn (R) sont
donc congruentes ; ce qui s’exprime matriciellement par l’existence d’une
matrice Pk ∈ GLn (R) (qui n’est rien d’autre que la matrice de passage de
la base (e1 , e2, . . . , ek ) de l’espace Ek vers la base (u1 , u2 , . . . , uk ) du même
espace) pour laquelle on ait :

diag q(u1 ), q(u2 ), . . . , q(uk ) = t Pk · (aij )1≤i, j≤k · Pk .

En prenant les déterminants des deux membres de cette dernière égalité,


on obtient que :
q(u1 )q(u2 ) · · · q(uk ) = Dk · (det Pk )2
(pour tout k ∈ {1, 2, . . . , n}). Il résulte de cette dernière formule que l’on a
pour tout k ∈ {2, 3, . . . , n} :

— 59 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

q(u1 )q(u2 ) · · · q(uk )


q(uk ) =
q(u1 )q(u2 ) · · · q(uk−1 )
Dk (det Pk )2
=
Dk−1 (det Pk−1 )2
 
Dk det Pk 2
= .
Dk−1 det Pk−1
D’où (en passant aux signes) :
 
 Dk
sgn q(uk ) = sgn (∀k ∈ {2, 3, . . . , n}).
Dk−1
Mais puisque D0 = 1 et q(u1 ) = D1 (det P1 )2 (d’après ce qui précède) alors
cette dernière identité reste valable pour k = 1 aussi. On a donc pour tout
k ∈ {1, 2, . . . , n} :  
 Dk
sgn q(uk ) = sgn . (4.7)
Dk−1
Enfin, puisque les réels q(uk ) (1 ≤ k ≤ n) sont tous non nuls (voir ce qui
précède) alors la signature de q est le couple (n − s, s), avec s est le nombre
de réels q(uk ) (1 ≤ k ≤ n) qui sont strictement négatifs. Mais d’après (4.7),
s est aussi égale au nombre de changements de signes dans la suite réelle
ordonnée D0 , D1, . . . , Dn . Ainsi s’achève cette démonstration. 
Nous déduisons du théorème 4.7 un critère pratique sur la positive
définition d’une forme bilinéaire symétrique réelle (en dimension finie) :
Corollaire 4.8 (Critère de Sylvester).— Soient n un entier strictement
positif, E un R-espace vectoriel de dimension n et B une base de E. Soit aussi
f une forme bilinéaire symétrique sur E et A = (aij )1≤i, j≤n la matrice qui lui est
associée relativement à B. Alors f est définie positive si et seulement si tous les
mineurs principaux dominants de A sont strictement positifs ; c’est-à-dire si et
seulement si l’on a :
 
det (aij )1≤i, j≤k > 0 (∀k ∈ {1, 2, . . . , n}).
Démonstration.— Soit q la forme quadratique associée à f . Posons
B = (e1 , e2 , . . . , en ) et pour tout k ∈ {1, 2, . . . , n} :
Bk := (e1 , e2, . . . , ek ) ,
Ek := Vect (e1 , e2, . . . , ek ) ,
fk := f E ,
 k
Ak := aij ,
1≤i, j≤k

Dk := det Ak .

— 60 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

Pour k ∈ {1, 2, . . . , n}, constater que fk est une forme bilinéaire symétrique
sur le R-sous-espace vectoriel Ek de E et Ak est la matrice qui lui est associée
relativement à la base Bk de Ek .
• (⇒) Supposons que f est définie positive. Il en est de même donc de
toutes ses restrictions f E = fk (1 ≤ k ≤ n). Ce qui entraı̂ne (à fortiori) que
k
les formes bilinéaires symétriques fk sur Ek (1 ≤ k ≤ n) sont toutes non
dégénérées et que, par conséquent, leurs matrices associées Ak sont toutes
non singulières. Les déterminants de ces matrices Ak (qui sont les réels Dk )
sont donc tous non nuls. Ce dernier fait permet d’appliquer le théorème
4.7 et d’obtenir que la signature de la forme quadratique q associée à f est
(n − s, s), où s est le nombre de changements de signes dans la suite réelle
ordonnée 1, D1 , D2, . . . , Dn . Mais comme f est supposée définie positive, on
doit avoir (n − s, s) = (n, 0) (en vertu du corollaire 4.5). D’où l’on tire que
s = 0. Mais cela signifie que les réels Dk (1 ≤ k ≤ n) sont tous strictement
positifs, comme il fallait le prouver.
• (⇐) Inversement, supposons que l’on a Dk > 0 pour tout k ∈ {1, 2, . . . , n}.
Le théorème 4.7 est donc applicable à la forme quadratique q assosiée à f
et l’on obtient que sgn(q) = (n, 0). Ce qui montre (en vertu du corollaire
4.5) que f est définie positive, comme il fallait le prouver. Le corollaire est
démontré. 

Exemple 4.V.— En utilisant la méthode des déterminants de Sylvester,


déterminer la signature de la forme quadratique réelle q de R4 , donnée par :
   
 x x
 y  y
   
q   := −x2 + y2 + z2 + t2 + 2 xy + 2 xz + 4 yz + 4 yt + 4 zt (∀   ∈ R4 ).
 z   z 
   
t t

La matrice associée à q relativement à la base canonique de R4 est :


−1 1 1 0

1 1 2 2
A =  1 2 1 2 .

0 2 2 1

Les mineurs principaux dominants de cette matrice sont donc :

   
−1 1 −1 1 1
D0 = 1 , D1 = det (−1) = −1 , D2 = det 1 1 = −2 , D3 = det  1 1 2 = 5 et
1 2 1
D4 = det A = −3.

— 61 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

On voit alors que ces mineurs sont tous non nuls et que le nombre de changements
de signes dans la suite réelle ordonnée (D0 , D1 , D2 , D3 , D4 ) = (1, −1, −2, 5, −3) est s = 3.
Ce qui entraı̂ne (d’après le théorème 4.7) que la signature de q est égale à :
 
sgn(q) = dimR4 − s, s = (4 − 3, 3) = (1, 3) . 

Remarque 4.IV.— On peut montrer que lorsqu’une forme quadratique


d’un R-espace vectoriel de dimension finie est non dégénérée, il est tou-
jours possible de déterminer sa signature par application du théorème 4.7.
Plus précisément, si la représentation matricielle choisie pour une telle
forme quadratique q possède un certain mineur principal dominant nul
(ce qui rend le théorème 4.7 inapplicable) alors il est possible (et facile)
de trouver une autre représentation matricielle de q qui a tous ses mi-
neurs principaux dominants non nuls. Traitons à titre d’exemple la forme
quadratique de R3 définie par :
 
x 
 
q  y := x2 + 4 y2 + z2 + 4 xy + 2 xz + 2 yz.
 
z

La matrice associée à q relativement à la base canonique Bc = (e1 , e2 , e3) de


R3 est :  
1 2 1
 
A = 2 4 1 .
 
1 1 1
Or le mineur principal dominant d’ordre 2 de A est nul ; ce qui rend le
théorème 4.7 inapplicable ! Cependant, la matrice associée à q relativement
à la base ordonnée B = (e2 , e3 , e1) est :
 
4 1 2
 
B = 1 1 1 ,
 
2 1 1

et l’on constate que les mineurs principaux dominants de B sont D0 =


1, D1 = 4, D2 = 3 et D3 = −1 et sont tous non nuls ! Le théorème 4.7
s’applique donc à B et l’on obtient que sgn(q) = (2, 1).

— 62 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

Exercices

Exercice 4.1.
1. Soit q la forme quadratique de R3 définie par :
   
 x1  
   
q(x) = x21 + 2x22 + 5x23 + 2x1 x2 − 4x2 x3 , ∀x = x2  ∈ R3  .
   
x3
(a) Réduire q par la méthode de Gauss.
(b) Déterminer la nouvelle base de R3 suivant laquelle q est représentée
par une matrice diagonale D qu’on précisera.
(c) En déduire que q est non dégénérée. q est-elle positive ? définie
positive ?
2. Reprendre les mêmes questions avec la forme quadratique q′ de R3
définie par :
   
 x1  
   
q′ (x) = x1 x2 + x1 x3 + x2 x3 , ∀x = x2  ∈ R3  .
   
x3

Exercice 4.2 (Interrogation 2012-2013). Soit q : R3 → R, définie par :


   
 x1  
   
q(x) := x21 + 5x22 + 2x1 x2 − 2x1 x3 + 2x2 x3 ∀x = x2  ∈ R3  .
   
x3

1. Justifier rapidement le fait que q est une forme quadratique sur R3 .


2. Déterminer la forme polaire associée à q puis la matrice associée à q
relativement à la base canonique de R3 .
3. Réduire q par la méthode de Gauss.
4. En déduire le rang et la signature de q.
— Cette forme quadratique q est-elle positive ? justifier.
5. Déterminer une base de R3 qui soit orthogonale pour q.
6. Soit q′ : R3 → R la forme quadratique définie par :
 
x1 
 
′ 2
q (x) := x1 x2 − x3 (∀x = x2  ∈ R3 ).
 
x3

— 63 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

— Les deux formes quadratiques q et q′ sont-elles équivalentes ? Jus-


tifier.
Exercice 4.3. Soient α un paramètre réel et f la forme bilinéaire symétrique
de R3 , donnée par :
f (x, y) := (x1 + x2 )(y1 + y2 ) + (x1 + x3 )(y1 + y3 ) + (x2 + x3 )(y2 + y3 )
− α(x1 + x2 + x3 )(y1 + y2 + y3 )
(pour tous x = t (x1 , x2, x3 ), y = t (y1 , y2 , y3) ∈ R3 ).
— Déterminer les valeurs de α pour lesquelles f est un produit scalaire sur
R3 .
Exercice 4.4. Etudier l’équivalence des deux formes quadratiques suivantes
sur C puis sur R :
q1 (x) = x21 + 2x22 + 2x1 x2 + 2x2 x3
q2 (x) = −x21 − 4x22 − 9x23 + 4x1 x2 + 10x1 x3 + 12x2 x3 ,
pour tout x = t (x1 , x2, x3 ) ∈ K3 (où K = C ou R).
Exercice 4.5. Soient E un R-espace vectoriel muni d’une forme bilinéaire
symétrique ϕ et F = (e1 , e2, . . . , en ) une famille de E, orthogonale pour ϕ et
constituée de vecteurs non isotropes.
— Montrer que F est libre.
Exercice 4.6. Réduire chacune des deux formes quadratiques suivantes de
Rn et en déduire le rang de chacune d’entre elles.
X
1. q(x) = (i + j − 1)xi x j ,
1≤i≤n
1≤j≤n
X
2. q(x) = min(i, j)xi x j
1≤i≤n
1≤j≤n

(∀x = t (x1 , . . . , xn ) ∈ Rn ).
☞ Pour la seconde forme quadratique, on peut commencer par étudier
les cas n = 1, 2, 3 avant de généraliser.
Exercice 4.7. En utilisant le critère de Sylvester (c’est-à-dire le corollaire
4.8), montrer que la forme bilinéaire symétrique sur R3 , définie par :
   
x1   y1   
   
f x2  ,  y2  := 2 x1 y1 + 3 x2 y2 + 5 x3 y3 + 2 x1 y2 + x2 y1 + x1 y3 + x3 y1
    
x3 y3 + 3 x2 y3 + x3 y2
(∀ t (x1 , x2 , x3 ), t (y1 , y2 , y3) ∈ R3 ) est définie positive.

— 64 —
B. Farhi Chap 4. Réduction et classification des formes quadratiques

Exercice 4.8. Soient n un entier strictement positif et t un paramètre réel.


Considérons la matrice réelle symétrique d’ordre n, définie par :
 
 1 t t2 t3 t4 . . . tn 
 t 1 t t2 t3 . . . tn−1 

 2 
 t t 1 t t2 . . . tn−2 
 .. 
An (t) :=  ... ..
.
..
.
.. .. ..
. . . . 
 n−2 n−3 
t
 n−1 tn−2 . . . t 1 t t2 

t t ... t2 t 1 t 
 n n−1 
t t ... t3 t2 t 1

et désignons par qn (t) la forme quadratique de Rn que représente An (t)


relativement à la base canonique de Rn .
— En distinguant les valeurs de t, déterminer la signature de qn (t).
☞ Utiliser le critère de Sylvester tant que c’est possible et traiter les cas
particuliers restants par la méthode de réduction de Gauss.

Exercice 4.9 (Matrice de Hilbert). Soient n un entier strictement positif et


H la matrice réelle symétrique d’ordre n définie par :
!
1
H := .
i + j − 1 1≤i, j≤n

— Montrer par deux méthodes différentes que H est définie positive :


1ère méthode : Utiliser le critère de Sylvester (c’est-à-dire le corollaire 4.8).
2nde méthode : (pour plus tard). Montrer que H est une matrice de Gram
et utiliser les résultats du théorème 6.5.

— 65 —
Chapitre 5
Espaces euclidiens, espaces
préhilbertiens réels et espaces de
Hilbert réels

Sommaire
5.1 Norme associée à un produit scalaire . . . . . . . . . . . 66
5.2 Orthogonalité dans un espace préhilbertien . . . . . . . 70
5.2.1 Extension de certains théorèmes classiques de géo-
métrie euclidienne . . . . . . . . . . . . . . . . . . 70
5.2.2 Construction d’une famille orthonormée d’un es-
pace préhilbertien . . . . . . . . . . . . . . . . . . 73
L’algorithme de Gram-Schmidt . . . . . . . . . . . 73
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

Dans ce chapitre, on se limite uniquement aux espaces vectoriels réels.

5.1 Norme associée à un produit scalaire


Définitions 5.I.—
— On appelle espace préhilbertien réel (ou simplement espace préhilbertien
s’il n’y a pas d’ambiguı̈té sur le corps R utilisé) tout R-espace vectoriel
muni d’un produit scalaire.
— On appelle espace euclidien tout espace préhilbertien réel de dimension
finie.

66
B. Farhi Chap 5. Espaces euclidiens, préhilbertiens et de Hilbert

— Soient E un espace préhilbertien réel et h , i le produit scalaire associé.


On définit l’application :

k · k : E −→ R+ √ .
x 7−→ kxk := hx , xi

On montrera plus loin que k · k constitue une norme sur E, ce qui


justifie d’ailleurs sa notation. Cette norme k · k s’appelle la norme
associée au produit scalaire h , i de E.

Sauf mention contraire, le produit scalaire d’un espace préhilbertien est


noté h , i et sa norme associée est notée k · k.
Dans ce qui va suivre, on donnera les propriétés fondamentales vérifiées
par l’application k · k.
Proposition 5.1 (Inégalité de Cauchy-Schwarz).— Soit E un espace pré-
hilbertien. Alors, pour tous x, y ∈ E, on a :

| x , y | ≤ kxk · kyk (5.1)

De plus, cette inégalité devient une égalité si et seulement si x et y sont colinéaires.

Appellation.— L’inégalité (5.1) est connue sous le nom de l’inégalité de


Cauchy-Schwarz ou simplement l’inégalité de Schwarz (1) .
Démonstration de la proposition 5.1.— Soient x, y ∈ E fixés. Si x = 0E ,
l’énoncé de la proposition est immédiat. Supposons pour la suite que x , 0E
et définissons pour tout λ ∈ R :

P(λ) := λx + y , λx + y .

La positivité du produit scalaire montre qu’on a : P(λ) ≥ 0 (∀λ ∈ R). D’autre


part, en utilisant la bilinéarité et la symétrie du produit scalaire, on a pour
tout λ ∈ R :

P(λ) = hx , xi λ2 + 2 x , y λ + y , y
= kxk2 λ2 + 2 x , y λ + kyk2 ,

ce qui montre que P est un polynôme de second degré (2) en λ. Ainsi, le


fait que P est toujours positif (donc de signe constant) entraı̂ne que son
(1). Dans les pays de l’ex-union soviétique, l’inégalité de Schwarz est appelée : l’inégalité
de Bunyakovski-Schwarz.
(2). Le polynôme P est de second degré car le coefficient de λ2 dans P est hx , xi, qui est
non nul en vertu de notre supposition ≪ x , 0E ≫.

— 67 —
B. Farhi Chap 5. Espaces euclidiens, préhilbertiens et de Hilbert

2
discriminant réduit ∆′ = x , y − kxk2 kyk2 est négatif ; soit ∆′ ≤ 0. Ce qui
donne immédiatement l’inégalité requise :

| x , y | ≤ kxk · kyk.

— Maintenant, l’inégalité de Cauchy-Schwarz est une égalité équivaut à


dire que ∆′ = 0, ce qui équivaut à dire (3) que P possède au moins une racine
réelle λ0 (qui est nécessairement double). On a par suite :

P(λ0 ) = λ0 x + y , λ0 x + y = 0.

Ce qui équivaut (en vertu de la définition du produit scalaire) à λ0 x+y = 0E ,


exprimant le fait que x et y sont colinéaires. Ceci complète la preuve de la
proposition. 
Proposition 5.2 (Inégalité de Minkowski).— Soit E un espace préhilber-
tien. Alors, pour tous x, y ∈ E, on a :

kx + yk ≤ kxk + kyk (5.2)

Appellation.— L’inégalité (5.2) est connu sous le nom de l’inégalité de


Minkowski.
Démonstration de la proposition 5.2.— Soient x, y ∈ E. En se servant
de la bilinéarité et de la symétrie du produit scalaire, on a :

kx + yk2 = x + y , x + y = hx , xi+2 x , y + y , y = kxk2 +2 x , y +kyk2 .

Mais comme x , y ≤ | x , y | ≤ kxk·kyk (en vertu de l’inégalité de Cauchy-


Schwarz), il s’ensuit que :
2
kx + yk2 ≤ kxk2 + 2kxk · kyk + kyk2 = kxk + kyk .

D’où :
kx + yk ≤ kxk + kyk,
comme il fallait le prouver. La proposition est démontrée. 
Corollaire 5.3.— Soit E un espace préhilbertien. L’application k·k constitue
une norme sur E.

Démonstration.— Il s’agit de montrer que k · k satisfait les 3 axiomes


d’une norme sur un R-espace vectoriel, qui sont :
(3). L’implication directe est claire. Montrons l’implication inverse. Supposons que P
possède au moins une racine réelle. Dans ce cas, le discriminant réduit ∆′ de P est
forcément positif. Mais comme on sait aussi que ∆′ est négatif, alors ∆′ = 0. CQFD.

— 68 —
B. Farhi Chap 5. Espaces euclidiens, préhilbertiens et de Hilbert

(i) ∀x ∈ E : kxk ≥ 0 et kxk = 0 ⇔ x = 0E .


(ii) ∀x ∈ E et ∀λ ∈ R : kλxk = |λ| · kxk.
(iii) ∀x, y ∈ E : kx + yk ≤ kxk + kyk.
La satisfaction de l’axiome (i) résulte immédiatement de la définition et
de la positivité du produit scalaire. L’axiome (iii) n’est rien d’autre que
l’inégalité de Minkowski (5.2). Montrons que k · k satisfait l’axiome (ii). En
se servant de la bilinéarité du produit scalaire, on a pour tout x ∈ E et tout
λ∈R:
p p q √ q 2
2
kλxk = hλx , λxi = λ2 hx , xi = λ2 kxk = λ2 kxk = |λ| · kxk,
comme il fallait le prouver. Les axiomes (i), (ii) et (iii) sont ainsi tous
satisfaits par l’application k · k, ce qui montre que cette dernière constitue
bien une norme sur E. Le corollaire est démontré. 
Remarque 5.I.— Compte tenu du corollaire 5.3, on considère un espace
préhilbertien comme un cas particulier d’un R-espace vectoriel normé.
Définition 5.II.— On appelle espace de Hilbert réel (ou simplement es-
pace de Hilbert s’il n’y a pas d’ambiguı̈té sur le corps R utilisé) tout espace
préhilbertien réel complet (4) .

Exemple 5.I.—
1. Montrer que tout espace euclidien est de Hilbert.
2. Montrer que le R-espace vectoriel E := C 0 ([0, 1], R) muni du produit
scalaire h , i, défini par :
Z 1
f , g := f (x)g(x) dx (∀ f, g ∈ E),
0

n’est pas de Hilbert.

1. Il suffit d’utiliser le résultat de topologie générale selon lequel ≪ tout R-espace


vectoriel normé de dimension finie est de Banach ≫.
2. Considérons la suite ( fn )n≥2 d’éléments de E, définie par :


0 si x ∈ [0, 12 ]


1 si x ∈ [ 21 + n1 , 1]
fn (x) := 
 (∀n ≥ 2, ∀x ∈ [0, 1]).

  
n x − 1 si x ∈ [ 1 , 1 + 1 ]
2 2 2 n

On montre aisément que ( fn )n est de Cauchy (pour la norme associée au produit


scalaire h , i) mais qu’elle n’est pas convergente (5) (dans E). 

(4). Bien entendu, complet pour la norme associée à son produit scalaire.

— 69 —
B. Farhi Chap 5. Espaces euclidiens, préhilbertiens et de Hilbert

5.2 Orthogonalité dans un espace préhilbertien


Les notions d’orthogonalité, de famille orthogonale (resp. orthonormée),
de base orthogonale (resp. orthonormée) d’un R-espace vectoriel, muni
d’une forme bilinéaire symétrique, ont été déjà définies et étudiées au cha-
pitre 3. Dans le cas (particulier) des espaces préhilbertiens, ces notions se
rapprochent mieux des notions géométriques ≪ concrètes ≫ déjà connues
sur R2 et R3 . Remarquer par exemple qu’une famille orthonormée d’un
espace préhilbertien est une famille de vecteurs deux à deux orthogonaux,
qui sont tous de norme égale à 1 ; ce qui est exactement la même notion
connue en géométrie euclidienne classique. On doit comprendre donc que
les notions d’espace euclidien et préhilbertien que nous découvrons dans
ce polycopié ne sont que des généralisation abstraites (certes profondes)
des notions classiques de géométrie euclidienne plane. On dit d’ailleurs
que la géométrie de Hilbert n’est autre que la géométrie d’Euclide en di-
mension infinie !

5.2.1 Extension de certains théorèmes classiques de géo-


métrie euclidienne
Nous commençons par étendre les théorèmes classiques de Pythagore
et d’al-Kashi (en géométrie plane) aux espaces préhilbertiens.
Théorème 5.4 (Le théorème de Pythagore).— Soient E un espace préhil-
bertien et x et y deux vecteurs de E. Alors, on a :
x⊥y ⇐⇒ kx + yk2 = kxk2 + kyk2 .
Démonstration.— En utilisant la bilinéarité et la symétrie du produit
scalaire, on a :
kx + yk2 = x + y , x + y
= hx , xi + 2 x , y + y , y
= kxk2 + kyk2 + 2 x , y .
D’où l’on déduit que :
déf
x⊥y ⇐⇒ x , y = 0
⇐⇒ kxk2 + kyk2 + 2 x , y = kxk2 + kxk2
(5). Si l’on suppose que ( fn )n converge vers une certaine fonction f ∈ E, alors, compte
tenu de sa continuité, f est forcément égale à 1 sur [0, 12 ] et égale à 0 sur [ 21 , 1] ; ce qui est
absurde vis à vis de la valeur de f en 21 . Ceci conclut que la suite ( fn )n n’est pas convergente
dans E.

— 70 —
B. Farhi Chap 5. Espaces euclidiens, préhilbertiens et de Hilbert

⇐⇒ kx + yk2 = kxk2 + kyk2 .


Le théorème est démontré. 
Remarque 5.II.—
Pour retrouver le théorème de Pytha-
gore classique sur un triangle (ABC)
de sommet A, il suffit de prendre
(dans le théorème 5.4) pour E le plan
vectoriel euclidien portant le triangle
(ABC) et pour x et y les vecteurs :
−→ −−→ Le théorème de Pythagore :
x = BA et y = AC. Le triangle (ABC) est rectangle en A
ssi : AB2 + AC2 = BC2 .

L’écart angulaire non orienté de deux vecteurs d’un espace préhilbertien


Le cas E = R2 .
Examinons d’abord le cas du plan eu-
clidien E = R2 , muni de sa base ca-

− →−
nonique notée ( i , j ) et de son pro-
! usuel noté!h , i. Soient
duit scalaire
−x = x1 et →
→ −y = y1 deux vec-
x2 y2
teurs non nuls de E. On introduit les
→− −
deux angles orientés θ1 := ( i , → x ) et
→− → −
θ2 := ( i , y ). L’écart angulaire non
orienté de → −x et →−y est l’angle (non
orienté) qui sépare →−x et →
−y ; c’est donc
l’angle θ = |θ2 − θ1 | ∈ [0, π] (voir la
figure ci-contre).
Pour déterminer θ, il suffit de déterminer son cosinus. Comme la fonc-
tion cosinus est paire, on a :
cos θ = cos(θ1 − θ2 ) = cos θ1 cos θ2 + sin θ1 sin θ2 .
Mais puisque :
x1 y1 x2 y2
cos θ1 = →− , cos θ2 = →− , sin θ1 = →− , sin θ2 = →− ,
kxk kyk kxk k yk
il s’ensuit que : D E
→−x , →
−y
x1 y1 + x2 y2
cos θ = → −y k = k→ −y k .
k−x k · k→ −x k · k→

— 71 —
B. Farhi Chap 5. Espaces euclidiens, préhilbertiens et de Hilbert

D’où la précieuse formule :


 D→ E
−y 
 −x , → 

θ = arccos  →  (5.3)
 k x k · k y k 
− →

qui permet de déterminer la mesure de θ.


De la formule (5.3) découle aussi la formule classique du produit sca-
laire : D E
→−x , →
−y = k→
−x k · k→
−y k · cos θ .

Le cas général (extension).


Soit E un espace préhilbertien et soient x et y deux vecteurs non nuls de
E. En copiant sur (5.3), on définit l’écart angulaire non orienté de x et y, que
[
l’on note (x, y), par :
!
[ x , y
(x, y) := arccos . (5.4)
kxk · kyk
Noter que l’expression du membre de droite de (5.4) est bien définie car
hx , yi
kxk·kyk
∈ [−1, 1] (en vertu de l’inégalité de Cauchy-Schwarz).
Le lecteur doit donc comprendre que c’est l’inégalité de Cauchy-Schwarz
qui a permis d’étendre la définition de l’écart angulaire de deux vecteurs
aux espaces préhilbertiens quelconques.
Nous pouvons maintenant énoncer la généralisation du théorème d’al-
Kashi à un espace préhilbertien quelconque.
Théorème 5.5 (Le théorème d’al-Kashi).— Soient E un espace préhilber-
tien et x et y deux vecteurs de E. Alors, on a :
[
kx − yk2 = kxk2 + kyk2 − 2kxk · kyk · cos (x, y).

Démonstration.— En utilisant la bilinéarité et la symétrie du produit


scalaire, on a :

kx − yk2 = x − y , x − y
= hx , xi + y , y − 2 x , y
!
2 2 x, y
= kxk + kyk − 2kxk · kyk
kxk · kyk
[
= kxk2 + kyk2 − 2kxk · kyk · cos (x, y) (d’après (5.4)).

Le théorème est démontré. 

— 72 —
B. Farhi Chap 5. Espaces euclidiens, préhilbertiens et de Hilbert

Remarque 5.III.—

Pour retrouver le théorème d’al-


Kashi classique sur un triangle (ABC)
de sommet A, il suffit de prendre
(dans le théorème 5.5) pour E le plan
vectoriel euclidien portant le triangle
(ABC) et pour x et y les vecteurs :
−→ −−→
x = AB et y = AC.
Le théorème d’al-Kashi :
Dans le triangle (ABC), on a :
BC2 = AB2 + AC2 − 2AB · AC· cos θ.

5.2.2 Construction d’une famille orthonormée d’un espace


préhilbertien
Soit E un espace préhilbertien. La détermination d’une famille (resp.
base) orthonormée de E est très utile dans plusieurs calculs géométriques
liés à E (produit scalaire, projection orthogonale sur un sous-espace vecto-
riel, distance à un sous-espace vectoriel, etc). En fait, la méthode de Gauss
(vue au chapitre 4) permet de construire de telles familles (6) ; cependant
cette démarche, plutôt algébrique que géométrique, manque généralement
d’efficacité. Dans ce qui suit, nous découvrons une méthode géométrique
récursive permettant de réaliser plus facilement cette construction. Il s’agit
de la méthode connue sous le nom de procédé de Gram-Schmidt ou algorithme
de Gram-Schmidt.

L’algorithme de Gram-Schmidt
Soient E un espace préhilbertien et F = (e1 , e2 , . . . , en ) (n ≥ 1) une
famille libre de E. L’algorithme de Gram-Schmidt permet d’orthonormaliser
la famille F , c’est-à-dire de construire (à partir de F ) une nouvelle famille
libre G = (u1 , u2, . . . , un ) qui soit orthonormée et qui engendre le même
sous-espace vectoriel de E que F . La nature récursive de l’algorithme fait
que l’on a plus généralement :

Vect(u1 , u2 , . . . , uk ) = Vect(e1 , e2 , . . . , ek ) (∀k ∈ {1, 2, . . . , n}).


(6). La réduction de Gauss de la forme quadratique associée au produit scalaire de E,
restreinte à un sous-espace de dimension finie F de E, fournit une base orthogonale de
F. Il suffit de diviser chaque vecteur de cette base par sa norme pour obtenir une base
orthonormée de F.

— 73 —
B. Farhi Chap 5. Espaces euclidiens, préhilbertiens et de Hilbert

En prenant k = n, on obtient en particulier Vect(G ) = Vect(F ). On dit que


G est l’orthonormalisée de Gram-Schmidt de F .
Remarque 5.IV.— Si E est de dimension finie, l’algorithme de Gram-
Schmidt construit, à partir d’une base quelconque de E, une base ortho-
normée de E.

Description de l’algorithme
On construit par récurrence sur k (1 ≤ k ≤ n) une famille G = (u1 , u2, . . . ,
un ) de E qui satisfait pour tout k :
(1) La famille (u1 , u2 , . . . , uk ) est orthonormée.
(2) Vect(u1 , u2 , . . . , uk ) = Vect(e1 , e2 , . . . , ek ).
• Pour k = 1 : Il suffit de prendre (7)
e1
u1 := .
ke1 k
Les conditions (1) et (2) sont ainsi bien satisfaites pour k = 1.
• Soit k ∈ {2, 3, . . . , n} : Supposons que l’on a construit une famille (u1 , u2, . . . ,
uk−1 ) de E qui satisfait les propriétés souhaitées. On détermine un vecteur
b
uk de E, ayant la forme :
X
k−1
b
uk = e k + λ i ui (avec λi ∈ R, ∀i ∈ {1, 2, . . . , k − 1}), (5.5)
i=1

de sorte que la famille (u1 , u2 , . . . , uk−1 , b


uk ) soit orthogonale. Puisque, d’après
notre hypothèse de récurrence, la famille (u1 , u2 , . . . , uk−1 ) est orthonormée
(donc orthogonale), alors pour que la famille (u1 , u2, . . . , uk−1 , b uk ) soit or-
thogonale il faut et il suffit que l’on ait :
D E
b
uk , u j = 0 (∀ j ∈ {1, 2, . . . , k − 1}).
Compte tenu de l’orthonormalité de la famille (u1 , u2 , . . . , uk−1 ), on a pour
tout j ∈ {1, 2, . . . , k − 1} :
* X
k−1 +
D E
b
uk , u j = e k + λ i ui , u j
i=1
D E Xk−1 D E
= ek , u j + λ i ui , uj
i=1

(7). On peut prendre aussi u1 = − kee11 k , mais ce ne serait pas l’algorithme de Gram-
Schmidt !

— 74 —
B. Farhi Chap 5. Espaces euclidiens, préhilbertiens et de Hilbert

D E X
k−1
= ek , u j + λi δij
i=1
D E
= ek , u j + λ j .
D E
La condition buk , u j = 0 (∀ j ∈ {1, 2, . . . , k − 1}) équivaut donc à :
D E
λ j = − ek , u j (∀ j ∈ {1, 2, . . . , k − 1}).
En reportant ces valeurs (uniques) des réels λ j (j = 1, 2, . . . , k − 1) dans (5.5),
on obtient la formule de Gram-Schmidt pour notre vecteur recherché b uk :

X
k−1
b
uk = e k − hek , ui i ui .
i=1

Il est important de signaler que ce vecteur b uk ne peut être nul. En ef-


fet, en supposant le contraire, on obtient que ek ∈ Vect(u1 , u2 , . . . , uk−1 ) =
Vect(e1 , e2 , . . . , ek−1 ) (en vertu de l’hypothèse de récurrence) ; ce qui contre-
dit l’indépendance linéaire des vecteurs e1 , e2, . . . , en .
Maintenant, puisque la famille (u1, u2 , . . . , uk−1 ) est orthonormée (d’après
l’hypothèse de récurrence) et la famille (u1 , u2 , . . . , uk−1 , b
uk ) est orthogonale
(8)
(par construction), alors en définissant :

b
uk
uk := ,
kb
uk k
on obtient une famille orthonormée (u1 , u2 , . . . , uk−1 , uk ) de E. Enfin, en
utilisant les définitions de uk et b uk ainsi que l’hypothèse de récurrence
Vect(u1 , u2 , . . . , uk−1 ) = Vect(e1 , e2, . . . , ek−1 ), on a :

Vect (u1 , u2, . . . , uk ) = Vect u1 , u2, . . . , uk−1 , b uk
= Vect (u1 , u2 , . . . , uk−1 , ek )
= Vect (e1 , e2, . . . , ek−1 , ek ) .
Ainsi la famille (u1 , u2 , . . . , uk ) satisfait bien les deux conditions requises (1)
et (2). Ce qui permet de réitérer le procédé.
La dernière étape du procédé aboutit à une famille G = (u1 , u2 , . . . , un ) de
E qui est orthonormée et engendre le même sous-espace vectoriel de E que
la famille considérée initialement F = (e1 , e2, . . . , en ). En particulier, si F
est une base de E alors G sera une base orthonormée de E.
b
(8). On peut prendre aussi uk = − kbuuk k , mais ce ne serait pas l’algorithme de Gram-
k
Schmidt !

— 75 —
B. Farhi Chap 5. Espaces euclidiens, préhilbertiens et de Hilbert

Remarques 5.V.—
1. Dans la situation de l’algorithme de Gram-Schmidt décrit ci-dessus,
on peut montrer que l’on a pour tout k ∈ {1, 2, . . . , n} :

hek , uk i > 0.

On montre de plus qu’il existe une unique famille orthonormée


(v1 , v2 , . . . , vn ) de E satisfaisant aux deux conditions suivantes :
• Vect(v1 , v2 , . . . , vk ) = Vect(e1 , e2 , . . . , ek ) (∀k ∈ {1, 2, . . . , n}),
• hek , vk i > 0 (∀k ∈ {1, 2, . . . , n}).
Cette famille est précisément l’orthonormalisée de Gram-Schmidt de
la famille libre (e1 , e2 , . . . , en ) de E. Voir l’exercice 5.15.
2. Nous verrons dans le prochain chapitre que la quantité :

X
k−1
hek , ui i ui
i=1

(rencontrée dans la formule de Gram-Schmidt ci-dessus) représente


la projection orthogonale du vecteur ek sur le sous-espace vectoriel
Vect(u1 , u2 , . . . , uk−1 ) = Vect(e1 , e2 , . . . , ek−1 ) de E (c’est-à-dire le vec-
teur de ce sous-espace qui soit le plus proche (9) de ek ). Ainsi vu, le
procédé de Gram-Schmidt peut être considéré comme un procédé
purement géométrique. L’illustration géométrique du procédé de
Gram-Schmidt sera donnée au prochain chapitre.

Exemple 5.II.— On munit le R-espace vectoriel R3 de sa structure ca-


nonique d’espace euclidien (c’est-à-dire de son produit scalaire usuel).
     
1 1 1
0 0  
 
1. Vérifier que les vecteurs e1 =  , e2 =   et e3 = 1 constituent une
     
1 2 1
base de R3 .
2. Déterminer l’orthonormalisée de Gram-Schmidt de la famille
(e1 , e2, e3 ).

1 1 1
1 1
1. On a det(e1, e2 , e3) = 0 0 1 = (−1) · 1 2 = (−1) · 1 = −1 , 0 (on a développé
1 2 1
le déterminant d’ordre 3 suivant sa deuxième ligne). Ce qui montre que la famille
(e1 , e2 , e3 ) est libre. Mais puisque cette famille contient 3 = dimR3 vecteurs alors elle

(9). Au sens de la distance associée à la norme k · k de E.

— 76 —
B. Farhi Chap 5. Espaces euclidiens, préhilbertiens et de Hilbert

constitue une base de R3 . C.Q.F.D.


2. Désignons par (u1 , u2, u3 ) l’orthonormalisée de Gram-Schmidt de la famille libre
(e1 , e2 , e3 ) de R3 . D’après l’algorithme de Gram-Schmidt, on a :

e1
u1 = .
ke1 k
p √
Mais ke1 k = he1 , e1 ius = 2. D’où u1 = √1 e1 ; soit
2

 
1 1
u1 = √ 0 .
2 1

Par suite, on a :
b
u2
b
u2 = e2 − he2 , u1 ius u1 et u2 = .
kb
u2 k
Mais he2 , u1 ius = 1 · √1 +0·0+2· √1 = √3 . D’où :
2 2 2

     1  
3 1 3 1 − 2  1 −1
u2 = e2 − √ u1 = 0 − 0 =  0  =  0  .
b      
2 2 2 1  1  2 1
2

Il s’ensuit que :
  √
1 −1 2
b
u2 = ·  0  = .
2 1 2
 
b −1
1 
Ce qui entraı̂ne que u2 = u2
= √  0  ; soit
kb
u2 k 2 
1

 
1 −1
u2 = √  0  .
2 1

Par suite, on a :

b
u3
b
u3 = e3 − he3 , u1 ius u1 − he3 , u2 ius u2 et u3 = .
kb
u3 k

Mais he3 , u1 ius = 1 · √1 +1·0+1· √1 = 2 et he3 , u2 ius = 1 · (− √1 ) + 1 · 0 + 1 · √1 = 0.
2 2 2 2
D’où :      
√ 1 1 0
u3 = e3 − 2u1 = 1 − 0 = 1 .
b
1 1 0
Il s’ensuit que :
 
0
b
u3 = 1 = 1.
0

— 77 —
B. Farhi Chap 5. Espaces euclidiens, préhilbertiens et de Hilbert

 
b 0
Ce qui entraı̂ne que u3 = u3
kb
u3 k
= 1 ; soit
0

 
0
u3 = 1 .
0

Conclusion : L’orthonormalisée de Gram-Schmidt de la famille (e1 , e2 , e3 ) est la fa-


mille (u1 , u2 , u3 ), avec :
     
1 1 1 −1 0
u1 = √ 0 , u2 = √  0  et u3 = 1 .
2 1 2 1 0

Notons enfin que puisque la famille (e1 , e2 , e3 ) est une base de R3 alors la famille
(u1 , u2 , u3 ) est une base orthonormée de R3 . 

— 78 —
B. Farhi Chap 5. Espaces euclidiens, préhilbertiens et de Hilbert

Exercices

Exercice 5.1. Soient E un espace euclidien et F et G deux sous-espaces


vectoriels de E.
1. Montrer les deux formules suivantes :

(F + G)⊥ = F⊥ ∩ G⊥ ,
(F ∩ G)⊥ = F⊥ + G⊥ .

2. En déduire que si F et G sont supplémentaires dans E alors il en est


de même pour F⊥ et G⊥ .

Exercice 5.2.
1. Montrer que pour tout (x1 , x2, . . . , xn ) ∈ Rn , on a :
 
(x1 + x2 + · · · + xn )2 ≤ n x21 + x22 + · · · + x2n .

2. Soient x, y et z trois réels tels que : x2 + 2y2 + 3z2 ≤ 1. Montrer que l’on
a:
11
(x + y + z)2 ≤ .
6
3. Soient x1 , x2, . . . , xn des nombres réels strictement positifs tels que :
Xn
xi = 1. Montrer que :
i=1

Xn
1
≥ n2 .
i=1
x i

— Étudier le cas d’égalité.


4. Soient f et g deux fonctions réelles continues sur [0, 1]. Montrer que
l’on a : !2
Z 1 Z 1 Z 1
2
f (x)g(x) dx ≤ f (x) dx g(x)2 dx.
0 0 0

— Etudier le cas d’égalité.

— 79 —
B. Farhi Chap 5. Espaces euclidiens, préhilbertiens et de Hilbert

Exercice 5.3.
1. Soit E un espace préhilbertien. Montrer l’égalité du parallélogramme :

kx + yk2 + kx − yk2 = 2(kxk2 + kyk2 ) (∀x, y ∈ E).

2. En déduire que la norme k.k∞ définie sur R2 par :


! !
x x
:= max(|x|, |y|) (∀ ∈ R2 )
y y

n’est pas une norme euclidienne (c’est-à-dire qu’elle ne provient pas


d’un produit scalaire).

Exercice 5.4. Soient E un espace euclidien et (ei )1≤i≤n une famille de vec-
teurs unitaires (10) de E tels que :
X
n
∀x ∈ E : kxk = 2
hx, ei i2 .
i=1

— Montrer que (ei )1≤i≤n constitue une base orthonormée de E.

Exercice 5.5. Soient n un entier strictement positif et E un espace euclidien


de dimension n. Soient aussi (e1 , e2 , . . . , en ) une base orthonormée de E et
(x1 , x2, . . . , xn ) une famille (ordonnée) de vecteurs de E, satisfaisant :
X
n
kxk − ek k2 < 1.
k=1

— Montrer que (x1 , x2 , . . . , xn ) constitue une base de E.

Exercice 5.6. Soient E un espace euclidien et (e1 , e2 , . . . , en ) (n ∈ N∗ ) une


famille de vecteurs de E, satisfaisant aux deux propriétés suivantes :
D E
• ei , e j < 0 pour tous i, j ∈ {1, 2, . . . , n} tels que i , j.
• ∃x ∈ E tel que hx , ei i > 0 pour tout i ∈ {1, 2, . . . , n}.
— Montrer alors que la famille (e1 , e2 , . . . , en ) est libre.

Exercice 5.7. Soit E un espace préhilbertien. On appelle ≪ isométrie ≫ de E,


toute application de E dans E qui conserve les distances (c’est-à-dire toute
application f : E → E, vérifiant : d( f (x), f (y)) = d(x, y), ∀x, y ∈ E).
(10). Un vecteur unitaire est un vecteur de norme 1.

— 80 —
B. Farhi Chap 5. Espaces euclidiens, préhilbertiens et de Hilbert

1. Montrer que toute isométrie f de E, vérifiant f (0) = 0, conserve aussi


les normes et les produits scalaires.
2. En déduire que toute isométrie f de E, vérifiant f (0) = 0, est forcément
un automorphisme de E.

Exercice 5.8. Soient E un espace euclidien de dimension n (n ∈ N∗ ) et


(ei )1≤i≤n une base orthonormée de E. Soit aussi f un automorphisme de E.
On suppose que f conserve l’orthogonalité ; c’est-à-dire que f vérifie la
propriété :
∀x, y ∈ E : x ⊥ y =⇒ f (x) ⊥ f (y).
1. Montrer que la famille ( f (ei ))1≤i≤n constitue une base orthogonale de
E.
2. Montrer que pour tous i, j ∈ {1, 2, . . . , n}, on a :
   
f (ei ) + f (e j ) ⊥ f (ei ) − f (e j ) .

3. En déduire que les vecteurs f (ei ) (1 ≤ i ≤ n) sont tous de même


norme. Désignons par k cette norme commune.
4. Montrer que pour tout x ∈ E, on a :

f (x) = k kxk .
(On dit que f est une similitude de rapport k).

Exercice 5.9. On munit R5 de sa structure canonique d’espace euclidien.


Soit F le sous-espace vectoriel de R5 engendré par les deux vecteurs :
u = t (1, 2, 1, 1, 1) et v = t (1, −1, 1, 0, 3).
— Déterminer une base orthonormée pour F et une base orthonormée pour
F⊥ .

Exercice 5.10. On munit R[x] du produit scalaire h , i défini par :


Z 1
hP, Qi := P(x)Q(x) dx (∀P, Q ∈ R[x]).
0

— Déterminer une base orthonormée de R2 [x] pour ce produit scalaire.

Exercice 5.11 (Interrogation 2012-2013). On note par E le R-espace vecto-


riel C 1 ([0, 1], R). Soit h , i : E2 → R l’application définie par :
Z 1
h f, gi := f ′ (x)g′ (x) dx + f (0)g(0) (∀ f, g ∈ E).
0

— 81 —
B. Farhi Chap 5. Espaces euclidiens, préhilbertiens et de Hilbert

1. Montrer que h , i constitue un produit scalaire sur E.


2. Déterminer l’orthonormalisée de Gram-Schmidt de la famille libre
(P0 , P1, P2 ), avec P0 (x) = x − 1, P1 (x) = x et P2 (x) = x2 .

Exercice 5.12 (Examen 2012-2013).


Pour ce qui suit, on munit le R-espace vectoriel R3 [X] de l’application
h , i : R3 [X] × R3 [X] → R, définie par :

hP , Qi := P(−1)Q(−1)+P(0)Q(0)+P(1)Q(1)+P′(0)Q′ (0) (∀P, Q ∈ R3 [X]).

1. Montrer que h , i constitue un produit scalaire sur R3 [X].


2. Déterminer une base orthonormée du sous-espace vectoriel R2 [X]
pour ce produit scalaire.

Exercice 5.13 (Rattrapage 2012-2013).


Pour ce qui suit, on munit le R-espace vectoriel R2 [X] de l’application
h , i : R2 [X] × R2 [X] → R, définie par :

hP , Qi := P(1)Q(1) + P′ (1)Q′ (1) + P′′ (1)Q′′ (1) (∀P, Q ∈ R2 [X]).

1. Montrer que h , i constitue un produit scalaire sur R2 [X].


2. Déterminer une base orthonormée de R2 [X] pour ce produit scalaire.

Exercice 5.14. Soient a et b deux nombres réels tels que a < b et ω une
fonction continue et strictement positive sur l’intervalle [a, b]. Considérons
l’application h , i : R[X] × R[X] → R, définie par :
Z b
hP , Qi := P(x)Q(x)ω(x) dx (∀P, Q ∈ R[X]).
a

1. Montrer que h , i constitue un produit scalaire sur R[X].


2. Montrer qu’il existe une suite polynomiale (Pn )n∈N , orthonormée pour
h , i et telle que degPn = n pour tout n ∈ N. Pour toute la suite, on
fixe une telle suite polynomiale (Pn )n∈N .
3. Montrer que la suite polynomiale (Pn )n∈N satisfait une relation récu-
rrente de la forme (11) :

Pn+2 (X) = αn X + βn Pn+1 (X) + γn Pn (X) (∀n ∈ N),

avec (αn )n∈N , (βn )n∈N et (γn )n∈N sont des suites réelles, (αn )n étant stric-
tement positive et (γ)n étant strictement négative.
(11). Cette formule s’appelle en anglais ≪ the three-term recurrence relation ≫.

— 82 —
B. Farhi Chap 5. Espaces euclidiens, préhilbertiens et de Hilbert

☞ Pour n ∈ N donné, montrer que le polynôme X Pn+1 (X) s’exprime


comme combinaison linéaire (à coefficients réels) des polynômes
P0 , P1 , . . . , Pn , Pn+1 , Pn+2 , puis que les coefficients de cette combinai-
son linéaire sont nuls sauf peut être ceux de Pn , Pn+1 et Pn+2 .
4. Montrer que pour tout n ∈ N, le polynôme Pn est simplement
scindé (12) sur R et que ses zéros appartiennent tous à l’intervalle
]a, b[.
☞ Pour n ∈ Q N donné, raisonner sur le produit scalaire de Pn avec
le polynôme i (X − xi ), où les xi sont les zéros réels deux à deux
distincts de Pn , appartenant à l’intervalle ]a, b[ et ayant pour ordres
de multiplicité des nombres impairs.

Exercice 5.15. Soient n un entier strictement positif et E un espace pré-


hilbertien réel de dimension au moins égale à n. Soient aussi F = (e1 , e2, . . . ,
en ) une famille libre de E et G = (u1 , u2 , . . . , un ) son orthonormalisée de
Gram-Schmidt.
1. Montrer que l’on a pour tout k ∈ {1, 2, . . . , n} :

hek , uk i = b
uk > 0

(voir la description de l’algorithme de Gram-Schmidt pour la définition


de b
uk ).
2. Montrer qu’il existe une unique famille (v1 , v2 , . . . , vn ) de vecteurs de
E qui satisfait les trois propriétés suivantes :
• (v1 , v2 , . . . , vn ) est orthonormée,
• Vect(v1 , v2 , . . . , vk ) = Vect(e1 , e2 , . . . , ek ) (∀k ∈ {1, 2, . . . , n}),
• hek , vk i > 0 (∀k ∈ {1, 2, . . . , n}).
(Bien entendu, cette famille n’est autre que l’orthonormalisée de
Gram-Schmidt de F ).
☞ Supposer l’existence de deux familles de vecteurs de E satisfai-
sant ces trois propriétés et exprimer les vecteurs de l’une de ces deux
familles comme combinaisons linéaires des vecteurs de l’autre.

Exercice 5.16 (Décomposition de Cholesky).


Soient n un entier strictement positif et A une matrice symétrique définie
positive de Mn (R).
(12). C’est-à-dire ≪ scindé à racines simples ≫.

— 83 —
B. Farhi Chap 5. Espaces euclidiens, préhilbertiens et de Hilbert

1. Montrer l’existence d’une matrice triangulaire supérieure T de Mn (R),


à coefficients diagonaux positifs, fournissant la décomposition (dite
de Cholesky) suivante de la matrice A :

A = t T T.

☞ Munir le R-espace vectoriel Rn du produit scalaire h , i dont la


matrice associée relativement à sa base canonique C est A. Ensuite,
considérer l’orthonormalisée de Gram-Schmidt G de C relativement
à ce produit scalaire (G constituera donc une nouvelle base de Rn ).
Enfin, écrire la formule de changement de base pour la représentation
matricielle de la forme bilinéaire symétrique h , i de Rn relativement
aux deux bases C et G et en tirer le résultat requis. Pour établir la
positivité des coefficients diagonaux de la matrice T (ainsi obtenue),
vous pouvez vous appuyer sur le résultat du point 1. de l’exercice
5.15.
2. Montrer l’unicité d’une telle matrice T.
☞ Supposer qu’il existe deux matrices triangulaires supérieures à
coefficients diagonaux positifs T et S satisfaisant A = t TT = t SS
et montrer que la matrice D := ST−1 est forcément diagonale à co-
efficients diagonaux positifs. En constatant de plus que t DD = In ,
conclure que D = In , puis que T = S.

— 84 —
Chapitre 6
Projections orthogonales dans un
espace préhilbertien réel

Sommaire
6.1 Projection sur un sous-espace parallèlement à un autre
sous-espace . . . . . . . . . . . . . . . . . . . . . . . . . . 85
6.2 Projections orthogonales . . . . . . . . . . . . . . . . . . 87
6.3 Distance d’un point par rapport à un sous-espace vec-
toriel de dimension finie d’un espace préhilbertien . . . 89
6.4 Interprétation géométrique de l’algorithme de Gram-
Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

6.1 Projection sur un sous-espace parallèlement


à un autre sous-espace
Soient E un R-espace vectoriel et F et G deux sous-espaces vectoriels
supplémentaires de E (i.e., F ⊕ G = E).
Définition 6.I.— On appelle projection (ou projecteur) sur F parallèlement
à G l’application p : E → E qui associe à tout vecteur x de E, se décomposant
de manière unique comme x = x1 + x2 (avec x1 ∈ F et x2 ∈ G), le vecteur x1
de F.
— Il est facile de voir que p est linéaire ; donc p constitue un endomor-
phisme de E.

85
B. Farhi Chap 6. Projections orthogonales dans un espace préhilbertien

Illustration géométrique.

x2 x

O x1 F

Quelques propriétés immédiates.— La projection p sur F parallèlement


à G satisfait les propriétés suivantes :

Im p = F,
Ker p = G,
p2 = p.

La dernière propriété constitue en fait une caractérisation des projec-


tions, comme le confirme la proposition suivante :

Proposition 6.1.— Un endomorphisme f de E est une projection si et seule-


ment s’il vérifie f 2 = f . De plus, dans un tel cas, f est précisément la projection
sur Im f parallèlement à Ker f .

Démonstration.— Soit f un endomorphisme de E. Si f est une pro-


jection, on a bien (d’après les propriétés ci-dessus) : f 2 = f . Inversement,
supposons que f 2 = f et montrons que f est une projection sur un cer-
tain sous-espace vectoriel F de E parallèlement à un certain autre sous-
espace vectoriel G de E (supplémentaire à F). Nous allons montrer cela
précisément pour F = Im f et G = Ker f . Montrons d’abord que Im f et
Ker f sont supplémentaires dans E (i.e., Im f ⊕Ker f = E) ; ce qui équivaut à
montrer que Im f ∩ Ker f = {0E } et Im f + Ker f = E. Comme les inclusions
{0E } ⊂ Im f ∩ Ker f et Im f + Ker f ⊂ E sont triviales (car Im f et Ker f
sont des sous-espaces vectoriels de E), il s’agit juste de montrer les deux
inclusions : Im f ∩ Ker f ⊂ {0E } et E ⊂ Im f + Ker f .
• Montrons que Im f ∩ Ker f ⊂ {0E }. Soit x ∈ Im f ∩ Ker f . Le fait que
x ∈ Im f entraı̂ne l’existence d’un u ∈ E tel que x = f (u). D’autre part, le

— 86 —
B. Farhi Chap 6. Projections orthogonales dans un espace préhilbertien

fait que x ∈ Ker f entraı̂ne que l’on a f (x) = 0E . En combinant et en utilisant


le fait que f 2 = f , on a :

x = f (u) = f 2 (u) = f f (u) = f (x) = 0E .

Autrement dit x ∈ {0E }. D’où l’inclusion Im f ∩ Ker f ⊂ {0E }.


• Montrons maintenant l’inclusion E ⊂ Im f + Ker f . Soit x ∈ E quelconque
et posons x1 = f (x) et x2 = x − f (x). On a bien x = x1 + x2 , x1 ∈ Im f
et f (x2 ) = f x − f (x) = f (x) − f 2 (x) = 0E (car f est linéaire et f 2 = f ),
entraı̂nant que x2 ∈ Ker f . D’où x ∈ Im f +Ker f . L’inclusion E ⊂ Im f +Ker f
en résulte.
Le fait que Ker f et Im f sont supplémentaires dans E est ainsi confirmé.
De plus, la décomposition unique d’un vecteur x de E sous la forme x =
x1 + x2 , avec x1 ∈ Im f et x2 ∈ Ker f , est précisément donnée par x1 = f (x)
et x2 = x − f (x). L’endomorphisme f (i.e., la correspondance x 7→ f (x) = x1 )
est donc identique à la projection sur Im f parallèlement à Ker f . La preuve
de la proposition est complète. 

6.2 Projections orthogonales


Soit E un espace préhilbertien réel dont le produit scalaire associé est
désigné par h , i et la norme sous-jacente par k·k. Soit aussi F un sous-espace
vectoriel de dimension finie de E.

Proposition 6.2.— On a :

F ⊕ F⊥ = E.

Démonstration.— Il s’agit de montrer que l’on a : F ∩ F⊥ = {0E } et


F + F⊥ = E. Comme les inclusions {0E } ⊂ F ∩ F⊥ et F + F⊥ ⊂ E sont évidentes,
il s’agit en fait de montrer les deux inclusions F ∩ F⊥ ⊂ {0E } et E ⊂ F + F⊥ .
• Montrons d’abord que F ∩ F⊥ ⊂ {0E }. Pour tout x ∈ F ∩ F⊥ , on a x ⊥ x ;
soit hx , xi = 0. Autrement dit, on a kxk2 = 0 ; ce qui entraı̂ne que kxk = 0 et
puis que x = 0E . L’inclusion F ∩ F⊥ ⊂ {0E } en résulte.
• Montrons maintenant l’inclusion E ⊂ F + F⊥ . Considérons pour cela une
base orthonormée (e1 , e2, . . . , ek ) (k ∈ N) de F (l’existence d’une telle base est
assurée par le procédé de Gram-Schmidt). Étant donné x ∈ E (arbitraire),
définissons
X k

x := hx , ei i ei ∈ F.
i=1

— 87 —
B. Farhi Chap 6. Projections orthogonales dans un espace préhilbertien

Puisque la famille (ei )1≤i≤k est orthonormée, on a pour tout j ∈ {1, 2, . . . , k} :

D E Xk D E
x′ , e j = hx , ei i ei , e j
i=1
X
k
= hx , ei i δij
i=1
D E
= x , ej .

D’où l’on tire que pour tout j ∈ {1, 2, . . . , k}, on a :


D E
x − x′ , e j = 0.

Le vecteur (x − x′ ) est donc orthogonal à tous les vecteurs e1 , e2 , . . . , ek de la


base considérée pour F. Ce qui entraı̂ne que (x − x′ ) est orthogonal à tous
les vecteurs de F ; autrement dit (x − x′ ) ∈ F⊥ . Le vecteur x se décompose
alors en : x = x′ + (x − x′ ), avec x′ ∈ F et (x − x′ ) ∈ F⊥ ; ce qui entraı̂ne que
x ∈ F + F⊥ . L’inclusion E ⊂ F + F⊥ en découle.
En conclusion, on a F ⊕ F⊥ = E, comme il fallait le prouver. 

Exemple 6.I.— Dans le cas où E est euclidien (i.e., de dimension finie),
montrer que l’on a : F⊥⊥ = F.

Supposons que E est euclidien, c’est-à-dire de dimension finie. D’après la proposi-


tion 6.2, on a à la fois F ⊕ F⊥ = E et F⊥ ⊕ F⊥⊥ = E. Par suite, puisque la dimension
d’une somme directe de deux sous-espaces vectoriels de E est égale à la somme des
dimensions de ces sous-espaces, il s’ensuit en prenant les dimensions dans les deux
égalités précédentes que : dimF + dimF⊥ = dimE = dimF⊥ + dimF⊥⊥ . D’où l’on tire
que dimF = dimF⊥⊥ . Enfin, puisque l’on sait que F ⊂ F⊥⊥ (voir le point 4 de la
proposition 3.3), il en résulte que F⊥⊥ = F, comme il fallait le prouver. 

Appellations 6.I.—
1. Le sous-espace vectoriel F⊥ de E s’appelle le supplémentaire orthogonal
de F.
2. La projection sur F parallèlement à son supplémentaire orthogonal
F⊥ s’appelle la projection orthogonale sur F.

Notation 6.I.— La projection orthogonale sur F se note πF (ou quel-


quefois pF ).

— 88 —
B. Farhi Chap 6. Projections orthogonales dans un espace préhilbertien

Illustration géométrique.

F⊥

x2 x

O x1 = πF (x) F

L’expression explicite de la projection orthogonale sur F d’un vecteur


x de E, en adoptant préalablement une base orthonormée pour F, est tirée
directement de la démonstration (1) de la proposition 6.2. Elle est donnée
par le théorème suivant :

Théorème 6.3.— Soit B = (e1 , e2 , . . . , ek ) (où k ∈ N) une base ortho-


normée de F. Alors on a pour tout x ∈ E :

X
k
πF (x) = hx , ei i ei . 
i=1

6.3 Distance d’un point par rapport à un sous-


espace vectoriel de dimension finie d’un es-
pace préhilbertien
Soit E un espace préhilbertien dont le produit scalaire associé est désigné
par h , i et la norme et la distance sous-jacentes sont respectivement dési-
gnées par k · k et d. Soit aussi F un sous-espace vectoriel de dimension finie
de E. Rappelons d’abord la définition topologique (2) de la distance d’un
point de E par rapport à F.
(1). Dans le contexte de la démonstration de la proposition 6.2, on a : πF (x) = x′ =
Pk
i=1 hx , ei i ei .
(2). Métrique plus exactement.

— 89 —
B. Farhi Chap 6. Projections orthogonales dans un espace préhilbertien

Définition 6.II.— La distance d’un vecteur x de E par rapport à F,


notée d(x, F), est définie par :
d(x, F) := inf d(x, y) = inf kx − yk.
y∈F y∈F

— Noter que cet infinimum existe (et appartient à R+ ) car la partie


{kx − yk, y ∈ F} de R est visiblement non vide et minorée par 0 (on utilise
l’axiome de la borne inférieure de Bolzano).
Illustration géométrique.
b
x

d(x, F)

b b b b

y′1 y0 y1 y2 F

On verra dans le théorème qui suit que la projection orthogonale sur F


d’un point x de E est le vecteur de F le plus proche de x ; ce qui permet de
calculer concrètement d(x, F).
Théorème 6.4.— Pour tout x ∈ E, il existe un unique y0 ∈ F tel que :
d(x, F) = d(x, y0 ).
De plus, on a précisément y0 = πF (x), de sorte que l’on ait :
d(x, F) = kx − πF (x)k .
Démonstration.— Pour tout y ∈ F, on a :
2  2
x−y = (x − πF (x)) + πF (x) − y
2
= kx − πF (x)k2 + πF (x) − y
(d’après le théorème de Pythagore ; ici on a : (x−πF (x)) ∈ F⊥ et (πF (x)−y) ∈ F,
donc (x − πF (x)) ⊥ (πF (x) − y)). Il résulte de cela que :
2 2
inf x − y = kx − πF (x)k2 + inf πF (x) − y .
y∈F y∈F

Mais comme l’infinimum infy∈F kπF (x) − yk2 est visiblement atteint une
seule fois en y0 = πF (x) et est égale à 0 alors l’infinimum infy∈F kx − yk2
est, lui aussi, atteint une seule fois en le même y0 = πF (x) et est égale à
kx − πF (x)k2 . D’où infy∈F kx − yk = d(x, F) est également atteint une seule
fois en y0 = πF (x) et vaut kx − πF (x)k. Le théorème est démontré. 

— 90 —
B. Farhi Chap 6. Projections orthogonales dans un espace préhilbertien

Matrice et déterminant de Gram


Pour calculer la distance d’un vecteur x de E au sous-espace vectoriel de
dimension finie F de E, l’utilisation de la formule du théorème 6.4 nécessite
de calculer d’abord la projection orthogonale de x sur F ; ce qui nécessite de
déterminer préalablement une base orthonormée (3) pour F. Nous verrons
dans ce qui suit que même une base arbitraire de F permet de calculer assez
facilement d(x, F), et ce via les déterminants de Gram.

Définition 6.III.— Soient n un entier strictement positif et (x1 , x2, . . . , xn )


une famille ordonnée de vecteurs de E.
— On appelle la matrice de Gram associée à la famille (x1 , x2, . . . , xn ) la
matrice réelle carrée d’ordre n définie par :
D E
Gram(x1 , x2, . . . , xn ) := xi , x j .
1≤i, j≤n

— On appelle le déterminant de Gram associé à la famille (x1 , x2 , . . . , xn ),


que l’on note G(x1 , x2 , . . . , xn ), le déterminant de la matrice de Gram associé
à cette même famille ; soit

G(x1 , x2, . . . , xn ) := det Gram(x1 , x2 , . . . , xn ).

Les principaux résultats concernant la matrice et le déterminant de


Gram sont rassemblés dans le théorème suivant :

Théorème 6.5.— Soient n un entier strictement positif et (x1 , x2, . . . , xn ) une


famille ordonnée de vecteurs de E. Les propriétés suivantes sont alors satisfaites :
1. La matrice Gram(x1 , x2 , . . . , xn ) est symétrique positive. Elle est de plus
définie positive si et seulement si la famille de vecteurs (x1 , x2 , . . . , xn ) est
libre.
2. On a rg Gram(x1 , x2 , . . . , xn ) = dimVect(x1 , x2 , . . . , xn ).
3. On a G(x1 , x2 , . . . , xn ) ≥ 0. De plus, G(x1 , x2 , . . . , xn ) > 0 si et seulement si
la famille de vecteurs (x1 , x2 , . . . , xn ) est libre.
4. Le déterminant G(x1 , x2, . . . , xn ) est invariant par permutation (4) des vec-
teurs x1 , x2, . . . , xn et invariant également lorsqu’un certain vecteur xi
(1 ≤ i ≤ n) est remplacé par une somme de xi et d’une combinaison linéaire
des autres vecteurs x j (1 ≤ j ≤ n, j , i).
(3). On utilise à cet effet l’algorithme de Gram-Schmidt.
(4). Il est alors plus approprié de parler du déterminant de Gram d’une famille finie de
vecteurs de E plutôt que d’une famille finie ≪ ordonnée ≫ de vecteurs de E.

— 91 —
B. Farhi Chap 6. Projections orthogonales dans un espace préhilbertien

5. Supposons que dimF = n et soit (u1 , u2 , . . . , un ) une base arbitraire de F.


Alors pour tout x ∈ E, on a :
r
G(x, u1, u2 , . . . , un )
d(x, F) =
G(u1 , u2, . . . , un )
(appelée la formule de Gram).
Démonstration.—
1. La symétrie de la matrice Gram(x1 , x2, . . . , xn ) résulte simplement de la
symétrie du produit scalaire de E. Montrons maintenant que la matrice
Gram(x1 , x2 , . . . , xn ) est positive. Ce qui revient à montrer que l’on a pour
   
λ1  λ1 
λ  λ 
 2   2 

tout λ =  ..  ∈ R : λ Gram(x1 , x2 , . . . , xn ) λ ≥ 0. Soit λ =  ..  ∈ Rn . On a :
 n t
 .   . 
   
λn λn
t
λ Gram(x1 , x2 , . . . , xn ) λ
  
hx1 , x1 i hx1 , x2 i . . . hx1 , xn i λ1 
hx , x i hx , x i . . . hx , x i λ 
 2 1 2 2 2 n   2 
= (λ1 , λ2 , . . . , λn )  .
.. .
.. .
..   .. 
   . 
   
hxn , x1 i hxn , x2 i . . . hxn , xn i λn

= hλ1 x1 + λ2 x2 + · · · + λn xn , x1 i , hλ1 x1 + λ2 x2 + · · · + λn xn , x2 i ,
 
λ1 
 λ2 
. . . , hλ1 x1 + λ2 x2 + · · · + λn xn , xn i  .. 
 . 
 
λn
= hλ1 x1 + λ2 x2 + · · · + λn xn , λ1 x1 + λ2 x2 + · · · + λn xn i
= kλ1 x1 + λ2 x2 + · · · + λn xn k2 ≥ 0,
comme il fallait le prouver. De plus, la matrice Gram(x1 , x2, . . . , xn ) est
 
λ1 
λ 
 2 
définie positive si et seulement si l’on a pour tout λ =  ..  ∈ Rn \ {0Rn } :
 . 
 
λn
t
λ Gram(x1 , x2 , . . . , xn ) λ > 0 ; c’est-à-dire (d’après ce qui précède) pour
 
λ1 
λ 
 2 
tout λ =  ..  ∈ Rn \ {0Rn } : kλ1 x1 + λ2 x2 + · · · + λn xn k2 > 0, autrement dit
 . 
 
λn

— 92 —
B. Farhi Chap 6. Projections orthogonales dans un espace préhilbertien

λ1 x1 + λ2 x2 + · · · + λn xn , 0E . D’où Gram(x1 , x2, . . . , xn ) est définie positive


si et seulement si la famille (x1 , x2 , . . . , xn ) est libre. Ceci complète la preuve
du point 1. du théorème.
2. Posons H := Vect(x1 , x2, . . . , xn ) et considérons l’application linéaire :
f : H −→ Rn
 
hx1 , xi
hx , xi
 2  .
x 7−→  .. 
 . 
 
hxn , xi

On a :

Ker f = x ∈ H : f (x) = 0Rn

= x ∈ H : hxi , xi = 0 pour tout i = 1, 2, . . . , n

= x ∈ H : x ⊥ xi pour tout i = 1, 2, . . . , n

= x ∈ H : x ∈ {x1 , x2 , . . . , xn }⊥

= x ∈ H : x ∈ H⊥
= H ∩ H⊥ = {0E }.

Ce qui montre que f est injective. Il résulte de cela que dim f (H) = dimH.
Mais puisque le sous-espace vectoriel f (H) de Rn est engendré par les vec-
teurs f (x1 ), f (x2 ), . . . , f (xn ) de Rn , qui sont exactement les vecteurs colonnes
de la matrice Gram(x1 , x2, . . . , xn ), on a dim f (H) = rg Gram(x1 , x2 , . . . , xn ).
Ce qui conclut au résultat requis.
3. Si la famille (x1 , x2, . . . , xn ) est liée alors on a (d’après le résultat du point
2., déjà démontré) : rg Gram(x1 , x2, . . . , xn ) = dimVect(x1 , x2 , . . . , xn ) < n.
Ce qui entraı̂ne que la matrice carrée Gram(x1 , x2 , . . . , xn ) est singulière,
et donc son déterminant G(x1 , x2 , . . . , xn ) est nul. Par contre, si la famille
(x1 , x2, . . . , xn ) est libre alors (d’après le résultat du point 1., déjà démontré)
la matrice Gram(x1 , x2 , . . . , xn ) est (symétrique) définie positive ; ce qui
entraı̂ne (d’après le critère de Sylvester du corollaire 4.8) que tous ses
mineurs principaux dominants sont strictement positifs ; en particulier,
son déterminant G(x1 , x2 , . . . , xn ) est strictement positif. Ce qui complète la
preuve du point 3. du théorème.
4. Si la famille (x1 , x2 , . . . , xn) est liée, le résultat requis découle du résultat
du point précédent. Supposons maintenant que la famille (x1 , x2 , . . . , xn ) est
libre. Elle constitue donc une base du sous-espace vectoriel de E qui l’en-
gendre, à savoir H := Vect(x1 , x2 , . . . , xn ). Remarquons alors que la matrice
Gram(x1 , x2 , . . . , xn ) n’est autre que la matrice associée à la forme bilinéaire

— 93 —
B. Farhi Chap 6. Projections orthogonales dans un espace préhilbertien

symétrique h , i|H de H relativement à la base (x1 , x2 , . . . , xn ) de H. De plus,


si (y1 , y2 , . . . , yn ) est une autre base de H et P est la matrice de passage
de (x1 , x2, . . . , xn ) vers (y1 , y2 , . . . , yn ) alors la matrice associée à la même
forme bilinéaire symétrique h , i|H de H relativement à la nouvelle base
(y1 , y2 , . . . , yn ) est d’une part égale à Gram(y1 , y2 , . . . , yn ) et d’autre part
égale à t P Gram(x1 , x2 , . . . , xn )P (en vertu de la formule de changement de
base relative aux formes bilinéaires). Il résulte par comparaison que l’on a :

Gram(y1 , y2 , . . . , yn ) = t P Gram(x1 , x2, . . . , xn )P.

En prenant les déterminants des deux membres de cette dernière identité


et en se rappelant que det t P = det P, il en résulte que :

G(y1 , y2 , . . . , yn ) = G(x1 , x2 , . . . , xn ) (det P)2 .

Cette dernière est une identité générale incluant les deux cas du point 4. du
théorème. En effet, si (y1 , y2 , . . . , yn ) est une permutation de (x1 , x2 , . . . , xn )
alors det P est égale à la signature de cette permutation, donc égale à ±1 ;
ce qui fait que (det P)2 = 1. D’où l’on tire pour ce cas que G(y1 , y2 , . . . , yn ) =
G(x1 , x2, . . . , xn ), comme il fallait le prouver. D’autre part, s’il existe i ∈
{1, 2, . . . , n} tel que


 xj pour j , i



 X

yj =   xi + α j x j pour j = i (∀ j ∈ {1, 2, . . . , n})



 1≤j≤n
 j,i

(où les α j (1 ≤ j ≤ n, j , i) sont des nombres réels) alors on vérifie facilement


(en décomposant P par blocs par exemple) que det P = 1 ; ce qui conclut
aussi pour ce cas à la formule requise G(y1 , y2 , . . . , yn ) = G(x1 , x2 , . . . , xn ).
5. Soit x ∈ E. Comme la projection orthogonale πF (x) de x sur F appartient à
F alors πF (x) est une combinaison linéaire des vecteurs u1 , u2, . . . , un . Ce qui
entraı̂ne d’après le résultat du point 4. précédent que l’on a
G (x, u1 , u2, . . . , un ) = G (x − πF (x), u1 , u2, . . . , un ). Mais puisque x − πF (x) ∈
F⊥ , on a hx − πF (x) , ui i = 0 pour tout i ∈ {1, 2, . . . , n}. D’où

G (x, u1, u2 , . . . , un ) = G (x − πF (x), u1 , u2 , . . . , un )

— 94 —
B. Farhi Chap 6. Projections orthogonales dans un espace préhilbertien

kx − πF (x)k2 0 0 ... 0
0
= 0 Gram (u1 , u2, . . . , un )
..
.
0

= kx − πF (x)k2 det Gram (u1 , u2, . . . , un )

= d(x, F)2 G (u1 , u2 , . . . , un )

(en vertu du théorème 6.4). Ce qui donne la formule requise :


r
G(x, u1 , u2 , . . . , un )
d(x, F) = .
G(u1 , u2 , . . . , un )
Ainsi se complète cette démonstration. 

Remarques 6.I.—
1. Faisons remarquer que le cas particulier correspondant à n = 2
du point 3. du théorème 6.5 n’est autre que l’inégalité de Cauchy-
Schwarz !
2. On peut montrer que toute matrice réelle carrée symétrique positive
est une matrice de Gram d’une certaine famille finie de vecteurs de
E.

6.4 Interprétation géométrique de l’algorithme


de Gram-Schmidt
Soient n un entier strictement positif et E un espace préhilbertien réel
de dimension au moins égale à n. Soient aussi F = (e1 , e2 , . . . , en ) une
famille libre de E et G = (u1 , u2 , . . . , un ) son orthonormalisée de Gram-
Schmidt. Posons pour tout k ∈ {1, 2, . . . , n} : Ek := Vect(e1 , e2 , . . . , ek ) =
Vect(u1 , u2 , . . . , uk ). En vertu du théorème 6.3, les formules vues au chapitre
précédent, lesquelles expriment les vecteurs ui (1 ≤ i ≤ n) en fonction des
vecteurs ei (1 ≤ i ≤ n), se réécrivent en utilisant les projections orthogonales
comme ceci :


 u1 = kee11 k



b
 uk = ek − πEk−1 (ek )

 (pour 2 ≤ k ≤ n).

 b
u
 uk = kbukk k

— 95 —
B. Farhi Chap 6. Projections orthogonales dans un espace préhilbertien

Lorsque E est de dimension finie, la formule de b uk (2 ≤ k ≤ n) s’écrit aussi


b uk est le vecteur de E⊥k−1 le plus proche de
uk = πE⊥k−1 (ek ) ; ce qui montre que b
ek (en vertu du théorème 6.4).

Illustration géométrique pour E = R3 et n = 3

b
u3
e3

u3

u2 b
u2
u1
b

b
e2

e1

— 96 —
B. Farhi Chap 6. Projections orthogonales dans un espace préhilbertien

Exercices

Exercice 6.1. Soient E un R-espace vectoriel et p et q deux projections de E.


1. Montrer les deux équivalences suivantes :

Im p = Im q ⇐⇒ p ◦ q = q et q ◦ p = p,
Ker p = Ker q ⇐⇒ p ◦ q = p et q ◦ p = q.

2. En déduire que si p1 , p2, . . . , pn (n ∈ N∗ ) sont des projections de E sur


un même sous-espace F de E et α1 , α2 , . . . , αn sont des réels tels que
α1 + α2 + · · · + αn = 1 alors (α1 p1 + α2 p2 + · · · + αn pn ) est une projection
de E sur F.

Exercice 6.2. Pour ce qui suit, le R-espace vectoriel R4 est muni de son
produit scalaire usuel. Considérons le plan vectoriel H de R4 engendré par
les deux vecteurs    
2 1
2 1
   
V1 :=   et V2 :=   .
0 3
   
1 5
— Déterminer la matrice associée à πH (la projection orthogonale sur H)
relativement à la base canonique de R4 .

Exercice 6.3. Soit p l’endomorphisme du R-espace vectoriel R3 dont la


matrice associée relativement à la base canonique de celui-ci est :
 
 2 −1 −1 
1  
A := −1 2 −1 .
3 −1 −1 2 

1. Montrer que p est une projection orthogonale de R3 pour son produit


scalaire usuel.
2. Montrer que p est également une projection orthogonale de R3 pour
le produit scalaire considéré à l’exercice 1.2.
3. Construire un produit scalaire sur R3 pour lequel p ne soit pas une
projection orthogonale.

— 97 —
B. Farhi Chap 6. Projections orthogonales dans un espace préhilbertien

Exercice 6.4. Calculer de deux façons différentes la quantité


Z 1  2
inf X3 + ax2 + bx + c dx.
a,b,c∈R 0

☞ Transformer le problème en un calcul de distance d’un vecteur par rap-


port à un sous-espace vectoriel d’un espace euclidien approprié. Ensuite,
calculer cette distance par les deux façons suivantes :
1ère façon : Utiliser le théorème 6.4 (vous devez donc déterminer préala-
blement une base orthonormée de l’espace euclidien considéré).
2ème façon : Utiliser la formule de Gram du théorème 6.5.

Exercice 6.5 (Examen 2014-2015). On munit le R-espace vectoriel R[x] de


l’application h , i : R[x]2 → R, définie par :
Z 1
hP , Qi := P(1)Q(1) − P′ (x)Q′ (x) log x dx (∀P, Q ∈ R[x]).
0

1. Montrer que h , i constitue un produit scalaire de R[x].


2. Etablir la formule :
Z 1
1
xn log x dx = − (∀n ∈ N).
0 (n + 1)2

3. En utilisant le procédé de Gram-Schmidt, déterminer une base de


R2 [x] qui soit orthonormée pour le produit scalaire ci-dessus.
4. Calculer ( Z )
1
2 2
inf (a + b − 1) − (2x − a) log x dx .
a,b∈R 0

Exercice 6.6. On munit le R-espace vectoriel E := C 0 ([−1, 1], R) du produit


scalaire h , i défini par :
Z 1
f , g := f (x)g(x) dx (∀ f, g ∈ E).
−1

Par ailleurs, on définit les polynômes de Legendre par :

1 dn  2 n
Pn (x) := n x − 1 (∀n ∈ N).
2n n! dx
1. Calculer P0 , P1 , P2 et P3 .

— 98 —
B. Farhi Chap 6. Projections orthogonales dans un espace préhilbertien

2. Montrer que la suite (Pn )n∈N est orthogonale pour le produit scalaire
h , i ainsi défini.
☞ Utiliser des intégrations par parties successives.
3. Montrer que l’on a pour tout n ∈ N :
r
2
kPn k =
2n + 1
(où k·k est la norme associée au produit scalaire h , i).
☞ Même indication que précédemment.
1
4. Déterminer la projection orthogonale de la fonction x 7→ 2 (de
x +1
E) sur le sous-espace vectoriel R3 [X] de E.
Exercice 6.7. Soient E un espace euclidien et p une projection de E satisfai-
sant :
p(x) ≤ kxk (∀x ∈ E).
— Montrer que p est nécessairement une projection orthogonale de E.
☞ Etant donnés u ∈ Ker p et v ∈ Im p, raisonner sur le polynôme réel de
second degré L en λ suivant :
2
L(λ) := kλu + vk2 − p(λu + v) .
Exercice 6.8. Soient E un espace euclidien et f une forme linéaire sur E.
Montrer qu’il existe un unique a ∈ E pour lequel on ait :
f (x) = hx , ai (∀x ∈ E).
☞ Le cas f = 0L (E) est trivial. Pour f , 0L (E) , considérer un générateur h
du supplémentaire orthogonal de Ker f et comparer f (x) à hx , hi (x ∈ E).
N. B : Le résultat de cet exercice est plus généralement vrai lorsque E est un
espace de Hilbert (réel ou complexe) et f est une forme linéaire continue
sur E (c’est le théorème de représentation de Riesz).
Exercice 6.9 (Inégalité de Bessel).
Soient E un espace préhilbertien réel et (e1 , e2, . . . , en ) (n ∈ N∗ ) une famille
orthonormée de E.
1. Montrer que pour tout x ∈ E, on a :
X
n
hx , ek i2 ≤ kxk2 .
k=1

(Cette inégalité est connue sous le nom de l’inégalité de Bessel).


☞ Posons F := Vect(e1 , e2, . . . , en ). Il suffit d’écrire x sous la forme
x = πF (x) + (x − πF (x)) et d’appliquer le théorème de Pythagore.

— 99 —
B. Farhi Chap 6. Projections orthogonales dans un espace préhilbertien

2. Montrer que l’inégalité de Bessel ci-dessus devient une égalité si et


seulement si x ∈ Vect(e1 , e2 , . . . , en ).
Exercice 6.10. Soit E un espace euclidien.
1. Etant donné x0 un vecteur non nul de E, montrer que la projection
orthogonale d’un vecteur x de E sur la droite vectorielle D engendrée
par x0 est donnée par :
hx , x0 i
πD (x) = x0 .
kx0 k2
2. Etant donné H un hyperplan de E et u un vecteur non nul de E
orthogonal à H, montrer que la projection orthogonale d’un vecteur
x de E sur H est donnée par :
hx , ui
πH (x) = x − u
kuk2
et que la distance de x à H est donnée par :
|hx , ui|
d(x, H) = .
kuk
3. Supposons que E = (Rn , h , ius ) (où n est un entier strictement positif)
et considérons H l’hyperplan de Rn d’équation a1 x1 +a2 x2 +· · ·+an xn =
0 (où a1 , a2 , . . . , an sont des réels non tous nuls). En appliquant le
second résultat du point 2. précédent, montrer que la distance d’un
 
x1 
x 
 2 
vecteur x =  ..  de E par rapport à H est donnée par :
 . 
 
xn
|a1 x1 + a2 x2 + · · · + an xn |
d(x, H) = q .
2 2 2
a1 + a2 + · · · + an

Exercice 6.11. Soient E un espace préhilbertien réel et F un sous-espace


vectoriel de E de dimension finie k (k ∈ N∗ ). Soit de plus (e1 , e2 , . . . , ek ) une
base orthonormée de F. Etant donné x ∈ E, désignons par θi (1 ≤ i ≤ k)
l’angle non orienté entre x et ei et par θ l’angle non orienté entre x et F
(c’est-à-dire l’angle non orienté entre x et sa projection orthogonale sur F).
— Montrer alors que l’on a :
X
k
2
cos θ = cos2 θi .
i=1

— 100 —
B. Farhi Chap 6. Projections orthogonales dans un espace préhilbertien

Exercice 6.12. Soit n un entier strictement positif. On munit le R-espace


vectoriel Mn (R) de son produit scalaire usuel et on désigne par Sn (R) et
An (R) les sous-espaces vectoriels de Mn (R), constitués respectivement des
matrices symétriques et des matrices antisymétriques de Mn (R).
1. Montrer que l’on a Sn (R)⊥ = An (R).
☞ Une expression adéquate du produit scalaire usuel de Mn (R) est
fournie par l’exercice 1.6.
2. En déduire l’expression de la projection orthogonale d’une matrice
A de Mn (R) sur Sn (R).
3. Calculer (en fonction de n) la distance de la matrice
 
1 1 . . . . . . 1
 1 1 . . . 1

 . . . . .. 
A :=  . . . 
 .. 
 (0) . 1

 
1

(de Mn (R)) par rapport au sous-espace vectoriel Sn (R) de Mn (R).

Exercice 6.13. Soient n un entier ≥ 2 et E un espace euclidien de dimension


n. Soient aussi (e1 , e2 , . . . , en ) une base orthonormée de E et F un sous-espace
vectoriel de E d’une certaine dimension k (0 ≤ k ≤ n).
1. Montrer la formule :
X
n
d (ei , F)2 = n − k.
i=1

2. En déduire l’existence d’un i ∈ {1, 2, . . . , n} tel que :


r
k
d (ei , F) ≥ 1 − .
n
Exercice 6.14. Soit p une projection orthogonale d’un espace euclidien E.
Montrer que p vérifie la propriété :

p(x) , y = x , p(y) (∀x, y ∈ E).

(On dit que p est autoadjoint).

Exercice 6.15. Soient p et q deux projections orthogonales d’un espace eu-


clidien E. Montrer l’équivalence des propriétés suivantes :

— 101 —
B. Farhi Chap 6. Projections orthogonales dans un espace préhilbertien

(i) (p + q) est une projection orthogonale.


(ii) ∀x ∈ E : p(x) , q(x) = 0.
(iii) p ◦ q = 0End(E) .
(iv) ∀x ∈ Im p, ∀y ∈ Im q : x , y = 0.

Exercice 6.16. Soient n un entier strictement positif, E un R-espace vecto-


riel de dimension n et p une projection de E.
1. Montrer que p est diagonalisable et préciser ses éventuelles valeurs
propres.
2. En déduire que rg p = tr p.
3. Supposons maintenant que E est euclidien et soit (e1 , e2 , . . . , en ) une
base orthonormée de E.
(a) Montrer que si p est une projection orthogonale de E alors on a :
X
n
2
rg p = p(ei ) .
i=1

P 2
(b) Montrer que si ni=1 p(ei ) = 1 alors p est une projection ortho-
gonale de E de rang 1.

— 102 —
Chapitre 7
Endomorphismes adjoint,
autoadjoint, orthogonal et normal
d’un espace préhilbertien réel

Sommaire
7.1 Adjoint d’un endomorphisme . . . . . . . . . . . . . . . 103
7.2 Endomorphismes autoadjoints . . . . . . . . . . . . . . . 107
7.3 Endomorphismes antisymétriques . . . . . . . . . . . . . 111
7.4 Endomorphismes orthogonaux . . . . . . . . . . . . . . . 111
7.5 Endomorphismes normaux . . . . . . . . . . . . . . . . . 118
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

Pour tout ce chapitre, on fixe E un espace préhilbertien réel et on désigne


par h , i le produit scalaire ambiant.

7.1 Adjoint d’un endomorphisme


Définition 7.I.— Soit f un endomorphisme de E. On appelle adjoint de
f tout endomorphisme g de E, vérifiant la propriété :

f (x) , y = x , g(y) (∀x, y ∈ E).

— L’endomorphisme adjoint d’un endomorphisme donné permet donc de


faire passer celui-ci de la partie de gauche vers la partie de droite d’un
produit scalaire.

103
B. Farhi Chap 7. Endomorphismes particuliers d’un espace préhilbertien

Traitons maintenant les questions d’existence et d’unicité de l’endo-


morphisme adjoint d’un endomorphisme donné. Pour l’existence, nous
nous limitons au cas où dimE est finie (i.e., au cas d’un espace euclidien)
et nous présentons le cas plus général juste sous forme d’information au
lecteur.
Proposition 7.1 (unicité de l’endomorphisme adjoint).— Soit f un en-
domorphisme de E. Si f possède un adjoint alors cet adjoint est forcément unique.

Démonstration.— Supposons que f possède deux adjoints g et h et


montrons que g = h (égalité dans End(E)). Par définition même de l’endo-
morphisme adjoint, on a pour tous x, y ∈ E :

f (x) , y = x , g(y) et f (x) , y = x , h(y) .

On déduit de cela que pour tous x, y ∈ E, on a :

x , g(y) = x , h(y) .

Ce qui revient à dire (compte tenu de la bilinéarité du produit scalaire) que


l’on a pour tous x, y ∈ E :

x , g(y) − h(y) = 0.

D’où l’on tire que :

g(y) − h(y) ∈ E⊥ (∀y ∈ E).

Or E⊥ = {0E } ; d’où :

g(y) − h(y) = 0E (∀y ∈ E).

Ce qui conclut que g(y) = h(y) (∀y ∈ E) ; c’est-à-dire que g = h, comme il


fallait le prouver. 

L’unicité de l’endomorphisme adjoint d’un endomorphisme donné de


E nous autorise à lui affecter une notation propre.
Notation 7.I.— L’endomorphisme adjoint d’un endomorphisme donné
f de E (lorsqu’il existe) est noté f ∗ .

La proposition suivante présente quelques propriétés presque immé-


diates des endomorphismes adjoints et de leurs liaisons (compatibilités)
avec l’addition des endomorphismes, la multiplication d’un scalaire par
un endomorphisme, la composition des endomorphismes, etc.

— 104 —
B. Farhi Chap 7. Endomorphismes particuliers d’un espace préhilbertien

Proposition 7.2.— Soient f et g deux endomorphismes de E qui possèdent


des adjoints (i.e., f ∗ et g∗ existent) et λ un nombre réel. Alors les endomorphismes
IdE , f + g, λ f , f ◦ g, f −1 (lorsque f est bijectif) et f ∗ de E possèdent tous des
adjoints et on a précisément :
(i) (IdE )∗ = IdE ,
(ii) ( f + g)∗ = f ∗ + g∗ ,
(iii) (λ f )∗ = λ f ∗ ,
(iv) ( f ◦ g)∗ = g∗ ◦ f ∗ ,
 ∗ −1
(v) f −1 = f ∗ (lorsque f est bijectif),
(vi) ( f ∗ )∗ = f .

Démonstration.—
• Montrons (i). Pour tous x, y ∈ E, on a :

IdE (x) , y = x , y = x , IdE (y) .

Ce qui montre que l’endomorphisme identité IdE de E possède un adjoint


qui n’est autre que lui-même ; soit (IdE )∗ = IdE .
• Montrons (ii). Pour tous x, y ∈ E, on a (en utilisant les propriétés d’un
produit scalaire et la définition de l’adjoint d’un endomorphisme) :

( f + g)(x) , y = f (x) + g(x) , y


= f (x) , y + g(x) , y
= x , f ∗ (y) + x , g∗ (y)
= x , f ∗ (y) + g∗ (y)
= x , ( f ∗ + g∗ )(y) .

Ce qui montre que l’endomorphisme ( f + g) de E possède un adjoint et l’on


a précisément ( f + g)∗ = f ∗ + g∗ .
• Montrons (iii). Pour tous x, y ∈ E, on a :

(λ f )(x) , y = λ f (x) , y
= λ f (x) , y
= λ x , f ∗ (y)
= x , λ f ∗ (y)
= x , (λ f ∗ )(y) .

Ce qui montre que l’endomorphisme (λ f ) de E possède un adjoint et l’on


a précisément (λ f )∗ = λ f ∗ .

— 105 —
B. Farhi Chap 7. Endomorphismes particuliers d’un espace préhilbertien

• Montrons (iv). Pour tous x, y ∈ E, on a :



( f ◦ g)(x) , y = f g(x) , y
= g(x) , f ∗ (y)

= x , g∗ f ∗ (y)
= x , (g∗ ◦ f ∗ )(y) .

Ce qui montre que l’endomorphisme ( f ◦ g) de E possède un adjoint et l’on


a précisément ( f ◦ g)∗ = g∗ ◦ f ∗ .
• Montrons (v). Supposons que f est bijectif de sorte que f −1 existe. On a
alors pour tous x, y ∈ E :
D E D  E
f −1 (x) , y = f −1 (x) , f ∗ ( f ∗ )−1 (y)
D   E
= f f −1 (x) , ( f ∗ )−1 (y)
D E
= x , ( f ∗ )−1 (y) .

Ce qui montre que l’endomorphisme f −1 de E possède un adjoint qui est


précisément ( f ∗ )−1 ; soit ( f −1 )∗ = ( f ∗ )−1 .
• Montrons enfin (vi). Pour tous x, y ∈ E, on a :

f ∗ (x) , y = y , f ∗ (x)
= f (y) , x
= x , f (y) .

Ce qui montre que l’endomorphisme f ∗ de E possède un adjoint qui est


précisément f ; soit ( f ∗ )∗ = f .
La proposition est démontrée. 

Proposition 7.3 (Sur l’existence de l’endomorphisme adjoint).—


Supposons que E est euclidien (i.e., dimE < +∞). Alors tout endomorphisme de E
possède un endomorphisme adjoint. Plus précisément, si f est un endomorphisme
de E et A est la matrice associée à f relativement à une base orthonormée B de
E alors la matrice associée à f ∗ relativement à la même base B de E est t A.

Démonstration.— Posons n := dimE et soit B = (e1 , e2, . . . , en ) une


base orthonormée de E (le procédé de Gram-Schmidt par exemple assure
l’existence de B). La matrice représentant le produit scalaire h , i de E (en
tant que forme bilinéaire sur E) relativement à B est donc In . Étant donné
maintenant f un endomorphisme de E, désignons par A la matrice associée
à f relativement à B et par g l’endomorphisme de E dont la matrice associée

— 106 —
B. Farhi Chap 7. Endomorphismes particuliers d’un espace préhilbertien

relativement à B est t A. Nous allons montrer que g est l’adjoint de f . Pour


tous x, y ∈ E, de coordonnées respectives X, Y ∈ Rn relativement à B, on
a (puisque, relativement à B, le vecteur f (x) de E est représenté par les
coordonnées AX, le vecteur g(y) de E est représenté par les coordonnées
t
AY et le produit scalaire h , i de E est représenté par la matrice identité In ) :

f (x) , y = t (AX) · In · Y
= t Xt AY
 
= t X · In · t AY
= x , g(y) .

Ce qui montre que g est effectivement l’adjoint de f (i.e., g = f ∗ ), comme il


fallait le prouver. 

Remarque 7.I.— L’existence de l’adjoint d’un endomorphisme donné


f peut être démontrée dans le cadre plus général où l’on suppose que E est
de Hilbert (i.e., complet) et f est continu. Le résultat de la proposition 7.3
en devient du coup un cas particulier (puisque tout espace vectoriel normé
de dimension finie est complet et tout endomorphisme d’un tel espace est
continu).

7.2 Endomorphismes autoadjoints


Définition 7.II.— Un endomorphisme f de E est dit autoadjoint (ou
symétrique) s’il est l’adjoint de lui-même, c’est-à-dire si f ∗ = f . De manière
équivalente, f est autoadjoint si pour tous x, y ∈ E, on a :

f (x) , y = x , f (y) .

La caractérisation matricielle d’un endomorphisme autoadjoint d’un es-


pace euclidien, relativement à une base orthonormée de celui-ci, se déduit
immédiatement de la proposition 7.3. On a la

Proposition 7.4.— Supposons que E est euclidien de dimension n (n ∈ N∗ )


et soit B = (e1 , e2, . . . , en ) une base orthonormée de E. Soient aussi f un
endomorphisme de E et A la matrice associée à f relativement à B. Alors f est
autoadjoint si et seulement si A est symétrique (i.e., t A = A). 

Parmi les exemples d’endomorphismes autoadjoints d’un espace eucli-


dien, on cite :

— 107 —
B. Farhi Chap 7. Endomorphismes particuliers d’un espace préhilbertien

(i) les projections orthogonales,


(ii) les symétries orthogonales
(voir plus loin). On a d’abord le théorème suivant :
Théorème 7.5.— Supposons que E est euclidien et soit p une projection de
E. Alors p est une projection orthogonale si et seulement si p est autoadjointe.

Démonstration.—
• (⇒) Supposons que p est une projection orthogonale de E. En posant
F := Im p, on a donc F⊥ = Ker p, F ⊕ F⊥ = E et p = πF . Pour tous x, y ∈ E,
écrivons :

x = x1 + x2 (avec x1 ∈ F et x2 ∈ F⊥ )
et y = y1 + y2 (avec y1 ∈ F et y2 ∈ F⊥ ),

de sorte que l’on ait : p(x) = πF (x) = x1 et p(y) = πF (y) = y1 . On a alors :

p(x) , y = x1 , y1 + y2
= x1 , y1 + x1 , y2
= x1 , y1 + x2 , y1 (car x1 , y2 = x2 , y1 = 0, étant
donné que x1 , x2 ∈ F et y1 , y2 ∈ F⊥ )
= x1 + x2 , y1
= x , p(y) .

Ce qui montre que p est autoadjoint, comme il fallait le prouver.


• (⇐) Supposons que le projecteur p est autoadjoint et posons F := Im p et
G := Ker p, de sorte que p soit précisément le projecteur sur F parallèlement
à G. Montrer que p est une projection orthogonale revient alors à montrer
que G = F⊥ . Comme G et F⊥ sont de même dimension (car ils ont un
même supplémentaire dans E, qui est F) alors il suffit de montrer que l’on
a G ⊂ F⊥ , c’est-à-dire que tout vecteur de G est orthogonal à tout vecteur
de F. Montrons ce dernier fait. Pour tous x ∈ G, y ∈ F, on a :

x , y = x , p(y)
= p(x) , y (car p est supposé autoadjoint)
= 0E , y (car x ∈ G)
= 0,

confirmant le fait requis. En remontant, on obtient que p est bien une


projection orthogonale de E.
Ainsi se complète cette démonstration. 

— 108 —
B. Farhi Chap 7. Endomorphismes particuliers d’un espace préhilbertien

Exemple 7.I.— Soit f l’endomorphisme de R2 dont la matrice associée


relativement à la base canonique de R2 est :
 √ 
 1 2

 3 3 
 .
A =  √ 
2 2 
3 3

— Montrer que f est une projection orthogonale de R2 (muni de son produit


scalaire usuel bien entendu).

On constate que l’on a :


 √  √   √ 
 1 2  1 2  1 2
3 
  √3 3  3 
A2 =  √3 

 =  √3 
 = A;
2 2  2 2  2 2 
3 3 3 3 3 3

d’où f 2 = f , confirmant que f est bien une projection de R2 . D’autre part, puisque
la base canonique de R2 est orthonormée (relativement au produit scalaire usuel
de R2 ) et que f est représenté par une matrice symétrique relativement à cette
base (constater que A est symétrique) alors (en vertu de la proposition 7.4) f est
autoadjoint. En conséquence, f est un projecteur autoadjoint de R2 ; ce qui entraı̂ne
(en vertu du Théorème 7.5) que f est une projection orthogonale de R2 . 

Dans ce qui suit, on définit une symétrie d’un R-espace vectoriel.


Définition 7.III.— Soit E un R-espace vectoriel. On appelle symétrie de
E tout endomorphisme s de E s’écrivant sous la forme :

s = 2p − IdE ,

où p est un projecteur de E .

Illustration géométrique :

O p(x) F

s(x)

— 109 —
B. Farhi Chap 7. Endomorphismes particuliers d’un espace préhilbertien

Cas particulier : Lorsque E est préhilbertien et p est une projection or-


thogonale de E , on dira que s = 2p − IdE est une symétrie orthogonale de
E.
Illustration géométrique :

F⊥

O πF (x) F

s(x)

Exemple 7.II.—
1. Montrer qu’un endomorphisme s d’un R-espace vectoriel E est une
symétrie si et seulement si :

s2 = IdE .

2. Montrer qu’un endomorphisme s d’un espace euclidien E est une


symétrie orthogonale si et seulement si :
(i) s2 = IdE et (ii) s est autoadjoint.

1. Soient E un R-espace vectoriel et s un endomorphisme de E . Considérons p


l’endomorphisme de E défini par p := 12 (s + IdE ), de sorte que l’on ait s = 2p − IdE .
On a alors :

s est une symétrie de E ⇐⇒ p est un projecteur de E


⇐⇒ p2 = p
1 1
⇐⇒ (s + IdE )2 = (s + IdE )
4 2
1 2  1
⇐⇒ s + 2s + IdE = (s + IdE ) (on a le droit d’utiliser la formule du
4 2
binôme car les endomorphismes s et IdE
de E commutent)
⇐⇒ s2 = IdE ,

— 110 —
B. Farhi Chap 7. Endomorphismes particuliers d’un espace préhilbertien

comme il fallait le prouver.


Une symétrie d’un R-espace vectoriel n’est rien d’autre donc qu’un endomor-
phisme involutif de cet espace.
2. Soient E un espace euclidien et s un endomorphisme de E . Considérons p l’endo-
morphisme de E défini par p := 12 (s + IdE ), de sorte que l’on ait s = 2p − IdE . On a
alors :

s est une symétrie orthogonale de E ⇐⇒ p est une projection orthogonale de E


⇐⇒ p est une projection de E et p est autoadjoint (en vertu du théorème 7.5)
⇐⇒ s est une symétrie de E et s est autoadjoint

(car on a équivalence entre ≪ p est autoadjoint ≫ et ≪ s est autoadjoint ≫, vu que p et


s s’expriment chacun comme combinaison linéaire de l’autre et l’endomorphisme
identité IdE , lequel est autoadjoint). D’où l’on tire (en vertu du résultat du premier
point) que :

s est une symétrie orthogonale de E ⇐⇒ s2 = IdE et s est autoadjoint,

comme il fallait le prouver. 

7.3 Endomorphismes antisymétriques


Définition 7.IV.— Un endomorphisme f de E est dit antisymétrique s’il
est l’opposé de son adjoint, c’est-à-dire si f ∗ = − f . De manière équivalente,
f est antisymétrique si pour tous x, y ∈ E, on a :
f (x) , y = − x , f (y) .
Définition 7.V.— Etant donné n un entier strictement positif, une ma-
trice A de Mn (R) est dite antisymétrique si elle satisfait la propriété : t A = −A.
La caractérisation matricielle d’un endomorphisme antisymétrique d’un
espace euclidien, relativement à une base orthonormée de celui-ci, se
déduit immédiatement de la proposition 7.3. On a la
Proposition 7.6.— Supposons que E est euclidien de dimension n (n ∈ N∗ )
et soit B = (e1 , e2, . . . , en ) une base orthonormée de E. Soient aussi f un
endomorphisme de E et A la matrice associée à f relativement à B. Alors f est
antisymétrique si et seulement si A est antisymétrique. 

7.4 Endomorphismes orthogonaux


Définition 7.VI.— Un endomorphisme f de E est dit orthogonal s’il
conserve les produits scalairs ; c’est-à-dire s’il vérifie la propriété :
f (x) , f (y) = x , y (∀x, y ∈ E).

— 111 —
B. Farhi Chap 7. Endomorphismes particuliers d’un espace préhilbertien

— Puisque la norme et la distance de E sont définies à partir du produit


scalair ambiant de E, il résulte de la définition ci-dessus qu’un endomor-
phisme orthogonal de E conserve aussi les normes et les distances. Un
endomorphisme orthogonal d’un espace préhilbertien est donc un cas par-
ticulier d’une isométrie d’un espace métrique.
Notation 7.II.— L’ensemble des endomorphismes orthogonaux de E
se note O(E).

Les résultats qui vont suivre fournissent les propriétés essentielles des
endomorphismes orthogonaux d’un espace préhilbertien, en mettant l’ac-
cent sur le cas d’un espace euclidien.
Proposition 7.7.— Soit f un endomorphisme de E. Les deux propriétés sui-
vantes sont équivalentes :
(i) f est un endomorphisme orthogonal,
(ii) f conserve les normes ; c’est-à-dire que l’on a :

f (x) = kxk (∀x ∈ E).

Démonstration.—
• (i) ⇒ (ii). Supposons que f est orthogonal. Alors on a pour tout x ∈ E :
2
f (x) = f (x) , f (x)
= hx , xi (car f est orthogonal)
= kxk2 ,
ce qui entraı̂ne que :
f (x) = kxk ,
comme il fallait le prouver.
• (ii) ⇒ (i). Supposons que f conserve les normes. Alors on a pour tous
x, y ∈ E :
 
1 2 2 2
f (x) , f (y) = f (x) + f (y) − f (x) − f (y) (en vertu de (3.1))
2
 
1 2 2 2
= f (x + y) − f (x) − f (y)
2
 
1 2 2
= x + y − kxk2 − y (en vertu de l’hypothèse :
2
≪ f conserve les normes ≫)

= x, y (en vertu de (3.1)).

— 112 —
B. Farhi Chap 7. Endomorphismes particuliers d’un espace préhilbertien

Ce qui montre que l’endomorphisme f est orthogonal, comme il fallait le


prouver.
La proposition est démontrée. 
Proposition 7.8.— Supposons que E est euclidien et soit f un endomor-
phisme de E. Si f est orthogonal alors il transforme toute base orthonormée de
E en une base orthonormée de E. Inversement, si f transforme une certaine base
orthonormée de E en une autre base orthonormée de E alors f est orthogonal.
Démonstration.—
• Supposons que f est orthogonal et soit B = (e1 , e2, . . . , en ) (où n := dimE)
une base orthonormée de E. Pour tous i, j ∈ {1, 2, . . . , n}, on a :
D E D E
f (ei ) , f (e j ) = ei , e j (puisque f est orthogonal)
= δij (puisque B est orthonormée).

Ce qui montre que f (B) := f (e1 ), f (e2 ), . . . , f (en ) est une famille ortho-
normée de E. Mais ceci entraı̂ne que f (B) est libre (voir l’exercice 3.7) et
constitue donc une famille libre maximale de E ; d’où f (B) est une base de
E. Par conséquent f (B) est une base orthonormée de E, comme il fallait le
prouver.
• Inversement, supposons que f transforme une certaine base orthonormée
B = (e1 , e2, . . . , en ) de E en une base orthonormée f (B) = ( f (e1 ), f (e2 ), . . . ,
f (en )) de E. Pour tous x = α1 e1 +α2 e2 +· · ·+αn en , y = β1 e1 +β2 e2 +· · ·+βn en ∈ E
(avec α1 , α2 , . . . , αn , β1 , β2 , . . . , βn ∈ R), on a :
x , y = α1 e1 + · · · + αn en , β1 e1 + · · · + βn en
X D E
= αi β j ei , e j (en utilisant la bilinéarité du produit scalaire)
1≤i, j≤n
X
n
= αi βi (puisque B est orthonormée).
i=1

De même, on a :

f (x) , f (y) = f (α1 e1 + · · · + αn en ) , f β1 e1 + · · · + βn en
= α1 f (e1 ) + · · · + αn f (en ) , β1 f (e1 ) + · · · + βn f (en ) (puisque f est linéaire)
X D E
= αi β j f (ei ) , f (e j ) (en utilisant la bilinéarité du produit scalaire)
1≤i, j≤n
X
n
= αi βi (puisque f (B) est orthonormée).
i=1

— 113 —
B. Farhi Chap 7. Endomorphismes particuliers d’un espace préhilbertien

En comparant les deux résultats, on voit bien que l’on a : f (x) , f (y) =
x , y (∀x, y ∈ E). Ce qui montre que f est orthogonal, comme il fallait le
prouver. Ainsi se complète notre démonstration. 
Proposition 7.9 (caractérisation matricielle).— Supposons que E est
euclidien et soit B une base orthonormée de E (où n ∈ N). Soient aussi f un
endomorphisme de E et A la matrice associée à f relativement à B. Alors f est
orthogonal si et seulement si l’on a : t AA = In .
Démonstration.— Pour tous x, y ∈ E, désignons par X, Y ∈ Rn les coor-
données respectives de x et y relativement à la base B de E ; les coordonnées
respectives de f (x) et f (y) relativement à B sont donc AX et AY. Comme la
base B de E est orthonormée alors la matrice associée au produit scalaire
h , i de E (en tant que forme bilinéaire sur E) relativement à B est la matrice
identité In . On a par conséquent :
déf
f est orthogonal ⇐⇒ f (x) , f (y) = x , y (∀x, y ∈ E)
⇐⇒ t (AX) · In · (AY) = t X · In · Y (∀X, Y ∈ Rn )
⇐⇒ t X · t AA · Y = t X · In · Y (∀X, Y ∈ Rn )
⇐⇒ t AA = In (en vertu de la remarque 2.I).
Ce qui démontre la proposition. 
Définition 7.VII.— Soit n ∈ N∗ . Une matrice A de Mn (R) est dite or-
thogonale si elle représente un endomorphisme orthogonal d’un espace
euclidien relativement à une base orthonormée de celui-ci. De manière
équivalente (compte tenu de la proposition 7.9), A ∈ Mn (R) est dite ortho-
gonale si elle satisfait t AA = In .
Les matrices orthogonales peuvent être caractérisées aussi par leurs
vecteurs lignes ou colonnes. On a la
Proposition 7.10.— Soit n ∈ N∗ . Une matrice A de Mn (R) est orthogo-
nale si et seulement si ses vecteurs colonnes (resp. lignes) constituent une base
orthonormée de (Rn , h , ius ).
Démonstration.— Soit A ∈ Mn (R) et désignons par e1 , e2, . . . , en les
vecteurs colonnes de A. On a alors :
t 
 e1 
 
 
 t 
 e2 
 
A = (e1 |e2 | . . . |en ) et A = 
t  ;

 .. 
 . 
 
 
 t 
en

— 114 —
B. Farhi Chap 7. Endomorphismes particuliers d’un espace préhilbertien

ce qui donne :
t 
 e1 
 
 
 t 
 e2 
  D E 
t
AA =   (e |e | . . . |e ) = e , e
 1 2 .
 .. 
n i j
us 1≤i, j≤n
 . 
 
 
 
t
en
D’où :
A est orthogonale ⇐⇒ t AA = In
D E 
⇐⇒ ei , e j = In
us 1≤i, j≤n

⇐⇒ (ei )1≤i≤n est une base orthonormée de (Rn , h , ius ).


Ce qui confirme l’énoncé de la proposition en ce qui concerne les vecteurs
colonnes de A. L’énoncé de la proposition en ce qui concerne les vecteurs
lignes de A se déduit immédiatement de la série d’équivalences suivante :
A est orthogonale ⇐⇒ t AA = In
⇐⇒ t A = A−1
⇐⇒ At A = In
⇐⇒ t A est orthogonale.
La proposition est démontrée. 

Remarque 7.II.— On peut démontrer la proposition 7.10 d’une autre


façon en associant à la matrice considérée A de Mn (R) l’endomorphisme
f de Rn qu’elle représente relativement à la base canonique de Rn , puis en
utilisant la proposition 7.8 pour f .

Corollaire 7.11.— Supposons que E est euclidien. Alors un endomorphisme


de E est orthogonal si et seulement s’il est l’inverse de son adjoint (i.e., f ∗ = f −1 ).

Démonstration.— Cela résulte immédiatement en combinant les ré-


sultats des deux propositions 7.9 et 7.3. 

Proposition 7.12.— La composition de deux endomorphismes orthogonaux


de E reste un endomorphisme orthogonal de E et l’inverse de tout endomorphisme
orthogonal de E (lorsqu’il existe (1) ) est orthogonal.
(1). L’existence est garantie dans le cas où E est euclidien (en vertu du corollaire 7.11).

— 115 —
B. Farhi Chap 7. Endomorphismes particuliers d’un espace préhilbertien

Démonstration.— Soient f et g deux endomorphismes orthogonaux


de E. Montrons d’abord que l’endomorphisme composé ( f ◦ g) est ortho-
gonal. On a pour tous x, y ∈ E :
 
( f ◦ g)(x) , ( f ◦ g)(y) = f g(x) , f g(y)
= g(x) , g(y) (puisque f est orthogonal)
= x, y (puisque g est orthogonal).

Ce qui montre que ( f ◦g) est orthogonal. Montrons maintenant que l’inverse
de f (lorsqu’il existe) est orthogonal. En supposant f −1 existe, on a pour
tous x, y ∈ E :
D E D    E
f −1 (x) , f −1 (y) = f f −1 (x) , f f −1 (y) (puisque f est orthogonal)
= x, y .

Ce qui montre que f −1 est orthogonal. Ainsi se complète cette démonstra-


tion. 

On tire immédiatement de la proposition 7.12 l’important corollaire


suivant :
Corollaire 7.13.— Supposons que E est euclidien. Alors l’ensemble des
endomorphismes orthogonaux de E muni de la loi de composition des endomor-
phismes constitue un groupe, qui est en fait un sous-groupe du groupe linéaire
GL(E). 

Définitions et notations 7.VIII.—


1. Supposons que E est euclidien. L’ensemble des endomorphismes or-
thogonaux de E muni de la loi de composition des endomorphismes
(qui est un groupe d’après le corollaire 7.13) s’appelle le groupe ortho-
gonal de E et se note O(E).
2. Soit n ∈ N∗ . L’ensemble des matrices orthogonales de Mn (R) (qui
constitue un sous-groupe du groupe linéaire GLn (R)) s’appelle le
groupe orthogonal de degré n sur R et se note On (R).

Remarque 7.III.— Supposons que E est euclidien et soit f un endo-


morphisme orthogonal de E. Puisque f conserve les produits scalaires et
hx , yi [
les normes alors il conserve aussi les quantités kxk· y = cos (x, y) (x, y ∈ E) ;
kk
autrement dit, f conserve les angles non orientés. En supposant qu’on
dispose de la notion d’angles orientés, deux situations seulement sont
possibles :

— 116 —
B. Farhi Chap 7. Endomorphismes particuliers d’un espace préhilbertien

• ou bien f conserve les angles orientés,


• ou bien f tranforme tout angle orienté θ (mod 2π) en
(−θ) (mod 2π).
Dans le premier cas, on dira que f est un endomorphisme orthogonal direct
et dans le second cas, on dira que f est un endomorphisme orthogonal
indirect (ou gauche). On verra de suite ces deux notions sous une forme
plus commode.

Proposition 7.14.— Supposons que E est euclidien et soit f un endomor-


phisme orthogonal de E. Alors on a :

det f = ±1.

Démonstration.— Posons n := dimE et soient B une base orthonormée


de E et A la matrice représentant f relativement à B. D’après la proposition
7.9, on a : t AA = In . Ce qui entraı̂ne que det(t AA) = det(In ) = 1. Mais
det(t AA) = det(t A)det(A) = (detA)2 (puisque l’on sait que det(t A) = detA).
D’où (detA)2 = 1 ; ce qui donne detA = ±1. Autrement dit det f = ±1,
comme il fallait le prouver. 

Définitions et notations 7.IX.— Supposons que E est euclidien.


1. Un endomorphisme orthogonal f de E est dit direct si det f = 1 ; il est
dit indirect (ou gauche) dans le cas contraire, c’est-à-dire (compte tenu
de la proposition 7.14) dans le cas où det f = −1.
2. L’ensemble des endomorphismes orthogonaux directs de E constitue
un sous-groupe du groupe orthognal O(E) de E ; on l’appelle le groupe
spécial orthogonal de E et on le note SO(E).
3. Étant donné n ∈ N∗ , l’ensemble des matrices orthogonales de déter-
minant 1 de Mn (R) constitue un sous-groupe de On (R) ; on l’appelle
le groupe spécial orthogonal de degré n sur R et on le désigne par SOn (R).
— Pour n ∈ {2, 3}, le groupe SOn (R) est parfois appelé le groupe des
rotations vectorielles (symbolisant la nature géométrique des endo-
morphismes orthogonaux directs du plan euclidien ou de l’espace
euclidien à 3 dimensions).

Exemple 7.III.— Supposons que E est euclidien et soit f un endomor-


phisme orthogonal de E. Montrer que les seules valeurs propres réelles
possibles pour f sont 1 et −1.

— 117 —
B. Farhi Chap 7. Endomorphismes particuliers d’un espace préhilbertien

Soit λ une valeur propre réelle de f . Il existe donc v ∈ E \ {0E } tel que f (v) =
λv. En passant aux normes, il vient que f (v) = kλvk = |λ| · kvk. Mais puisque
l’endomorphisme f conserve les normes (car il est orthogonal), on a f (v) = kvk.
D’où l’on tire que kvk = |λ| · kvk ; ce qui entraı̂ne (puisque kvk , 0, vu que v , 0E ) que
|λ| = 1 et conclut que λ = ±1. 

Remarque 7.IV.— Étant donné n ∈ N∗ , on peut adapter la solution


de l’exemple précédent pour montrer que les valeurs propres complexes
d’une matrice de On (R) sont toutes de module 1.

7.5 Endomorphismes normaux


Définition 7.X.— Un endomorphisme f de E est dit normal s’il po-
ssède un adjoint et commute avec cet adjoint ; c’est-à-dire si f ∗ existe et l’on
a f ◦ f∗ = f∗ ◦ f.

Comme on le voit immédiatement de la définition, les endomorphismes


normaux d’un espace préhilbertien englobent à la fois les endomorphismes
autoadjoints, les endomorphismes antisymétriques et les endomorphismes
orthogonaux.
L’analogue matriciel de la définition 7.X est le suivant :

Définition 7.XI.— Soit n ∈ N∗ . Une matrice A de Mn (R) est dite normale


si elle commute avec sa transposée ; c’est-à-dire si At A = t AA.

Le lien entre les définitions 7.X et 7.XI est fourni par la proposition
suivante qui découle immédiatement de la proposition 7.3.

Proposition 7.15.— Supposons que E est euclidien. Un endomorphisme de


E est normal si et seulement si sa matrice associée relativement à une base ortho-
normée de E est normale. 

La proposition qui suit fournit quelques propriétés caractérisant les


endomorphismes normaux d’un espace préhilbertien.

Proposition 7.16.— Soit f un endomorphisme de E possédant un adjoint.


Les propriétés suivantes sont équivalentes :
(i) f est normal.
(ii) f (x) , f (y) = f ∗ (x) , f ∗ (y) , ∀x, y ∈ E.
(iii) f (x) = f ∗ (x) , ∀x ∈ E.

— 118 —
B. Farhi Chap 7. Endomorphismes particuliers d’un espace préhilbertien

Démonstration.—
• (i) ⇒ (ii). Supposons que f est normal et montrons que f satisfait la
propriété (ii) de la proposition. Pour tous x, y ∈ E, on a :

f (x) , f (y) = x , f ∗ f (y)
= x , ( f ∗ ◦ f )(y)
= x , ( f ◦ f ∗ )(y) (car f est supposé normal)
∗ 
= x , f f (y)
= f ∗ (x) , f ∗ (y) (puisque f ∗∗ = f ),

comme il fallait le prouver.


• (ii) ⇒ (i). Supposons que f satisfait la propriété (ii) de la proposition
et montrons que f est normal ; c’est-à-dire que f ◦ f ∗ = f ∗ ◦ f . Pour tous
x, y ∈ E, on a :

( f ◦ f ∗ )(x) , y = f f ∗ (x) , y
= f ∗ (x) , f ∗ (y)
= f (x) , f (y) (d’après l’hypothèse faite sur f )
= f (y) , f (x)

= y , f ∗ f (x)
= y , ( f ∗ ◦ f )(x)
= ( f ∗ ◦ f )(x) , y .

D’où l’on tire que pour tous x, y ∈ E, on a :

( f ◦ f ∗ )(x) − ( f ∗ ◦ f )(x) , y = 0.

Ce qui entraı̂ne que :


 
f ◦ f ∗ (x) − f ∗ ◦ f (x) ∈ E⊥ (∀x ∈ E).

Comme E⊥ = {0E }, il en découle immédiatement que :


 
f ◦ f ∗ (x) = f ∗ ◦ f (x) (∀x ∈ E).

Autrement dit f ◦ f ∗ = f ∗ ◦ f , signifiant que f est normal, comme il fallait


le prouver.
On vient ainsi de montrer l’équivalence entre les deux points (i) et (ii)
de la proposition. Pour ce qui concerne l’équivalence entre les deux points
(ii) et (iii) de la proposition, elle provient directement des formules :
p
kxk = hx , xi (∀x ∈ E)
— 119 —
B. Farhi Chap 7. Endomorphismes particuliers d’un espace préhilbertien

et  
1 2 2 2
x, y = x+y − kxk − y (∀x, y ∈ E).
2
La proposition est démontrée. 

— 120 —
B. Farhi Chap 7. Endomorphismes particuliers d’un espace préhilbertien

Exercices

Exercice 7.1. Pour tout nombre réel θ, on pose


!
cos θ − sin θ
Oθ := .
sin θ cos θ

1. Vérifier que pour tout θ ∈ R, la matrice Oθ de M2 (R) est orthogonale.


2. Montrer que toute matrice orthogonale O de! M2 (R) s’écrit sous l’une
1 0
des deux formes : O = Oθ ou O = O (θ ∈ R). Interpréter
0 −1 θ
géométriquement ce résultat.

Exercice 7.2. Soit n un entier strictement positif. Montrer que pour toute
matrice orthogonale A = (aij )1≤i, j≤n de Mn (R), on a :

X √ X
aij ≤ n n et aij ≤ n.
1≤i, j≤n 1≤i, j≤n

Exercice 7.3 (Décomposition QR d’une matrice carrée inversible).


Etant donné un entier strictement positif n, montrer que toute matrice A
de GLn (R) peut se décomposer sous la forme

A = QR,

avec Q ∈ On (R) et R ∈ Mn (R) triangulaire supérieure.


☞ Appliquer l’algorithme de Gram-Schmidt aux vecteurs colonnes de A.
Application : Déterminer une décomposition QR pour la matrice
 
 2 1 1
 
A := −1 2 1 .
 
0 3 2

Exercice 7.4 (Matrices de Householder et application à la décomposition QR).


Soient E un espace euclidien, u un vecteur non nul de E et K l’hyperplan
de E orthogonal à u (i.e., K = {u}⊥ ).

— 121 —
B. Farhi Chap 7. Endomorphismes particuliers d’un espace préhilbertien

1. Montrer que la symétrie orthogonale d’un vecteur x de E par rapport


à K est donnée par :
hx , ui
sK (x) = x − 2 u.
kuk2
☞ Utiliser le résultat du point 2. de l’exercice 6.10.
2. Montrer que si x et y sont deux vecteurs distincts de E ayant la même
norme alors pour u = x − y et K = {u}⊥ , on a :

sK (x) = y.

3. Prenons pour toute la suite E = (Rn , h , ius ) (où n est un entier stricte-
ment positif).
(a) Montrer que la matrice associée à sK (la symétrie orthogonale par
rapport à K) relativement à la base canonique de Rn est donnée
par :
2 t
Hu = In − u u.
kuk2
(Une telle matrice s’appelle matrice de Householder).
(b) En s’appuyant sur le résultat de la question 2. de l’exercice en
cours, en déduire une méthode de décomposition d’une matrice
A de Mn (R) sous la forme QR, avec Q et R sont deux matrices
de Mn (R), Q étant orthogonale et R est triangulaire supérieure.
☞ Multiplier la matrice A par une matrice de Householder
adéquate (à gauche) afin de transformer son premier vecteur
 
kc1 k
 0 
 
 
colonne (disons c1 ) en   0 , puis réitérer la procédure.
 .. 
 . 
 
0

Exercice 7.5 (Inégalité de Hadamard).


Soient n un entier strictement positif et A une matrice de Mn (R) dont les
vecteurs colonnes sont désignés par c1 , c2 , . . . , cn .
1. Montrer l’inégalité :

|det A| ≤ kc1 k2 · kc2 k2 · · · kcn k2

(connue sous le nom de l’inégalité de Hadamard).


☞ Le résultat est trivial si det A = 0. Dans le cas contraire (i.e.,

— 122 —
B. Farhi Chap 7. Endomorphismes particuliers d’un espace préhilbertien

A ∈ GLn (R)), décomposer A sous la forme A = QR, avec Q ∈ On (R)


et R ∈ Mn (R) triangulaire supérieure (voir l’exercice 7.3), et constater
que l’on a t AA = t RR. Pour conclure, identifier les déterminants et
les coefficients diagonaux des deux matrices identiques t AA et t RR et
constater que l’inégalité de Hadamard est triviale pour R.
2. Montrer que l’inégalité de Hadamard devient une égalité si et seule-
ment si les vecteurs colonnes c1 , c2 , . . . , cn de la matrice A sont deux à
deux orthogonaux relativement au produit scalaire usuel de Rn .

— 123 —
Chapitre 8
Espaces hermitiens, espaces
préhilbertiens complexes et
espaces de Hilbert complexes

Sommaire
8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . 125
8.2 Applications sesquilinéaires . . . . . . . . . . . . . . . . 126
8.3 Le noyau d’une forme hermitienne . . . . . . . . . . . . 130
8.4 Représentation matricielle d’une forme sesquilinéaire
sur un C-espace vectoriel de dimension finie . . . . . . 131
8.4.1 Matrice associée à une forme sesquilinéaire . . . . 132
8.4.2 L’équivalent matriciel d’une forme hermitienne
sur E . . . . . . . . . . . . . . . . . . . . . . . . . . 135
8.4.3 Calcul pratique du noyau d’une forme hermitienne137
8.4.4 Formule de changement de base . . . . . . . . . . 137
8.5 Formes quadratiques hermitiennes et orthogonalité . . 138
8.5.1 Forme quadratique hermitienne associée à une
forme hermitienne . . . . . . . . . . . . . . . . . . 139
8.5.2 Reconnaissance rapide d’une forme quadratique
hermitienne et détermination rapide de sa forme
polaire (en dimension finie) . . . . . . . . . . . . . 142
8.5.3 Orthogonalité . . . . . . . . . . . . . . . . . . . . . 143
8.5.4 Réduction de Gauss des formes quadratiques her-
mitiennes . . . . . . . . . . . . . . . . . . . . . . . 147
8.5.5 Une méthode alternative matricielle pour réduire
une forme quadratique hermitienne . . . . . . . . 150

124
B. Farhi Chap 8. Espaces préhilbertiens complexes

8.5.6Equivalence des formes quadratiques hermitiennes 152


8.5.7Calcul de la signature d’une forme quadratique
hermitienne par la méthode des déterminants de
Sylvester . . . . . . . . . . . . . . . . . . . . . . . . 154
8.6 Norme associée à un produit scalaire complexe . . . . . 156
8.7 Orthogonalité dans un espace préhilbertien complexe . 159
8.7.1 Construction d’une base orthonormée pour un es-
pace hermitien . . . . . . . . . . . . . . . . . . . . 159
8.7.2 Supplémentaire orthogonal et projection orthogo-
nale . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
8.7.3 Distance d’un vecteur par rapport à un sous-espace
vectoriel de dimension finie d’un espace préhilbertien
complexe . . . . . . . . . . . . . . . . . . . . . . . . 162
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164

8.1 Introduction
Si l’on essaye de définir un produit scalaire sur un C-espace vectoriel
de la même sorte qu’un produit scalaire sur un R-espace vectoriel (c’est-à-
dire comme une forme bilinéaire symétrique définie positive), on se heurte
immédiatement au problème de positivité. En effet, pour parler de positi-
vité, il faut déjà avoir affaire à des valeurs réelles. Par exemple, l’analogue
n ∗ n
≪ naı̈f ≫ du produit scalaire usuel de R (n ∈ N ) sur C , défini par :

   ′
z1  z1 
z   
 2  ′ z′2 
hz , z′ i := z1 z′1 + z2 z′2 + · · · + zn z′n 
(∀z =  ..  , z =  ..  ∈ Cn ),

 .   . 
   
zn z′n

ne satisfait même pas la condition ≪ hz , zi ∈ R (∀z ∈ Cn ) ≫, étant donné


qu’une somme de carrés de nombres complexes n’a aucune raison d’être
réelle. Pour y remédier à ce problème, on a songé à modifier la définition
précédente de hz , z′ i en :
   ′
z1  z1 
   
 2  ′ z′2 
z
hz , z′ i := z1 z′1 + z2 z′2 + · · · + zn z′n (∀z =  ..  , z =  ..  ∈ Cn ).
 
 .   . 
   
zn z′n

— 125 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

    
z1  
 0 
  
   
z2  
  0  

  . 
 
Cela fonctionne bien puisque l’on obtient pour tout z =  ..  ∈ C \ 
n
:
 .  

  .. 
  


    
zn 0
 

hz , zi = |z1 |2 + |z2 |2 + · · · + |zn |2 > 0.

En revanche, le concept de ≪ la bilinéarité ≫ devra être remplacé par un


autre que l’on nomme ≪ la sesquilinéarité ≫. Tout cela va être détaillé au fur
et à mesure dans ce qui va suivre.

8.2 Applications sesquilinéaires


Pour tout ce qui suit, E, F et G désignent des C-espaces vectoriels.
Définition 8.I.— Une application f : E → F est dite semilinéaire si l’on
a pour tous x1 , x2 ∈ E et tous λ1 , λ2 ∈ C :

f (λ1 x1 + λ2 x2 ) = λ1 f (x1 ) + λ2 f (x2 ) . (8.1)

Remarques 8.I.—
1. Il va de soi que la condition (8.1) de la définition 8.I est équivalente
aux deux suivantes (réunies) :

f (x1 + x2 ) = f (x1 ) + f (x2 ),


(∀x, x1 , x2 ∈ E, ∀λ ∈ C).
f (λx) = λ f (x)

Elle est également équivalente à :

f (λx1 + x2 ) = λ f (x1 ) + f (x2 ) (∀x1 , x2 ∈ E, ∀λ ∈ C).

2. Il est facile de montrer que la composition de deux applications se-


milinéaires donne une application linéaire ; ce qui pourrait expliquer
la nomination ≪ semilinéaire ≫ aux applications auxquelles elle est
attribuée.

Définition 8.II.— Une application f : E × F → G est dite sesquilinéaire


si elle est semilinéaire par rapport à sa première variable et linéaire par
rapport à sa seconde variable ; autrement dit, si l’on a pour tous x, x1, x2 ∈ E,
tous y, y1 , y2 ∈ F et tous λ1 , λ2 ∈ C :

f (λ1 x1 + λ2 x2 , y) = λ1 f (x1 , y) + λ2 f (x2 , y) (8.2)


— 126 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

et
f (x, λ1y1 + λ2 y2 ) = λ1 f (x, y1 ) + λ2 f (x, y2 ). (8.3)

Bien entendu, l’identité (8.2) symbolise la semilinéarité de f par rapport


à sa première variable et l’identité (8.3) symbolise la linéarité de f par
rapport à sa seconde variable.
— Une application sesquilinéaire de E × F dans C (i.e., lorsque G = C)
s’appelle une forme sesquilinéaire sur E × F.
— Par abus de langage, une forme sesquilinéaire sur E × E s’appelle une
forme sesquilinéaire sur E.

N.B.— Le terme ≪ sesquilinéaire ≫ est un préfixe latin qui veut dire ≪ un


et demi ≫.

Définition 8.III.— On appelle forme hermitienne sur E toute forme ses-


quilinéaire f sur E qui vérifie de surplus la propriété :

f (x, y) = f (y, x) (∀x, y ∈ E). (8.4)

— La propriété (8.4) seule s’appelle la symétrie conjuguée.

Remarque 8.II.— Si une application f : E × E → C est symétrique par


conjugaison complexe (i.e., satisfait (8.4)) alors pour qu’elle soit une forme
hermitienne, il suffit qu’elle soit semilinéaire par rapport à sa première
variable ou linéaire par rapport à sa seconde variable. C’est un exercice
facile mais intéressant à faire.

Proposition 8.1.— Soit f une forme hermitienne sur E. Alors on a pour tout
x ∈ E : f (x, x) ∈ R.

Démonstration.— Par hypothèse, f est symétrique par conjugaison


complexe. On a donc pour tout x ∈ E : f (x, x) = f (x, x) ; ce qui entraı̂ne que
f (x, x) ∈ R, comme il fallait le prouver. 

La proposition 8.1 rend raisonnable et sensé de parler de la positivité


de la quantité f (x, x) pour une forme hermitienne f sur E (où x ∈ E). On a
les définitions suivantes :

Définitions 8.IV.— Soit f une forme hernitienne sur E.


— On dit que f est définie si l’on a pour tout x ∈ E :

f (x, x) = 0 =⇒ x = 0E .

— 127 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

— On dit que f est positive si l’on a pour tout x ∈ E :


f (x, x) ≥ 0.
— On dit que f est définie positive si l’on a pour tout x ∈ E \ {0E } :
f (x, x) > 0.
Il va de soi que ≪ f est définie positive ≫ si et seulement si f est à la fois
≪ définie ≫ et ≪ positive ≫.

Définition 8.V (produit scalaire complexe).— On appelle produit sca-


laire sur E toute forme hermitienne définie positive sur E.

Notation 8.I.— Comme dans le cas réel, un produit scalaire complexe


est généralement représenté par le symbôle h , i. Ainsi, un produit scalaire
de deux vecteurs x et y de E est désigné par x , y .

Exemple 8.I (le produit scalaire usuel de Cn ).— Soient n ∈ N∗ et


f : Cn × Cn −→ C
   
z1  w1 
z2  w2  .
   
 ..  ,  ..  7−→ z1 w1 + z2 w2 + · · · + zn wn
 .   . 
   
zn wn
— Montrer que f est un produit scalaire sur le C-espace vectoriel Cn .

Montrons d’abord que f est symétrique par conjugaison. Pour tous z =


t
(z1 , z2 , . . . , zn ), w = t (w1 , w2 , . . . , wn ) ∈ Cn , on a :

f (z, w) = z1 w1 + z2 w2 + · · · + zn wn
= z 1 w1 + z 2 w2 + · · · + z n wn
= w1 z 1 + w2 z 2 + · · · + wn z n
= f (w, z).

Ce qui confirme que f est symétrique par conjugaison. De ce fait, pour montrer
que f est hermitienne, il suffit de montrer qu’elle est linéaire par rapport à sa
seconde variable (en vertu de la remarque 8.II). Pour tous z = t (z1 , z2 , . . . , zn ), w =
t
(w1 , w2 , . . . , wn ), w′ = t (w′1 , w′2 , . . . , w′n ) ∈ Cn et tous λ, λ′ ∈ C, on a (puisque λw+λ′ w′ =
t
(λw1 + λ′ w′1 , λw2 + λ′ w′2 , . . . , λwn + λ′ w′n )) :
    
f (z, λw + λ′ w′ ) = z1 λw1 + λ′ w′1 + z2 λw2 + λ′ w′2 + · · · + zn λwn + λ′ w′n
 
= λ (z1 w1 + z2 w2 + · · · + zn wn ) + λ′ z1 w′1 + z2 w′2 + · · · + zn w′n
= λ f (z, w) + λ′ f (z, w′ ).

— 128 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

Ce qui montre que f est linéaire par rapport à sa seconde variable ; d’où f est
hermitienne. Il reste à montrer que f est définie positive (i.e., à la fois positive et
définie). Pour tout z = t (z1 , z2 , . . . , zn ) ∈ Cn , on a :

f (z, z) = z1 z1 + z2 z2 + · · · + zn zn = |z1 |2 + |z2 |2 + · · · + |zn |2 .

D’où f (z, z) ≥ 0 (∀z ∈ Cn ) ; autrement dit, f est positive. De plus, pour tout z =
t
(z1 , z2 , . . . , zn ) ∈ Cn , on a :

f (z, z) = 0 =⇒ |z1 |2 + |z2 |2 + · · · + |zn |2 = 0


=⇒ |z1 | = |z2 | = · · · = |zn | = 0
=⇒ z1 = z2 = · · · = zn = 0
=⇒ z = 0Cn .

Ce qui montre que f est définie.


En conclusion, f est une forme hermitienne définie positive ; autrement dit, f
est un produit scalaire sur Cn . 

Appellation et notation 8.I.— Le produit scalaire f sur Cn (n ∈ N∗ ) de


l’exemple 8.I de ci-dessus s’appelle le produit scalaire usuel de Cn et se note
h , ius . Le produit scalaire usuel de deux vecteurs z et w de Cn se note donc
hz , wius .

Exemple 8.II (En dimension infinie).— Posons E := C 0 ([0, 1], C) (qui


est un C-espace vectoriel avec les opérations usuelles) et soit

ϕ : E × E −→ C
R1 .
( f, g) 7−→ 0 f (x)g(x) dx

— Montrer que ϕ est un produit scalaire sur E.

Montrons d’abord que ϕ est symétrique par conjugaison. Pour tous f, g ∈ E, on a :

Z 1
ϕ( f, g) = f (x)g(x) dx
0
Z 1
= f (x)g(x) dx
0
Z 1
= f (x) g(x) dx
0
Z 1
= f (x)g(x) dx
0
Z 1
= g(x) f (x) dx
0
= ϕ(g, f ).

— 129 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

Ce qui confirme que ϕ est symétrique par conjugaison. Pour montrer que ϕ est
hermitienne, il suffit donc de montrer (par exemple) qu’elle est linéaire par rapport
à sa seconde variable (en vertu de la remarque 8.II). Pour tous f, g1 , g2 ∈ E et tous
λ1 , λ2 ∈ C, on a :
Z 1
 
ϕ f, λ1 g1 + λ2 g2 = f (x) λ1 g1 + λ2 g2 (x) dx
0
Z 1

= f (x) λ1 g1 (x) + λ2 g2 (x) dx
0
Z 1 Z 1
= λ1 f (x)g1 (x) dx + λ2 f (x)g2 (x) dx
0 0
= λ1 ϕ( f, g1 ) + λ2 ϕ( f, g2 ).

Ce qui montre que ϕ est linéaire par rapport à sa seconde variable ; d’où ϕ est
hermitienne. Il reste à montrer que ϕ est définie positive (c’est-à-dire qu’elle est à la
R1 R1 2
fois positive et définie). Pour tout f ∈ E, on a : ϕ( f, f ) = 0 f (x) f (x) dx = 0 f (x) dx ≥
0 (car c’est une intégrale d’une fonction réelle positive). Par ailleurs, en appliquant la
propriété des intégrales de Riemann selon laquelle ≪ l’intégrale d’une fonction réelle
continue et positive sur un intervalle fermé borné de R est nulle si et seulement si
la fonction en question est nulle sur tout l’intervalle d’intégration ≫, on a pour tout
f ∈E:
Z 1
ϕ( f, f ) = 0 ⇐⇒ f (x) f (x) dx = 0
0
Z 1
2
⇐⇒ f (x) dx = 0
0
2 2
⇐⇒ f (x) = 0, ∀x ∈ [0, 1] (car f est réelle continue et positive sur [0, 1])
⇐⇒ f (x) = 0, ∀x ∈ [0, 1]
⇐⇒ f = 0E .

Ce qui montre que ϕ est définie.


En conclusion, ϕ est une forme hermitienne définie positive sur E ; autrement
dit, ϕ est un produit scalaire sur E. 

8.3 Le noyau d’une forme hermitienne


Pour ce qui suit, E désigne un C-espace vectoriel.
Définition 8.VI.— Soit f une forme hermitienne sur E. On appelle le
noyau de f le sous-ensemble de E, noté Ker f , et défini par :
Ker f := {x ∈ E : f (x, y) = 0, ∀y ∈ E}. (8.5)
— On montre immédiatement (en utilisant la symétrie conjuguée de f ) que
l’on a aussi :
Ker f = {y ∈ E : f (x, y) = 0, ∀x ∈ E}. (8.6)

— 130 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

En utilisant la semilinéarité d’une forme hermitienne (sur E) par rapport


à sa première variable, on montre aisément la proposition suivante (les
détails sont laissés au lecteur).
Proposition 8.2.— Le noyau de toute forme hermitienne sur E est un C-
sous-espace vectoriel de E. 
Remarque 8.III.— Étant donnée f une forme hermitienne sur E, con-
sidérons les applications fx (x ∈ E) suivantes :
fx : E −→ C
.
y 7−→ f (x, y)
La linéarité de f par rapport à sa seconde variable montre immédiatement
que ces applications fx (x ∈ E) sont toutes linéaires (donc des formes
linéaires sur E). D’autre part, en utilisant (8.6), on a immédiatement
\
Ker f = Ker fx ,
x∈E

qui est une intersection de sous-espaces vectoriels de E ; d’où l’on obtient


(d’une autre façon) le résultat de la proposition 8.2, à savoir que Ker f est
un sous-espace vectoriel de E.
Définition 8.VII.— Une forme hermitienne f sur E est dite non dégénérée
si Ker f = {0E }. Elle est dite dégénérée dans le cas contraire.
L’exemple suivant est l’analogue de l’exemple 1.V du §1 sur les formes
bilinéaires symétriques. Comme il se résout de la même façon aussi, on a
laissé sa résolution au soin du lecteur.
Exemple 8.III.— Montrer que toute forme hermitienne définie sur E
est non dégénérée. En particulier, tout produit scalaire sur E est une forme
hermitienne non dégénérée. 

8.4 Représentation matricielle d’une forme ses-


quilinéaire sur un C-espace vectoriel de di-
mension finie
Pour ce qui suit, on fixe un entier strictement positif n et un C-espace
vectoriel E de dimension n. Étant donné que la lettre i est réservée pour
désigner le nombre complexe de module 1 et d’argument π2 , on utilise
comme indices de sommation les lettres k et ℓ au lieu des lettres i et j
utilisées pour les formes bilinéaires au chapitre 2.

— 131 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

8.4.1 Matrice associée à une forme sesquilinéaire


Soient B = (e1 , e2 , . . . , en ) une base de E et f : E2 → C une forme ses-
   
x1   y1 
 
x2   y2 
 
quilinéaire sur E. Pour x, y ∈ E, on désigne par X =  ..  et Y =  .. 

 .   . 
   
xn yn
les coordonnées respectives de x et y relativement à la base B (avec
x1 , x2, . . . , xn , y1, y2 , . . . , yn ∈ C) ; soit
X
n X
n
x= xk ek et y = yℓ eℓ .
k=1 ℓ=1

En utilisant la sesquilinéarité de f , on a pour tous x, y ∈ E :


 n 
X Xn

f (x, y) = f  xk ek , yℓ eℓ 
k=1 ℓ=1
 
Xn
 Xn

= xk f ek , yℓ eℓ 
k=1 ℓ=1
X
n X
n
= xk yℓ f (ek , eℓ )
k=1 ℓ=1
X
= xk yℓ f (ek , eℓ ).
1≤k,ℓ≤n

D’où la formule :
X
f (x, y) = f (ek , eℓ ) xk yℓ (∀x, y ∈ E). (8.7)
1≤k,ℓ≤n

Cette dernière formule montre que la forme sesquilinéaire f est entièrement


déterminée par le paquet de nombres f (ek , eℓ ) (1 ≤ k, ℓ ≤ n). D’où l’idée de
représenter f par ce paquet de nombres :
Définition 8.VIII.— On définit la matrice associée à f relativement à
B, notée MB ( f ), par :

MB ( f ) := f (ek , eℓ ) 1≤k,ℓ≤n .
Exemple 8.IV.— Montrer que la matrice associée au produit scalaire
usuel de Cn relativement à la base canonique de Cn est la matrice identité
d’ordre n.

— 132 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

Désignons par C = (e1 , e2 , . . . , en ) la base canonique de Cn . Par définition même du


produit scalaire usuel de Cn , on a clairement pour tous k, ℓ ∈ {1, 2, . . . , n} :
(
1 si k = ℓ
hek , eℓ ius = δkℓ = .
0 sinon

La matrice associée à h , ius relativement à C est donc


 
 1 (0)


MC (h , ius ) := (hek , eℓ ius )1≤k,ℓ≤ℓ =  ..
.
 = I ,
 n
 
(0) 1

comme il fallait le prouver. 

Nous allons maintenant chercher une écriture matricielle pour le membre


de droite de la formule (8.7). Cela nécessite d’introduire préalablement
quelques nouvelles notations.

Notations 8.II.— Soient m ∈ N∗ et A = (akℓ )1≤k,ℓ≤m ∈ Mm (C).


— On note A la matrice de Mm (C), obtenue à partir de la matrice A en
remplaçant chaque coefficient de celle-ci par son conjugué complexe ; soit

A := (akℓ )1≤k,ℓ≤m .

— On note aussi A∗ la transposée de A ; soit

A∗ := t A = (aℓk )1≤k,ℓ≤m .

— On montre immédiatement que l’on a pour tous A, B ∈ Mm (C) : AB = A B


et (AB)∗ = B∗ A∗ .

On a la proposition suivante :

Proposition 8.3.— Soient A ∈ Mn (C) la matrice associée à la forme sesqui-


linéaire f relativement à la base B de E. Alors pour tous x, y ∈ E, on a :

f (x, y) = X∗ AY.

Démonstration.— Soient x, y ∈ E. On a :
 
   y1 
 f (e1 , e1 ) . . . f (e1 , en )  
 .. .. ..   y2 
X AY = XAY = (x1 , x2 , . . . , xn ) 
∗ t
. . .   . 
  .. 
  
f (en , e1 ) . . . f (en , en )  
yn

— 133 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

 
 n   y1 
 X X n Xn
  y2 
=  f (ek , e1 )xk , f (ek , e2)xk , . . . , f (ek , en )xk   .. 
 . 
k=1 k=1 k=1  
yn
 
X n
X n

 f (ek , eℓ )xk  yℓ
= 
ℓ=1 k=1
X
= f (ek , eℓ ) xk yℓ
1≤k,ℓ≤n

= f (x, y) (en vertu de (8.7)).

Ce qui démontre la proposition. 

De la proposition 8.3, on tire l’utile corollaire suivant :


Corollaire 8.4.— Pour tous X, Y ∈ Cn , on a :

hX , Yius = X∗ Y.

Démonstration.— Il suffit de combiner les résultats de l’exemple 8.IV


et de la proposition 8.3. 

Exemple 8.V.— Déterminer l’expression algébrique de la forme ses-


quilinéaire de C3 dont la matrice associée relativement à la base canonique
de C3 est :  
 1 + i i 0 
 −i  .
A = 2 + 3i 1
 
2i −1 5 + i
Désignons par f la forme sesquilinéaire requise et par akℓ (1 ≤ k, ℓ ≤ 3) le coefficient
de la matrice A qui se situe à l’intersection de sa kème ligne avec sa ℓème colonne.
   
x1   y1 
 
D’après la formule (8.7), on a pour tous X = x2  , Y =  y2  ∈ C3 :
x3 y3
X
f (X, Y) = akℓ xk yℓ
1≤k,ℓ≤3
= (1 + i) x1 y1 + i x1 y2 + (2 + 3i) x2 y1 + x2 y2 − i x2 y3 + 2i x3 y1 − x3 y2 + (5 + i) x3 y3 . 

Remarque 8.IV.— On a une correspondance bijective entre l’ensemble


des formes sesquilinéaires sur E et Mn (C). Ce qui entraı̂ne que l’on a pour
tous A, B ∈ Mn (C) :

(∀X, Y ∈ Cn : X∗ AY = X∗ BY) ⇐⇒ A = B.

— 134 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

8.4.2 L’équivalent matriciel d’une forme hermitienne sur E


Nous introduisons d’abord la définition suivante :

Définition 8.IX.— Une matrice A de Mn (C) est dite hermitienne si l’on


a : A∗ = A.

On a la proposition suivante :

Proposition 8.5.— Soient B une base de E et f une forme sesquilinéaire


sur E dont la matrice associée relativement à B est désignée par A. Alors f est
hermitienne si et seulement si A est hermitienne.

Démonstration.— Pour x, y ∈ E, convenons de désigner par X, Y ∈ Cn


les coordonnées respectives de x et y relativement à B. On a (en vertu de
la proposition 8.3) :
déf
f est hermitienne ⇐⇒ ∀x, y ∈ E : f (x, y) = f (y, x)
⇐⇒ ∀X, Y ∈ Cn : X∗ AY = Y∗ AX
⇐⇒ ∀X, Y ∈ Cn : X∗ A Y = Y∗ AX.

Mais puisque X∗ A Y ∈ M1 (C) (∀X, Y ∈ Cn ), on a pour tous X, Y ∈ Cn :


 
X∗ A Y = t X∗ A Y = t Y t A t X∗ = Y∗ A∗ (X∗ )∗ = Y∗ A∗ X.

D’où :

f est hermitienne ⇐⇒ ∀X, Y ∈ Cn : Y∗ A∗ X = Y∗ AX


⇐⇒ A∗ = A (en vertu de la remarque 8.IV)
⇐⇒ A est hermitienne .

Ainsi s’achève cette démonstration. 

Remarque 8.V.— L’ensemble H(E) des formes hermitiennes sur E est


un R-espace vectoriel mais ce n’est pas un C-espace vectoriel ; idem pour
l’ensemble Hn (C) des matrices hermitiennes de Mn (C). De plus, en fixant
une base B de E, on a une correspondance bijective f 7→ MB ( f ) de H(E)
dans Hn (E) (en vertu de la proposition 8.5). Comme une telle correspon-
dance est de toute évidence linéaire aussi, elle constitue un isomorphisme
de R-espaces vectoriels. D’où l’on tire que :

dimR (H(E)) = dimR (Hn (C)) .

— 135 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

Par ailleurs, on constate qu’une matrice hermitienne de Mn (C) est entièr-


ement caractérisée par ses n coefficients de la diagonale (qui sont obliga-
toirement réels) et ses coefficients complexes situés strictement au dessus
n(n−1)
de sa diagonale (qui sont en nombres de 2 , chacun étant déterminé par
ses deux parties réelle et imaginaire). On a par conséquent :

n(n − 1)
dimR (Hn (C)) = n + 2 · = n2 .
2
En conclusion, on a :

dimR (H(E)) = dimR (Hn (C)) = n2 .

Nous présentons maintenant les analogues matriciels des définitions


8.IV :

Définitions 8.X.— Soit A une matrice hermitienne de Mn (C) et f la


forme hermitienne de Cn qui lui est associée relativement à la base cano-
nique (1) de Cn .
— On dit que A est définie si f est définie ; c’est-à-dire si :

∀X ∈ Cn : X∗ AX = 0 =⇒ X = 0Cn

(en vertu de la proposition 8.3).


— On dit que A est positive si f est positive ; c’est-à-dire si :

∀X ∈ Cn : X∗ AX ≥ 0

(en vertu de la proposition 8.3).


— On dit que A est définie positive si f est définie positive ; c’est-à-dire si :

∀X ∈ Cn \ {0Cn } : X∗ AX > 0

(en vertu de la proposition 8.3).


On voit immédiatement que A est définie positive si et seulement si A
est à la fois définie et positive.
(1). Le choix d’une autre base n’influe pas ces définitions comme on pourrait le voir
assez facilement. Plus généralement, on peut prendre f comme étant la forme hermitienne
associée à A relativement à n’importe quel C-espace vectoriel de dimension n relativement
à n’importe quelle base de celui-ci.

— 136 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

8.4.3 Calcul pratique du noyau d’une forme hermitienne


La proposition suivante est l’analogue de la proposition 2.4 du §2. Elle
nous permet de calculer le noyau d’une forme hermitienne à partir d’une
matrice qui la représente comme on le fait pour un endomorphisme. Sa
preuve (laissée au lecteur) est aussi la même que celle de la proposition 2.4
avec bien sûr les modifications évidentes qui s’y imposent.
Proposition 8.6.— Soient f une forme hermitienne sur E et A la matrice qui
la représente relativement à une certaine base B de E. Soit aussi u l’endomorphisme
de E dont A est la matrice associée relativement à B. Alors on a :
Ker f = Ker u. 
De cette dernière proposition découle immédiatement le corollaire pra-
tique suivant qui caractérise la non-dégénérescence d’une forme hermi-
tienne de E à partir de sa représentation matricielle relativement à une
base arbitraire de E. Il est l’analogue du corollaire 2.5 du §2.
Corollaire 8.7.— Soient f une forme hermitienne de E et A la matrice qui
la représente relativement à une certaine base B de E. Alors f est non dégénérée
si et seulement si A est inversible ; c’est-à-dire si et seulement si det A , 0. 

8.4.4 Formule de changement de base


La représentation matricielle d’une forme sesquilinéaire sur E change
naturellement lorsqu’on effectue un changement de base de E. La propo-
sition suivante fournit la formule matricielle décrivant ce changement. Il
s’agit de l’analogue de la proposition 2.6 du §2 sur les formes bilinéaires ;
comme elle s’obtient exactement de la même façon, on a préféré laisser sa
preuve au soin du lecteur.
Proposition 8.8.— Soient B et B ′ deux bases de E et P la matrice de passage
de B vers B ′ . Soit aussi f une forme sesquilinéaire sur E, représentée dans la base
B par une matrice A et dans la base B ′ par une matrice A′ . Alors on a :
A′ = P∗ AP. 
La formule de changement de base établie par la proposition 8.8 nous
amène à introduire une relation d’équivalence importante sur Mn (C). Cette
relation met dans une même classe les matrices représentant une même
forme sesquilinéaire d’un C-espace vectoriel (2) de dimension n relative-
ment aux différentes bases de celui-ci.
(2). Peu importe le C-espace vectoriel de dimension n utilisé. Pour fixer les idées, on
peut considérer comme C-espace vectoriel Cn .

— 137 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

Définition 8.XI.— Deux matrices A et B de Mn (C) sont dites ⋆ congru-


entes si elles représentent une même forme sesquilinéaire de Cn relative-
ment à deux bases (différentes ou identiques) de Cn .

Compte tenu de la proposition 8.8, cette dernière définition se reformule


matriciellement comme ceci :

Définition 8.XII (équivalente à la précédente).— Deux matrices A et


B de Mn (C) sont dites ⋆ congruentes s’il existe une matrice P ∈ GLn (C) tel
que l’on ait :
B = P∗ AP.

Remarque 8.VI.— Comme la multiplication d’une matrice A de Mn (C)


par une matrice de GLn (C) (aussi bien à droite qu’à gauche) ne fait pas
changer le rang de A, on déduit de la définition 8.XII que deux matrices

congruentes de Mn (C) ont forcément le même rang. Ce qui nous autorise
à poser la définition suivante :

Définition 8.XIII.— Soit f une forme sesquilinéaire sur E. On définit


le rang de f , que l’on note rg( f ), comme étant le rang d’une matrice A de
Mn (C) qui représente f relativement à une certaine base de E.

L’exemple suivant est l’analogue de l’exemple 2.IV du §2 sur les formes


bilinéaires symétriques et se traite exactement de la même façon. Le résultat
de sa seconde partie nous fournit particulièrement un critère pratique de
la dégénéressence d’une forme hermitienne sur un C-espace vectoriel de
dimension finie.

Exemple 8.VI.— Soit f une forme hermitienne sur E.


— Montrer que l’on a :

dimKer f + rg( f ) = n

(rappelons que n est la dimension de E).


— En déduire que f est non dégénérée si et seulement si l’on a : rg( f ) = n.

8.5 Formes quadratiques hermitiennes et ortho-


gonalité
Tout au long de cette section, un C-espace vectoriel E est fixé.

— 138 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

8.5.1 Forme quadratique hermitienne associée à une forme


hermitienne
Définition 8.XIV.— Soit f une forme hermitienne sur E. On appelle
forme quadratique hermitienne associée à f l’application :
q : E −→ C
.
x 7−→ q(x) := f (x, x)
Exemple 8.VII.— Étant donné n ∈ N∗ , la forme quadratique associée
au produit scalaire usuel h , ius de Cn (voir l’exemple 8.I) est donnée par :
q: Cn −→ C
 
z1 
 
z2 
z =  ..  7−→ q(z) := hz , zius = z1 z1 + z2 z2 + · · · + zn zn
 . 
 
zn = |z1 |2 + |z2 |2 + · · · + |zn |2 .
On reconnaı̂t le carré de la norme euclidienne de Cn (notée k·k2 ). Plus
loin, on montrera plus généralement que la forme quadratique associée à
n’importe quel produit scalaire complexe d’un C-espace vectoriel est le
carré d’une certaine norme de celui-ci.
Définition 8.XV.— On appelle forme quadratique hermitienne de E toute
application q : E → C qui se présente sous la forme :
q(x) = f (x, x) (∀x ∈ E),
où f est une forme hermitienne sur E.
Par définition même, à toute forme hermitienne sur E est associée une
unique forme quadratique hermitienne sur E, mais l’inverse n’est pas tout
à fait clair. On se demande explicitement si, étant donnée une forme qua-
dratique hermitienne q sur E, celle-ci est associée à une unique forme
hermitienne f sur E. Et, dans l’affirmative, comment déterminer f ? La
réponse à ces deux questions est l’objet de la proposition suivante :
Proposition 8.9.— Toute forme quadratique hermitienne q sur E est associée
à une unique forme hermitienne f sur E, qui se présente par les formules :
1  1 
f (x, y) = q(x + y) + i q(ix + y) − (1 + i) q(x) + q(y)
2 2
q(x + y) − q(x − y) q(ix + y) − q(ix − y)
= +i (∀x, y ∈ E). (8.8)
4 4
1X k k
3 
= i q i x+y
4
k=0

— 139 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

Démonstration.— Soient q une forme quadratique hermitienne sur E


et f l’une des formes hermitiennes sur E qui lui est associée. En utilisant
la sesquilinéarité et la symétrie conjuguée de f , on a pour tous x, y ∈ E et
tout nombre complexe ξ de module 1 :
q(ξx + y) = f (ξx + y, ξx + y)
= ξξ f (x, x) + ξ f (x, y) + ξ f (y, x) + f (y, y)
= |ξ|2 f (x, x) + ξ f (x, y) + ξ f (x, y) + f (y, y)
 
= f (x, x) + f (y, y) + 2ℜ ξ f (x, y)
 
= q(x) + q(y) + 2ℜ ξ f (x, y) ;
d’où l’on tire que :
  1 
ℜ ξ f (x, y) = q(ξx + y) − q(x) − q(y) . (8.9)
2
En appliquant (8.9) pour ξ = 1 puis pour ξ = i, tout en constatant que
ℜ(−iz) = ℑ(z) (∀z ∈ C), on obtient les formules :
 1 
ℜ f (x, y) = q(x + y) − q(x) − q(y)
2 (∀x, y ∈ E).
 1 
ℑ f (x, y) = q(ix + y) − q(x) − q(y)
2
Mais puisque f (x, y) = ℜ( f (x, y)) + i ℑ( f (x, y)) (∀x, y ∈ E), il en découle que
l’on a pour tous x, y ∈ E :
1  1 
f (x, y) = q(x + y) + i q(ix + y) − (1 + i) q(x) + q(y) . (8.10)
2 2
Ce qui donne la première égalité de (8.8). En appliquant par suite (8.10) au
couple (−x, y) au lieu de (x, y) (x, y ∈ E), tout en constatant que f (−x, y) =
− f (x, y) et q(−x) = q(x), on obtient la formule (valable pour tous x, y ∈ E) :
1  1 
− f (x, y) = q(−x + y) + i q(−ix + y) − (1 + i) q(x) + q(y) . (8.11)
2 2
Il ne reste qu’à soustraire (membre à membre) (8.11) de (8.10), simplifier et
réaranger pour avoir :
1 
f (x, y) = q(x + y) + i q(ix + y) − q(−x + y) − i q(−ix + y) (∀x, y ∈ E).
4
Ce qui confirme les égalités restantes de (8.8). Enfin, les formules ainsi
démontrées pour f (x, y) (x, y ∈ E) montrent l’unicité de f . Ainsi s’achève
cette démonstration. 

— 140 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

On vient d’établir ainsi une correspondance bijective entre l’ensemble


des formes hermitiennes sur E et l’ensemble des formes quadratiques her-
mitiennes sur E.
Définition 8.XVI.— Soit q une forme quadratique hermitienne sur E.
On appelle forme polaire associée à q, l’unique forme hermitienne f sur E
dont q est la forme quadratique hermitienne associée. D’après la proposi-
tion 8.9, on peut définir f par exemple par la formule :
q(x + y) − q(x − y) q(ix + y) − q(ix − y)
f (x, y) = +i (∀x, y ∈ E),
4 4
(3)
que l’on appelle identité de polarisation.
Définitions 8.XVII.— Soit q une forme quadratique hermitienne sur E.
1. Supposons que E est de dimension finie. On définit le rang de q, que
l’on note rg(q), comme étant le rang de sa forme polaire.
2. On dit que q est non dégénérée si sa forme polaire est non dégénérée.
3. On dit que q est définie si sa forme polaire est définie ; c’est-à-dire si
elle vérifie la propriété :
∀x ∈ E : q(x) = 0 =⇒ x = 0E .
4. On dit que q est positive si sa forme polaire est positive ; c’est-à-dire si
elle vérifie la propriété :
∀x ∈ E : q(x) ≥ 0.
5. On dit que q est définie positive si elle est à la fois définie et positive ;
c’est-à-dire si elle vérifie la propriété :
∀x ∈ E \ {0E } : q(x) > 0.
6. On dit que q est négative si elle vérifie la propriété :
∀x ∈ E : q(x) ≤ 0.
7. On dit que q est définie négative si elle est à la fois définie et négative ;
c’est-à-dire si elle vérifie la propriété :
∀x ∈ E \ {0E } : q(x) < 0.
Remarque 8.VII.— Par un argument de continuité, analogue à celui
utilisé durant la démonstration du corollaire 4.6, on montre qu’une forme
quadratique hermitienne définie de E est nécessairement ou bien définie
positive ou bien définie négative.
(3). Plus généralement, on appelle identité de polarisation toute identité exprimant f en
fonction de q.

— 141 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

8.5.2 Reconnaissance rapide d’une forme quadratique her-


mitienne et détermination rapide de sa forme polaire
(en dimension finie)
Lorsque E est de dimension finie, on dispose d’une caractérisation très
simple d’une forme quadratique hermitienne sur E à partir de son expres-
sion algébrique relativement à une certaine base de E. Cette caractérisation
est donnée par la proposition suivante, qui est l’analogue de la proposition
3.2 du §3 sur les formes quadratiques. Encore une fois, on laisse la preuve
(jugée très simple) au soin du lecteur !
Proposition 8.10.— Supposons que E est de dimension finie n (avec n ≥ 1)
et soient B = (e1 , e2 , . . . , en ) une base de E et q : E → R une application. Alors q
est une forme quadratique hermitienne sur E si et seulement si l’expression

q (x1 e1 + x2 e2 + · · · + xn en ) (x1 , x2 , . . . , xn ∈ C)

est de la forme X
akℓ xk xℓ ,
1≤k,ℓ≤n

où les akℓ (1 ≤ k, ℓ ≤ n) sont des nombres complexes satisfaisant akℓ = aℓk
(∀k, ℓ ∈ {1, 2, . . . , n}). Cette expression s’écrit aussi (de manière équivalente) sous
la forme :
Xn X
akk |xk |2 + 2 ℜ (akℓ xk xℓ )
k=1 1≤k<ℓ≤n
 
constater que les akk (1 ≤ k ≤ n) sont des nombres réels (4) .
— De plus, dans un tel cas, la forme polaire associée à q est donnée par :

f : E2 −→ C P ,
(x, y) 7−→ f (x, y) = 1≤k,ℓ≤n akℓ xk yℓ

où l’on a désigné par x1 , x2 , . . . , xn et y1 , y2 , . . . , yn les coordonnées respectives de


deux vecteurs x et y de E relativement à B. 

Définition 8.XVIII.— Supposons que E est de dimension finie et soient


B une base de E et q une forme quadratique hermitienne sur E. On définit
la matrice associée à q relativement à B, que l’on note MB (q), comme étant
la matrice associée à sa forme polaire relativement à la même base. Faisons
remarquer que MB (q) est une matrice hermitienne de Mn (C) (en vertu de
la proposition 8.5).
(4). Puisque l’on a : akk = akk pour tout k ∈ {1, 2, . . . , n}.

— 142 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

Exemple 8.VIII.— Soit


q: C3 −→ C
 
z1 
 
z = z2  7−→ q(z) = |z1 |2 + |z2 |2 − 2 |z3 |2 + (1 + i) z1 z2 + i z1 z3
 
z3 +(1 − i) z2 z1 + 5 z2 z3 − i z3 z1 + 5 z3 z2 .
1. Montrer que q est une forme quadratique hermitienne sur C3 .
2. Déterminer la forme polaire associée à q puis la matrice associée à q
relativement à la base canonique de C3 .

Désignons par C la base canonique de C3 et par t (z1 , z2 , z3 ) et t (w1 , w2 , w3 ) les coor-


données respectives de deux vecteurs z et w de C3 .
1. Étant donné z ∈ C3 , en se servant du fait que |zk |2 = zk zk pour tout k ∈ {1, 2, 3},
on a :

q(z) = z1 z1 + z2 z2 − 2 z3 z3 + (1 + i) z1 z2 + i z1 z3 + (1 − i) z2 z1 + 5 z2 z3 − i z3 z1
+ 5 z3 z2
X
= akℓ zk zℓ ,
1≤k,ℓ≤3

avec a11 = 1, a22 = 1, a33 = −2, a12 = a21 = 1 + i, a13 = a31 = i et a23 = a32 = 5.
La dernière expression de q(z) confirme (en vertu de la proposition 8.10) que
q est bien une forme quadratique hermitienne sur C3 .
2. D’après la proposition 8.10, la forme polaire associée à q est donnée par :

f : C3 × C3 −→ C P
(z, w) 7−→ f (z, w) = 1≤k,ℓ≤3 akℓ zk wℓ ,

où les akℓ sont les mêmes nombres complexes introduits ci-haut. D’où :
 
 1 1+i i 
 1 − i 1 5 
MC (q) := MC ( f ) =   . 
−i 5 −2

8.5.3 Orthogonalité
Dans cette sous-section, on fixe une forme hermitienne f sur E et on
désigne par q la forme quadratique hermitienne associée à f .
Définitions 8.XIX.—
• Etant donnés deux vecteurs x et y de E, on dit que x est orthogonal à y
par rapport à f (ou par rapport à q) et on écrit x ⊥ f y (ou x ⊥q y) si :
f (x, y) = 0.

— 143 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

La symétrie conjuguée de f assure que la relation ⊥ f est symétrique,


ce qui rend légitime de remplacer, si on le désire, l’expression ≪ x
est orthogonal à y par rapport à f ≫ par ≪ x et y sont orthogonaux par
rapport à f ≫, ou plus simplement ≪ x et y sont f -orthogonaux ≫, ou
encore ≪ x et y sont q-orthogonaux ≫. S’il n’y a pas d’ambiguı̈té sur
f (ou q), on peut omettre f (ou q) dans nos expressions, en disant
simplement que x et y sont orthogonaux et en écrivant simplement
x ⊥ y.
• Lorsqu’un vecteur x de E est orthogonal à lui même, on dit qu’il est
isotrope (on dit f -isotrope ou q-isotrope s’il y a ambiguı̈té sur f ou q).
• Etant donnée une partie A de E, on appelle l’orthogonal de A par
rapport à f (ou par rapport à q) le sous-ensemble de E, noté A⊥ f (ou
A⊥q ) et constitué de tous les vecteurs de E qui sont f -orthogonaux à
tous les vecteurs de A, soit

A⊥ f := x ∈ E : f (x, y) = 0, ∀y ∈ A .

S’il n’y a pas d’ambiguı̈té sur f (ou q), on écrit A⊥ au lieu de A⊥ f (ou
A⊥q ).

Cas particuliers : On a :

∅⊥ f = {0E }⊥ f = E
E⊥ f = Ker f.

Les propriétés de la proposition suivante se démontrent exactement


de la même manière que pour les formes bilinéaires symétriques (voir la
proposition 3.3, page 26) ; elles sont laissées de ce fait au soin du lecteur.
Proposition 8.11.—
1. Pour toute partie A de E, l’ensemble A⊥ est un sous-espace vectoriel de E.
2. Pour tous A, B ∈ P(E), on a :

A ⊂ B =⇒ B⊥ ⊂ A⊥ .

3. Pour tout A ∈ P(E), on a :

A⊥ = Vect(A)⊥ .

4. Pour tout A ∈ P(E), on a :


A ⊂ A⊥⊥
(où A⊥⊥ := (A⊥ )⊥ ). 

— 144 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

Définitions 8.XX.—
• Une famille F de E est dite orthogonale pour f (ou simplement ortho-
gonale s’il n’y a pas d’ambiguı̈té sur f ) si les vecteurs qu’elle constitue
sont deux-à-deux orthogonaux ; c’est-à-dire si
f (x, y) = 0 (∀x, y ∈ F , avec x , y).

• Lorsqu’une base B de E est une famille orthogonale pour f , on dit


que B est une base orthogonale de E pour f (ou simplement une base
orthogonale de E s’il n’y a pas d’ambiguı̈té sur f ).
• L’expression ≪ orthogonale pour f ≫ est quelquefois remplacée par
l’une des expressions suivantes : ≪ orthogonale pour q ≫,
≪ f -orthogonale ≫, ≪ q-orthogonale ≫.

Tout comme les formes bilinéaires symétriques (voir le théorème 3.4,


page 28), une base orthogonale pour une forme hermitienne d’un espace
vectoriel complexe de dimension finie existe toujours !
Théorème 8.12.— Supposons que E est de dimension finie. Alors il existe au
moins une base de E, orthogonale pour f .

Démonstration.— Reprendre la démonstration du théorème 3.4 (page


28) en l’adaptant au cas d’une forme hermitienne. 

Remarque 8.VIII.— Supposons que E est de dimension finie, notée n


(n ∈ N∗ ) et considérons une base B = (e1 , e2 , . . . , en ) de E qui soit orthogo-
nale pour f (B existe d’après le théorème 8.12). Pour tous k, ℓ ∈ {1, 2, . . . , n},
posons akℓ := f (ek , eℓ ). Comme B est f -orthogonale, on a akℓ = 0 pour tous
k, ℓ ∈ {1, 2, . . . , n} tels que k , ℓ. La matrice associée à f relativement à B
s’écrit alors :  
a11 (0)
 .. 
MB ( f ) =  .  ,

 
(0) ann
qui est donc diagonale. Nous retenons donc que :

La matrice associée à f relativement à une base f -orthogonale de E est une


matrice diagonale.

Nous pouvons donc reformuler le théorème 8.12 de la façon remar-


quable suivante :

— 145 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

Toute forme hermitienne d’un espace vectoriel complexe de dimension finie


est diagonalisable(5) .

Inversement, il est facile de voir que si la matrice associée à f relati-


vement à une certaine base B ′ de E est diagonale alors B ′ est une base
f -orthogonale.

Définitions 8.XXI.—
• Une famille F de E est dite orthonormée pour f (ou simplement ortho-
normée s’il n’y a pas d’ambiguı̈té sur f ) si l’on a pour tous x, y ∈ F :



1 si x = y
f (x, y) = 
 .
0 sinon

On voit qu’une famille orthonormée est un cas particulier d’une fa-


mille orthogonale.
• Lorsqu’une base B de E est une famille orthonormée pour f , on
dit que B est une base orthonormée de E pour f (ou simplement une
base orthonormée de E s’il n’y a pas d’ambiguı̈té sur f ). Il est facile
de montrer que toute famille orthonormée de E est libre. Donc pour
qu’une famille orthonormée de E soit une base de E, il suffit qu’elle
soit génératrice.
• L’expression ≪ orthonormée pour f ≫ est quelquefois remplacée par
l’une des expressions suivantes : ≪ orthonormée pour q ≫,
≪ f -orthonormée ≫, ≪ q-orthonormée ≫.

Remarques 8.IX.— Supposons que E est de dimension finie, notée n


(n ∈ N∗ ).
1. La matrice associée à la forme hermitienne f relativement à une base
f -orthonormée est la matrice identité In .
2. L’existence d’une base f -orthonormée de E n’a pas toujours lieu.
Pour le cas le plus important où f est un produit scalaire, une base
orthonormée existe toujours comme le montre l’exemple suivant.

Exemple 8.IX.— Supposons que E est de dimension finie, notée n (n ∈


N∗ ) et que f est un produit scalaire sur E. Montrer que E possède une base
f -orthonormée.

(5). Dans le sens ≪ représentable par une matrice diagonale ≫.

— 146 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

Reprendre la solution de l’exemple 3.III (page 31) en l’adaptant aux produits sca-
laires complexes. 

8.5.4 Réduction de Gauss des formes quadratiques hermi-


tiennes
Pour toute cette sous-section, on considère que E est de dimension finie
n (n ∈ N∗ ) et on fixe q une forme quadratique hermitienne non identique-
ment nulle sur E. A la sous-section 8.5.3, on a vu que E possède au moins
une base q-orthogonale O = (u1 , u2, . . . , un ) et que la matrice associée à q
relativement à cette base est diagonale. En désignant cette matrice par D =
diag(λ1 , λ2 . . . , λn ) ∈ Mn (R), on a pour tout x = x1 u1 + x2 u2 + · · · + xn un ∈ E
(avec x1 , x2, . . . , xn ∈ C) :

q(x) = λ1 x1 x1 + λ2 x2 x2 + · · · + λn xn xn
= λ1 |x1 |2 + λ2 |x2 |2 + · · · + λn |xn |2 .

Une telle écriture de q(x) (i.e., une combinaison linéaire de carrés de mo-
dules de formes linéaires sur E, lesquelles sont C-linéairement indépen-
dantes) s’appelle réduction (ou réduite) de q.
En partant de l’expression de q relativement à une base quelconque
de E, la méthode de Gauss étudiée à la section 4.1 permet (en l’adaptant
soigneusement) d’aboutir à une réduite de q. Détaillons cela brièvement
en mettant l’accent sur la différence avec la méthode de Gauss concernant
les formes quadratiques usuelles. Soit B = (e1 , e2 , . . . , en ) une base de E.
D’après la proposition 8.10, l’expression de q relativement à B s’écrit (pour
tout x = x1 e1 + x2 e2 + · · · + xn en ∈ E, avec x1 , x2 , . . . , xn ∈ C) :
X
q(x) = akℓ xk xℓ ,
1≤k,ℓ≤n

où les akℓ sont des nombres complexes satisfaisant akℓ = aℓk pour tous
1 ≤ k, ℓ ≤ n (en particulier, les akk sont réels pour tout k ∈ {1, 2, . . . , n}). La
réduction de q se fait par itération en distinguant les deux cas suivants :
1er cas : (si les akk ne sont pas tous nuls).
Quitte à permuter les coordonnées x1 , x2, . . . , xn , on peut supposer que a11 ,
0. On a alors pour tout x = x1 e1 +x2 e2 +· · ·+xn en ∈ E (avec x1 , x2 , . . . , xn ∈ C) :
X
n X
n X
q(x) = a11 x1 x1 + a1k x1 xk + ak1 xk x1 + akℓ xk xℓ
k=2 k=2 2≤k,ℓ≤n

— 147 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

  n 
  n  n 
 Xn
  X    Xa   X  a  
a   a    
= a11 x1 + xk  x1 + xk  − a11  xk   xk 
1k 1k 1k 1k
a11   a11  a11   a11 
k=2 k=2 k=2 k=2
X
+ akℓ xk xℓ
2≤k,ℓ≤n
(rappelons que ak1 = a1k pour tout k ∈ {2, 3, . . . , n} et que a11 est réel)
2
X
n
a 1k
= a11 x1 + xk + q′ (x2 , x3, . . . , xn ) ,
a11
k=2

avec
 n  n 
X a1k  X    X
a 
q′ (x2 , x3 , . . . , xn ) := −a11  xk   xk  +
1k
akℓ xk xℓ .
a11 a11
k=2 k=2 2≤k,ℓ≤n

On réitère alors le procédé pour la nouvelle forme quadratique hermitienne


q′ aux (n − 1) variables x2 , x3, . . . , xn .
2nd cas : (si les akk sont tous nuls).
On sélectionne un coefficient non nul ars (forcément r , s) de l’expression
de q(x) et on effectue le changement de coordonnées :


 xr = yr + ys

 


 xs = a1rs yr − ys .


 xm = ym (pour m ∈ {1, 2, . . . , n} \ {r, s})

Ce qui nous amène au premier cas avec les nouvelles coordonnées y1 , y2 , . . . ,


yn et permet ainsi de réitérer le procédé.
Nous illustrons cette méthode avec l’exemple suivant :
Exemple 8.X.— Déterminer une forme réduite de Gauss de la forme
quadratique hermitienne q de C3 , définie par :

q(x) := x1 x1 +x2 x2 +2 x3 x3 +i x1 x2 +(1+i) x1 x3 −i x2 x1 +(3−2i) x2 x3 +(1−i) x3 x1


+ (3 + 2i) x3 x2

(pour tout x = t (x1 , x2 , x3) ∈ C3 ).


— En déduire une base de C3 , orthogonale pour q.

On est dans le premier cas de l’algorithme de Gauss puisque le coefficient a11 de x1 x1


est non nul (égale à 1). Comme le facteur (linéaire) de a111 x1 = x1 dans l’expression
de q(x) est x1 + i x2 + (1 + i) x3 , on écrit

q(x) = |x1 + i x2 + (1 + i) x3 |2 + q′ (x2 , x3 ),

— 148 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

avec q′ (x2 , x3 ) est le terme correctif que donnent les calculs, soit
q′ (x2 , x3 ) = (2 − i) x2 x3 + (2 + i) x3 x2 ,
qui est à son tour une forme quadratique hermitienne sur C2 (aux deux coordonnées
x2 et x3 ). Cependant, pour q′ , on est dans le second cas de l’algorithme de Gauss. On
effectue alors (comme le suggère l’algorithme) le changement de coordonnées :

x2 = y2 + y3  .
1
x3 = 2−i y2 − y3
Ce qui nous amène à :
     
q′ (x2 , x3 ) = y2 + y3 y2 − y3 + y2 − y3 y2 + y3
= 2 y2 y2 − 2 y3 y3
2 2
= 2 y2 − 2 y3 .
Enfin, on obtient :
2 2
q(x) = |x1 + i x2 + (1 + i) x3 |2 + 2 y2 − 2 y3
1 1
= |x1 + i x2 + (1 + i) x3 |2 + |x2 + (2 − i) x3 |2 − |x2 − (2 − i) x3 |2
2 2
1
(puisque l’on a y2 = 2
(x2 + (2 − i) x3 ) et y3 = 12 (x2 − (2 − i) x3 )). Il ne reste qu’à poser :


 L1 = x1 + i x2 + (1 + i) x3



 L2 = x2 + (2 − i) x3 ,

 L3 = x2 − (2 − i) x3

pour avoir :
1 1
q(x) = |L1 |2 + |L2 |2 − |L3 |2 ,
2 2
qui représente une forme réduite de Gauss pour q.
— Désignons par B la base de C3 qui correspond à cette forme réduite de q ; c’est-
à-dire la base de C3 dont les coordonnées de tout x = t (x1 , x2 , x3 ) ∈ C3 sont L(x) =
t (L
1 (x), L2 (x), L3 (x)). Désignons aussi par P la matrice de passage de la base canonique
de C3 vers B. On a donc pour tout x ∈ C3 :
x = PL(x).
L’expression de x en fonction de L(x) permet par conséquent d’en tirer P puis B.
Partant des expression ci-dessus des Lk en fonction des xk (1 ≤ k ≤ 3), les calculs
donnent : 
 x1 = L1 − 1+8i 1−2i


 10 L2 + 10 L3



 x2 = 12 (L2 + L3 ) .



 x3 = 2+i
10 (L2 − L3 )
D’où l’on tire que :
 1+8i 1−2i 
1 − 10 10  
 
 1 
P = 0 1
2 


 2

 2+i
0 10 − 2+i
10

— 149 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

et enfin que B = (u1 , u2 , u3 ), avec


 1+8i   1−2i 
  − 10   10 
1    
   
u1 = 0 , u2 =  2  , u3 =  12  ,
1
0 
 
 
 
2+i  2+i 
10 − 10

qui est nécessairement q-orthogonale. 

8.5.5 Une méthode alternative matricielle pour réduire une


forme quadratique hermitienne
Pour cette sous-section, le C-espace vectoriel E est supposé de dimen-
sion finie, notée n, avec n ≥ 1. Supposons donnée une forme quadratique
hermitienne q sur E dont la matrice associée relativement à une certaine
base de E est désignée par A (A ∈ Mn (C), hermitienne). Réduire q revient
à trouver une matrice P ∈ GLn (C) telle que la matrice produit P∗ AP soit
diagonale. On peut déterminer une telle matrice P en se basant simplement
sur les faits suivants :
— Multiplier une matrice M ∈ Mn (C) par une matrice P = (pkℓ )1≤k,ℓ≤n ∈
Mn (C) à droite (c’est-à-dire former la matrice MP) revient à modifier
les colonnes de M en changeant chacune d’elles par une certaine
combinaison linéaire des colonnes de M. Plus ème
Pnprécisément, la k
colonne Ck de M (1 ≤ k ≤ n) sera changée par m=1 pmk Cm .
— Multiplier une matrice M ∈ Mn (C) par une matrice Q = (qkℓ )1≤k,ℓ≤n ∈
Mn (C) à gauche (c’est-à-dire former la matrice QM) revient à modifier
les lignes de M en changeant chacune d’elles par une certaine combi-
naison linéaire des lignes de M. Plus précisément, la kème ligne Lk de M
P
(1 ≤ k ≤ n) sera changée par nm=1 qkm Lm . En prenant Q = P∗ = t P (avec
P = (pkℓ )1≤k,ℓ≤n ∈ Mn (C)), on en déduit que la matrice P∗ M s’obtient
P
en changeant chaque kème ligne Lk de M (1 ≤ k ≤ n) par nm=1 pmk Lm .
On constate alors que les combinaisons linéaires réalisant la transfor-
mation M → P∗ M sont les conjuguées (5) des combinaisons linéaires
réalisant la transformation M → MP, sauf que pour l’une, ces com-
binaisons linéaires agissent sur les colonnes de M tandis que pour
l’autre, elles agissent sur les lignes de M.
Il résulte de ces deux faits qu’étant donnée A ∈ Mn (C), hermitienne, une
matrice du type P∗ AP (P ∈ GLn (C)) s’obtient en changeant les colonnes de
(5). On voulait dire par ≪ la conjuguée d’une combinaison linéaire complexe CL ≫ la
combinaison linéaire obtenue en changeant chaque coefficient de CL par son conjugué.

— 150 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

A par des combinaisons linéaires de toutes les colonnes de A, puis les lignes
de la matrice obtenue par les combinaisons linéaires conjuguées (6) des
lignes de cette matrice. On peut bien entendu inverser ces manipulations
en commençant par transformer les lignes de A puis les colonnes de la
matrice qui en résulte. Pour avoir P ∈ GLn (C), il faut veiller à ce que
les combinaisons linéaires utilisées définissent un automorphisme de Cn .
En pratique, ces procédures seront répétées jusqu’à l’aboutissement d’une
matrice diagonale. Par ailleurs, pour récupérer la matrice P (qui fait que
P∗ AP soit diagonale), il suffit d’appliquer à la matrice identité In toutes
les transformations de la procédure concernant les colonnes (les colonnes
seulement (7) !). Nous illustrons cette méthode matricielle de réduction des
formes quadratiques hermitiennes par l’exemple tout simple suivant :

Exemple 8.XI.— Réduire la forme quadratique hermitienne q de C3 ,


définie par :

q(x) := |x1 |2 + 3 |x2 |2 + 6 |x3 |2 + 2ℜ ((1 + i)x1 x2 ) + 2ℜ ((2 + i)x1 x3 )


+ 2ℜ ((3 − 2i)x2 x3 )

(∀x = t (x1 , x2, x3 ) ∈ C3 ) et déterminer une base orthogonale de C3 pour q.

La matrice associée à q relativement à la base canonique de C3 est :


 
 1 1+i 2+i
A = 1 − i 3 3 − 2i .
2 − i 3 + 2i 6

La méthode matricielle décrite ci-dessus, visant à trouver une matrice diagonale



congruente à A, est constituée des étapes suivantes :

    L2 →L2 −(1−i)L1    
 1 1+i 2+i 1 0 0 1 1 + i 2 + i 1 0 0
3 − 2i 0 −i  0
L3 →L3 −(2−i)L1
1 − i 3 0 1 −→ 0 1 0 1

2 − i 3 + 2i 6 0 0 1 0 i 1 0 0 1
| {z } | {z }
A I3
C2 →C2 −(1+i)C1    
1 0 0 1 −1 − i −2 − i
−i 0 
C3 →C3 −(2+i)C1
−→ 0 1 0 1
 
0 i 1 0 0 1

(6). Toute combinaison linéaire (resp. ensemble de combinaisons linéaires) de colonnes


doit être suivi(e) d’une combinaison linéaire (resp. ensemble de combinaisons linéaires)
conjuguée(s) de lignes.
(7). En appliquant à In toutes les transformations concernant les colonnes (et uniquement
celles-ci), In se transforme en In P = P. Ce qui permet de récupérer la matrice P.

— 151 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

   
1 0 0 1 −1 − i −2 − i
1 −i
L3 →L3 −iL2
−→ 0 0 1 0 
 
0 0 0 0 0 1
   
1 0 0 1 −1 − i −1 − 2i
0
C3 →C3 +iC2
−→ 0 1 0 1 i  .
 
0 0 0 0 0 1
   
1 0 0 1 −1 − i −1 − 2i
 
En posant D := 0 1 0 = diag(1, 1, 0) et P := 0  1 i , on a alors
0 0 0 0 0 1
P∗ AP = D. Une base q-orthogonale B de C3 est constituée des vecteurs colonnes de
     
1
0 −1 − i −1 − 2i
  
P ; soit B = (u1 , u2 , u3 ), avec u1 =   , u2 =  1  et u3 =  i . En outre, pour
0 0 1
tout y = y1 u1 + y2 u2 + y3 u3 ∈ C3 (y1 , y2 , y3 ∈ C), on a :

q(y) = y21 + y22 ,

ce qui est une forme réduite de q. 

Remarque 8.X.— La méthode matricielle décrite ci-dessus pourrait


nécessiter (pour un certain type de formes quadratiques hermitiennes) un
nombre important d’étapes ; cela arrive essentiellement lorsque la réduction
de Gauss présente un second cas de l’algorithme. A titre d’exemple, nous
invitons le lecteur à traiter l’exemple 8.X par la méthode matricielle (en cas
de difficultés, revoir attentivement la solution du second exemple traité à la
section §4.2, relative aux formes quadratiques usuelles, et faire l’analogie).

8.5.6 Equivalence des formes quadratiques hermitiennes


Pour toute cette sous-section, on considère que E est de dimension finie
n.

Définition 8.XXII.— Soient q et q′ deux formes quadratiques hermi-


tiennes sur E. On dit que q et q′ sont équivalentes, et on écrit q ∼ q′ , s’il existe
un automorphisme u de E tel que l’on ait pour tout x ∈ E :

q′ (x) = q (u(x)) .

Autrement dit, q et q′ sont équivalentes s’il est possible de transformer l’une


d’entre elles en l’autre par un changement de coordonnées (c’est-à-dire par
un changement de variables linéaire et bijectif).

— 152 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

Remarques 8.XI.—
— Etant données q et q′ deux formes quadratiques hermitiennes, il
découle immédiatement de la définition 8.XXII précédente que q et
q′ sont équivalentes si et seulement si leurs matrices associées (rela-
tivement à une même base de E) sont ⋆ congruentes.
— La relation binaire ∼ (sur l’ensemble des formes quadratiques hermi-
tiennes sur E) constitue une relation d’équivalence.
La classification des formes quadratiques hermitiennes sur E modulo
la relation d’équivalence ∼ est donnée par le théorème suivant qui est
l’analogue du théorème de Syslvester sur les formes quadratiques réelles
(voir le théorème 4.3).
Théorème 8.13.— Soit q une forme quadratique hermitienne sur E, de rang
noté r. Il existe alors une base (v1 , v2 , . . . , vn ) de E et un couple (p, m) ∈ N2 ,
vérifiant p + m = r, tel que l’on ait pour tout x = x1 v1 + x2 v2 + · · · + xn vn ∈ E
(avec x1 , x2 , . . . , xn ∈ C) :
p
X p+m
X
2
q(x) = |xk | − |xk |2 .
k=1 k=p+1

De plus, le couple (p, m) est le même pour toutes les bases de E jouissant de la
même propriété. Autrement dit, (p, m) dépend uniquement de la forme quadratique
hermitienne q.
Démonstration.— On reprend exactement la même démonstration du
théorème 4.3 en lui portant les modifications évidentes. 
Définition 8.XXIII.— Etant donnée q une forme quadratique hermi-
tienne sur E, le couple (p, m) ∈ N2 fourni par le théorème 8.13 s’appelle la
signature de q et se note sgn(q).
Du théorème 8.13 découle le corollaire suivant qui est l’analogue du
corollaire 4.4 sur les formes quadratiques réelles.
Corollaire 8.14 (Le principe d’inertie).— Deux formes quadratiques her-
mitiennes q et q′ sur E sont équivalentes si et seulement si elles ont la même
signature. 
Tout comme les formes quadratiques réelles, la signature d’une forme
quadratique hermitienne q sur E permet de détecter immédiatement cer-
taines des caractéristiques de q, comme : sa positivité, sa définition, sa
dégénérescence, etc. On a le corollaire suivant qui est l’analogue des corol-
laires 4.5 et 4.6 (tous deux réunis) sur les formes quadratiques réelles.

— 153 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

Corollaire 8.15.— Soient q une forme quadratique hermitienne sur E et


(p, m) ∈ N2 sa signature. Alors on a :
• q est positive ⇐⇒ m = 0.
• q est négative ⇐⇒ p = 0.
• q est définie positive ⇐⇒ (p, m) = (n, 0).
• q est définie négative ⇐⇒ (p, m) = (0, n).
• q est définie ⇐⇒ q est ou bien définie positive ou bien définie négative
⇐⇒ (p, m) ∈ {(n, 0), (0, n)}.
• q est non dégénérée ⇐⇒ p + m = n.

Démonstration.— Pour le premier, le troisième et le dernier point, re-


prendre la démonstration du corollaire 4.5 en lui portant les modifications
évidentes. Les points restants découlent des précédents en constatant que
sgn(−q) = (m, p). 

8.5.7 Calcul de la signature d’une forme quadratique her-


mitienne par la méthode des déterminants de Sylves-
ter
On a le théorème suivant qui est l’analogue du théorème 4.7 sur les
formes quadratiques réelles :
Théorème 8.16.— Soient B = (e1 , e2 , . . . , en ) une base de E et q une forme
quadratique hermitienne sur E dont la matrice (hermitienne) associée relative-
ment à B est désignée par A = (akℓ )1≤k,ℓ≤n . Considérons les mineurs principaux
dominants de A, qui sont les nombres réels(6) définis par :

D0 := 1 et Dh := det(akℓ )1≤k,ℓ≤h pour h = 1, 2, . . . , n.

Supposons que Dh , 0 pour tout h ∈ {1, 2, . . . , n} et considérons s le nombre de


changements de signes dans la suite finie ordonnée D0 , D1, . . . , Dn . Alors on a :

sgn(q) = (n − s, s).

Démonstration.— Reprendre la même démonstration du théorème 4.7


en lui portant les modifications évidentes. 

(6). C’est le fait que A est hermitienne qui garantit que les nombres complexes Dh
(h = 1, 2, . . . , n) sont en fait tous réels. En effet, pour tout h ∈ {1, 2, . . . , n}, on a : Dh =
det(akℓ )1≤k,ℓ≤h = det(akℓ )1≤k,ℓ≤h = det(aℓk )1≤k,ℓ≤h = dett (aℓk )1≤k,ℓ≤h = det(akℓ )1≤k,ℓ≤h = Dh ; d’où
Dh ∈ R.

— 154 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

Du théorème 8.16 découle le corollaire suivant qui caractérise d’une


façon vraiment simple les formes quadratiques hermitiennes définies po-
sitives à partir de leurs représentations matricielles. Il est l’analogue du
corollaire 4.8 sur les formes quadratiques réelles.
Corollaire 8.17.— Soient B une base de E et q une forme quadratique
hermitienne sur E dont la matrice (hermitienne) associée relativement à B est
désignée par A = (akℓ )1≤k,ℓ≤n . Alors q est définie positive si et seulement si tous
les mineurs principaux dominants de A sont strictement positifs ; c’est-à-dire si et
seulement si l’on a :
 
det (akℓ )1≤k,ℓ≤h > 0 (∀h ∈ {1, 2, . . . , n}).
Démonstration.— Reprendre la démonstration du corollaire 4.8 en lui
portant les modifications nécessaires évidentes. 
Exemple 8.XII.— Déterminer de deux façons différentes la signature
de la forme quadratique hermitienne de C3 , introduite à l’exemple 8.X.
D’après la forme réduite de q trouvée à la solution de l’exemple 8.X, on a sgn(q) =
(2, 1). Retrouvons ce résultat en utilisant la méthode des déterminants de Sylvester
(donc sans nous servir d’aucune réduction de q). La matrice (hermitienne) associée
à q relativement à la base canonique de C3 est :
 
 1 i 1+i
 −i 
A =  2 3 − 2i
 
1 − i 3 + 2i 2

et ses mineurs principaux dominants sont donc :


!
1 i
D0 = 1 , D1 = det(1) = 1 , D2 = det = 1 et D3 = detA = −5 (après calcul).
−i 2

On voit alors que ces mineurs sont tous non nuls et que le nombre de changements
de signes dans la suite réelle ordonnée (D0 , D1 , D2 , D3 ) = (1, 1, 1, −5) est s = 1. Ce qui
entraı̂ne (d’après le théorème 8.16) que la signature de q est égale à :
 
sgn(q) = dim C3 − s, s = (3 − 1, 1) = (2, 1).

C’est bien le même résultat que l’on a établi au départ par la méthode de la réduction
de Gauss. 

Remarque 8.XII.— Comme pour les formes quadratiques réelles, on


montre que lorsqu’une forme quadratique hermitienne d’un C-espace vec-
toriel de dimension finie est non dégénérée, il est toujours possible de
déterminer sa signature par la méthode des déterminants de Sylvester, et
ce, en modifiant simplement (si c’est nécessaire) la base choisie initialement
pour le C-espace vectoriel en question.

— 155 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

8.6 Norme associée à un produit scalaire com-


plexe
Définitions 8.XXIV.—
— On appelle espace préhilbertien complexe tout C-espace vectoriel muni
d’un produit scalaire (complexe).
— On appelle espace hermitien tout espace préhilbertien complexe de
dimension finie.
— Soient E un espace préhilbertien complexe et h , i le produit scalaire
associé. On définit l’application :
k·k : E −→ R+ √ .
x 7−→ kxk := hx , xi
On montrera plus loin que k·k constitue une norme sur E, ce qui
justifie la notation qu’on lui a attribué. On dit que k·k est la norme
associée au produit scalaire h , i de E.
Sauf mention contraire, le produit scalaire d’un espace préhilbertien
complexe est noté h , i et sa norme associée est notée k·k.
On commence par la proposition toute simple suivante :
Proposition 8.18.— Soit E un espace préhilbertien complexe. Alors l’appli-
cation k·k : E → R+ (définie ci-haut) satisfait les deux premiers axiomes d’une
norme ; c’est-à-dire les propriétés :
(i) ∀x ∈ E : kxk = 0 ⇔ x = 0E .
(ii) ∀x ∈ E et ∀σ ∈ C : kσxk = |σ| · kxk.
Démonstration.— La propriété (i) résulte immédiatement de la défi-
nition d’un produit scalaire complexe. Montrons la propriété (ii). En se
servant de la sesquilinéarité du produit scalaire, on a pour tout x ∈ E et
tout σ ∈ C :
p p q
kσxk = hσx , σxi = σσ hx , xi = |σ|2 · kxk2 = |σ| · kxk ,
comme il fallait le prouver. La proposition est démontrée. 
Étant donné E un espace préhilbertien complexe, pour montrer que
l’application k·k : E → R+ (définie ci-haut) est une véritable norme sur
E, il reste à montrer (compte tenu de la proposition 8.18) que k·k satis-
fait l’inégalité triangulaire. Pour ce faire, on doit passer par l’inégalité de
Cauchy-Schwarz (analogue à celle d’un espace préhilbertien réel, vue au
chapitre 5). On a la

— 156 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

Proposition 8.19 (Inégalité de Cauchy-Schwarz).— Soit E un espace pré-


hilbertien complexe. Alors, pour tous x, y ∈ E, on a :

x , y ≤ kxk · y . (8.12)

De plus, cette inégalité devient une égalité si et seulement si x et y sont colinéaires.

Appellation.— L’inégalité (8.12) est connue sous le nom de l’inégalité


de Cauchy-Schwarz ou simplement l’inégalité de Schwarz.

Démonstration de la proposition 8.19.— Soient x, y ∈ E fixés. Lorsque


x et y sont colinéaires, on vérifie aisément que l’on a x , y = kxk · y .
D’autre part, lorsque x , y = 0, l’inégalité (8.12) est trivialement satisfaite
et devient une égalité si et seulement si x = 0E ou y = 0E , entraı̂nant que x
et y sont colinéaires. Il reste donc à montrer l’inégalité (8.12) dans le cas où
x , y , 0, et montrer (pour ce cas) que si elle est atteinte alors forcément x
et y sont colinéaires. Soient donc x, y ∈ E tels que x , y , 0 (donc x , 0E )
et définissons pour tout σ ∈ C :

ϕ(σ) := σx + y , σx + y .

La positivité du produit scalaire assure que l’on a ϕ(σ) ≥ 0 (∀σ ∈ C).


D’autre part, en utilisant la sesquilinéarité et la symétrie conjuguée du
produit scalaire, on a pour tout σ ∈ C :

ϕ(σ) = hσx , σxi + σx , y + y , σx + y , y


= σσ hx , xi + σ x , y + σ y , x + y , y
2
= |σ|2 · kxk2 + σ x , y + σ x , y + y
 2
= |σ|2 · kxk2 + 2ℜ σ x , y + y .

Par conséquent, on a :
 2
∀σ ∈ C : |σ|2 · kxk2 + 2ℜ σ x , y + y ≥ 0. (8.13)

En appliquant spécialement (8.13) pour les nombres complexes σ de la


forme σ = λ x , y (λ ∈ R), on tire que l’on a en particulier :
2 2 2
∀λ ∈ R : kxk2 · x , y · λ2 + 2 x , y λ+ y ≥ 0.

Le polynôme réel de second degré de la variable réelle λ, donné par :


2 2 2
P(λ) := kxk2 · x , y · λ2 + 2 x , y λ+ y

— 157 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

garde donc un signe constant (positif) pour tout λ ∈ R. Ce qui entraı̂ne que
4 2 2
son discriminant réduit ∆′ = x , y − kxk2 · y · x , y est négatif ; soit
∆′ ≤ 0. Ce qui donne immédiatement l’inégalité requise :

x , y ≤ kxk · y .

— Maintenant, si l’inégalité ci-dessus est même une égalité, alors on a (en


remontant) ∆′ = 0, ce qui entraı̂ne que P possède une racine réelle double
λ0 . On a par suite :

0 = P(λ0 ) = ϕ λ0 x , y = λ0 x , y x + y , λ0 x , y x + y .

Ce qui entraı̂ne (en vertu de la définition du produit scalaire) que


λ0 x , y x + y = 0E ; d’où x et y sont colinéaires, comme il fallait le prouver.
Ceci complète la preuve de la proposition 8.19. 
Comme dans le cas d’un espace préhilbertien réel, l’inégalité de Cauchy-
Schwarz entraı̂ne l’inégalité de Minkowski donnée par la proposition sui-
vante :
Proposition 8.20 (Inégalité de Minkowski).— Soit E un espace préhil-
bertien complexe. Alors, pour tous x, y ∈ E, on a :

x + y ≤ kxk + y . (8.14)

Appellation.— L’inégalité (8.14) est connue sous le nom de l’inégalité


de Minkowski.
Démonstration de la proposition 8.20.— Soient x, y ∈ E. En se servant
de la sesquilinéarité et de la symétrie conjuguée du produit scalaire, on a :
2 2
x+y = x + y , x + y = kxk2 + y + 2ℜ x , y .

Mais comme ℜ x , y ≤ ℜ x , y ≤ x , y ≤ kxk · y (en vertu de


l’inégalité de Cauchy-Schwarz), il s’ensuit que :
2 2  2
x+y ≤ kxk2 + y + 2 kxk · y = kxk + y .

D’où :
x + y ≤ kxk + y ,
comme il fallait le prouver. La proposition est démontrée. 
Les deux propositions 8.18 et 8.20 confirment que l’application k·k : E →
R+ (définie précédemment) est bien une norme sur E. On a le

— 158 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

Corollaire 8.21.— Soit E un espace préhilbertien complexe. L’application


k·k : E → R+ définie précédemment constitue une norme sur E. 
Remarque 8.XIII.— Compte tenu du corollaire 8.21, on considère un
espace préhilbertien complexe comme un cas particulier d’un C-espace
vectoriel normé.
Définition 8.XXV.— On appelle espace de Hilbert complexe tout espace
préhilbertien complexe, complet pour la norme associée à son produit
scalaire.

8.7 Orthogonalité dans un espace préhilbertien


complexe
Les notions d’orthogonalité, de famille orthogonale (resp. orthonormée)
et de base orthogonale (resp. orthonormée) d’un C-espace vectoriel muni
d’une forme hermitienne ont été déjà définies et étudiées au §8.5.3. Cepen-
dant, le cas le plus important où la forme hermitienne en question est un
produit scalaire (complexe) mérite plus d’attention, notamment en ce qui
concerne les propriétés des familles orthogonales et leurs constructions. On
a par exemple le théorème suivant dont la démonstration (par récurrence
par exemple) est laissée au soin du lecteur.
Théorème 8.22 (le théorème de Pythagore généralisé).— Soit E un es-
pace préhilbertien complexe. Alors pour tout n ∈ N∗ et tous x1 , x2 , . . . , xn ∈ E,
deux à deux orthogonaux, on a :
kx1 + x2 + · · · + xn k2 = kx1 k2 + kx2 k2 + · · · + kxn k2 . 
Remarque 8.XIV.— Contrairement au cas d’un espace préhilbertien
réel, lorsque E est un espace préhilbertien complexe et x, y ∈ E, on n’a
2 2
pas équivalence entre x ⊥ y et x + y = kxk2 + y ; autrement dit,
la réciproque du théorème de Pythagore est fausse. En effet, les calculs
donnent :
2 2
x+y = kxk2 + y ⇐⇒ ℜ x , y = 0 6=⇒ x , y = 0.

8.7.1 Construction d’une base orthonormée pour un espace


hermitien
Étant donné E un espace hermitien, la détermination d’une base or-
thogonale de E peut se faire par la méthode de réduction de Gauss, vue

— 159 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

au §8.5.4. Cependant, cette démarche purement algébrique peut être rem-


placée par une autre plus souple, plus rapide et plus efficace qui est l’algo-
rithme de Gram-Schmidt (dont l’analogue réel est déjà étudié au chapitre 5).
En revanche, l’algorithme de Gram-Schmidt ne peut être utilisé pour une
forme hermitienne qui n’est pas un produit scalaire.

Description de l’algorithme de Gram-Schmidt


Comme l’algorithme dont il s’agit est identique à celui correspon-
dant au cas d’un espace préhilbertien réel, nous contentons de le décrire
brièvement et sans détail. Soient E un espace préhilbertien complexe et
F = (e1 , e2 , . . . , en ) (n ≥ 1) une famille libre de E. L’algorithme d’ortho-
normalisation de Gram-Schmidt est un procédé récursif qui permet de
construire (à partir de F ) une nouvelle famille libre G = (u1 , u2 , . . . , un ) qui
soit orthonormée et vérifie pour tout k ∈ {1, 2, . . . , n} :

Vect (u1 , u2 , . . . , uk ) = Vect (e1 , e2 , . . . , ek ) .

En particulier, G engendre le même sous-espace vectoriel de E que F . On


dit que G est l’orthonormalisée de Gram-Schmidt de F . Les vecteurs de G
sont construits pas à pas de la façon suivante :
e1
• On prend u1 := .
ke1 k
• Pour k ∈ {2, 3, . . . , n}, en supposant que u1 , u2 , . . . , uk−1 sont déjà
construits, on définit

X
k−1
bk
u
bk = ek −
u hum , ek i um puis uk = .
m=1 bk
u

Remarque 8.XV.— Lorsque E est de dimension finie (c’est-à-dire que


E est un espace hermitien), l’algorithme de Gram-Schmidt permet de
construire une base orthonormée de E.

8.7.2 Supplémentaire orthogonal et projection orthogonale


Soient E un espace préhilbertien complexe et F un sous-espace vectoriel
de dimension finie de E.

Proposition 8.23.— On a :

F ⊕ F⊥ = E.

— 160 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

Démonstration.— On reprend la même démonstration de la proposi-


tion 6.2 (correspondant au cas d’un espace préhilbertien réel) avec la légère
modification suivante : si (e1 , e2 , . . . , ek ) (k ∈ N) est une base orthonormée
de F et x ∈ E, on définit :

X
k

x := hem , xi em ∈ F.
m=1

On a alors hx′ , eℓ i = hx , eℓ i pour tout ℓ ∈ {1, 2, . . . , k}. Ce qui entraı̂ne que


x − x′ ∈ F⊥ ; d’où x ∈ F + F⊥ . Ce qui montre l’égalité E = F + F⊥ . 

Corollaire 8.24.— Si E est de dimension finie (i.e., hermitien) alors on a :


F⊥⊥ = F. 

Appellations 8.II.—
1. Le sous-espace vectoriel F⊥ de E s’appelle le supplémentaire orthogonal
de F.
2. La projection sur F parallèlement à son supplémentaire orthogonal
F⊥ s’appelle la projection orthogonale sur F et se note πF .

L’expression de la projection orthogonale sur un sous-espace


On a le théorème suivant :

Théorème 8.25.— Soit B = (e1 , e2 , . . . , ek ) une base orthonormée de F. Alors


on a pour tout x ∈ E :
Xk
πF (x) = hem , xi em .
m=1

Démonstration.— Ceci a été en fait établi durant la démonstration de


la proposition 8.23. 

Reformulation de l’algorithme de Gram-Schmidt


Soient F = (e1 , e2 , . . . , en ) (n ≥ 1) une famille libre de E et G = (u1 , u2, . . . ,
un ) l’orthonormalisée de Gram-Schmidt de F . En se servant des projections
orthogonales, on peut reformuler les expressions des vecteurs de G en
fonction des vecteurs de F de la façon suivante :
e1
• u1 = .
ke1 k

— 161 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

• Pour tout k ∈ {2, 3, . . . , n} :


bk
u
bk = ek − πVect(e , e , . . . , e ) (ek )
u et uk =
1 2 k−1 bk
u

(en vertu du théorème 8.25).

8.7.3 Distance d’un vecteur par rapport à un sous-espace


vectoriel de dimension finie d’un espace préhilbertien
complexe
Soient E un espace préhilbertien complexe et F un sous-espace de di-
mension finie de E. La distance d’un vecteur x de E par rapport à F
(notée d(x, F)) est définie comme étant l’infinimum de la quantité positive
x − y , lorsque y parcourt F. On montre (comme dans le cas d’un espace
préhilbertien réel) que cet infinimum est atteint (une et une seule fois) en
y = πF (x). On a le
Théorème 8.26.— Pour tout x ∈ E, il existe un unique y0 ∈ F tel que :

d(x, F) = x − y0 .

De plus, on a précisément y0 = πF (x), de sorte que l’on ait :

d(x, F) = kx − πF (x)k .

Démonstration.— On reprend la même démonstration du théorème


6.4. 

Matrice et déterminant de Gram


Définition 8.XXVI.— Soient n un entier strictement positif et (x1 , x2, . . . ,
xn ) une famille ordonnée de vecteurs de E.
— On appelle la matrice de Gram associée à la famille (x1 , x2, . . . , xn ) la
matrice complexe carrée d’ordre n définie par :

Gram(x1 , x2 , . . . , xn ) := (hxk , xℓ i)1≤k,ℓ≤n .

— On appelle le déterminant de Gram associé à la famille (x1 , x2 , . . . , xn ),


que l’on note G(x1 , x2 , . . . , xn ), le déterminant de la matrice de Gram associée
à cette même famille ; soit

G(x1 , x2, . . . , xn ) := det Gram(x1 , x2 , . . . , xn ).

— 162 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

En se servant des déterminants de Gram d’une famille ordonnée finie de


vecteurs de E, on peut calculer facilement la distance d’un vecteur x de E par
rapport à F sans calculer préalablement la projection orthogonale de x sur
F. Le théorème suivant donne la formule appropriée à ce calcul après avoir
englobé les propriétés fondamentales des matrices et des déterminants de
Gram.
Théorème 8.27.— Soient n un entier strictement positif et (x1 , x2 , . . . , xn )
une famille ordonnée de vecteurs de E. Les propriétés suivantes sont alors satis-
faites :
1. La matrice Gram(x1 , x2 , . . . , xn ) est hermitienne positive. Elle est de plus
définie positive si et seulement si la famille de vecteurs (x1 , x2 , . . . , xn ) est
libre.
2. On a rg Gram(x1 , x2 , . . . , xn ) = dimVect(x1 , x2 , . . . , xn ).
3. On a G(x1 , x2 , . . . , xn ) ≥ 0. De plus, G(x1 , x2 , . . . , xn ) > 0 si et seulement si
la famille de vecteurs (x1 , x2 , . . . , xn ) est libre.
4. Le déterminant G(x1 , x2, . . . , xn ) est invariant par permutation (8) des vec-
teurs x1 , x2 , . . . , xn et invariant également lorsqu’un certain vecteur xk
(1 ≤ k ≤ n) est remplacé par une somme de xk et d’une combinaison
linéaire des autres vecteurs xℓ (1 ≤ ℓ ≤ n, ℓ , k).
5. Supposons que dimF = n et soit (u1 , u2 , . . . , un ) une base arbitraire de F.
Alors pour tout x ∈ E, on a :
r
G(x, u1, u2 , . . . , un )
d(x, F) =
G(u1 , u2, . . . , un )
(appelée la formule de Gram).
Démonstration.— Reprendre la démonstration du théorème 6.5 en lui
portant les modifications nécessaires évidentes. 
Remarques 8.XVI.—
1. Faisons remarquer que le cas particulier correspondant à n = 2 du
point 3. du théorème 8.27 n’est autre que l’inégalité de Cauchy-
Schwarz !
2. On peut montrer que toute matrice complexe carrée hermitienne po-
sitive est une matrice de Gram d’une certaine famille finie de vecteurs
de E.

(8). Il est alors plus approprié de parler du déterminant de Gram d’une famille finie de
vecteurs de E plutôt que d’une famille finie ≪ ordonnée ≫ de vecteurs de E.

— 163 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

Exercices

Exercice 8.1. Soit ϕ : C2 [X] × C2 [X] → C, définie par :

ϕ(P, Q) := P(i) Q(1 + i) + P(1 + i) Q(i) (∀P, Q ∈ C2 [X]).

1. Montrer que ϕ est une forme hermitienne sur C2 [X]. Pour toute la
suite, on désigne par q la forme quadratique hermitienne associée à
ϕ.
2. Déterminer la matrice associée à ϕ relativement à la base canonique
de C2 [X].
3. (a) Vérifier que la famille ordonnée

B := (X − i , X − 1 − i , (X − i)(X − 1 − i))

constitue une base de C2 [X] puis déterminer de deux façons


différentes la matrice associée à ϕ relativement à B.
1ère façon : Utiliser la définition de la matrice associée à une
forme sesquilinéaire.
2nde façon : Utiliser la formule de changement de base relative
aux formes sesquilinéaires.
(b) En déduire rapidement le rang de q et le noyau de ϕ.
(c) Montrer que q n’est ni positive ni négative et en déduire sa
signature.
4. Soit P0 (X) := (4 + 2i)X + 1 − 4i.
— Déterminer {P0 }⊥q et l’écrire sous la forme Vect(R) ⊕ Ker ϕ, avec R
est un polynôme de R2 [X] que l’on demande de déterminer.

Exercice 8.2. Soit q la forme quadratique hermitienne de C3 donnée par :

q(z) := |z1 |2 + 2ℜ ((1 + i) z1 z2 ) + 2ℜ ((2 + i) z1 z3 ) + 4ℜ ((2 + i) z2 z3 )

(∀z = t (z1 , z2 , z3 ) ∈ C3 ).
1. Déterminer la forme polaire f de q puis la matrice associée à q relati-
vement à la base canonique de C3 .
2. (a) Déterminer Ker f et sa dimension.
(b) En déduire le rang de q.

— 164 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

   
1 −i
   
3. Calculer q 0 et q  1  et en déduire la signature de q (sans passer
   
0 0
bien entendu par la réduction de Gauss).
4. Reprendre les mêmes questions précédentes avec la forme quadra-
tique hermitienne de C4 donnée par :

q(z) := |z1 |2 + |z2 |2 − 39 |z4 |2 + 2ℜ ((1 − i) z1 z2 ) + 2ℜ (−i z1 z3 )


+ 2ℜ ((3 + i) z1 z4 ) + 2ℜ ((2 − i) z2 z3 ) + 2ℜ ((2 − 3i) z2 z4 )
+ 2ℜ ((−1 + 10i) z3 z4 )

(∀z = t (z1 , z2 , z3 , z4 ) ∈ C3 ), où pour la question 3, vous êtes sensé


trouver vous-même deux vecteurs u, v de C4 tels que q(u) > 0 et
q(v) < 0.

Exercice 8.3.
1. Réduire par la méthode de Gauss les formes quadratiques hermi-
tiennes de C3 données par :

q1 (z) := |z1 |2 + 2 |z2 |2 + 3 |z3 |2 + 2ℜ (z1 z2 ) + 4ℜ (z1 z3 ) + 4ℜ (i z2 z3 ) ,


q2 (z) := 5 |z1 |2 + 2 |z2 |2 + |z3 |2 + 2ℜ ((2 − i)z1 z2 ) + 2ℑ (z1 z3 ) + 2ℑ (z2 z3 ) ,
q3 (z) := 2 |z1 |2 + |z2 |2 + 4 |z3 |2 + 2ℜ ((1 + i) z1 z2 ) − 6ℑ (z1 z3 ) − 4ℑ (z2 z3 )

(∀z = t (z1 , z2 , z3 ) ∈ C3 ).
2. Parmi ces formes quadratiques hermitiennes, quelles sont celles qui
sont équivalentes ?

Exercice 8.4. Soit q la forme quadratique hermitienne de C4 donnée par :

q(z) := |z1 |2 + 2 |z2 |2 + 5 |z3 |2 + 10 |z4 |2 + 2ℜ ((1 + i) z1 z2 ) + 2ℜ ((2 + i) z1 z3 )


+ 2ℜ ((3 + i) z1 z4 ) + 8ℜ (z2 z3 ) + 4ℜ ((2 + i) z2 z4 ) + 2ℜ ((7 + 3i) z3 z4 )

(∀z = t (z1 , z2 , z3 , z4 ) ∈ C4 ).
1. Réduire q par la méthode de Gauss.
2. (a) En déduire le rang et la signature de q.
(b) q est-elle non dégénérée ? positive ? Justifier.
3. Déterminer une base de C4 qui soit q-orthogonale.

— 165 —
B. Farhi Chap 8. Espaces préhilbertiens complexes

Exercice 8.5. Etant donnés n et m deux entiers strictement positifs, mon-


trer que le produit scalaire usuel de Mn,m (C) (où Mn,m (C) est naturellement
identifié à Cn×m ) peut être défini par la formule matricielle pratique sui-
vante :
hA , Bius = tr(A∗ B) (∀A, B ∈ Mn,m (C)).
Exercice 8.6. Soit f : C3 × C3 → C l’application définie par :
   ′ 
z1  z1     
   
f z2  , z′2  := z1 z′1 + 2 z2 z′2 + 2 z3 z′3 − i z1 z′2 − z2 z′1 − i z2 z′3 − z3 z′2
   ′ 
z3 z3
(∀ t (z1 , z2 , z3 ), t (z′1 , z′2 , z′3 ) ∈ C3 ).
— Montrer que f constitue un produit scalaire complexe sur C3 .
Exercice 8.7. Soit h , i : C3 × C3 → C l’application définie par :
*z1  z′ +
   1′     
z2  , z  := z1 z′ + 2 z2 z′ + 4 z3 z′ + z1 z′ + z2 z′ + i z1 z′ − z3 z′
   2  1 2 3 2 1 3 1
z3 z′3
+ (−1 + i) z2 z′3 + (−1 − i) z3 z′2
(∀ t (z1 , z2 , z3 ), t (z′1 , z′2 , z′3 ) ∈ C3 ).
1. Montrer que h , i constitue un produit scalaire complexe sur C3 .
2. Déterminer une base de C3 qui soit orthonormée pour ce produit
scalaire.
Exercice 8.8. Pour ce qui suit, le C-espace vectoriel C4 est muni de son
produit scalaire usuel. Considérons dans C4 le plan P défini par le système
de deux équations
(
x−iy+iz+t = 0
x + i y + (2 + i) z − t = 0
et le vecteur v := t (1, 1, 1, 1).
1. Déterminer une base orthonormée de P.
2. Déterminer la projection orthogonale de v sur P puis calculer la dis-
tance de v par rapport à P.

— 166 —
Chapitre 9
Endomorphismes spéciaux d’un
espace préhilbertien complexe et
théorèmes spectraux

Sommaire
9.1 Adjoint d’un endomorphisme . . . . . . . . . . . . . . . 168
9.2 Endomorphismes hermitiens . . . . . . . . . . . . . . . . 170
9.3 Endomorphismes antihermitiens . . . . . . . . . . . . . 172
9.4 Endomorphismes unitaires . . . . . . . . . . . . . . . . . 173
9.5 Endomorphismes normaux . . . . . . . . . . . . . . . . . 176
9.6 Le théorème spectral pour les endomorphismes hermi-
tiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
9.7 Le théorème spectral pour les endomorphismes autoad-
joints d’un espace euclidien . . . . . . . . . . . . . . . . 182
9.8 Le théorème spectral pour les endomorphismes normaux184
9.9 Le théorème de trigonalisation de Schur . . . . . . . . . 187
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194

Ce chapitre est sans doute le plus important de ce polycopié, étant


donné qu’il comporte les théorèmes spectraux (complexe et réel). Sa première
partie est l’analogue du chapitre 7.
Pour tout ce qui suit, on fixe E un espace préhilbertien complexe et
on désigne respectivement par h , i et k·k le produit scalaire ambiant et la
norme qui lui est associée.

167
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

9.1 Adjoint d’un endomorphisme


Définition 9.I.— Soit f un endomorphisme de E. On appelle adjoint de
f tout endomorphisme g de E, vérifiant la propriété :

f (x) , y = x , g(y) (∀x, y ∈ E).

On commence par traiter les questions d’existence et d’unicité de l’en-


domorphisme adjoint d’un endomorphisme donné de E.

Proposition 9.1 (Unicité de l’endomorphisme adjoint).— Soit f un en-


domorphisme de E. Si f possède un adjoint alors cet adjoint est forcément unique.

Démonstration.— On reprend la même démonstration de la proposi-


tion 7.1. 

Notation 9.I.— L’endomorphisme adjoint d’un endomorphisme donné


f de E (lorsqu’il existe) est noté f ∗ .

La proposition suivante fournit quelques propriétés des endomorphis-


mes adjoints et de leurs liaisons avec les opérations de base sur les endo-
morphismes (addition, multiplication par un scalaire, composition, etc).

Proposition 9.2.— Soient f et g deux endomorphismes de E qui possèdent


des adjoints (i.e., f ∗ et g∗ existent) et λ un nombre complexe. Alors les endomor-
phismes IdE , f + g, λ f , f ◦ g, f −1 (lorsque f est bijectif) et f ∗ de E possèdent tous
des adjoints et on a précisément :
(i) (IdE )∗ = IdE ,
(ii) ( f + g)∗ = f ∗ + g∗ ,
(iii) (λ f )∗ = λ f ∗ ,
(iv) ( f ◦ g)∗ = g∗ ◦ f ∗ ,
 ∗ −1
(v) f −1 = f ∗ (lorsque f est bijectif),
(vi) ( f ∗ )∗ = f .

Démonstration.— Reprendre la démonstration de la proposition 7.2 en


remplaçant la bilinéarité (du produit scalaire réel en question) par la ses-
quilinéarité (du produit scalaire complexe de E) et la symétrie (du produit
scalaire réel en question) par la symétrie conjuguée (du produit scalaire
complexe de E). 

— 168 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

La proposition suivante assure l’existence de l’endomorphisme adjoint


de tout endomorphisme de E lorsque E est de dimension finie.

Proposition 9.3 (Sur l’existence de l’endomorphisme adjoint).— Sup-


posons que E est hermitien (i.e., dimE < +∞). Alors tout endomorphisme de E
possède un endomorphisme adjoint. Plus précisément, si f est un endomorphisme
de E et A est la matrice associée à f relativement à une base orthonormée B de
E alors la matrice associée à f ∗ relativement à la même base B de E est A∗ .

Démonstration.— Reprendre la démonstration de la proposition 7.3


en lui portant les modifications évidentes. 

Remarque 9.I.— En fait, l’existence de l’adjoint d’un endomorphisme


donné f de E a même lieu dans le cadre plus général où E est de Hilbert
(i.e., complet) et f est continu. Constater que la proposition 9.3 précédente
en devient un cas particulier.

Une importante propriété spectrale de l’endomorphisme adjoint est


proposée dans l’exemple anticipé suivant :

Exemple 9.I.— Supposons que E est hermitien (i.e., dimE < +∞) et
soit f un endomorphisme de E. Montrer que l’on a : σC ( f ∗ ) = σC ( f ) (où
σC ( f ) désigne le spectre de f et σC ( f ) désigne l’ensemble des conjugués des
éléments de σC ( f )).

Posons n := dimE et fixons une base orthonormée B de E. Soit A ∈ Mn (C) la matrice


associée à f relativement à B. D’après la proposition 9.3, la matrice associée à f ∗
relativement à B est A∗ . On a alors pour tout λ ∈ C :

P f ∗ (λ) = PA∗ (λ) = det (A∗ − λ In )


 
= det t A − λ In
  
= det t A − λ In
 
= det A − λ In
 
= det A − λ In
 
= det A − λ In

= PA (λ)
= P f (λ)

 a utilisé les faits que pour toute matrice M ∈ Mn (C),


(où dans cette série d’égalités, on
t 
on a : det M = det M et det M = det M). Il résulte de cela que l’on a pour tout

— 169 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

λ∈C:

λ ∈ σC ( f ∗ ) ⇐⇒ P f ∗ (λ) = 0

⇐⇒ P f (λ) = 0
⇐⇒ P f (λ) = 0
⇐⇒ λ ∈ σ f (C)
⇐⇒ λ ∈ σC ( f ).

Ce qui confirme l’égalité requise σC ( f ∗ ) = σC ( f ). 

La stabilité d’un sous-espace vectoriel de E par un endomorphisme


donné de E est aussi une propriété qui se transporte (via l’orthogonalité) à
l’endomorphisme adjoint. On a la proposition suivante :
Proposition 9.4.— Soient f un endomorphisme de E admettant un adjoint
et F un sous-espace vectoriel de E, stable par f . Alors F⊥ est stable par f ∗ .
Démonstration.— Soit x ∈ F⊥ et montrons que f ∗ (x) ∈ F⊥ . Puisque
(par hypothèse) F est stable par f , on a pour tout u ∈ F : f (u) ∈ F ; par
conséquent :
f ∗ (x) , u = x , f (u) = 0
(vu que x ∈ F⊥ et f (u) ∈ F). Ce qui montre que f ∗ (x) ⊥ u (∀u ∈ F) ; autrement
dit f ∗ (x) ∈ F⊥ , comme il fallait le prouver. 

9.2 Endomorphismes hermitiens


Les endomorphismes hermitiens sont l’analogue des endomorphismes
autoadjoints des espaces préhilbertiens réels (voir §7.2).
Définition 9.II.— Un endomorphisme f de E est dit hermitien s’il est
l’adjoint de lui-même, c’est-à-dire si f ∗ = f . De manière équivalente, f est
hermitien si pour tous x, y ∈ E, on a :
f (x) , y = x , f (y) .
La caractérisation matricielle d’un endomorphisme hermitien d’un es-
pace hermitien, relativement à une base orthonormée de celui-ci, se déduit
immédiatement de la proposition 9.3. On a la
Proposition 9.5.— Supposons que E est hermitien de dimension n (n ∈ N∗ )
et soit B = (e1 , e2, . . . , en ) une base orthonormée de E. Soient aussi f un
endomorphisme de E et A la matrice associée à f relativement à B. Alors f est
hermitien si et seulement si A est hermitienne (i.e., A∗ = A). 

— 170 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

Parmi les endomorphismes hermitiens de E, on cite ≪ les projections or-


thogonales ≫ et ≪ les symétries orthogonales (1) ≫. Inversement, une projec-
tion de E qui est hermitienne (en tant qu’endomorphisme) est nécessaire-
ment une projection orthogonale. De même, une symétrie de E qui est
hermitienne (en tant qu’endomorphisme) est nécessairement une symétrie
orthogonale. Toutes ces assertions se démontrent exactement de la même
manière que pour les espaces euclidiens (voir §7.2) et sont laissées, de ce
fait, au soin du lecteur.
Une autre propriété caractérisant les endomorphismes hermitiens est
donnée par la proposition suivante :

Proposition 9.6.— Un endomorphisme f de E est hermitien si et seulement


s’il vérifie la propriété suivante :

∀x ∈ E : x , f (x) ∈ R.

Démonstration.— Soit f un endomorphisme de E. Supposons d’abord


que f est hermitien et montrons la propriété requise sur f . Etant donné
x ∈ E, on a (puisque f est supposé hermitien) :

x , f (x) = f ∗ (x) , x = f (x) , x = x , f (x) .

Ce qui montre que le nombre complexe x , f (x) est réel (vu qu’il est égale
à son conjugué).
Inversement, Supposons que pour tout u ∈ E, on a u , f (u) ∈ R et
montrons que f est hermitien. Etant donnés x, y ∈ E, on a (par hypothèse) :

x , f (x) , y , f (y) , x + y , f (x + y) , x + i y , f (x + i y) ∈ R.

Mais les développements de x + y , f (x + y) et x + i y , f (x + i y) en se


servant de la linéarité de f et de la sesquilinéarité du produit scalaire
donnent :

x + y , f (x + y) = x , f (x) + x , f (y) + y , f (x) + y , f (y)


et
x + i y , f (x + i y) = x , f (x) + i x , f (y) − i y , f (x) + y , f (y) .

Il en découle donc que :


(1). Comme dans le cas d’un espace euclidien, une symétrie orthogonale de E est un
endomorphisme de E de la forme s = 2p − IdE , où p est une projection de E. Lorsque p est
particulièrement une projection orthogonale, on dira que s est une symétrie orthogonale.

— 171 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

x , f (y) + y , f (x) ∈ R
et
x , f (y) − y , f (x) ∈ i R.

En posant par suite x , f (y) + y , f (x) = a et x , f (y) − y , f (x) = b i


(où a, b ∈ R), il en résulte que :

1 1
x , f (y) = (a + b i) et y , f (x) = (a − b i) .
2 2
D’où l’on tire que :
y , f (x) = x , f (y) ;
soit
f (x) , y = x , f (y) .
Comme cela est visiblement vrai pour tous x, y ∈ E, l’endomorphisme f
est bien hermitien. Ceci complète la preuve de la proposition. 

9.3 Endomorphismes antihermitiens


Les endomorphismes antihermitiens sont l’analogue des endomor-
phismes antisymétriques des espaces préhilbertiens réels (voir §7.3).

Définition 9.III.— Un endomorphisme f de E est dit antihermitien s’il


est l’opposé de son adjoint ; c’est-à-dire si f ∗ = − f . De manière équivalente,
f est antihermitien si pour tous x, y ∈ E, on a :

f (x) , y = − x , f (y) .

Définition 9.IV.— Etant donné n un entier strictement positif, une


matrice A de Mn (C) est dite antihermitienne si elle satisfait la propriété :
A∗ = −A.

La caractérisation matricielle d’un endomorphisme antihermitien d’un


espace hermitien, relativement à une base orthonormée de celui-ci, se
déduit immédiatement de la proposition 9.3. On a la

Proposition 9.7.— Supposons que E est hermitien de dimension n (n ∈ N∗ )


et soit B = (e1 , e2, . . . , en ) une base orthonormée de E. Soient aussi f un
endomorphisme de E et A la matrice associée à f relativement à B. Alors f est
antihermitien si et seulement si A est antihermitienne. 

— 172 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

9.4 Endomorphismes unitaires


La notion d’endomorphisme unitaire est l’analogue de la notion d’en-
domorphisme orthogonal d’un espace préhilbertien réel (voir §7.4). On a
la
Définition 9.V.— Un endomorphisme f de E est dit unitaire s’il conserve
les produits scalaires ; c’est-à-dire s’il vérifie la propriété :
f (x) , f (y) = x , y (∀x, y ∈ E).

Puisque la norme et la distance de E sont définies à partir du produit


scalaire ambiant de E, il découle de la définition précédente qu’un endo-
morphisme unitaire de E conserve aussi les normes et les distances. Cela
fait qu’un endomorphisme unitaire d’un espace préhilbertien complexe
est un cas particulier d’une isométrie d’un espace métrique.
Notation 9.II.— L’ensemble des endomorphismes unitaires de E se
note U(E).

Les résultats qui vont suivre fournissent les propriétés fondamentales


des endomorphismes unitaires d’un espace préhilbertien complexe, en
mettant plus l’accent sur le cas de la dimension finie (i.e., le cas d’un
espace hermitien).
Proposition 9.8.— Soit f un endomorphisme de E. Les deux propriétés sui-
vantes sont équivalentes :
(i) f est un endomorphisme unitaire,
(ii) f conserve les normes ; c’est-à-dire que l’on a :

f (x) = kxk (∀x ∈ E).

Démonstration.— Reprendre la démonstration de la proposition 7.7 en


utilisant (en vu d’établir l’implication (ii) ⇒ (i)) les formules appropriées
(8.8) au lieu de la formule inappropriée (3.1). 

Proposition 9.9.— Supposons que E est hermitien (i.e., dimE < +∞) et
soit f un endomorphisme de E. Si f est unitaire alors il transforme toute base
orthonormée de E en une base orthonormée de E. Inversement, si f transforme une
certaine base orthonormée de E en une base orthonormée de E alors f est unitaire.

Démonstration.— Reprendre la démonstration de la proposition 7.8


(relative au cas d’un espace euclidien) en lui effectuant les modifications
évidentes. 

— 173 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

Proposition 9.10 (Caractérisation matricielle).— Supposons que E est


hermitien de dimension n (n ∈ N∗ ) et soit B une base orthonormée de E. Soient
aussi f un endomorphisme de E et A la matrice associée à f relativement à B.
Alors f est unitaire si et seulement si l’on a : A∗ A = In .
Démonstration.— Reprendre la démonstration de la proposition 7.9
(relative au cas d’un espace euclidien) et lui effectuer les modifications
nécessaires et évidentes. 
Définition 9.VI.— Soit n ∈ N∗ . Une matrice A de Mn (C) est dite uni-
taire si elle représente un endomorphisme unitaire d’un espace hermitien
relativement à une base orthonormée de celui-ci. De manière équivalente
(compte tenu de la proposition 9.10), A ∈ Mn (C) est dite unitaire si elle
satisfait A∗ A = In .
Les matrices unitaires peuvent être caractérisées aussi par leurs vecteurs
lignes ou colonnes. On a la
Proposition 9.11.— Soit n ∈ N∗ . Une matrice A de Mn (C) est unitaire si et
seulement si ses vecteurs colonnes (resp. lignes) constituent une base orthonormée
de (Cn , h , ius ).
Démonstration.— Reprendre la démonstration de la proposition 7.10
(relative aux matrices réelles) en lui portant les modifications nécessaires
évidentes. 
Remarque 9.II.— Une démonstration alternative de la proposition 9.11
consiste à associer à la matrice considérée A de Mn (C) l’endomorphisme
de Cn qu’elle représente relativement à la base canonique de Cn , puis à
utiliser la proposition 9.9 pour f .
Le résultat de l’exemple suivant généralise celui de la proposition 9.11,
bien qu’on peut le déduire d’elle :
Exemple 9.II.— Supposons que E est hermitien et soient B une base
orthonormée de E et B ′ une base arbitraire de E. Soit aussi P la matrice de
passage de B vers B ′ .
— Montrer que B ′ est orthonormée si et seulement si P est unitaire.

Écrivons B = (v1 , v2 , . . . , vn ) et désignons par u l’isomorphisme de E dans (Cn , h , ius )


qui envoie tout vecteur vk (1 ≤ k ≤ n) vers le kème vecteur ek de la base canonique
Bc de Cn . Comme B est une base orthonormée de E et Bc est une base orthonormée
de (Cn , h , ius ), on vérifie immédiatement que u conserve les produits scalaires. Par
conséquent, B ′ est une base orthonormée de E équivaut à dire que u(B ′ ) est une
base orthonormée de (Cn , h , ius ). Mais u(B ′ ) est visiblement constituée des vecteurs
colonnes de P. D’où B ′ est une base orthonormée de E si et seulement si les vecteurs
colonnes de P constituent une base orthonormée de (Cn , h , ius ), ce qui revient à dire
(en vertu de la proposition 9.11) que P est unitaire. 

— 174 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

Corollaire 9.12.— Supposons que E est hermitien (i.e., dimE < +∞).
Alors un endomorphisme f de E est unitaire si et seulement s’il est l’inverse de
son adjoint (i.e., f ∗ = f −1 ).

Démonstration.— Il suffit de combiner les résultats des deux proposi-


tions 9.10 et 9.3. 

Proposition 9.13.— La composition de deux endomorphismes unitaires de E


reste un endomorphisme unitaire de E et l’inverse de tout endomorphisme unitaire
de E (lorsqu’il existe (2) ) est unitaire.

Démonstration.— Reprendre la démonstration de la proposition 7.12


(relative aux endomorphismes orthogonaux d’un espace préhilbertien
réel). 

On tire immédiatement de la proposition 9.13 l’important corollaire


suivant :

Corollaire 9.14.— Supposons que E est hermitien. Alors l’ensemble des


endomorphismes unitaires de E, muni de la loi de composition des endomorphismes,
constitue un groupe, qui est en fait un sous-groupe du groupe linéaire GL(E). 

Définitions et notations 9.VII.—


1. Supposons que E est hermitien. L’ensemble des endomorphismes
unitaires de E, muni de la loi de composition des endomorphismes
(qui est un groupe d’après le corollaire 9.14), s’appelle le groupe uni-
taire de E et se note U(E).
2. Soit n ∈ N∗ . L’ensemble des matrices unitaires de Mn (C) (qui consti-
tue un sous-groupe du groupe linéaire GLn (C)) s’appelle le groupe
unitaire de degré n sur C (ou le groupe unitaire complexe de degré n) et se
note Un (C).

Proposition 9.15.— Supposons que E est hermitien et soit f un endomor-


phisme unitaire de E. Alors on a :

det f = 1.
(2). L’existence est automatique dans le cas où E est hermitien (en vertu du corollaire
9.12).

— 175 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

Démonstration.— Posons n := dimE et soient B une base orthonormée


de E et A la matrice associée à f relativement à B. D’après la proposition
9.10, on a : A∗ A = In . Ce qui entraı̂ne que det(A∗ A)
 = det(In ) = 1. Mais
 
∗ ∗ t
par ailleurs, on a det(A A) = det(A ) · det(A) = det A · det(A) = det A ·
2
det(A) = det A · det A = |det A|2 = det f . En comparant les deux résultats,
on tire que det f = 1, comme il fallait le prouver. 

Définitions et notations 9.VIII.—


1. L’ensemble des endomorphismes unitaires de E, de déterminant
égale à 1, constitue clairement un sous-groupe du groupe unitaire
U(E) de E. Ce sous-groupe particulier de U(E) est appelé le groupe
spécial unitaire de E et est noté SU(E).
2. (Analogue matriciel du point 1). Etant donné n ∈ N∗ , l’ensemble des
matrices unitaires de déterminant 1 de Mn (C) constitue un groupe
de Un (C) que l’on appelle le groupe spécial unitaire de degré n sur C (ou
le groupe spécial unitaire complexe de degré n) et l’on désigne par SUn (C).

En fait, nous pouvons détailler la proposition 9.15 en analysant ce qu’il


en est pour toute valeur propre d’un endomorphisme unitaire de E. Ceci
est proposé dans l’exemple suivant :
Exemple 9.III.— Montrer que toute valeur propre complexe d’un en-
domorphisme unitaire de E est de module égale à 1. En déduire une autre
démonstration de la proposition 9.15.

Soient f un endomorphisme unitaire de E et λ ∈ C une valeur propre de f . Il existe


donc x ∈ E\ {0E } tel que f (x) = λx. En prenant les normes, il vient que f (x) = |λ| ·kxk.
Mais puisque f est unitaire, on a (en vertu de la proposition 9.8) f (x) = kxk. D’où
kxk = |λ| · kxk. Enfin, puisque kxk , 0 (car x , 0E ), on en tire que |λ| = 1, comme il
fallait le prouver.
Lorsque E est hermitien (i.e., de dimension finie), on sait que le déterminant de
f est égale au produit de ses valeurs propres. Ce qui permet d’aboutir (d’une autre
façon) au résultat de la proposition 9.15. 

9.5 Endomorphismes normaux


La classe des endomorphismes normaux d’un espace préhilbertien
complexe inclut toutes les classes d’endomorphismes spéciaux présentées
précédemment, à savoir les endomorphismes hermitiens, antihermitiens
et unitaires. Elle constitue en outre (lorsque l’espace en question est hermi-
tien) la classe la plus étendue pour laquelle le théorème spectral s’applique,

— 176 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

c’est-à-dire pour laquelle il y a possibilité de diagonaliser tout endomor-


phisme de la classe dans une base orthonormée de l’espace en question
(voir §9.8 pour les détails).
Définition 9.IX.— Un endomorphisme de E est dit normal s’il possède
un adjoint et commute avec cet adjoint ; c’est-à-dire si f ∗ existe et l’on a :
f ◦ f∗ = f∗ ◦ f.

Supposons maintenant que E est hermitien et soient B une base ortho-


normée de E et f un endomorphisme de E représenté par une matrice A
de Mn (C) relativement à B. D’après la proposition 9.3, la matrice associée
à f ∗ relativement à B est A∗ . Les matrices associées aux endomorphismes
composés f ◦ f ∗ et f ∗ ◦ f relativement à B sont donc respectivement AA∗
et A∗ A. Par conséquent, f est normal si et seulement si AA∗ = A∗ A. Ce qui
nous conduit à la définition suivante :
Définition 9.X.— Soit n ∈ N∗ . Une matrice A de Mn (C) est dite normale
si elle commute avec son adjointe ; c’est-à-dire si AA∗ = A∗ A.

Le raisonnement ci-haut établit alors la proposition suivante :


Proposition 9.16.— Supposons que E est hermitien. Un endomorphisme
de E est normal si et seulement si sa matrice associée relativement à une base
orthonormée de E est normale. 

La proposition qui suit fournit quelques propriétés caractérisant les


endomorphismes normaux d’un espace préhilbertien complexe.
Proposition 9.17.— Soit f un endomorphisme de E possédant un adjoint.
Les propriétés suivantes sont équivalentes :
(i) f est normal.
(ii) f (x) , f (y) = f ∗ (x) , f ∗ (y) , ∀x, y ∈ E.
(iii) f (x) = f ∗ (x) , ∀x ∈ E.

Démonstration.— Reprendre la démonstration de la proposition 7.16


en lui portant les modifications nécessaires et évidentes. 

9.6 Le théorème spectral pour les endomorphismes


hermitiens
Dans toute cette section, on suppose que E est hermitien et on désigne
par n (n ∈ N∗ ) sa dimension. Le théorème spectral pour une certaine classe

— 177 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

d’endomorphismes énonce que tout endomorphisme f de E, de la classe


considérée, est diagonalisable dans une base orthonormée de E ; c’est-à-
dire qu’il existe une base orthonormée B de E tel que la matrice MB ( f ) soit
diagonale. La classe d’endomorphismes la plus étendue où le théorème
spectral est valable est celle des endomorphismes normaux. Cependant,
la classe des endomorphismes hermitiens, qui est une sous-classe de la
classe des endomorphismes normaux, occupe une place primordiale dans
ce contexte. Pour commencer, on a le théorème suivant :
Théorème 9.18.— Soit f un endomorphisme hermitien de E. Alors on a :
(1) Les valeurs propres (complexes) de f sont toutes réelles.
(2) L’orthogonal de tout sous-espace vectoriel de E, stable par f , reste stable par
f.
(3) Les sous-espaces propres associés à deux valeurs propres distinctes de f sont
orthogonaux.

Démonstration.—
• Démontrons la propriété (1). Soit λ une valeur propre complexe arbitraire
de f et montrons que λ est nécessairement réelle. Il existe par hypothèse
x ∈ E \ {0E } tel que f (x) = λx. D’où

x , f (x) = hx , λxi = λ hx , xi = λ kxk2 .

Ce qui donne :
x , f (x)
λ= .
kxk2
Mais puisque x , f (x) ∈ R (en vertu de la proposition 9.6) et kxk2 ∈ R∗+ , il
en résulte que λ ∈ R, comme il fallait le prouver.
• La propriété (2) est une conséquence immédiate de la proposition 9.4.
• Démontrons la propriété (3). Soient λ1 et λ2 deux valeurs propres dis-
tinctes de f et E1 et E2 les espaces propres qui leurs sont respectivement
associés. Il s’agit de montrer que E1 ⊥ E2 ; c’est-à-dire que tout vecteur de
E1 est orthogonal à tout vecteur de E2 . Soient donc x1 un vecteur de E1 et
x2 un vecteur de E2 et montrons que x1 ⊥ x2 . Comme x1 ∈ E1 et x2 ∈ E2 , on
a : f (x1 ) = λ1 x1 et f (x2 ) = λ2 x2 ; ce qui fait que :

f (x1 ) , x2 = hλx1 , x2 i = λ1 hx1 , x2 i = λ1 hx1 , x2 i

(puisque λ1 ∈ R, en vertu de la propriété (1) déjà démontrée) et

x1 , f (x2 ) = hx1 , λ2 x2 i = λ2 hx1 , x2 i .

— 178 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

Mais puisque f est hermitien, on a en fait f (x1 ) , x2 = x1 , f (x2 ) ; soit


λ1 hx1 , x2 i = λ2 hx1 , x2 i. D’où (λ1 − λ2 ) hx1 , x2 i = 0. Ce qui entraı̂ne
(puisque λ1 , λ2 ) que hx1 , x2 i = 0, signifiant que x1 ⊥ x2 , comme il
fallait le prouver. Ceci complète la preuve du théorème. 

Nous enchaı̂nons avec le théorème spectral pour les endomorphismes


hermitiens :

Théorème 9.19 (Le théorème spectral pour les endomorphismes hermitiens).—


Tout endomorphisme hermitien de E est diagonalisable dans une base ortho-
normée de E. Plus explicitement, pour tout endomorphisme hermitien f de E, il
existe une base orthonormée B de E tel que la matrice MB ( f ) soit diagonale
réelle.

Il existe (à notre connaissance) trois démonstrations différentes de


cet important théorème 9.19 dans la littérature mathématique. La plus
répandue utilise la récurrence sur la dimension de E, une deuxième se sert
du polynôme minimal de l’endomorphisme hermitien en question, et une
troisième passe par le théorème de trigonalisation de Schur. Dans ce po-
lycopié, nous avons opté d’en apporter une démonstration nouvelle, bien
qu’elle s’inspire de la première mentionnée.
Démonstration du Théorème 9.19.— Soit f un endomorphisme hermi-
tien de E et désignons par λ1 , λ2, . . . , λp (p ∈ N∗ ) les valeurs propres com-
plexes (en fait réelles, en vertu du point (1) du théorème 9.18) deux à deux
distinctes de f . Comme les espaces propres E(λ1 ), E(λ2 ), . . . , E(λp) de f sont
tous stables par f alors leur somme (directe) F := E(λ1 ) ⊕ E(λ2) ⊕ · · · ⊕ E(λp)
est aussi stable par f . Ce qui entraı̂ne (d’après le point (2) du théorème 9.18)
que F⊥ est également stable par f . Suite à cela, introduisons g := f |F⊥ , qui
est alors un endomorphisme du sous-espace F⊥ de E. Procédons mainte-
nant par l’absurde pour montrer que F⊥ est nécessairement le sous-espace
nul de E. Supposons que F⊥ , {0E } ; autrement dit dimF⊥ ≥ 1. Dans cette
situation, l’endomorphisme g de F⊥ possède au moins une valeur propre
λ, qui est nécessairement une valeur propre de f (puisque g est une res-
triction de f ) ; soit λ ∈ {λ1 , λ2, . . . , λp }. Il existe donc x ∈ F⊥ \ {0E } tel que
g(x) = λx ; soit f (x) = λx. D’où

x ∈ E(λ) ⊂ E(λ1 ) ⊕ E(λ2 ) ⊕ · · · ⊕ E(λp ) = F.

Par conséquent, on a :
x ∈ F⊥ ∩ F = {0E }.

— 179 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

Ce qui contredit le fait que x , 0E . Cette contradiction assure que F⊥ = {0E },


ce qui équivaut à F = E ; soit

E(λ1 ) ⊕ E(λ2 ) ⊕ · · · ⊕ E(λp ) = E.

Enfin, puisque les espaces propres E(λ1 ), E(λ2 ), . . . , E(λp ) de f sont deux
à deux orthogonaux (en vertu du point (3) du théorème 9.18), il suffit de
fixer une base orthonormée Bk de tout espace propre E(λk ) (k = 1, 2, . . . , p)
de f et prendre B := B1 ∪ B2 ∪ · · · ∪ Bp , qui est nécessairement une
base orthonormée de E suivant laquelle f est représentée par une matrice
diagonale (réelle). Ceci achève la démonstration du théorème. 
La version matricielle du théorème 9.19 est présentée par le corollaire
suivant :
Corollaire 9.20 (Le théorème spectral pour les matrices hermitiennes).—
Pour toute matrice hermitienne A de Mn (C), il existe une matrice unitaire P de
Mn (C) tel que la matrice produit P−1 AP = P∗ AP soit diagonale réelle.

Démonstration.— Soit A ∈ Mn (C), hermitienne. On considère l’espace


hermitien (Cn , h , ius ) et l’endomorphisme f de Cn dont la matrice associée
relativement à la base canonique Bc de Cn est A. Comme la base canonique
Bc de Cn est orthonormée par rapport au produit scalaire usuel h , ius de
Cn et A est une matrice hermitienne alors l’endomorphisme f est hermitien
(en vertu de la proposition 9.7). Il existe alors (d’après le théorème 9.19) une
base orthonormée B de (Cn , h , ius ) tel que la matrice MB ( f ) soit diagonale
réelle. Mais en désignant par P la matrice de passage de Bc vers B (qui est
unitaire, en vertu de l’exemple 9.II), on a d’après la formule de changement
de base (relative aux endomorphismes) : MB ( f ) = P−1 AP = P∗ AP (puisque
P est unitaire). Ce qui démontre le corollaire. 

Vocabulaire 9.I.— On dit d’une matrice A ∈ Mn (C), satisfaisant la pro-


priété ≪ ∃P ∈ Un (C) tel que P−1 AP soit diagonale ≫, qu’elle est diagonalisable
dans une base orthonormée, ou encore qu’elle est unitairement semblable à
une matrice diagonale. Le résultat du corollaire 9.20 précédent s’exprime
littéralement alors en disant que ≪ toute matrice hermitienne de Mn (C) est
unitairement semblable à une matrice diagonale réelle ≫.

Le corollaire 9.20 a pour conséquences les remarquables résultats sui-


vants sur les formes hermitiennes sur un C-espace vectoriel de dimension
finie.
Corollaire 9.21.— Pour toute forme hermitienne f sur E, il existe une base
orthonormée de E qui soit f -orthogonale.

— 180 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

Démonstration.— Soit f une forme hermitienne sur E. Fixons une base


orthonormée B de E et désignons par A la matrice associée à f relativement
à B. D’après la proposition 8.5, la matrice A est hermitienne. Il s’ensuit,
d’après le corollaire 9.20, qu’il existe P ∈ Un (C) tel que la matrice produit
P−1 AP = P∗ AP soit diagonale (réelle). En désignant par suite par B ′ la
nouvelle base de E, choisie de sorte que P soit la matrice de passage de
B vers B ′ , on a en vertu de l’exemple 9.II : B ′ est orthonormée. De plus,
on a d’après la formule de changement de base (relative aux formes her-
mitiennes) : MB′ ( f ) = P∗ AP, qui est diagonale ; ce qui montre que B ′ est
f -orthogonale. Le corollaire est démontré. 

Corollaire 9.22.— Soient f une forme hermitienne sur un C-espace vecto-


riel E de dimension finie et q la forme quadratique hermitienne associée à f . Soient
aussi B une base arbitraire de E et A la matrice associée à f relativement à B.
Alors la signature de q est égale au couple (p, m), avec p et m désignent respecti-
vement le nombre de valeurs propres strictement positives et le nombre de valeurs
propres strictement négatives de A. En particulier, f définit un produit scalaire
sur E si et seulement si les valeurs propres de A sont toutes (réelles) strictement
positives.

Démonstration.— Posons d := dimE et supposons que d ≥ 1 (le cas


d = 0 est banal et sans intérêt). On applique le corollaire 9.20 à la matrice
A := MB ( f ) de Md (C) (qui est hermitienne, puisqu’elle est associée à une
forme hermitienne). On trouve qu’il existe P ∈ Ud (C) tel que la matrice
produit P∗ AP = P−1 AP soit diagonale réelle. Mais en désignant par B ′ la
nouvelle base de E qui fait que P soit la matrice de passage de B vers
B ′ , la matrice diagonale P∗ AP n’est autre que MB′ ( f ) = MB′ (q) (d’après
la formule de changement de base relative aux formes hermitiennes). Par
conséquent, la signature de la forme quadratique hermitienne q est égale
au couple (p, m), avec p et m désignent respectivement le nombre de co-
efficients diagonaux strictement positifs et le nombre de coefficients dia-
gonaux strictement négatifs de la matrice diagonale P∗ AP. Enfin, puisque
P∗ AP est diagonale et P∗ AP = P−1 AP ∼ A, les coefficients diagonaux de
P∗ AP sont simplement les valeurs propres de A. Ce qui permet de conclure
au résultat de la première partie du corollaire.
Pour la seconde partie du corollaire, rappelons que f définit un produit
scalaire sur E revient à dire que f (ou q) est définie positive, ce qui revient
à dire (en vertu du corollaire 8.15) que sgn(q) = (d, 0). Grâce au résultat
de la première partie (déjà démontré), on conclut donc que f est un pro-
duit scalaire sur E si et seulement si les valeurs propres de A sont toutes
strictement positives. Ceci complète la preuve du corollaire. 

— 181 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

9.7 Le théorème spectral pour les endomorphismes


autoadjoints d’un espace euclidien
Nous présentons dans cette section les analogues des théorèmes 9.18 et
9.19 pour les endomorphismes autoadjoints d’un espace euclidien. En ce
qui concerne l’analogue du théorème 9.19, nous obtenons même, pour un
endomorphisme donné d’un espace euclidien, l’équivalence entre ≪ être
autoadjoint ≫ et ≪ être diagonalisable dans une base orthonormée ≫. Il est à
signaler par contre que pour les endomorphismes d’un espace hermitien,
la diagonalisabilité dans une base orthonormée n’est pas caractérisante des
endomorphismes hermitiens mais plutôt des endomorphismes normaux,
comme on le verra à la section prochaine.
Théorème 9.23.— Soit f un endomorphisme autoadjoint d’un espace eucli-
dien E . Alors on a :
(1) Le polynôme caractéristique de f est scindé sur R.
(2) L’orthogonal de tout sous-espace vectoriel de E , stable par f , reste stable par
f.
(3) Les sous-espaces propres associés à deux valeurs propres distinctes de f sont
orthogonaux.

Démonstration.—
• Démontrons la propriété (1). Posons d := dimE que nous supposons
non nul (le cas d = 0 est banal). Fixons une base orthonormée B de E et
considérons A ∈ Md (R) la matrice associée à f relativement à B. Comme
f est autoadjoint alors (d’après la proposition 7.4) A est symétrique. Par
conséquent, vue comme matrice de Md (C), la matrice A est hermitienne. Ce
qui entraı̂ne (d’après le corollaire 9.20) que les valeurs propres (complexes)
de A sont toutes réelles ; autrement dit, le polynôme caractéristique de A
(donc de f ) est scindé sur R, comme il fallait le prouver.
• Démontrons la propriété (2). Soit F un sous-espace vectoriel de E , stable
par f , et montrons que F⊥ est aussi stable par f . Soit donc x ∈ F⊥ et montrons
que f (x) ∈ F⊥ aussi. Pour tout u ∈ F, on a f (u) ∈ F (puisque F est stable par
f ) ; d’où (puisque f est autoadjoint) :
f (x) , u = x , f (u) = 0
(vu que x ∈ F⊥ et f (u) ∈ F). Ce raisonnement montre que f (x) ⊥ u, ∀u ∈ F ;
autrement dit f (x) ∈ F⊥ , comme il fallait le prouver.
• Pour la propriété (3), reprendre exactement la même démonstration de
la propriété (3) du théorème 9.18. Ainsi s’achève cette démonstration. 

— 182 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

Théorème 9.24.— Soit f un endomorphisme d’un espace euclidien E . Alors


f est diagonalisable dans une base orthonormée si et seulement s’il est autoadjoint.

Démonstration.—
• (⇒) Supposons que f est diagonalisable dans une base orthonormée de
E ; c’est-à-dire qu’il existe une base orthonormée B de E tel que MB ( f ) soit
diagonale. Donc MB ( f ) est à fortiori symétrique ; ce qui entraı̂ne (d’après
la proposition 7.4) que f est autoadjoint.
• (⇐) Reprendre la démonstration du théorème 9.19 en se servant du
théorème 9.23 plutôt que du théorème 9.18. Ceci étant, un détail important
concernant l’endomorphisme g := f |F⊥ (selon les notations introduites du-
rant la démonstration du théorème 9.19) pourrait échapper au lecteur. Il
s’agit de voir pourquoi g doit posséder au moins une valeur propre (réelle).
Comme g est une restriction de f alors P g (X) divise P f (X) ; par suite, comme
P f (X) est scindé sur R (en vertu du point (1) du théorème 9.23) alors P g (X)
est également scindé sur R ; ce qui assure que g possède effectivement au
moins une valeur propre réelle λ. Vu que C est algébriquement clos, ce
raisonnement (supplémentaire) n’était pas nécessaire dans le cas d’un es-
pace vectoriel complexe (c’est-à-dire durant la démonstration du théorème
9.19). Ainsi s’achève cette démonstration. 

La version matricielle du théorème 9.24 est présentée par le corollaire


suivant :

Corollaire 9.25 (Le théorème spectral pour les matrices symétriques réelles).—
Soit m ∈ N∗ . Une matrice A ∈ Mm (R) est symétrique si et seulement s’il existe
P ∈ Om (R) tel que la matrice produit P−1 AP = t PAP soit diagonale.

Démonstration.— Soit A ∈ Mm (R). On considère l’espace euclidien


(R , h , ius ) et l’endomorphisme f de Rm dont la matrice associée relati-
m

vement à la base canonique Bc de Rm est A. Comme la base canonique


Bc de Rm est orthonormée par rapport au produit scalaire usuel h , ius
de Rm alors (d’après la proposition 7.4) on a équivalence entre ≪ A est
symétrique ≫ et ≪ f est autoadjoint ≫. Mais d’après le théorème 9.24, ≪ f est
autoadjoint ≫ équivaut à l’existence d’une base orthonormée B de Rm tel
que la matrice MB ( f ) soit diagonale ; ce qui équivaut matriciellement (en
vertu de la proposition 7.10 et de la formule de changement de base pour
les endomorphismes) à l’existence d’une matrice orthogonale P de Mm (R)
tel que la matrice produit P−1 AP (= t PAP) soit diagonale. D’où le résultat
du corollaire. 

— 183 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

Vocabulaire 9.II.— Soit m ∈ N∗ . On dit d’une matrice A ∈ Mm (R),


satisfaisant la propriété ≪ ∃P ∈ Om (R) tel que P−1 AP soit diagonale ≫,
qu’elle est diagonalisable dans une base orthonormée, ou encore qu’elle est
orthogonalement semblable à une matrice diagonale. Le résultat du corollaire
9.25 précédent s’exprime littéralement alors comme ceci : ≪ Une matrice
A ∈ Mm (R) est symétrique si et seulement si elle est orthogonalement
semblable à une matrice diagonale ≫.

Du corollaire 9.25 résultent les deux corollaires suivants qui sont res-
pectivement les analogues des corollaires 9.21 et 9.22 pour les formes bi-
linéaires symétrique d’un R-espace vectoriel de dimension finie. Vu que
les preuves de ces corollaires sont essentiellement identiques aux preuves
de leurs analogues (3) , à savoir les corollaires 9.21 et 9.22, elles sont laissées
au soin du lecteur.

Corollaire 9.26.— Pour toute forme bilinéaire symétrique f sur un espace


euclidien E , il existe une base orthonormée de E qui soit f -orthogonale. 

Corollaire 9.27.— Soient f une forme bilinéaire symétrique sur un R-


espace vectoriel E de dimension finie et q la forme quadratique associée à f . Soient
aussi B une base arbitraire de E et A la matrice associée à f relativement à B. Alors
la signature de q est égale au couple (p, m), avec p et m désignent respectivement
le nombre de valeurs propres strictement positives et le nombre de valeurs propres
strictement négatives de A. En particulier, f définit un produit scalaire sur E si
et seulement si les valeurs propres de A sont toutes strictement positives. 

9.8 Le théorème spectral pour les endomorphismes


normaux
Dans toute cette section, on suppose que E est hermitien et on désigne
par n (n ∈ N∗ ) sa dimension. Nous allons voir que les endomorphismes nor-
maux de E constituent la classe la plus étendue d’endomorphismes de E où
la diagonalisation dans une base orthonormée est réalisable. Pour parve-
nir à ce résultat, nous avons besoin de quelques propositions préliminaires
que voici :

Proposition 9.28.— Soit f un endomorphisme normal de E. Alors, on a :


(i) Ker f = Ker f ∗ .
(3). Reprendre les preuves des corollaires 9.21 et 9.22 en leur portant les modifications
nécessaires évidentes ; en particulier, utiliser le corollaire 9.25 plutôt que le corollaire 9.20.

— 184 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

(ii) σC ( f ∗ ) = σC ( f ) et pour tout λ ∈ σC ( f ), on a :

E f (λ) = E f ∗ (λ).

Démonstration.—
• Démontrons (i). D’après la propriété (iii) de la proposition 9.17, on a pour
tout x ∈ E : f (x) = f ∗ (x) . D’où

Ker f = x ∈ E : f (x) = 0E
n o
= x ∈ E : f (x) = 0
n o
= x ∈ E : f ∗ (x) = 0

= x ∈ E : f ∗ (x) = 0E
= Ker f ∗ ,
comme il fallait le prouver.
• Démontrons (ii). L’égalité σC ( f ∗ ) = σC ( f ) est même vraie pour un en-
domorphisme quelconque de E, comme on l’a vu à l’exemple 9.I. Etant
∗
donné maintenant λ ∈ σC ( f ) (donc λ ∈ σC ( f ) = σC ( f ∗ )), on a : f − λ IdE =
f ∗ − λ IdE . Mais comme f commute avec f ∗ (car f est normal)  et IdE com-
mute avec tous les endomorphismes de E alors f − λ IdE commute avec
∗
f ∗ − λ IdE = f − λ IdE ; autrement dit, l’endomorphisme ( f − λ IdE ) de
E est normal. Ce qui entraı̂ne (d’après le point (i)  déjà démontré) que
 ∗ ∗
Ker f − λ IdE = Ker f − λ IdE = Ker f − λ IdE ; soit E f (λ) = E f ∗ (λ),
comme il fallait le prouver. Ceci complète la preuve de la proposition. 
Proposition 9.29.— Soit f un endomorphisme normal de E. Alors les sous-
espaces propres de f sont deux à deux orthogonaux.
Démonstration.— Soient λ1 et λ2 deux valeurs propres (complexes)
distinctes de f et montrons que les sous-espaces propres de f qui leurs
sont respectivement associés E f (λ1 ) et E f (λ2 ) sont orthogonaux ; c’est-à-
dire que tout vecteur de E f (λ1 ) est orthogonal à tout vecteur de E f (λ2 ).
Soient donc x ∈ E f (λ1 ) et y ∈ E f (λ2 ) et montrons que x ⊥ y ; c’est-à-dire que
x , y = 0. D’une part, on a :

f (x) , y = λ1 x , y = λ1 x , y .

D’autre part, puisque E f (λ2 ) = E f ∗ (λ2 ) (en vertu du point (ii) de la proposi-
tion 9.28), on a y ∈ E f ∗ (λ2 ) ; d’où :
D E
f (x) , y = x , f ∗ (y) = x , λ2 y = λ2 x , y .

— 185 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

En comparant les deux résultats, on tire que :

λ1 x , y = λ2 x , y ;

soit
(λ1 − λ2 ) · x , y = 0.
Ce qui entraı̂ne (puisque λ1 , λ2 ) que x , y = 0, comme il fallait le
prouver. La proposition est démontrée. 

Nous sommes maintenant prêts à énoncer et démontrer le théorème


spectral pour les endomorphismes normaux. La démonstration que nous
exposons est une adaptation de celle du théorème 9.19, laquelle, comme
indiqué au §9.6, est spécifique à l’auteur.

Théorème 9.30 (Le théorème spectral pour les endomorphismes normaux).—


Un endomorphisme de E est diagonalisable dans une base orthonormée si et seule-
ment s’il est normal.

Démonstration.— Soit f un endomorphisme de E.


• (⇒) Supposons que f est diagonalisable dans une base orthonormée B
de E. La matrice MB ( f ) (de Mn (C)) est donc diagonale. Mais comme B ∗
est orthonormée, on a (en vertu de la proposition 9.3) MB ( f ∗ ) = MB ( f ) ,
qui est donc aussi diagonale. Enfin, comme les matrices diagonales (de
Mn (C)) commutent entre elles, on a : MB ( f ) commute avec MB ( f ∗ ). Ce qui
entraı̂ne que f commute avec f ∗ ; autrement dit, f est normal.
• (⇐) Inversement, supposons que f est normal et soient λ1 , λ2 , . . . , λp
(p ∈ N∗ ) les valeurs propres (complexes) deux à deux distinctes de f .
Posons
F := E f (λ1 ) ⊕ E f (λ2 ) ⊕ · · · ⊕ E f (λp ).
D’après le point (ii) de la proposition 9.28, on a aussi :

F = E f ∗ (λ1 ) ⊕ E f ∗ (λ2 ) ⊕ · · · ⊕ E f ∗ (λp ).

Par suite, comme tout espace propre de f ∗ est stable par f ∗ alors F est
stable par f ∗ . Ce qui entraı̂ne (d’après la proposition 9.4) que F⊥ est
stable par ( f ∗ )∗ = f . Considérons alors l’endomorphisme restreint g :=
f |F⊥ de F⊥ . Procédons maintenant par l’absurde pour montrer que F⊥ est
nécessairement le sous-espace nul de E. Supposons que F⊥ , {0E } ; au-
trement dit, dimF⊥ ≥ 1. Dans cette situation, l’endomorphisme g de F⊥
possède au moins une valeur propre complexe λ, qui est nécessairement
une valeur propre de f (puisque g est une restriction de f ) ; soit λ ∈

— 186 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

{λ1 , λ2, . . . , λp }. Il existe donc x ∈ F⊥ \ {0E } tel que g(x) = λx ; soit f (x) = λx.
D’où
x ∈ E f (λ) ⊂ E f (λ1 ) ⊕ E f (λ2 ) ⊕ · · · ⊕ E f (λp ) = F.
Par conséquent, on a :
x ∈ F⊥ ∩ F = {0E }.
Ce qui contredit le fait que x , 0E . Cette contradiction assure que F⊥ = {0E } ;
ce qui équivaut à F = E ; soit

E f (λ1 ) ⊕ E f (λ2 ) ⊕ · · · ⊕ E f (λp ) = E.

Enfin, puisque les espaces propres E f (λ1 ), E f (λ2 ), . . . , E f (λp ) de f sont deux
à deux orthogonaux (en vertu de la proposition 9.29), il suffit de fixer
une base orthonormée Bk de tout espace propre E f (λk ) (k = 1, 2, . . . , p)
de f et prendre B := B1 ∪ B2 ∪ · · · ∪ Bp , qui est nécessairement une
base orthonormée de E suivant laquelle f est représenté par une matrice
diagonale. D’où f est diagonalisable dans une base orthonormée de E. La
démonstration du théorème est ainsi complète. 

La version matricielle du théorème 9.30 est présentée par le corollaire


suivant :
Corollaire 9.31 (Le théorème spectral pour les matrices normales).—
Une matrice A ∈ Mn (C) est normale si et seulement s’il existe P ∈ Un (C) tel que
la matrice produit P−1 AP = P∗ AP soit diagonale.

Démonstration.— Soit A ∈ Mn (C). On considère l’espace hermitien


(C , h , ius ) et l’endomorphisme f de Cn dont la matrice associée relative-
n

ment à la base canonique Bc de Cn est A. Comme la base canonique Bc de


Cn est orthonormée par rapport au produit scalaire usuel h , ius de Cn alors
(d’après la proposition 9.16) on a équivalence entre ≪ A est normale ≫ et
≪ f est normal ≫. Mais d’après le théorème 9.30, ≪ f est normal ≫ équivaut à

l’existence d’une base orthonormée B de Cn tel que la matrice MB ( f ) soit


diagonale ; ce qui équivaut matriciellement (en vertu de l’exemple 9.II et
de la formule de changement de base pour les endomorphismes) à l’exis-
tence d’une matrice unitaire P de Mn (C) tel que la matrice produit P−1 AP
(= P∗ AP) soit diagonale. D’où le résultat du corollaire. 

9.9 Le théorème de trigonalisation de Schur


Le théorème de trigonalisation de Schur énonce qu’il est toujours possible
de trigonaliser dans une base orthonormée tout endomorphisme d’un

— 187 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

espace hermitien. Curieusement, lorsque l’endomorphisme en question


est normal, cette trigonalisation de Schur devient nécessairement une dia-
gonalisation ! Ce qui permet de retrouver le théorème spectral pour les
endomorphismes normaux, sans avoir recours à examiner leurs espaces
propres. Matriciellement, le théorème de Schur s’énonce comme suit :

Théorème 9.32 (Le théorème de trigonalisation de Schur).— Etant


donné n ∈ N∗ , toute matrice de Mn (C) est unitairement semblable à une matrice
triangulaire supérieure. Plus explicitement, pour tout n ∈ N∗ et tout A ∈ Mn (C),
il existe U ∈ Un (C) tel que la matrice produit U−1 AU soit triangulaire supérieure.

Démonstration.— On procède par récurrence sur n.


• Pour n = 1, le résultat du théorème est trivial (prendre simplement
U = In ).
• Soit n ≥ 2 un entier. Supposons que le résultat du théorème est vrai pour
toute matrice de Mn−1 (C) et montrons qu’il reste vrai pour toute matrice
de Mn (C). Soit donc A ∈ Mn (C) et montrons l’existence de U ∈ Un (C)
tel que la matrice produit U−1 AU soit triangulaire supérieure. Comme C
est algébriquement clos, le polynôme caractéristique PA de A est scindé
sur C et possède, par conséquent, au moins un zéro complexe ; autrement
dit, A possède au moins une valeur propre complexe. Fixons λ ∈ C une
valeur propre de A et x1 ∈ Cn \ {0Cn } un vecteur propre qui lui est associé
(donc Ax1 = λx1 ). On complète x1 par des vecteurs y2 , y3 , . . . , yn de Cn pour
avoir une base (x1 , y2 , y3 , . . . , yn ) de Cn . Par suite, on applique le procédé de
Gram-Schmidt à la base (x1 , y2 , y3 , . . . , yn ) de l’espace hermitien (Cn , h , ius )
afin d’obtenir une base orthonormée (v1 , v2 , . . . , vn ) de cet espace. On a en
particulier v1 = kxx11 k ; ce qui montre que v1 est (tout comme x1 ) un vecteur
propre de A associé à la valeur propre λ. Posons maintenant :

R := (v1 |v2 | . . . |vn ) ∈ Mn (C).

Puisque (v1 , v2 , . . . , vn ) est une base orthonormée de (Cn , h , ius ) alors R est
une matrice unitaire (en vertu de la proposition 9.11). De plus, on a :

R−1 AR = R∗ AR = R∗ A (v1 |v2 | . . . |vn )


= R∗ (Av1 |Av2 | . . . |Avn )
= R∗ (λv1 |Av2 |Av3 | . . . |Avn )
= (λR∗ v1 |R∗ Av2 |R∗ Av3 | . . . |R∗ Avn ) .

Mais vu que (v1 , v2 , . . . , vn ) est une base orthonormée de (Cn , h , ius ), on a :

— 188 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

 
 v∗1     
  2
   kv1 k  1
   
 v∗2  hv2 , v1 ius  0
   
R∗ v1 =   v = hv3 , v1 ius  = 0 .
 1    
 ..   .
.   .. 
 .   .   . 
  
   
  hvn , v1 ius 0
 
v∗n
D’où : !
λ L
R−1 AR = ,
(0) Q
avec L ∈ M1,(n−1) (C), (0) = (0)(n−1),1 et Q ∈ Mn−1 (C). En appliquant par suite
notre hypothèse de récurrence à la matrice Q de Mn−1 (C), on trouve qu’il
existe S ∈ Un−1 (C) tel que la matrice produit T1 := S−1 QS (de Mn−1 (C)) soit
triangulaire supérieure. En posant alors
!
′ 1 (0)
S := ∈ Mn (C),
(0) S
qui est (tout comme S) unitaire, on a :
! ! ! ! !
′−1 −1 ′ 1 (0) λ L 1 (0) λ LS λ LS
S R ARS = = = ,
(0) S−1 (0) Q (0) S (0) S−1 QS (0) T1
qui est visiblement une matrice triangulaire supérieure de Mn (C). Il ne
reste qu’à poser U = RS′ ∈ Mn (C), qui est unitaire (en tant que produit de
deux matrices unitaires de Mn (C)), pour avoir U−1 AU = S′−1 R−1 ARS′ trian-
gulaire supérieure. Ceci achève cette récurrence et cette démonstration. 
Comme première application du théorème de trigonalisation de Schur,
nous proposons de redémontrer le théorème spectral pour les matrices
hermitiennes ; c’est-à-dire le corollaire 9.20.
Redémonstration du corollaire 9.20.— Soient n ∈ N∗ et A une matrice
hermitienne de Mn (C). Nous devons montrer que A est unitairement sem-
blable à une matrice diagonale réelle. D’après le théorème 9.32, il existe
U ∈ Un (C) tel que la matrice produit T := U−1 AU = U∗ AU soit triangulaire
supérieure ; c’est-à-dire qu’elle s’écrit sous la forme :
 
t11 t12 . . . t1n 
 .. .. 
 . . 

T =  . 
 (0) . . tn−1,n 

 
tnn

— 189 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

(avec tkℓ ∈ C pour tous k, ℓ tels que 1 ≤ k ≤ ℓ ≤ n). Ce qui donne :


 
t11 
 . 

t12 . . (0) 
T =  .

..  .
 .. . 
 
 
t1n . . . tn−1,n tn,n

Par ailleurs, nous affirmons que T est hermitienne. En effet, on a :

T∗ = (U∗ AU)∗
= U ∗ A∗ U
= U∗ AU (puisque A est hermitienne)
= T.

Les formes précédentes de T et T∗ sont par conséquent identiques, ce qui


équivaut à tkℓ = 0 pour tous k, ℓ tels que 1 ≤ k < ℓ ≤ n et tkk = tkk pour tout k ∈
{1, 2, . . . , n} ; autrement dit, T est diagonale réelle. D’où A est unitairement
semblable à une matrice diagonale réelle (qui est en l’occurrence T), comme
il fallait le prouver. 
Comme deuxième application du théorème de trigonalisation de Schur,
nous proposons de redémontrer le théorème spectral pour les matrices nor-
males ; c’est-à-dire le corollaire 9.31. Il est à noter que cette démonstration
requiert un effort plus important que la précédente redémonstration du
corollaire 9.20. En effet, nous sommes contraints de nous servir du lemme
technique clé suivant :

Lemme 9.33.— Soient n ∈ N∗ et T une matrice triangulaire supérieure de


Mn (C). Alors T est normale si et seulement si elle est diagonale.

Démonstration.— Si T est diagonale alors T∗ l’est également et on a par


conséquent TT∗ = T∗ T ; autrement dit, T est normale. Inversement, suppo-
sons que T est normale et montrons qu’elle est nécessairement diagonale.
Puisque T est triangulaire supérieure, elle s’écrit :
 
t11 t12 . . . t1n 
 .. .. 
 . . 

T =  . 
 (0) . . tn−1,n 

 
tnn

— 190 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

(avec tkℓ ∈ C pour tous k, ℓ tels que 1 ≤ k ≤ ℓ ≤ n). Ce qui donne :


 
t11 
 . .


t12 . (0) 
T =  .

..  .
 .. . 
 
 
t1n . . . tn−1,n tn,n

En posant alors

(akℓ )1≤k,ℓ≤n := TT∗ et (bkℓ )1≤k,ℓ≤n := T∗ T,

on a (vu que T est supposée normale) akℓ = bkℓ pour tous k, ℓ ∈ {1, 2, . . . , n}.
On verra que les égalités akk = bkk (1 ≤ k ≤ n) suffisent pour conclure que T
est diagonale. Pour k ∈ {1, 2, . . . , n}, on a :
X
n X
n
akk = tkℓ tkℓ = |tkℓ |2
ℓ=k ℓ=k
et
X
k X
k
bkk = tmk tmk = |tmk |2 .
m=1 m=1

Les égalités akk = bkk (k ∈ {1, 2, . . . , n}) sont donc équivalentes à :


X X
|tkℓ |2 = |tmk |2 (∀k ∈ {1, 2, . . . , n}). (9.1)
k<ℓ≤n 1≤m<k

En prenant k = 1 dans (9.1), on obtient que :


X
|t1ℓ |2 = 0;
1<ℓ≤n

ce qui entraı̂ne que :

t1ℓ = 0 pour tout ℓ tel que 1 < ℓ ≤ n. (9.2)

Nous allons montrer par une récurrence forte que l’on a pour tout k ∈
{1, 2, . . . , n} :
tkℓ = 0 pour tout ℓ tel que k < ℓ ≤ n, (9.3)
ce qui entraı̂nera que T est effectivement diagonale.
• Pour k = 1, (9.3) n’est autre que (9.2) ; elle est donc vraie.
• Soit k0 ∈ {2, 3, . . . , n}. Supposons que (9.3) est vraie pour tout

— 191 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

k ∈ {1, 2, . . . , k0 − 1} et montrons qu’elle reste vraie pour k = k0 . D’après


l’hypothèse de récurrence, on a :

tmk0 = 0 pour tout m tel que 1 ≤ m < k0 ;

ce qui entraı̂ne d’après (9.1) que :


X 2
X 2
tk0 ℓ = tmk0 = 0;
k0 <ℓ≤n 1≤m<k0

d’où l’on tire que tk0 ℓ = 0 pour tout ℓ tel que k0 < ℓ ≤ n. Ce qui confirme
la validité de (9.3) pour k = k0 . Ainsi s’achève cette récurrence qui montre
que la matrice T est bien diagonale. Le lemme est démontré. 

Redémonstration du corollaire 9.31.— Soient n ∈ N∗ et A ∈ Mn (C).


• (⇐) (Presque trivial). Supposons que A est unitairement semblable à une
matrice diagonale ; c’est-à-dire qu’il existe une matrice U ∈ Un (C) et une
matrice diagonale D de Mn (C) tel que l’on ait D = U−1 AU = U∗ AU. On a
alors A = UDU−1 = UDU∗ . Ce qui donne A∗ = (UDU∗)∗ = UD∗ U∗ = UDU−1
(puisque D est diagonale et U est unitaire). Il s’ensuit des égalités A =
UDU−1 et A∗ = UDU−1 que :
  
AA∗ = UDU−1 UDU−1 = UDDU−1
et   
A∗ A = UDU−1 UDU−1 = UDDU−1 .

Enfin, puisque D et D commutent (car elles sont toutes les deux diagonales),
on en conclut que AA∗ = A∗ A ; autrement dit, A est normale, comme il fallait
le prouver.
• (⇒) (Non trivial). Supposons que A est normale et montrons qu’elle
est unitairement semblable à une matrice diagonale. D’après le théorème
9.32 ; A est unitairement semblable à une matrice triangulaire supérieure ;
autrement dit, il existe T, U ∈ Mn (C), avec T triangulaire supérieure et
U unitaire, pour lesquelles on ait T = U−1 AU = U∗ AU. Ce qui donne
T∗ = (U∗ AU)∗ = U∗ A∗ U = U−1 A∗ U. D’où :
  
TT∗ = U−1 AU U−1 A∗ U = U−1 (AA∗ ) U
et   
T∗ T = U−1 A∗ U U−1 AU = U−1 (A∗ A) U.

Mais puisque AA∗ = A∗ A (car A est supposée normale), il en résulte que


TT∗ = T∗ T ; autrement dit, T est normale. Enfin, vu que T est triangulaire

— 192 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

supérieure, on en conclut par le lemme 9.33 que T est nécessairement


diagonale. Par conséquent, A est unitairement semblable à une matrice
diagonale (en l’occurrence T), comme il fallait le prouver. Ainsi se complète
cette démonstration. 
Nous concluons cette section en présentant l’analogue du théorème de
trigonalisation de Schur pour les matrices réelles.
Théorème 9.34 (L’analogue du théorème 9.32 pour les matrices réelles).—
Etant donné n ∈ N∗ , toute matrice de Mn (R), dont le polynôme caractéristique est
scindé sur R, est orthogonalement semblable à une matrice triangulaire supérieure.
Plus explicitement, pour tout n ∈ N∗ et tout A ∈ Mn (R) dont le polynôme
caractéristique est scindé sur R, il existe O ∈ On (R) tel que la matrice produit
O−1 AO soit triangulaire supérieure.
Démonstration.— Reprendre la démonstration du théorème 9.32 en
lui portant les modifications nécessaires. Cependant, un détail important
pourrait échapper à l’attention du lecteur. Il s’agit (en utilisant les mêmes
notations que dans la démonstration du théorème 9.32) de prouver que le
polynôme caractéristique de la matrice Q (de Mn−1 (R)) est nécessairement
scindé sur R (afin de pouvoir appliquer à Q l’hypothèse de récurrence en
question). En se servant de l’égalité
!
−1 λ L
R AR = ,
(0) Q
on a :
!
λ−X L
PA (X) = PR−1 AR (X) = det = (λ − X) det (Q − X In−1 )
(0) Q − X In−1
= (λ − X)PQ (X).
Ce qui montre que PQ divise PA . Mais puisque PA est supposé scindé sur
R, on en conclut qu’il en est de même de PQ , prouvant ainsi l’information
requise. 
Remarque 9.III.— Nous pouvons nous servir du théorème 9.34 pour
redémontrer le théorème spectral pour les matrices symétriques réelles (4) ;
c’est-à-dire le corollaire 9.25. Ceci est laissé au soin du lecteur.

(4). De la même manière dont nous nous sommes servi du théorème 9.32 pour
redémontrer le corollaire 9.20.

— 193 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

Exercices

Exercice 9.1. Diagonaliser dans une base orthonormée de (R3 , h , ius ) les
deux matrices réelles symétriques d’ordre 3 suivantes :
   
 2 −1 1   24 −5 −15
   3  .
A := −1 2 −1 , B :=  −5 0
   
1 −1 2 −15 3 8

Exercice 9.2. Diagonaliser dans une base orthonormée de (R4 , h , ius ) les
deux matrices réelles symétriques d’ordre 4 suivantes :
   
 3 −2 −2 2   2 0 −1 0 
−2 3 2 −2  0 2 0 −1
 
A :=   , B :=  .
−2 2 3 −2 −1 0 2 0 
   
2 −2 −2 3 0 −1 0 2

Exercice 9.3. Diagonaliser dans une base orthonormée de (C3 , h , ius ) les
deux matrices hermitiennes d’ordre 3 suivantes :
   
 6 1 + 3i −2 − i  4 −1 + 3i −1 − 2i
   
A :=  1 − 3i 3 −1 + i , B := −1 − 3i 1 −1 + i  .
   
−2 + i −1 − i 2 −1 + 2i −1 − i 0

Exercice 9.4. Diagonaliser dans une base orthonormée de (C4 , h , ius ) la


matrice hermitienne d’ordre 4 suivante :
 
 16 −3 + 5i −8 + 2i 3 + 12i
−3 − 5i 1 2 + 2i 3 − 3i 

A :=  .
−8 − 2i 2 − 2i 3 −6i 
 
3 − 12i 3 + 3i 6i 8

Exercice 9.5. Vérifier pour chacune des deux matrices suivantes de M3 (C)
qu’elle est normale puis la diagonaliser dans une base orthonormée de
(C3 , h , ius ).
   
2 + 3i 2 − 2i 2i   0 3 + i −2 + i
 2i  , B := −1 + 3i −1 − 2i 3 + i  .
A := 2 − 2i 2 + 3i
   
−2 −2 1 + 4i 2 − i −1 + 3i 0

— 194 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

Exercice 9.6. Réduire dans une base orthonormée de (R3 , h , ius ) les deux
formes quadratiques de R3 données par :

q1 (X) := −3 x2 + 4 xy − 4 xz + 2 yz,
√ 
q2 (X) := x2 + y2 + 4 xy + 2 2 xz + yz

(∀X = t (x, y, z) ∈ R3 ).

Exercice 9.7. Réduire dans une base orthonormée de (R4 , h , ius ) la forme
quadratique de R4 donnée par :

q(X) := 8 x2 + 3 y2 − 12 xy − 6 xz − 6 xt + 4 yz + 4 yt + 2 zt

(∀X = t (x, y, z, t) ∈ R4 ).

Exercice 9.8. Réduire dans une base orthonormée de (C3 , h , ius ) les deux
formes quadratiques hermitiennes de C3 données par :

q1 (Z) := |z1 |2 + |z2 |2 + 2ℑ (z1 z2 ) + 2ℑ ((1 − i)z1 z3 ) − 2ℑ ((1 + i)z2 z3 ) ,

q2 (Z) := 4 |z1 |2 + 4 |z2 |2 + 2ℜ ((4 + 3i)z1 z2 ) + 2ℜ ((−2 + i)z1 z3 )


+ 2ℜ ((−1 + 2i)z2 z3 )

(∀Z = t (z1 , z2 , z3 ) ∈ C3 ).

Exercice 9.9. Réduire dans une base orthonormée de (C4 , h , ius ) la forme
quadratique hermitienne de C4 donnée par :

q(Z) := 4 |z1 |2 − 2ℑ (z1 z3 ) + 2ℜ (z1 z4 ) + 2ℜ ((1 − 2i)z2 z3 ) + 2ℜ ((2 + i)z2 z4 )


+ 6ℑ (z3 z4 )

(∀Z = t (z1 , z2 , z3 , z4 ) ∈ C4 ).

Exercice 9.10. Trigonaliser dans une base orthonormée de (Rn , h , ius )


(n = 3 ou 4 selon le cas) chacune des matrices réelles carrées suivantes :
 
    1 1 −5 4
 1 −2 0  −1 −4 4 2 1 −3 3
    
A :=  2 6 2  , B :=  1 −2 1 et C :=  .
    2 2 −6 5
−2 −4 −1 1 −4 3  
2 2 −5 4

— 195 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

Exercice 9.11. Trigonaliser dans une base orthonormée de (Cn , h , ius )


(n = 3 ou 4 selon le cas) chacune des matrices complexes carrées suivantes :
   
 0 −1 + i 2  −3 + 4i −4 + i 3 − 4i
   
A :=  2 + i −1 + i 1 − 4i , B :=  −4 −1 − i 4  et
   
−2 + 2i 1 4 −6 + i −4 − i 6 − i
 
 −i 1 + i −1 + i −1 + i
−3 + 3i −1 − 4i 4 − 2i 5 − 2i 
 
C :=  .
−1 − 5i 3 1 + 3i 4i 
 
−2 3 3i 1 + 3i

Exercice 9.12. Soient E un espace hermitien et f un endomorphisme de E.


1. Montrer les deux égalités suivantes :

Ker f ∗ = (Im f )⊥ et Im f ∗ = (Ker f )⊥ .

2. En déduire les deux équivalences suivantes :

f est injectif ⇐⇒ f ∗ est surjectif ,


f est surjectif ⇐⇒ f ∗ est injectif .

Exercice 9.13. Soient E un espace hermitien et F et G deux sous-espaces


supplémentaires de E. Désignons par p la projection sur F parallèlement à
G.
1. Montrer alors que p∗ est la projection sur G⊥ parallèlement à F⊥ .
☞ Montrer d’abord que p∗ est une projection de E, puis se servir du
résultat du point 1 de l’exercice 9.12.
2. Retrouver le résultat selon lequel ≪ une projection de E est un en-
domorphisme hermitien si et seulement si elle est une projection
orthogonale ≫.

Exercice 9.14. Soit f un endomorphisme normal d’un espace hermitien E,


vérifiant f 5 = f 4 .
— Montrer que f est nécessairement une projection orthogonale de E.

Exercice 9.15. Soit f un endomorphisme d’un espace hermitien E, satisfai-


sant f ∗ ◦ f = f .
— Montrer que f est nécessairement une projection orthogonale de E.

— 196 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

Exercice 9.16. Soient E un espace euclidien et f un endomorphisme auto-


adjoint de E. Soient aussi λ ∈ R et ε > 0. Supposons qu’il existe x ∈ E tel
que kxk = 1 et f (x) − λx < ε.
— Montrer alors que f possède au moins une valeur propre réelle µ,
satisfaisant µ − λ < ε.

Exercice 9.17. Soient n un entier strictement positif et A une matrice sy-


métrique de Mn (R). Supposons qu’il existe k ∈ N∗ tel que Ak = In . Montrer
alors que l’on a nécessairement A2 = In .

Exercice 9.18. Soient n un entier strictement positif et A et B deux matrices


hermitiennes de Mn (C), avec B est définie positive.
— Montrer que les matrices AB et BA sont toutes les deux diagonalisables
à valeurs propres réelles et que l’on a σ(AB) = σ(BA).
☞ Désignons par Bc la base canonique de Cn , par f l’endomorphisme de
Cn dont la matrice associée relativement à Bc est AB et par h , i le produit
scalaire de Cn dont la matrice associée relativement à Bc est B. Montrer
que f est hermitien relativement au produit scalaire h , i.

Exercice 9.19. Etant donné n un entier strictement positif, montrer que


toute matrice symétrique positive de Mn (R) possède une racine carrée
symétrique positive.

Exercice 9.20. Soit n un entier strictement positif.


1. Montrer que toute matrice inversible A de Mn (R) s’écrit sous la forme
A = PO, avec P, O ∈ Mn (R), P est symétrique positive et O est ortho-
gonale(4) .
☞ Appliquer le résultat de l’exercice 9.19 à la matrice A tA.
2. Montrer l’unicité d’une telle décomposition(4) .
3. Déduire du résultat de la question 1. que toute matrice inversible A
de Mn (R) s’écrit sous la forme A = O1 DO2, avec D, O1, O2 ∈ Mn (R),
D est diagonale et O1 et O2 sont orthogonales.
4. Enoncer et démontrer les résultats analogues pour les matrices com-
plexes.

(4). Une telle décomposition de A s’appelle ≪ la décomposition polaire de A ≫. Elle


demeure possible même quand A est non inversible ; néanmoins, on perd son unicité dans
ce cas. Noter aussi que cette décomposition est l’analogue de la représentation polaire
d’un nombre complexe z ; c’est-à-dire de l’écriture z = reiθ , avec r et θ sont respectivement
le module et l’argument de z.

— 197 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

Exercice 9.21. Etant donné n un entier strictement positif, on munit le R-


espace vectoriel Rn [X] du produit scalaire défini par :
Z 1
hP , Qi := P(t)Q(t) dt (∀P, Q ∈ Rn [X])
0

et on considère ϕ l’endomorphisme de Rn [X] défini par :


Z 1
ϕ(P)(X) := (X + t)n P(t) dt (∀P ∈ Rn [X]).
0

1. Montrer que ϕ est autoadjoint et bijectif.


2. En déduire l’existence d’une base orthonormée (P0 , P1 , . . . , Pn ) de
(Rn [X], h , i) et de nombres réels non nuls λ0 , λ1 , . . . , λn , satisfaisant :
ϕ (Pk ) = λk Pk (∀k ∈ {0, 1, . . . , n}).
3. Etablir l’identité polynomiale (aux deux indéterminées X et Y) :
X
n
n
(X + Y) = λk Pk (X)Pk (Y).
k=0

4. En déduire la valeur de chacun des deux nombres réels tr(ϕ) et tr(ϕ2 ).


Exercice 9.22. Soient E un espace euclidien et f un endomorphisme au-
toadjoint de E.
1. Justifier que les deux extremums
λmin ( f ) := inf f (x) , x et λmax( f ) := sup f (x) , x
x∈E x∈E
kxk=1 kxk=1

existent (i.e., appartiennent à R) et qu’ils sont tous les deux atteints.


2. Montrer de deux façons différentes que λmin ( f ) et λmax ( f ) représentent
respectivement la plus petite valeur propre et la plus grande valeur
propre de f .
1ère façon : Utiliser le théorème spectral des endomorphismes autoad-
joints d’un espace euclidien (c’est-à-dire le théorème 9.24).
2nde façon : Si par exemple λmin est atteint en x0 (x0 ∈ E, kx0 k = 1) alors
on devrait avoir pour tout t ∈ R et tout y ∈ E : f (x0 + ty) , x0 + ty ≥
2
λmin ( f ) x0 + ty . En développant cette inégalité tout en se servant
du fait que f est autoadjoint, conclure que λmin est une valeur propre
de f . Pour montrer que λmax est également une valeur propre de f , il
suffit de remarquer que λmax ( f ) = −λmin (− f ). Constater par ailleurs
que toute valeur propre de f s’écrit sous la forme f (x) , x (x ∈ E,
kxk = 1).

— 198 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

3. Enoncer et démontrer les résultats analogues pour le cas d’un espace


hermitien E et d’un endomorphisme hermitien f de E.

Exercice 9.23. Soient E un espace euclidien et f un endomorphisme de E.


1. Montrer que l’endomorphisme ( f ∗ ◦ f ) de E est autoadjoint à va-
leurs propres positives. Pour la suite, on désigne respectivement
par λmin ( f ∗ ◦ f ) et λmax ( f ∗ ◦ f ) la plus petite et la plus grande valeur
propre de ( f ∗ ◦ f ).
2. Montrer que l’on a pour tout x ∈ E :
2
λmin ( f ∗ ◦ f ) · kxk2 ≤ f (x) ≤ λmax ( f ∗ ◦ f ) · kxk2 .

☞ S’appuyer sur le résultat du point 2. de l’exercice 9.22.


3. En déduire qu’étant donnés g et h deux endomorphismes de E, toute
valeur propre µ de l’endomorphisme composé (g ◦ h) de E satisfait
2
λmin (g∗ ◦ g) · λmin (h∗ ◦ h) ≤ µ ≤ λmax (g∗ ◦ g) · λmax (h∗ ◦ h).

4. Enoncer et démontrer les résultats analogues pour le cas des endo-


morphismes hermitiens d’un espace hermitien.

Exercice 9.24 (Décomposition spectrale d’un endomorphisme normal).


Soient E un espace hermitien et f un endomorphisme normal de E. Pour
toute valeur propre λ de f , on désigne par πλ la projection orthogonale
de E sur l’espace propre E f (λ) de f associé à λ. Démontrer les propriétés
suivantes :
1. ∀λ, µ ∈ σ( f ), avec λ , µ, on a : πλ ◦ πµ = 0L (E) .
X
2. IdE = πλ .
λ∈σ( f )
X
3. f = λπλ .
λ∈σ( f )

4. (Plus général que 2. et 3.). Pour tout polynôme P ∈ C[X], on a :


X
P( f ) = P(λ)πλ .
λ∈σ( f )

5. Toutes les projections orthogonales πλ (λ ∈ σ( f )) s’obtiennent comme


application de polynômes complexes à l’endomorphisme f .

— 199 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

Exercice 9.25 (Complément pour l’exercice 9.24).


Soient E un espace hermitien et f un endomorphisme normal de E. Soient
aussi p1 , p2 , . . . , pk (k ∈ N∗ ) des projections non identiquement nulles de E,
satisfaisant les propriétés suivantes :
(i) ∀α, β ∈ {1, 2, . . . , k}, avec α , β, on a : pα ◦ pβ = 0End(E) .
(ii) IdE = p1 + p2 + · · · + pk .
(iii) ∃λ1 , λ2, . . . , λk ∈ C, deux à deux distincts, tels que : f = λ1 p1 + λ2 p2 +
· · · + λ k pk .
— Montrer alors que l’on a k = Card σ( f ) et que pour tout ℓ ∈ {1, 2, . . . , k},
pℓ est précisément la projection orthogonale sur l’espace propre de f associé
à la valeur propre λℓ (il y a donc unicité des projections de E, satisfaisant
aux conditions (i), (ii) et (iii)).

Exercice 9.26. Soient E un espace préhilbertien complexe et f un endomor-


phisme de E.
— Montrer que f est antihermitien si et seulement s’il vérifie la propriété :

∀x ∈ E : x , f (x) ∈ i R.

☞ S’inspirer de la démonstration de la proposition 9.6, laquelle est relative


aux endomorphismes hermitiens.

Exercice 9.27. Soient E un espace hermitien et f un endomorphisme de E.


1. Montrer que f est normal si et seulement s’il existe un polynôme
P ∈ C[X] pour lequel on ait : f ∗ = P( f ).
☞ Utiliser la décomposition spectrale de f (voir l’exercice 9.24).
2. Montrer que f est hermitien si et seulement s’il est normal et que
toutes ses valeurs propres (complexes) sont réelles.
☞ Même indication.
3. Montrer que f est antihermitien si et seulement s’il est normal et que
toutes ses valeurs propres (complexes) sont imaginaires pures.
☞ Se servir du résultat de l’exercice 9.26 pour le sens direct et de
la même indication que pour les questions précédentes pour le sens
indirect. Vous pouvez également remarquer que l’on a équivalence
entre ≪ f est antihermitien ≫ et ≪ i f est hermitien ≫ et conclure en
s’appuyant sur le résultat de la question précédente.
4. Montrer que f est unitaire si et seulement s’il est normal et que toutes
ses valeurs propres sont de module 1.
☞ Même indication que pour les questions 1 et 2.

— 200 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

Exercice 9.28 (Diagonalisation simultanée de deux endomorphismes normaux).


Soient f et g deux endomorphismes normaux d’un espace hermitien E.
Supposons que f et g commutent.
— Montrer alors que f et g sont diagonalisables dans une même base
orthonormée de E.
☞ Utiliser le fait que tout espace propre de f est invariant par g (après
l’avoir démontré).

Exercice 9.29. Soient n un entier strictement positif et A une matrice anti-


symétrique de Mn (R).
1. Montrer que les valeurs propres complexes de A sont toutes des
nombres imaginaires purs.
☞ Raisonner sur la matrice iA.
2. En déduire que le rang de A est forcément pair.
☞ Constater que A est normale.

Exercice 9.30. Soit n un entier strictement positif.


1. Montrer que si S est une matrice antisymétrique de Mn (R) alors
la matrice O := (In − S) (In + S)−1 est orthogonale et on a S =
(In − O) (In + O)−1 .
2. En déduire une façon simple de construire des matrices orthogonales
de Mn (R).
3. Enoncer et démontrer le résultat analogue pour les matrices antiher-
mitiennes de Mn (C).
N.B : La transformation S 7→ (In − S) (In + S)−1 est connue sous le nom
de ≪ transformation de Cayley ≫.

Exercice 9.31 (Formule d’al-Karaji via les matrices antisymétriques).


1. Etant donné n ∈ N∗ , montrer que pour toute matrice antisymétrique
S de Mn (R) et tout vecteur X de Rn , on a :

hSX , Xius = 0.

2. En déduire la formule d’al-Karaji :

n2 (n + 1)2
13 + 23 + · · · + n3 = (∀n ∈ N).
4

— 201 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

☞ Appliquer le résultat de la question précédente pour


 
0 −1 −1 −1 . . . −1  
1 0 −1 −1 . . . −1  1 
 
   2 
1 1 0 −1 . . . −1 
   . 
S =  .. .. . . . . . . . . . ..  ∈ Mn+1 (R) et X =  ..  ∈ Rn+1
 . . .   

 .. ..

  n 
1 1 1 . . −1  n(n+1) 

  − 2
1 1 1 ... 1 0

(n ∈ N).

Exercice 9.32. Soient n un entier strictement positif et A et B deux matrices


hermitiennes de Mn (C).
— Montrer que la matrice (A + i B) est normale si et seulement si les deux
matrices A et B commutent.

Exercice 9.33. Soient n un entier strictement positif et A et B deux matrices


normales de Mn (C) dont les images (dans Cn ) sont orthogonales (relative-
ment au produit scalaire usuel de Cn ).
— Montrer que la matrice (A + B) est normale.

Exercice 9.34. Soient n un entier strictement positif et A une matrice de


Mn (C). On pose
B := AA∗ − A∗ A.
1. Montrer que si B est nilpotente alors elle est nulle.
2. Montrer que rg B , 1.

Exercice 9.35 (Généralisation du corollaire 9.26).


Soient E un R-espace vectoriel de dimension finie et f et g deux formes
bilinéaires symétriques de E, avec f est non dégénérée.
1. Montrer qu’il existe un unique endomorphisme u de E tel que l’on
ait pour tous x, y ∈ E :

g(x, y) = f u(x), y .

☞ Raisonner matriciellement.
2. Montrer que les espaces propres de u sont deux à deux orthogonaux
pour chacune des formes bilinéaires symétriques f et g.
3. En déduire la généralisation suivante du corollaire 9.26 :

— 202 —
B. Farhi Chap 9. Endomorphismes spéciaux et théorèmes spectraux

Il existe une base de E qui soit orthogonale pour chacune des


deux formes bilinéaires symétriques f et g si et seulement si
l’endomorphisme u est diagonalisable.

Exercice 9.36. Soient n un entier strictement positif et A = (aij )1≤i, j≤n et


B = (bij )1≤i, j≤n deux matrices symétriques définies positives de Mn (R).
 
— Montrer que la matrice C := aij bij est également symétrique
1≤i, j≤n
définie positive.
☞ Diagonaliser la matrice A dans une base orthonormée de (Rn , h , ius )
(utiliser plus précisément les corollaires 9.25 et 9.27).

Exercice 9.37. Soient E un espace hermitien et f un endomorphisme


normal de E. Montrer que les deux sous-espaces Ker f et Im f de E sont
orthogonaux.

Exercice 9.38. Soient n ∈ N∗ et A = (akℓ )1≤k,ℓ≤n ∈ Mn (C). Désignons par


λ1 , λ2 , . . . , λn les valeurs propres complexes de A (chacune étant répétée un
nombre de fois égale à sa multiplicité algébrique).
— Montrer l’inégalité de Schur suivante :
X
n X
2
|λk | ≤ |akℓ |2 .
k=1 1≤k,ℓ≤n

☞ Utiliser le théorème de trigonalisation de Schur (i.e., le théorème 9.32).

Exercice 9.39. Etant donné n un entier strictement positif, montrer que


toute matrice non nulle A de Mn (C) satisfait l’inégalité :

|tr A|2
rg(A) ≥ .
tr(A∗ A)

☞ Utiliser le théorème de trigonalisation de Schur (i.e., le théorème 9.32).

— 203 —
B. Farhi Quelques sujets d’examens des années précédentes

Quelques sujets d’examens des années précédentes

Examen de l’année 2022-2023


Établissement : NHSM a
Durée : 3h
a. National Higher School of Mathematics - Algiers.

Exercise 1 (10 marks) :


For what follows, k denotes a real parameter. Let us consider the real
quadratic form qk of R3 , defined by :

qk (X) := k x2 + (k + 1) y2 + (k + 2) z2 + (2k + 1) xy + (2k + 2) xz + (2k + 5) yz

(∀X = t (x, y, z) ∈ R3 ).
1. Determine a Gauss reduced form of qk (distinguish the values of
k if necessary).
2. Deduce the rank and the signature of qk by distinguishing the
values of k.
3. (a) Determine the values of k for which qk is nondegenerate.
(b) Are there values of k for which qk is positive semidefinite ?
Justifiy your answer.
4. Find a basis of R3 which is orthogonal with respect to the qua-
dratic form q1/2 .
5. Let q′k be the real quadratic form of R3 , defined by :

q′k (X) := xy + xz + (1 − k) yz (∀X = t (x, y, z) ∈ R3 ).

(a) Justify the existence of three real linear forms L1 , L2 , and L3


in x, y, z (R-linearly independent which possibly depend on
k) so that we have :

qk (L1 , L2 , L3 ) = q′k (x, y, z).

(b) Determine such forms L1 , L2 , and L3 in the particular case


k = 0.

— 204 —
B. Farhi Quelques sujets d’examens des années précédentes

Exercise 2 (6 marks) :
Let h, i : R2 [X] × R2 [X] → R be the map defined by :
     
hP, Qi := P(0)Q(0) + P(1) − P(0) Q(1) − Q(0) + P(2) − P(1) Q(2) − Q(1)

(∀P, Q ∈ R2 [X]).
1. Show that h, i is an inner product on R2 [X].
2. Let H := {P ∈ R2 [X] : P(1) = 0}.
— Determine H⊥ together with its dimension.

Exercise 3 (4 marks) :
Let E be an R-vector space and let f be a definite symmetric bilinear
form on E and q be its associated quadratic form. Next, let n ∈ N and
e1 , e2, . . . , en be vectors of E satisfying the two following properties :
(i) q(ei ) = 1 for all i ∈ {1, 2, . . . , n}.
Xn
(ii) f (x, ei )2 = q(x), ∀x ∈ E.
i=1
— Show that (e1 , e2, . . . , en ) constitutes an f -orthonormal basis of E.

Good job and good luck


B. Farhi

— 205 —
B. Farhi Quelques sujets d’examens des années précédentes

Examen de remplacement de l’année 2022-2023


Établissement : NHSM
Durée : 2h
Exercise 1 (14 marks) :
For what follows, k denotes a real parameter. Let us consider the real
quadratic form qk of R3 , defined by :

qk (X) := 2k x2 + (2k + 3) y2 + (2k − 3) z2 + 4 xy + 4 xz − 2k yz

(∀X = t (x, y, z) ∈ R3 ).
1. Determine a Gauss reduced form of qk (distinguish the values of
k if necessary).
2. Deduce the rank and the signature of qk by distinguishing the
values of k.
3. (a) Determine the values of k for which qk is nondegenerate.
(b) Determine the values of k for which qk is positive definite.
4. Find a basis of R3 which is orthogonal with respect to the qua-
dratic form q1 .
5. Let q′ be the real quadratic form of R3 , defined by :

X
100
2

q (X) := (−1)i x + i y + (i + 1) z (∀X = t (x, y, z) ∈ R3 ).
i=1

— Determine the values of k for which qk is equivalent to q′ .

Exercise 2 (6 marks) :
For what follows the R-vector space R[X] is equipped with the inner
product h , i defined by :
Z 1
hP , Qi := P(X)Q(X) dX (∀P, Q ∈ R[X]).
0
 
Let Pn (X) be an orthonormal sequence (5) of R[X] such that
n∈N0
deg Pn = n (∀n ∈ N0 ).
— Show the existence of three real sequences (an )n∈N0 , (bn )n∈N0 , and

— 206 —
B. Farhi Quelques sujets d’examens des années précédentes

(cn )n∈N0 for which we have the following recurrent polynomial iden-
tity :

Pn+2 (X) = (an X + bn ) Pn+1 (X) + cn Pn (X) (∀n ∈ N0 ).

Good job and good luck


B. Farhi

(5). In other words, the polynomials Pn (X) (n ∈ N0 ) are pairwise orthogonal and we
have hPn (X) , Pn (X)i = 1 for all n ∈ N0 .

— 207 —
B. Farhi Quelques sujets d’examens des années précédentes

Interrogation de l’année 2016-2017


Établissement : Université de Béjaia
Durée : 1h15mn
Pour tout ce qui suit, k désigne un paramètre réel et qk désigne la
forme quadratique réelle de R3 (dépendant de k), définie par :
 
x
 
qk (x) := k x2 + (k + 3) y2 + z2 + 6 xy + 2 xz + 4 yz (∀x =  y ∈ R3 ).
 
z

1. Réduire qk par la méthode de Gauss en distinguant les valeurs de


k.
2. Déterminer le rang et la signature de qk en distinguant les valeurs
de k.
3. En déduire les valeurs de k pour lesquelles qk est non dégénérée,
puis les valeurs de k pour lesquelles qk est positive et enfin les
valeurs de k pour lesquelles qk est définie positive.
4. On prend dans cette question k = 0.
(a) Ecrire l’expression de la forme polaire f associée à q0 .
(b) Ecrire la matrice associée à f relativement à la base canonique
de R3 .
(c) Déterminer Ker f et préciser sa dimension.
5. On prend dans cette question k = 3/2.
— Déterminer une base de R3 qui soit q3/2 -orthogonale.
6. Déterminer les valeurs du paramètre k pour lesquelles la forme
quadratique qk est équivalente (sur R) à la forme quadratique q′
de R3 , définie par :
 
 x
 
q′ (x) := 4xy − z2 (∀x =  y ∈ R3 ).
 
z

Bon travail
B. Farhi

— 208 —
B. Farhi Quelques sujets d’examens des années précédentes

Examen de l’année 2016-2017


Établissement : Université de Béjaia
Durée : 2h
Exercice 1 (5 points) :
Posons E := C 0 ([0, 1], R) et soit ϕ : E2 → R l’application définie par :
Z 1
ϕ( f, g) := f (x)g(x)(3x − 1) dx (∀ f, g ∈ E).
0

1. Montrer que ϕ est une forme bilinéaire symétrique sur E.


2. Montrer que ϕ n’est pas positive.
3. Montrer que ϕ est non dégénérée.

Exercice 2 (7 points) :
Soit
f : R2 [X] × R2 [X] −→ C
 
(P, Q) 7−→ 12 P(1 + i)Q(1 − i) + P(1 − i)Q(1 + i)

(où i désigne le nombre complexe de module 1 et d’argument π2 ).


1. Montrer que f prend ses valeurs dans R.
2. Montrer que f est une forme bilinéaire symétrique sur R2 [X].
3. Montrer que f est positive mais qu’elle n’est pas définie positive.
4. Donner la matrice associée à f relativement à la base canonique
de R2 [X].
5. Calculer le cône isotrope C de R2 [X] pour f et montrer que l’on
a : C = R2 [X]⊥ .

Exercice 3 (8 points) :
Pour tout ce qui suit, k désigne un paramètre réel. On considère qk la
forme quadratique réelle de R3 , définie par :

qk (X) := k2 x2 +y2 +(k+1) z2 +2 xy+2 yz+2(k2+k+1) xz (∀X = t (x, y, z) ∈ R3 ).

1. Réduire qk par la méthode de Gauss en distinguant, si nécessaire,


les valeurs de k.

— 209 —
B. Farhi Quelques sujets d’examens des années précédentes

2. En déduire le rang et la signature de qk en distinguant les valeurs


de k.
3. (a) Déterminer les valeurs de k pour lesquelles qk est non
dégénérée.
(b) Existe-t-il des valeurs de k pour lesquelles qk est positive ?
Justifier.
4. Soit q′ la forme quadratique réelle de R3 , définie par :

q′ (X) := xy + xz − yz (∀X = t (x, y, z) ∈ R3 ).

(a) Réduire q′ par la méthode de Gauss.


(b) Déterminer les valeurs de k pour lesquelles qk est équivalente
à q′ .
(c) Justifier l’existence de trois formes linéaires L1 , L2 et L3 en
x, y, z (R-linéairement indépendantes) tel que l’on ait :

q1 (L1 , L2 , L3 ) = q′ (x, y, z).

(d) Question supplémentaire (6) : Déterminer telles formes L1 , L2


et L3 .

Bon travail
B. Farhi

(6). Cette question ne fait pas partie de l’examen.

— 210 —
B. Farhi Quelques sujets d’examens des années précédentes

Examen de remplacement de l’année 2016-2017


Établissement : Université de Béjaia
Durée : 2h
Exercice 1 (5 points) :
Posons E := C 0 ([0, 1], R) et soit ϕ : E2 → R l’application définie par :
Z 1    
1 1
ϕ( f, g) := f (x)g(x) sin(3πx) dx + f g (∀ f, g ∈ E).
0 2 2

1. Montrer que ϕ est une forme bilinéaire symétrique sur E.


2. Montrer que ϕ n’est pas positive.
3. Montrer que ϕ est non dégénérée.

Exercice 2 (7 points) :
Soit
f : R2 [X] × R2 [X] −→ C
(P, Q) 7−→ P(i)Q(−i) + P(−i)Q(i)
  
+ P(1) − P′′ (1) Q(1) − Q′′ (1)

(où i désigne le nombre complexe de module 1 et d’argument π2 ).


1. Montrer que f prend ses valeurs dans R.
2. Montrer que f est une forme bilinéaire symétrique sur R2 [X].
3. Montrer que f est positive mais qu’elle n’est pas définie positive.
4. Donner la matrice associée à f relativement à la base canonique
de R2 [X].
5. Calculer le cône isotrope C de R2 [X] pour f et montrer que l’on
a : C = R2 [X]⊥ .

Exercice 3 (8 points) :
Pour tout ce qui suit, k désigne un paramètre réel. On considère qk la
forme quadratique réelle de R3 , définie par :

qk (X) := (k+1) x2 +8k2 y2 +z2 +4(1−k)xy−2 xz−4 yz (∀X = t (x, y, z) ∈ R3 ).

— 211 —
B. Farhi Quelques sujets d’examens des années précédentes

1. Réduire qk par la méthode de Gauss en distinguant, si nécessaire,


les valeurs de k.
2. En déduire le rang et la signature de qk en distinguant les valeurs
de k.
3. Déterminer les valeurs de k pour lesquelles qk est non dégénérée,
puis les valeurs de k pour lesquelles qk est positive et enfin les
valeurs de k pour lesquelles qk est définie positive.
4. Soit q′ la forme quadratique réelle de R3 , définie par :

q′ (X) := xy − xz − yz (∀X = t (x, y, z) ∈ R3 ).

(a) Réduire q′ par la méthode de Gauss.


(b) Déterminer les valeurs de k pour lesquelles qk est équivalente
à q′ .
(c) Justifier l’existence de trois formes linéaires L1 , L2 et L3 en
x, y, z (R-linéairement indépendantes) tel que l’on ait :

q− 13 (L1 , L2 , L3 ) = q′ (x, y, z).

Bon travail
B. Farhi

— 212 —
B. Farhi Quelques sujets d’examens des années précédentes

Examen de rattrapage de l’année 2016-2017


Établissement : Université de Béjaia
Durée : 1h30mn
Exercice (5 points) :
On considère ϕ : R2 [X] × R2 [X] → R l’application définie par :

ϕ(P, Q) := P(0)Q(0) + P(1)Q(1) − P(2)Q(2) (∀P, Q ∈ R2 [X]).

1. Montrer que ϕ est une forme bilinéaire symétrique sur R2 [X].


2. Montrer que ϕ n’est pas positive.
3. Montrer que ϕ est non dégénérée.

Problème (15 points) :


Pour tout ce qui suit, k désigne un paramètre réel. On considère qk la
forme quadratique réelle de R3 , définie par :

qk (X) := (k+1) x2 + y2 +(k+1) z2 −2 xy+2k yz (∀X = t (x, y, z) ∈ R3 ).

1. Réduire qk par la méthode de Gauss en distinguant, si nécessaire,


les valeurs de k.
2. En déduire le rang et la signature de qk en distinguant les valeurs
de k.
3. Déterminer les valeurs de k pour lesquelles qk est non dégénérée,
puis les valeurs de k pour lesquelles qk est positive et enfin les
valeurs de k pour lesquelles qk est définie positive.
4. On prend dans cette question k = 1.
(a) Écrire l’expression de la forme polaire f associée à q1 .
(b) Écrire la matrice associée à f relativement à la base canonique
de R3 .
(c) Déterminer Ker f et préciser sa dimension.
5. Soit q′ la forme quadratique réelle de R3 , définie par :

q′ (X) := xy − xz + yz (∀X = t (x, y, z) ∈ R3 ).

(a) Réduire q′ par la méthode de Gauss.


(b) Déterminer les valeurs de k pour lesquelles qk est équivalente
à q′ .

— 213 —
B. Farhi Quelques sujets d’examens des années précédentes

(c) Justifier l’existence de trois formes linéaires L1 , L2 et L3 en


x, y, z (R-linéairement indépendantes) tel que l’on ait :

q2 (L1 , L2 , L3 ) = q′ (x, y, z).

Bon travail
B. Farhi

— 214 —
B. Farhi Quelques sujets d’examens des années précédentes

Interrogation de l’année 2015-2016


Établissement : Université de Béjaia
Durée : 1h15mn
Pour tout ce qui suit, k désigne un paramètre réel et qk désigne la
forme quadratique réelle de R3 (dépendant de k), définie par :
 
 x
 
qk (x) := x2 + (k + 1) y2 + (k + 1) z2 + 2 xy + 2 xz (∀x =  y ∈ R3 ).
 
z

1. Réduire qk par la méthode de Gauss en distinguant les valeurs de


k.
2. Déterminer le rang et la signature de qk en distinguant les valeurs
de k.
3. En déduire les valeurs de k pour lesquelles qk est non dégénérée,
puis les valeurs de k pour lesquelles qk est positive et enfin les
valeurs de k pour lesquelles qk est définie positive.
4. On prend dans cette question k = 1.
(a) Ecrire l’expression de la forme polaire f associée à q1 .
(b) Ecrire la matrice associée à f relativement à la base canonique
de R3 .
(c) Déterminer Ker f et préciser sa dimension.
5. On prend dans cette question k = 2.
— Déterminer une base de R3 qui soit q2 -orthogonale.
6. Déterminer les valeurs du paramètre k pour lesquelles la forme
quadratique qk est équivalente (sur R) à la forme quadratique q′
de R3 , définie par :
 
 x
 
q′ (x) := x2 + y2 − z2 (∀x =  y ∈ R3 ).
 
z

Bon travail
B. Farhi

— 215 —
B. Farhi Quelques sujets d’examens des années précédentes

Examen de l’année 2015-2016


Établissement : Université de Béjaia
Durée : 2h
Exercice 1 (5 points) :
Posons E := C 0 ([−1, 1], R) et soit ϕ : E2 → R l’application définie par :
Z 1
ϕ( f, g) := f (x)g(x)x dx (∀ f, g ∈ E).
−1

1. Montrer que ϕ est une forme bilinéaire symétrique sur E.


2. Montrer que ϕ n’est pas positive.
3. Montrer que ϕ est non dégénérée.

Exercice 2 (4 points) :
Soit h , i : R2 [X] × R2 [X] → R l’application définie par :

hP, Qi := P(1)Q(1) + P′ (1)Q′ (1) + P′′ (1)Q′′ (1) (∀P, Q ∈ R2 [X]).

1. Montrer que h , i est un produit scalaire sur R2 [X].


2. Soit H(X) := 3 X2 − 14 X + 15.
— Calculer {H}⊥ en lui précisant une base.

Exercice 3 (11 points) :


Pour tout ce qui suit, k désigne un paramètre réel. On considère qk la
forme quadratique réelle de R3 , définie par :

k2 − 1 2
qk (X) := −x2 − y2 + k xy + xz + z (∀X = t (x, y, z) ∈ R3 ).
4
1. Réduire qk par la méthode de Gauss en distinguant, si nécessaire,
les valeurs de k.
2. En déduire le rang et la signature de qk en distinguant les valeurs
de k.
3. (a) Déterminer les valeurs de k pour lesquelles qk est non
dégénérée.
(b) Existe-t-il des valeurs de k pour lesquelles qk est positive ?
négative ? Justifier.

— 216 —
B. Farhi Quelques sujets d’examens des années précédentes

4. Soit q′ la forme quadratique réelle de R3 , définie par :

q′ (X) := xy + xz + yz (∀X = t (x, y, z) ∈ R3 ).

(a) Réduire q′ par la méthode de Gauss.


(b) Déterminer les valeurs de k pour lesquelles qk est équivalente
à q′ .
(c) Justifier l’existence de trois formes linéaires L1 , L2 et L3 en
x, y, z (R-linéairement indépendantes) tel que l’on ait :

q1 (L1 , L2 , L3 ) = q′ (x, y, z).

(d) Déterminer telles formes L1 , L2 et L3 .

Bon travail
B. Farhi

— 217 —
B. Farhi Quelques sujets d’examens des années précédentes

Examen de remplacement de l’année 2015-2016


Établissement : Université de Béjaia
Durée : 2h
Exercice 1 (5 points) :
Posons E := C 0 ([0, 1], R) et soit ϕ : E2 → R l’application définie par :
Z 1    
1 1
ϕ( f, g) := f (x)g(x) sin(3πx) dx + f g (∀ f, g ∈ E).
0 2 2
1. Montrer que ϕ est une forme bilinéaire symétrique sur E.
2. Montrer que ϕ n’est pas positive.
3. Montrer que ϕ est non dégénérée.

Exercice 2 (4 points) :
Soit h , i : R2 [X] × R2 [X] → R l’application définie par :

hP, Qi := P(0)Q(0) + P′ (1)Q′ (1) + P′′ (2)Q′′ (2) (∀P, Q ∈ R2 [X]).

1. Montrer que h , i est un produit scalaire sur R2 [X].


2. Soit H := {P ∈ R2 [X] : P(1) = 0}.
— Calculer H⊥ en lui précisant une base.

Exercice 3 (11 points) :


Pour tout ce qui suit, k désigne un paramètre réel. On considère qk la
forme quadratique réelle de R3 , définie par :

qk (X) := k x2 + (k + 1) y2 + (k + 2) z2 + (2k + 1) xy + (2k + 2) xz + yz

(∀X = t (x, y, z) ∈ R3 ).
1. Réduire qk par la méthode de Gauss en distinguant, si nécessaire,
les valeurs de k.
2. En déduire le rang et la signature de qk en distinguant les valeurs
de k.
3. (a) Déterminer les valeurs de k pour lesquelles qk est non
dégénérée.
(b) Existe-t-il des valeurs de k pour lesquelles qk est positive ?
Justifier.

— 218 —
B. Farhi Quelques sujets d’examens des années précédentes

4. Soit q′a,b (a, b ∈ R) la forme quadratique réelle de R3 , définie par :

q′a,b (X) := xy + a xz + b yz (∀X = t (x, y, z) ∈ R3 ).

(a) Réduire q′a,b par la méthode de Gauss.


(b) En déduire le rang et la signature de q′a,b en distinguant les
valeurs de a et b.
(c) En posant q′ := q′1,−1 , déterminer les valeurs de k pour les-
quelles qk est équivalente à q′ .
(d) Justifier l’existence de trois formes linéaires L1 , L2 et L3 en
x, y, z (R-linéairement indépendantes) tel que l’on ait :

q0 (L1 , L2 , L3 ) = q′ (x, y, z).

(e) Déterminer telles formes L1 , L2 et L3 .

Bon travail
B. Farhi

— 219 —
B. Farhi Quelques sujets d’examens des années précédentes

Examen de rattrapage de l’année 2015-2016


Établissement : Université de Béjaia
Durée : 2h
Exercice 1 (5 points) :
Posons E := C 0 ([0, 1], R) et soit ϕ : E2 → R l’application définie par :
Z 1
ϕ( f, g) := f (x)g(x)(2x − 1) dx (∀ f, g ∈ E).
0

1. Montrer que ϕ est une forme bilinéaire symétrique sur E.


2. Montrer que ϕ n’est pas positive.
3. Montrer que ϕ est non dégénérée.

Exercice 2 (4 points) :
Soit h , i : R2 [X] × R2 [X] → R l’application définie par :

hP, Qi := P(0)Q(0) + P(1)Q(1) + P′ (1)Q′ (1) (∀P, Q ∈ R2 [X]).

1. Montrer que h , i est un produit scalaire sur R2 [X].


2. Soit H(X) := X2 − X et L(X) := X2 − 4X + 2.
— Calculer {H, L}⊥ en lui précisant une base.

Exercice 3 (11 points) :


Pour tout ce qui suit, k désigne un paramètre réel. On considère qk la
forme quadratique réelle de R3 , définie par :

qk (X) := x2 + (k2 + k) y2 + 2k z2 + 2k xy − 2 xz (∀X = t (x, y, z) ∈ R3 ).

1. Réduire qk par la méthode de Gauss (distinguer, si nécessaire, les


valeurs de k).
2. En déduire le rang et la signature de qk en distinguant les valeurs
de k.
3. (a) Déterminer les valeurs de k pour lesquelles qk est non
dégénérée.
(b) Déterminer les valeurs de k pour lesquelles qk est définie
positive.

— 220 —
B. Farhi Quelques sujets d’examens des années précédentes

4. Soit q′ la forme quadratique réelle de R3 , définie par :

q′ (X) := xy + xz + 2 yz (∀X = t (x, y, z) ∈ R3 ).

(a) Réduire q′ par la méthode de Gauss.


(b) Déterminer les valeurs de k pour lesquelles qk est équivalente
à q′ .
(c) Justifier l’existence de trois formes linéaires L1 , L2 et L3 en
x, y, z (R-linéairement indépendantes) tel que l’on ait :

q−1 (L1 , L2 , L3 ) = q′ (x, y, z).

(d) Déterminer telles formes L1 , L2 et L3 .

Bon travail
B. Farhi

— 221 —
B. Farhi Quelques sujets d’examens des années précédentes

Interrogation de l’année 2014-2015


Établissement : Université de Béjaia
Durée : 1h
Pour ce qui suit, k désigne un paramètre réel et q désigne la forme
quadratique réelle de R3 définie par :
 
 x
 
q(x) := x2 +(k+1) y2 +(k+1) z2 +2 xy+2 yz+(2−2k) xz (∀x =  y ∈ R3 ).
 
z

1. Réduire q par la méthode de Gauss.


2. Déterminer le rang et la signature de q en distinguant les valeurs
du paramètre réel k.
3. Déterminer une base de R3 qui soit q-orthogonale.
4. Déterminer les valeurs du paramètre k pour lesquelles la forme
quadratique q est équivalente (sur R) à la forme quadratique q′
de R3 , définie par :
 
x
 
q′ (x) := xy + xz − yz (∀x =  y ∈ R3 ).
 
z

Bon travail
B. Farhi

— 222 —
B. Farhi Quelques sujets d’examens des années précédentes

Examen de l’année 2014-2015


Établissement : Université de Béjaia
Durée : 2h
Exercice 1 (8 points) :
Pour tout ce qui suit, k désigne un paramètre réel. On considère qk la
forme quadratique réelle de R3 , définie par :

qk (X) := x2 − k y2 + k xz − k yz (∀X = t (x, y, z) ∈ R3 ).

1. Réduire qk par la méthode de Gauss.


2. En déduire le rang et la signature de qk en distinguant les valeurs
du paramètre réel k.
3. (a) Déterminer les valeurs de k pour lesquelles qk est non
dégénérée.
(b) Existe-t-il des valeurs de k pour lesquelles qk est le carré d’une
norme de R3 ? Justifier.
4. Déterminer une base de R3 qui soit qk -orthogonale.
5. Soit q′ la forme quadratique réelle de R3 , définie par :

q′ (X) = (x + y)(y + z) (∀X = t (x, y, z) ∈ R3 ).

(a) Montrer qu’il existe une unique valeur de k pour laquelle qk


est équivalente à q′ .
(b) Pour cette valeur précise de k, déterminer trois formes
linéaires L1 , L2 et L3 en x, y, z (R-linéairement indépendantes)
tel que l’on ait :

qk (L1 , L2 , L3 ) = q′ (x, y, z).

Exercice 2 (7 points) :
On munit le R-espace vectoriel R[x] de l’application h , i : R[x]2 → R,
définie par :
Z 1
hP , Qi := P(1)Q(1) − P′ (x)Q′ (x) ln x dx (∀P, Q ∈ R[x]).
0

1. Montrer que h , i constitue un produit scalaire de R[x].

— 223 —
B. Farhi Quelques sujets d’examens des années précédentes

2. Etablir la formule :
Z 1
1
xn ln x dx = − (∀n ∈ N).
0 (n + 1)2

3. En utilisant le procédé de Gram-Schmidt, déterminer une base de


R2 [x] qui soit orthonormée pour le produit scalaire ci-dessus.
4. Calculer
( Z 1 )
2 2
inf (a + b − 1) − (2x − a) ln x dx .
a,b∈R 0

Exercice 3 (5 points) :
Soient E un espace euclidien de dimension n (n ∈ N∗ ) et (ei )1≤i≤n une
base orthonormée de E. Soit aussi f un automorphisme de E (i.e., un
endomorphisme bijectif de E). On suppose que f conserve l’orthogo-
nalité ; c’est-à-dire que f vérifie la propriété :

∀x, y ∈ E : x ⊥ y =⇒ f (x) ⊥ f (y).

1. Montrer que la famille ( f (ei ))1≤i≤n constitue une base orthogonale


de E.
2. Montrer que pour tous i, j ∈ {1, 2, . . . , n}, on a :
   
f (ei ) + f (e j ) ⊥ f (ei ) − f (e j ) .

3. En déduire que les vecteurs f (ei ) (1 ≤ i ≤ n) sont tous de même


norme. Désignons par k cette norme commune.
4. Montrer que pour tout x ∈ E, on a :

f (x) = k x .

(On dit que f est une similitude de rapport k).

Bon travail
B. Farhi

— 224 —
B. Farhi Quelques sujets d’examens des années précédentes

Examen de remplacement de l’année 2014-2015


Établissement : Université de Béjaia
Durée : 2h
Exercice 1 (8 points) :
Pour tout ce qui suit, k désigne un paramètre réel. On considère qk la
forme quadratique réelle de R3 , définie par :

qk (X) := x2 + (k + 1) y2 + (k2 + 1) z2 + 2 xy + 2 xz + 2(1 − k) yz

(pour tout X = t (x, y, z) ∈ R3 ).


1. Réduire qk par la méthode de Gauss.
2. Déterminer le rang et la signature de qk en discutant suivant les
valeurs de k.
3. (a) Quelles sont les valeurs de k pour lesquelles qk est non
dégénérée ? Justifier.

(b) Quelles sont les valeurs de k pour lesquelles qk devient une
norme sur R3 ? Justifier.
4. Déterminer une base de R3 qui soit qk -orthogonale.
5. Soit q′ la forme quadratique réelle de R3 , définie par :

q′ (X) = (x + y)2 + (x + z)2 + (y − z)2 (∀X = t (x, y, z) ∈ R3 ).

(a) Montrer qu’il existe une unique valeur de k pour laquelle qk


est équivalente à q′ .
(b) Pour cette valeur précise de k, déterminer trois formes
linéaires L1 , L2 et L3 en x, y, z (R-linéairement indépendantes)
tel que l’on ait :

qk (L1 , L2 , L3 ) = q′ (x, y, z).

Exercice 2 (8 points) :
On munit le R-espace vectoriel R[x] de l’application h , i : R[x]2 → R,
définie par :
Z 1
P′ (x)Q′ (x)
hP , Qi := √ dx + P(1)Q(1) (∀P, Q ∈ R[x]).
0 1 − x2

— 225 —
B. Farhi Quelques sujets d’examens des années précédentes

1. Montrer que h , i constitue un produit scalaire de R[x].


2. Posons pour tout n ∈ N :
Z 1
xn
In := √ dx.
0 1 − x2
(a) Montrer que pour tout entier n ≥ 2, on a :

n−1
In = In−2 .
n
(b) En déduire l’expression de In en fonction de n (distinguer les
cas ≪ n pair ≫ et ≪ n impair ≫).
3. En utilisant le procédé de Gram-Schmidt, déterminer une base de
R2 [x] qui soit orthonormée pour le produit scalaire ci-dessus.
4. Calculer (Z )
1
(2ax + b)2 2
inf √ dx + (a + b − 1) .
a,b∈R 0 1 − x2

Exercice 3 (4 points) :
Soient E un espace euclidien et f et g deux applications de E dans E,
vérifiant :
h f (x) , yi = hx , g(y)i.
— Montrer que f et g sont linéaires.

Bon travail
B. Farhi

— 226 —
B. Farhi Quelques sujets d’examens des années précédentes

Examen de rattrapage de l’année 2014-2015


Établissement : Université de Béjaia
Durée : 1h30mn
Exercice 1 (13 points) :
Pour tout ce qui suit, k désigne un paramètre réel. On considère qk la
forme quadratique réelle de R3 , définie par :

qk (X) := x2 + k2 y2 + z2 + k xy + k xz + 2k2 yz (∀X = t (x, y, z) ∈ R3 ).

1. Réduire qk par la méthode de Gauss.


2. En déduire le rang et la signature de qk en distinguant les valeurs
du paramètre réel k.
3. (a) Déterminer les valeurs de k pour lesquelles qk est non
dégénérée.
(b) Déterminer les valeurs de k pour lesquelles qk est le carré
d’une norme de R3 .
4. Déterminer une base de R3 qui soit qk -orthogonale.
5. Soit q′ la forme quadratique réelle de R3 , définie par :

q′ (X) := x2 − 3 yz (∀X = t (x, y, z) ∈ R3 ).

(a) Déterminer les valeurs de k pour lesquelles qk est équivalente


à q′ .
(b) On prend dans cette question k = 2 et on pose q = q2 .
Déterminer trois formes linéaires L1 , L2 et L3 en x, y, z (R-
linéairement indépendantes) tel que l’on ait :

q(L1 , L2 , L3 ) = q′ (x, y, z).

Exercice 2 (7 points) :
On munit le R-espace vectoriel R2 [x] de l’application h , i : R2 [x]2 → R,
définie par :

hP , Qi := P(1)Q(1) + P′ (1)Q′ (1) + P′′ (1)Q′′ (1) (∀P, Q ∈ R2 [x]).

1. Montrer que h , i constitue un produit scalaire de R2 [x].

— 227 —
B. Farhi Quelques sujets d’examens des années précédentes

2. Si l’on remplace R2 [x] par R3 [x], obtient-on un produit scalaire ?


Justifier.
3. En utilisant l’algorithme de Gram-Schmidt, déterminer une base
de R2 [x] qui soit orthonormée pour le produit scalaire ci-dessus.
4. Proposer (sans démonstration) un prolongement du produit sca-
laire de R2 [x] ci-dessus à l’espace vectoriel plus large R[x].

Bon travail
B. Farhi

— 228 —
B. Farhi Quelques sujets d’examens des années précédentes

Interrogation du groupe 1 de l’année 2013-2014


Établissement : Université de Béjaia
Durée : 1h
Pour ce qui suit, k désigne un paramètre réel et q désigne la forme
quadratique réelle de R3 définie par :
 
 x
 
q(x) := x2 + k y2 + (2k2 − k − 1) z2 + 2 xy + 2k xz + 2 yz (∀x =  y ∈ R3 ).
 
z

1. Réduire q par la méthode de Gauss.


2. Déterminer le rang et la signature de q en distinguant les valeurs
du paramètre réel k.
3. Déterminer une base de R3 qui soit q-orthogonale.
4. Déterminer les valeurs du paramètre k pour lesquelles la forme
quadratique q est équivalente à la forme quadratique q′ de R3 ,
définie par :
 
 x
 
q′ (x) := xy − z2 (∀x =  y ∈ R3 ).
 
z

Bon travail
B. Farhi

— 229 —
B. Farhi Quelques sujets d’examens des années précédentes

Interrogation du groupe 2 de l’année 2013-2014


Établissement : Université de Béjaia
Durée : 1h
Pour ce qui suit, k désigne un paramètre réel et q désigne la forme
quadratique réelle de R3 définie par :
 
x 
 
q(x) := x2 + (k2 + k)(y2 + z2 ) + 2k(xy + xz) (∀x =  y ∈ R3 ).
 
z

1. Réduire q par la méthode de Gauss.


2. Déterminer le rang et la signature de q en distinguant les valeurs
du paramètre réel k.
3. Déterminer une base de R3 qui soit q-orthogonale.
4. Déterminer les valeurs du paramètre k pour lesquelles la forme
quadratique q est équivalente à la forme quadratique q′ de R3 ,
définie par :
 
x
 
q′ (x) := x2 − 4 yz (∀x =  y ∈ R3 ).
 
z

Bon travail
B. Farhi

— 230 —
B. Farhi Quelques sujets d’examens des années précédentes

Examen de l’année 2013-2014


Établissement : Université de Béjaia
Durée : 2h
Exercice 1 (10 points) :
Pour ce qui suit, k désigne un paramètre réel. On considère qk la forme
quadratique réelle de R3 , définie par :

qk (x) := x2 + 2 y2 + k z2 + 2 xy + 2 yz (∀x = t (x, y, z) ∈ R3 ).

1. Réduire qk par la méthode de Gauss.


2. En déduire le rang et la signature de qk en distinguant les valeurs
du paramètre réel k.
3. Quelles sont les valeurs du paramètre réel k pour lesquelles la

fonction qk : R3 → R+ constitue une norme sur R3 ? Justifier.
4. Déterminer une base de R3 qui soit qk -orthogonale.
5. Soit q′ la forme quadratique réelle de R3 , définie par :

q′ (x) := 2 xy + 2 xz − yz (∀x = t (x, y, z) ∈ R3 ).

(a) Réduire q′ par la méthode de Gauss.


(b) En déduire les valeurs de k pour lesquelles qk et q′ sont
équivalentes.
(c) On prend dans cette question k = 0. Déterminer trois formes
linéaires L1 , L2 et L3 en x, y, z (R-linéairement indépendantes)
tel que l’on ait :

q0 (L1 , L2 , L3 ) = q′ (x, y, z).

Exercice 2 (5 points) :
On munit le R-espace vectoriel R[x] de l’application h , i : R[x]2 → R,
définie par :
Z +∞
hP , Qi := P(x)Q(x)e−x dx (∀P, Q ∈ R[x]).
0

1. Montrer que < , > constitue un produit scalaire de R[x].

— 231 —
B. Farhi Quelques sujets d’examens des années précédentes

R +∞
2. Dans cette question, on admet la formule : 0 xn e−x dx = n!
(∀n ∈ N).
— En utilisant l’algorithme de Gram-Schmidt, déterminer une
base de R2 [x] qui soit orthonormée pour le produit scalaire ci-
dessus.

Exercice 3 (5 points) :
Soient E un espace euclidien et e1 , e2 , . . . , en (n ∈ N∗ ) des vecteurs uni-
taires (c’est-à-dire tous de norme 1) de E. On suppose que l’on a pour
tout x ∈ E :
Xn
2
kxk = hx, ei i2 .
i=1

— Montrer que la famille (e1 , e2 , . . . , en ) constitue une base orthonormée


de E.

Bonne chance
B. Farhi

— 232 —
B. Farhi Quelques sujets d’examens des années précédentes

Examen de rattrapage l’année 2013-2014


Établissement : Université de Béjaia
Durée : 2h
Exercice 1 (7 points) :
Pour ce qui suit, k désigne un paramètre réel. On considère qk la forme
quadratique réelle de R3 , définie par :

qk (x) := x2 + y2 + z2 + 2 xy + 2 xz + k yz (∀x = t (x, y, z) ∈ R3 ).

1. Réduire qk par la méthode de Gauss.


2. En déduire le rang et la signature de qk en distinguant les valeurs
du paramètre réel k.
3. Déterminer une base de R3 qui soit qk -orthogonale.
4. Soit q′ la forme quadratique réelle de R3 , définie par :

q′ (x) := (x+y)2 +(x+z)2 −(y+z)2 −(x+y+z)2 (∀x = t (x, y, z) ∈ R3 ).

(a) Développer puis réduire q′ par la méthode de Gauss.


(b) En déduire les valeurs de k pour lesquelles qk et q′ sont
équivalentes.

Exercice 2 (6,5 points) :


On considère l’application h , i : R2 [X] × R2 [X] → R, définie par :

hP , Qi := P(1)Q(1) + 2 P(2)Q(2) + P(3)Q(3) (∀P, Q ∈ R2 [x]).

1. Montrer que < , > constitue un produit scalaire de R2 [x].


2. En utilisant l’algorithme de Gram-Schmidt, déterminer une base
de R2 [x] qui soit orthonormée pour ce produit scalaire.

Exercice 3 (6,5 points) :


Soit E un espace préhibertien réel.
1. Montrer que pour tous x, y, z ∈ E, on a :

kx + yk2 + kx + zk2 ≤ 2 kxk2 + kyk2 + kzk2 + 2 kxk · ky + zk. (⋆)

2. Décrire précisément (en justifiant bien sûr) les cas où l’inégalité
(⋆) devient une égalité.

— 233 —
B. Farhi Quelques sujets d’examens des années précédentes

3. Qu’obtient-on exactement si l’on prend dans (⋆) : z = −y ?


4. En déduire que le R-espace vectoriel R2 muni de la norme k · k1 ,
définie par :
! !
a  a 
:= |a| + |b| ∀ ∈ R2
b b
1

n’est pas euclidien (c’est-à-dire que cette norme k · k1 n’est associée


à aucun produit scalaire de R2 ).

Bonne chance
B. Farhi

— 234 —
B. Farhi Quelques sujets d’examens des années précédentes

Interrogation de l’année 2012-2013


Établissement : Université de Béjaia
Durée : 1h
Exercice 1 : Soit q : R3 → R, définie par :
 
x1 
 
q(x) := x21 + 5 x22 + 2 x1 x2 − 2 x1 x3 + 2 x2x3 (∀x = x2  ∈ R3 ).
 
x3

1. Justifier rapidement le fait que q est une forme quadratique sur


R3 .
2. Déterminer la forme polaire de q puis la matrice associée à q
relativement à la base canonique de R3 .
3. Réduire q par la méthode de Gauss.
4. En déduire le rang et la signature de q.
— Cette forme quadratique q est-elle positive ? justifier.
5. Déterminer une base de R3 qui soit orthogonale pour q.
6. Soit q′ : R3 → R la forme quadratique définie par :
 
x1 
 
′ 2
q (x) := x1 x2 − x3 (∀x = x2  ∈ R3 ).
 
x3

— Les deux formes quadratiques q et q′ sont-elles équivalentes ?


Justifier.

Exercice 2 : On note par E le R-espace vectoriel C 1 ([0, 1], R). Soit


h., .i : E2 → R l’application définie par :
Z 1
h f, gi := f ′ (x)g′ (x) dx + f (0)g(0) (∀ f, g ∈ E).
0

1. Montrer que h., .i constitue un produit scalaire sur E.


2. Déterminer l’orthonormalisée de Gram-Schmidt de la famille
libre (P0 , P1 , P2) de E, avec P0 (x) := x − 1, P1 (x) := x et P2 (x) := x2 .

Bon travail
B. Farhi

— 235 —
B. Farhi Quelques sujets d’examens des années précédentes

Examen de l’année 2012-2013


Établissement : Université de Béjaia
Durée : 2h
Exercice 1 (5 points) :
On munit le R-espace vectoriel R3 de la forme quadratique réelle définie
par :
q(x) := x21 + x22 + x23 − 2 x1 x2 − 2 x1 x3 − 2 x2x3 (∀x = t (x1 , x2 , x3 ) ∈ R3 ).
1. Réduire q par la méthode de Gauss.
2. En déduire le rang et la signature de q.
3. Déterminer une base de R3 qui soit orthogonale pour q.
4. La forme quadratique q est-elle équivalente à la forme quadra-
tique q′ définie par :
q′ (x) := x21 − x22 − x23 (∀x = t (x1 , x2 , x3 ) ∈ R3 )?
(Justifier votre réponse).
Exercice 2 (7 points) :
On munit le R-espace vectoriel R3 [X] de l’application h , i : R3 [X] ×
R3 [X] → R, définie par :
hP , Qi := P(−1)Q(−1)+P(0)Q(0)+P(1)Q(1)+P′(0)Q′ (0) (∀P, Q ∈ R3 [X]).
1. Montrer que h , i constitue un produit scalaire de R3 [X].
2. Déterminer une base orthonormée du sous-espace vectoriel R2 [X]
pour ce produit scalaire.
3. (a) Calculer la projection orthogonale du polynôme X3 sur
R2 [X].
(b) En déduire la valeur de la distance d(X3 , R2 [X]).
Exercice 3 (3 points) :
Pour ce qui suit, on note par E le R-espace vectoriel C ([−1, 1], R), muni
du produit scalaire h , i défini par :
Z 1
h f , gi := f (x)g(x) dx (∀ f, g ∈ E).
−1

On note aussi par F et G les sous-espaces vectoriels de E, constitués


respectivement des fonctions paires et des fonctions impaires.

— 236 —
B. Farhi Quelques sujets d’examens des années précédentes

1. Montrer que F et G sont supplémentaires.


2. Montrer que F⊥ = G.

Exercice 4 (5 points) :
Soient E un espace préhilbertien réel et f une application de E dans E,
vérifiant :
h f (x) , f (y)i = hx , yi (∀x, y ∈ E).
1. Montrer que l’on a :

f (x) = kxk (∀x ∈ E).

2. Montrer que f est linéaire (donc f constitue un endomorphisme


de E).
3. Supposons de plus que E est euclidien.
(a) Montrer que f est un automorphisme de E.
(b) Quel est l’endomorphisme adjoint de f dans ce cas ?

Bonne chance
B. Farhi

— 237 —
B. Farhi Quelques sujets d’examens des années précédentes

Examen de rattrapage de l’année 2012-2013


Établissement : Université de Béjaia
Durée : 2h
Exercice 1 (5, 5 points) :
On munit le R-espace vectoriel R3 de la forme quadratique réelle définie
par :

q(x) := 4 x21 + x23 − 4 x1 x2 + 4 x1x3 + 2 x2 x3 (∀x = t (x1 , x2 , x3 ) ∈ R3 ).

1. Réduire q par la méthode de Gauss.


2. En déduire le rang et la signature de q.
3. Déterminer une base de R3 qui soit orthogonale pour q.
4. La forme quadratique q est-elle équivalente à la forme quadra-
tique q′ définie par :

q′ (x) := 4 x1x2 − x23 (∀x = t (x1 , x2 , x3) ∈ R3 )?

(Justifier votre réponse).

Exercice 2 (6, 5 points) :


On munit le R-espace vectoriel R2 [X] de l’application h , i : R2 [X] ×
R2 [X] → R, définie par :

hP , Qi := P(1)Q(1) + P′ (1)Q′ (1) + P′′ (1)Q′′ (1) (∀P, Q ∈ R2 [X]).

1. Montrer que h , i constitue un produit scalaire de R2 [X].


2. Déterminer une base orthonormée de R2 [X] pour ce produit sca-
laire.
3. (a) Calculer la projection orthogonale du polynôme X2 sur
R1 [X].
(b) En déduire la valeur de la distance d(X2 , R1 [X]).

Exercice 3 (4 points) :
Soient E un espace euclidien et F et G deux sous-espaces vectoriels de
E. Montrer les propriétés suivantes :
i) (F + G)⊥ = F⊥ ∩ G⊥ .
ii) (F ∩ G)⊥ = F⊥ + G⊥ .

— 238 —
B. Farhi Quelques sujets d’examens des années précédentes

iii) F⊥⊥ = F.

Exercice 4 (4 points) :
Soient E un espace euclidien et f et g deux applications de E dans E,
satisfaisant :

h f (x) , yi = hx , g(y)i (∀x, y ∈ E).

1. Montrer que f et g sont linéaires.


2. Soient B une base orthonormée de E et A et B les matrices as-
sociées respectivement à f et g relativement à B.
— Donner (en justifiant) la relation qui lie entre A et B.

Bonne chance à tous


B. Farhi

— 239 —
B. Farhi Bibliographie

Bibliographie

Références en français
[1] J. Grifone. Algèbre linéaire, Editions Cépaduès, 5ème édition, Toulouse,
2015. Les chapitres concernés : 7—10.
[2] M. Houimdi. Algèbre linéaire, algèbre bilinéaire (cours et exercices
corrigés), Editions Ellipses, Paris, 2021. Les chapitres concernés : 7—11.
[3] M. Queysanne. Algèbre, Coll. U, Armand Colin, 5ème édition, Paris,
1964. Le chapitre concerné : 15.

Références en anglais
[1] M. Ashraf, V. de Filippis, & M.A. Siddeeque. Advanced Linear Alge-
bra with Applications, Springer, 2022. The concerned chapters : 5, 7,
8.
[2] S. Axler. Linear algebra done right, Springer Nature, 2023. The concer-
ned chapters : 6, 7.
[3] T.S. Blyth & E.F. Robertson. Further linear algebra, Springer Science &
Business Media, 2013. The concerned chapters : 1, 9, 10.
[4] Morton L. Curtis. Abstract linear algebra, Springer Science & Business
Media, 2012. The concerned chapter : 4.
[5] S.H. Friedberg, A.J. Insel, & L.E. Spence. Linear algebra, vol. 4, Essex,
NJ, USA : Pearson, 2014. The concerned chapter : 6.
[6] W.H. Greub. Linear algebra, vol. 23, Springer Science & Business Media,
2012. The concerned chapters : 7, 8, 9, 11, 13.6.
[7] P.R. Halmos. Linear algebra problem book, vol 16, American Mathe-
matical Soc., 1995. The concerned chapters : 8, 9.
[8] L. Hogben. (ed). Handbook of linear algebra, CRC press, 2013. The
concerned parts, chapters, and sections : Part I (Linear algebra) : Basic
linear algebra (Section 5), Matrices with special properties (Sections
7 and 8).
[9] Roger A. Horn & Charles R. Johnson. Matrix analysis, Cambridge
University Press, 2012. The concerned chapters : 2, 4, 7.

— 240 —
B. Farhi Bibliographie

[10] N. Jacobson. Lectures in Abstract Algebra : II. Linear Algebra, Sprin-


ger Science & Business Media, 2013. The concerned chapters : 5, 6.
[11] N. Johnston. Advanced linear and matrix algebra, Springer, 2021. The
concerned chapters and sections : 1.3, 1.4, 1.5, 2.1, 2.2, 2.5.
[12] Carl D. Meyer & I. Stewart. Matrix analysis and applied linear alge-
bra, Society for Industrial and Applied Mathematics, 2023. The concerned
chapter : 5.
[13] V.V. Prasolov. Problems and theorems in linear algebra, vol 134, Ame-
rican Mathematical Soc., 1994. The concerned chapters : 2, 3, 4.
[14] S. Roman. Advanced linear algebra, 3rd edition, Springer, 2008. The
concerned parts and chapters : Part I : Chapters 9 and 10 ; Part II :
Chapter 11.

Références en arabe
ÐñʪÊË úÍAªË@ YêªÒË@ H@  P ñ‚ Ó ,(ù¢ j.Ë@ Q.j.Ë@) 2 Q.j.Ë@ .AK. ñ¯ à@QÔ« [1]
   éJ K QªË@ éK PñêÒmÌ '@ , AJk ñËñJºJË@ ð éJ ®J J¢JË@
: áÓ ÉJÒjJÊË Q¯ñJÓ . 2017 , éK Pñ‚Ë@ . . . .
http://www.hiast.edu.sy.

.12 : úæªÒË@ ɒ®Ë@

— 241 —

Vous aimerez peut-être aussi