- Consultez les questions sur les matrices diagonalisables de la leçon Endomorphismes diagonalisables.
- Consultez les questions sur les matrices nilpotentes de la leçon Endomorphismes nilpotents.
- Consultez les questions sur les matrices nilpotentes de la leçon Matrices semblables....
Montrez que sur un corps algébriquement clos, deux matrices A et B sont semblables si et seulement si, pour
tout l Î K et pour tout k ³ 0, on a rg(A-lI)k=rg(B- lI).
A partir de la forme de Jordan, on rappelle que pour k ³ 1,
dk(A):=dimker(A-lI)k - dimker(A-l)k-1 est égal au nombre de bloc Jordan pour la
valeur propre l qui sont de taille plus grande que k. D'après le théorème du rang, pour tout k ³ 1, on a dk(A)=dk(B) de sorte que A et B ont les mêmes réduites de Jordan et sont donc
semblables.
Soit A une matrice vérifiant (A-I)2(A-2I)=0. Calculez exp(A) sous la forme d'un polynôme en A.
Le lemme des noyaux permet de décomposer l'espace E=ker(A-I)2 Åker(A-2I).
On considère le projecteur q (resp. p) sur ker(A-I)2 (resp. ker(A-2I)) parallèlement à ker(A-2I) (resp. ker(A-I)2). De l'égalité p+q=Id, on obtient exp(A)=exp(A)p+exp(A)q. Or
exp(A)p=e2 exp(A-2I)=e2 ån ³ 0 [((A-2I)n)/(n!)] °p=e2 p car (A-2I) °p=0. De
même on a exp(A) q=e A q. De l'identité de Bezout 1=(X-1)2-X(X-2), on en déduit que p=-A(A-2I) et
q=(A-I)2 et donc
exp(A)=-e2A(A-2I)+eA(A-I)2 |
|
Montrez que l'ensemble des matrices diagonalisables de Mn(C) est connexe et dense. Quel est son intérieur?
- Connexité: on a une application surjective GLn(C) ×(C×)n sur l'ensemble des matrices diagonalisables: on envoie (P,(a1,¼,an)) sur P diag(a1,¼,an) P-1. L'ensemble
GLn(C) ×(C×)n étant connexe, il en est de même de l'ensemble des matrices diagonalisables.
- On rappelle que GLn(C) est connexe: soient P1,P2 deux matrices inversibles. On considère le polynôme det(P1z+(1-z)P2). Le complémentaire de l'ensemble (fini) des zéros de ce polynôme est connexe; on considère alors un chemin qui relie 0 à 1 dans ce complémentaire, ce qui fournit un chemin de P1 à P2 dans GLn(C).
- Densité: soit A une matrice complexe que l'on trigonalise PAP-1=T. Soit alors
e1,¼,en petits tels que les ti,i+ei sont tous distincts. La matrice
T+diag(e1,¼,en) est alors diagonalisables car elle a n valeurs propres distinctes.
- Intérieur: étant donné une matrice A diagonalisable avec une valeur propre multiple; P-1AP=diag(a1,a2,¼,an) avec a1=a2, alors A+P E1,2 P-1 n'est plus diagonalisable.
- Réciproquement si A est diagonalisable à valeurs propres distinctes, vu que le polynôme caractéristique dépend continûment de A, et que les racines d'un polynôme dépendent continûment de ses coefficients, on en déduit que si A¢ est proche de A, il aura aussi n valeurs propres distinctes et sera donc diagonalisable.
- Par ailleurs l'ensemble des matrices à valeurs propres distinctes est encore connexe. En effet c'est le
complémentaire des zéros du polynôme en n2 variable définit comme le discriminant du polynôme caractéristique.
Caractérisez les matrices qui sont des carrés: traitez le cas de C puis de R.
- Remarquons déjà que le problème se ramène à traiter le cas nilpotent et le cas inversible. En effet M peut
s'écrire sous la forme P(
) P-1 avec A
nilpotent et B inversible. Si on a X2=M alors M et X commutent de sorte que X=P (
) P-1 avec AX3=X3B et AX4=X4B; on en déduit alors
que cA(A)X3=X3 cA(B)=0. Or cA et cB sont premiers entre eux et donc cA(B) est
inversible et donc X3=0. De la même façon on a X4=0.
- Le cas nilpotent est traité dans les questions sur la leçon Endomorphismes nilpotents. Traitons
alors le cas inversible.
- Cas complexe: on se ramène comme précédemment au cas A=lI+N avec N nilpotent.
On écrit A=l(I+[(N)/(l)]) qui a pour racine carré Ö{l}(I+[(N)/(l)])1/2 où (I+[(N)/(l)])1/2 est défini par la série qui est finie car N
est nilpotente.
- Cas réel: A=X2 avec A et X réelle. Le cas des valeurs propres strictement
positives se traite comme ci-dessus. En ce qui
concerne les valeurs propres négatives elles ne peuvent provenir que des valeurs propres imaginaires pures
de X; cette dernière étant réelle les blocs de Jordan associés à l Î C sont les mêmes que
ceux associés à [`(l)]. Par ailleurs pour N nilpotente de noyau de dimension 1, on a
(lId+N)2=l2 Id+N¢ avec N¢=2 lN + N2 nilpotente de noyau de dimension 1
(écrire N sous la forme de Jordan) de sorte que N¢ est semblable à N. Ainsi Jn(l)2
est semblable à Jn(l2) et on remarque donc que les blocs de Jordan de A relativement aux
valeurs propres négatives sont, pour chaque dimension, en nombre pair.
- Il ne reste alors plus qu'à traiter les matrices réelles A sans valeur propre réelle: A est alors
semblable à une somme directe de matrice de la forme Jn(l) ÅJn([`(l)]). On écrit alors
Jn(l)=X2. La matrice diagonale par blocs diag(X,[`(X)]) est semblable à une matrice réelle:
ainsi A est semblable au carré d'une matrice elle-même semblable à une matrice réelle de sorte que A est
semblable au carré d'une matrice réelle; il est alors classique que l'on peut prendre la matrice de passage
réelle et donc A est un carré.
Montrez que toute matrice est de façon effective semblable à une matrice de Hessenberg, i.e. telle que tous les
termes au dessous de sa sous-diagonale sont nuls.
La méthode est celle du pivot de Gauss: on opère, à gauche, sur les lignes sans toucher à la première de façon à obtenir une première colonne dont tous les termes sont nuls sauf éventuellement les deux premiers. On applique alors la même transformation à droite: comme à gauche on n'avait pas modifié la première ligne, à droite on ne modifie pas la première colonne. On raisonne ensuite par récurrence.
Montrez que deux matrices réelles unitairement semblables sont orthogonalement semblables.
On a A=UBU-1 et \scriptspace t A=U \scriptspace t B U-1. On rappelle que deux matrices réelles qui sont semblables sur C sont semblables sur C. Il existe donc P Î GLn(R) telle que A=PBP-1 et \scriptspace t A=P \scriptspace t B P-1. Soit P=OS la décomposition polaire de P et A=OSB-1 B-1 o-1. Le résultat découle alors du fait que B et S commutent: en effet on a PBP-1=A=\scriptspace t ( \scriptspace t A)=\scriptspace t P-1 B \scriptspace t P. Ainsi B commute avec \scriptspace t P P donc aussi avec S qui est un polynôme en \scriptspace t PP.
Remarque: Comme application, on pourra en déduire la réduction des isométries, à partir de la diagonalisation des endomorphismes unitaires.
Montrez que l'application A ® A exp(A) est surjective.
- Le plus difficile est le cas n=1: il s'avère qu'en dehors de z ¹ 0 qui n'a
qu'un seul antécédent, tous les autres complexes en ont chacun une infinité par f(z)=z expz.
- Pour une matrice nilpotente: d'après Jordan, on se ramène à un seul bloc de Jordan plein Jn.
On raisonne par analyse et synthèse. On remarque alors que si Jn=A expA alors A est nilpotent avec dimkerA=1 ce qui impose que A est semblable à Jn:
A=P Jn P-1. En synthèse on remarque simplement que, d'après Jordan, Jn+Jn2+[(Jn3)/2]+ ¼+ [(Jn-1)/((n-2)!)] et Jn sont semblables.
- Il ne reste plus qu'à traiter le cas inversible où l'on se ramène à M=lIn+Jn et où on écrit
l = mexp(m) avec m ¹ 0 et même m ¹ -1. On a alors f(mIn+N)=f(m)In+f¢(m)N+N2 p(N) où p(N) est un polynôme en N. Comme f¢(m) ¹ 0, on peut alors procéder comme dans le cas nilpotent.
Montrez que si un ouvert de Mn(C) contient les matrices diagonales et est stable par similitude, alors il est égal
à Mn(C) tout entier.
Soit F le fermé complémentaire; s'il était non vide il contiendrait une matrice M=S+N, sa décomposition
de Dunford, et contiendrait aussi sa partie semi-simple S, laquelle est dans l'adhérence de la classe de
similitude de M, d'où la contradiction.
- Donnez les points de continuité de l'application qui à une matrice associe son polynôme minimal.
- Montrez en utilisant la décomposition polaire que O(n) (resp. U(n)) est un sous-groupe compact
maximal de GLn(R) (resp. GLn(C)).