- Consultez les questions sur les matrices diagonalisables de la leçon Endomorphismes diagonalisables.
- Consultez les questions sur les matrices nilpotentes de la leçon Endomorphismes nilpotents.
- Consultez les questions sur les matrices nilpotentes de la leçon Matrices semblables....
-
Montrez que sur un corps algébriquement clos, deux matrices A et B sont semblables si et seulement si, pour
tout l Î K et pour tout k ³ 0, on a rg(A-lI)k=rg(B- lI).
A partir de la forme de Jordan, on rappelle que pour k ³ 1,
dk(A):=dimker(A-lI)k - dimker(A-l)k-1 est égal au nombre de bloc Jordan pour la
valeur propre l qui sont de taille plus grande que k. D'après le théorème du rang, pour tout k ³ 1, on a dk(A)=dk(B) de sorte que A et B ont les mêmes réduites de Jordan et sont donc
semblables.
-
Soit A une matrice vérifiant (A-I)2(A-2I)=0. Calculez exp(A) sous la forme d'un polynôme en A.
Le lemme des noyaux permet de décomposer l'espace E=ker(A-I)2 Åker(A-2I).
On considère le projecteur q (resp. p) sur ker(A-I)2 (resp. ker(A-2I)) parallèlement à ker(A-2I) (resp. ker(A-I)2). De l'égalité p+q=Id, on obtient exp(A)=exp(A)p+exp(A)q. Or
exp(A)p=e2 exp(A-2I)=e2 ån ³ 0 [((A-2I)n)/(n!)] °p=e2 p car (A-2I) °p=0. De
même on a exp(A) q=e A q. De l'identité de Bezout 1=(X-1)2-X(X-2), on en déduit que p=-A(A-2I) et
q=(A-I)2 et donc
exp(A)=-e2A(A-2I)+eA(A-I)2 |
|
-
Montrez que l'ensemble des matrices diagonalisables de Mn(C) est connexe et dense. Quel est son intérieur?
- Connexité: on a une application surjective GLn(C) ×(C×)n sur l'ensemble des matrices diagonalisables: on envoie (P,(a1,¼,an)) sur P diag(a1,¼,an) P-1. L'ensemble
GLn(C) ×(C×)n étant connexe, il en est de même de l'ensemble des matrices diagonalisables.
- On rappelle que GLn(C) est connexe: soient P1,P2 deux matrices inversibles. On considère le polynôme det(P1z+(1-z)P2). Le complémentaire de l'ensemble (fini) des zéros de ce polynôme est connexe; on considère alors un chemin qui relie 0 à 1 dans ce complémentaire, ce qui fournit un chemin de P1 à P2 dans GLn(C).
- Densité: soit A une matrice complexe que l'on trigonalise PAP-1=T. Soit alors
e1,¼,en petits tels que les ti,i+ei sont tous distincts. La matrice
T+diag(e1,¼,en) est alors diagonalisables car elle a n valeurs propres distinctes.
- Intérieur: étant donné une matrice A diagonalisable avec une valeur propre multiple; P-1AP=diag(a1,a2,¼,an) avec a1=a2, alors A+P E1,2 P-1 n'est plus diagonalisable.
- Réciproquement si A est diagonalisable à valeurs propres distinctes, vu que le polynôme caractéristique dépend continûment de A, et que les racines d'un polynôme dépendent continûment de ses coefficients, on en déduit que si A¢ est proche de A, il aura aussi n valeurs propres distinctes et sera donc diagonalisable.
- Par ailleurs l'ensemble des matrices à valeurs propres distinctes est encore connexe. En effet c'est le
complémentaire des zéros du polynôme en n2 variable définit comme le discriminant du polynôme caractéristique.
-
Caractérisez les matrices qui sont des carrés: traitez le cas de C puis de R.
- Remarquons déjà que le problème se ramène à traiter le cas nilpotent et le cas inversible. En effet M peut
s'écrire sous la forme P(
) P-1 avec A
nilpotent et B inversible. Si on a X2=M alors M et X commutent de sorte que X=P (
) P-1 avec AX3=X3B et AX4=X4B; on en déduit alors
que cA(A)X3=X3 cA(B)=0. Or cA et cB sont premiers entre eux et donc cA(B) est
inversible et donc X3=0. De la même façon on a X4=0.
- Le cas nilpotent est traité dans les questions sur la leçon Endomorphismes nilpotents. Traitons
alors le cas inversible.
- Cas complexe: on se ramène comme précédemment au cas A=lI+N avec N nilpotent.
On écrit A=l(I+[(N)/(l)]) qui a pour racine carré Ö{l}(I+[(N)/(l)])1/2 où (I+[(N)/(l)])1/2 est défini par la série qui est finie car N
est nilpotente.
- Cas réel: A=X2 avec A et X réelle. Le cas des valeurs propres strictement
positives se traite comme ci-dessus. En ce qui
concerne les valeurs propres négatives elles ne peuvent provenir que des valeurs propres imaginaires pures
de X; cette dernière étant réelle les blocs de Jordan associés à l Î C sont les mêmes que
ceux associés à [`(l)]. Par ailleurs pour N nilpotente de noyau de dimension 1, on a
(lId+N)2=l2 Id+N¢ avec N¢=2 lN + N2 nilpotente de noyau de dimension 1
(écrire N sous la forme de Jordan) de sorte que N¢ est semblable à N. Ainsi Jn(l)2
est semblable à Jn(l2) et on remarque donc que les blocs de Jordan de A relativement aux
valeurs propres négatives sont, pour chaque dimension, en nombre pair.
- Il ne reste alors plus qu'à traiter les matrices réelles A sans valeur propre réelle: A est alors
semblable à une somme directe de matrice de la forme Jn(l) ÅJn([`(l)]). On écrit alors
Jn(l)=X2. La matrice diagonale par blocs diag(X,[`(X)]) est semblable à une matrice réelle:
ainsi A est semblable au carré d'une matrice elle-même semblable à une matrice réelle de sorte que A est
semblable au carré d'une matrice réelle; il est alors classique que l'on peut prendre la matrice de passage
réelle et donc A est un carré.
-
Montrez que toute matrice est de façon effective semblable à une matrice de Hessenberg, i.e. telle que tous les
termes au dessous de sa sous-diagonale sont nuls.
La méthode est celle du pivot de Gauss: on opère, à gauche, sur les lignes sans toucher à la première de façon à obtenir une première colonne dont tous les termes sont nuls sauf éventuellement les deux premiers. On applique alors la même transformation à droite: comme à gauche on n'avait pas modifié la première ligne, à droite on ne modifie pas la première colonne. On raisonne ensuite par récurrence.
-
Montrez que deux matrices réelles unitairement semblables sont orthogonalement semblables.
On a A=UBU-1 et \scriptspace t A=U \scriptspace t B U-1. On rappelle que deux matrices réelles qui sont semblables sur C sont semblables sur C. Il existe donc P Î GLn(R) telle que A=PBP-1 et \scriptspace t A=P \scriptspace t B P-1. Soit P=OS la décomposition polaire de P et A=OSB-1 B-1 o-1. Le résultat découle alors du fait que B et S commutent: en effet on a PBP-1=A=\scriptspace t ( \scriptspace t A)=\scriptspace t P-1 B \scriptspace t P. Ainsi B commute avec \scriptspace t P P donc aussi avec S qui est un polynôme en \scriptspace t PP.
Remarque: Comme application, on pourra en déduire la réduction des isométries, à partir de la diagonalisation des endomorphismes unitaires.
-
Montrez que l'application A ® A exp(A) est surjective.
- Le plus difficile est le cas n=1: il s'avère qu'en dehors de z ¹ 0 qui n'a
qu'un seul antécédent, tous les autres complexes en ont chacun une infinité par f(z)=z expz.
- Pour une matrice nilpotente: d'après Jordan, on se ramène à un seul bloc de Jordan plein Jn.
On raisonne par analyse et synthèse. On remarque alors que si Jn=A expA alors A est nilpotent avec dimkerA=1 ce qui impose que A est semblable à Jn:
A=P Jn P-1. En synthèse on remarque simplement que, d'après Jordan, Jn+Jn2+[(Jn3)/2]+ ¼+ [(Jn-1)/((n-2)!)] et Jn sont semblables.
- Il ne reste plus qu'à traiter le cas inversible où l'on se ramène à M=lIn+Jn et où on écrit
l = mexp(m) avec m ¹ 0 et même m ¹ -1. On a alors f(mIn+N)=f(m)In+f¢(m)N+N2 p(N) où p(N) est un polynôme en N. Comme f¢(m) ¹ 0, on peut alors procéder comme dans le cas nilpotent.
-
Montrez que si un ouvert de Mn(C) contient les matrices diagonales et est stable par similitude, alors il est égal
à Mn(C) tout entier.
Soit F le fermé complémentaire; s'il était non vide il contiendrait une matrice M=S+N, sa décomposition
de Dunford, et contiendrait aussi sa partie semi-simple S, laquelle est dans l'adhérence de la classe de
similitude de M, d'où la contradiction.
- Donnez les points de continuité de l'application qui à une matrice associe son polynôme minimal.
- Montrez en utilisant la décomposition polaire que O(n) (resp. U(n)) est un sous-groupe compact
maximal de GLn(R) (resp. GLn(C)).