Soit $n \in \mathbb{N}^*$. On note $\mathbb{U}_n$ l'ensemble des racines $n$-ièmes de l'unité. Calculer :\[
a) \prod_{z \in \mathbb{U}_n}z \quad \quad b) \sum_{z \in \mathbb{U}_n}|z-1|.
\]
Résoudre l'équation d'inconnue $z \in \mathbb{C}$ :\[
2iz+5=3\overline{z}+5i
\]En cas d'existence, on donnera la ou les solutions sous forme algébrique.
Il s'agit d'une équation polynomiale du second degré, on applique la résolution classique utilisant le discriminant.
Correction
Le discriminant $\Delta$ de l'équation polynomiale du second degré vérifie :\[
\Delta = (5i)^2-4\times 1 \times (-4)= -9 \neq 0
\]et $\delta=3i$ est une racine de $\Delta$. Par suite, l'équation possède deux solutions distinctes $z_{\pm}$ :\[
z_{\pm} = \frac{-5i\pm \delta}{2\times 1}
\]et ainsi, $z_+=-i$ et $z_-=-4i$. L'équation a donc pour solutions $-i$ et $-4i$.
Soit $A,B,C,D$ quatre points du plan complexe tels que $A\neq B$ et $C \neq D$. Montrer qu'il existe une unique similitude directe $s: \mathbb{C} \rightarrow \mathbb{C}$ telle que $s(A)=C$ et $s(B)=D$. Dans cet exercice, on identifie les points du plan complexe avec leurs affixes.
Indications
Faire l'analyse du problème.
Correction
Analysons le problème : si $s$ est une similitude directe vérifiant les propriétés demandées, alors il existe $a,b \in \mathbb{C}$ avec $a\neq 0$ tels que $s:z \mapsto az+b$ et $aA+b=s(A)=C$; $aB+b=s(B)=D$. Alors, en faisant la différence et la somme de ces égalités, on obtient :\[
\begin{cases}
a(A-B)=C-D \\
a(A+B)+2b=C+D &
\end{cases}
\]$A$ étant différent de $B$, on obtient :\[
\begin{cases}
a=\frac{C-D}{A-B} \\
b=\frac{1}{2}\left(C+D-\frac{(C-D)(A+B)}{A-B}\right)=\frac{AD-BC}{A-B}.
\end{cases}
\]Passons à la synthèse. Existence : On pose $a=\frac{C-D}{A-B} \in \mathbb{C}^*$ (non nul car $C \neq D$), $b=\frac{AD-BC}{A-B} \in \mathbb{C}$ et $s:z \mapsto az+b$. Alors $s$ est une similitude directe et on a :\[
s(A)=aA+b=\frac{C-D}{A-B}A+\frac{AD-BC}{A-B}=C
\]et \[
s(B)=aB+b=\frac{C-D}{A-B}B+\frac{AD-BC}{A-B}=D
\]d'où l'existence d'une similitude qui envoie $A$ sur $C$ et $B$ sur $D$. Unicité : Soit deux telles similitudes $s:z\mapsto az+b$ et $s':z\mapsto a'z+b'$. Alors :\[
aA+b=s(A)=C=s'(A)=a'A+b'
\]et \[
aB+b=s(B)=D=s'(B)=a'B+b'
\]d'où, en faisant la différence de ces deux égalités, on obtient :\[
a=a' \text{ puis }b=b'.
\]Donc $s=s'$. (pour l'unicité, on aurait pu également pu réutiliser ce qui avait été fait dans l'analyse !)
On considère l'espace euclidien $\mathbb{R}^3$ orienté par la base canonique. Caractériser géométriquement l'endomorphisme $u$ de $\mathbb{R}^3$ dont la matrice $A$ dans la base canonique est :\[
A=\frac{1}{2\sqrt{3}}\begin{pmatrix}
6\sqrt{3}&0&4\sqrt{6} \\
0&\sqrt{3}&-1 \\
-4\sqrt{6}&3&-5\sqrt{3}
\end{pmatrix}
\]
On considère l'espace euclidien $\mathbb{R}^3$ orienté par la base canonique. Caractériser géométriquement l'endomorphisme $u$ de $\mathbb{R}^3$ dont la matrice $A$ dans la base canonique est :\[
A=\frac{1}{2}\begin{pmatrix}
\sqrt{3}&0&1 \\
0&2&0 \\
-1&0&\sqrt{3}
\end{pmatrix}
\]
On considère l'espace euclidien $\mathbb{R}^3$ orienté par la base canonique. Caractériser géométriquement l'endomorphisme $u$ de $\mathbb{R}^3$ dont la matrice $A$ dans la base canonique est :\[
A=-\frac{\sqrt{2}}{2}\begin{pmatrix}
1&0&-1 \\
0&-2&0 \\
1&0&1
\end{pmatrix}
\]
Soit $n \in \mathbb{N}^*$ et $A \in \mathcal{M}_n(\mathbb{R})$. Montrer que si $A+{}^{t}\mkern-3mu A$ est nilpotente, alors $A$ est une matrice antisymétrique.
Soit $E$ un espace euclidien et $u,v \in \mathcal{L}(E)$.
On suppose que $u \in \mathcal{S}^{++}(E)$ (i.e. $u$ est un endomorphisme autoadjoint défini positif). Justifier que $u$ est bijectif et montrer qu'il existe $r \in \mathcal{S}^{++}(E)$ tel que $r^2=u$.
On suppose $u \in \mathcal{S}^{++}(E)$ et $v \in \mathcal{S}(E)$. Montrer que $u^{-1}\circ v$ est diagonalisable.
On munit $E=\mathbb{R}[X]$ du produit scalaire $(\cdot | \cdot)$ tel que, pour $P,Q \in E$ :\[
(P|Q)=\frac{1}{2}\int_{-1}^1 P(t)Q(t)\text{d}t.
\]
Par le procédé d'orthonormalisation de Gramm-Schmidt, déterminer une famille orthonormale $(e_0,e_1,e_2)$ de $E$ à partir de la famille $(1,X,X^2)$. Dans la suite, on note $F=\text{Vect}(e_0,e_1,e_2)$.
Pour $n \in \mathbb{N}$, calculer la projection orthogonale de $X^{2n+1}$ sur $F$.
Soit $n \in \mathbb{N}^*$ et $(G,\cdot)$ un groupe fini de cardinal $2n$. On définit sur $G$ la relation binaire $\mathcal{R}$, pour $g,h \in G$, par :\[
g \,\mathcal{R} \,h \;\text{ si, et seulement si, }\;g=h \text{ ou }g^{-1}=h.
\]
Montrer que $\mathcal{R}$ est une relation d'équivalence sur $G$.
En déduire qu'il existe un élément d'ordre $2$ dans $G$.
Soit $(G,\cdot)$ un groupe et $x,y \in G$ deux éléments qui commutent d'ordres finis respectifs $n$ et $m$. On suppose de plus que $n$ et $m$ sont premiers entre eux. Déterminer l'ordre $o(g)$ de $g=xy$.
Soit $(G, \cdot)$ un groupe, $n,m \in \mathbb{N}^*$ et $g \in G$ un élément d'ordre fini égal à $nm$. Montrer que si $n$ et $m$ sont premiers entre eux alors il existe un unique couple $(x,y) \in G^2$ tel que $x,y$ commutent, sont d'ordres finis respectifs $n$, $m$ et $g=xy$.
Correction
On suppose $n \wedge m = 1$. D'après le théorème de Bézout, il existe $u,v \in \mathbb{Z}$ tels que $nu+mv=1$. On remarque alors, à partir de cette relation et toujours d'après le théorème de Bézout (la réciproque cette fois), que $n \wedge v = 1$ et $m \wedge u = 1$.
Démontrons le résultat demandé :
Existence : On pose $x=g^{mv}$ et $y=g^{nu}$. Alors $x$ et $y$ commutent car des composées de $g$ et de son symétrique commutent entre elles et on a : \[
xy=g^{mv}g^{nu}=g^{mv+nu}=g.
\] De plus, on a $x^n=(g^{mv})^n=(g^{nm})^v=e$ et $y^m=(g^{nu})^m=(g^{nm})^u=e$ car $g$ est d'ordre $nm$, donc $x$ et $y$ sont d'ordre finis disons respectivement $p$ et $q$. D'après ce qui précède, on a $p|n$ et $q|m$. Montrons que $n|p$ et $m|q$. On a : \[
g^{mvp}=x^p=e
\] et $g$ d'ordre $nm$ donc $nm|mvp$ d'où $n|vp$. Or, d'après la remarque initiale, $n \wedge v = 1$, donc d'après le lemme de Gauss, $n|p$. Par un raisonnement analogue, on prouve $m|q$. Ainsi, $n,m,p,q$ étant positifs, on a $p=n$ et $m=q$. Ce qui démontre l'existence.
Unicité : Soit $(x,y), (z,t) \in G^2$ deux couples ayant les propriétés annoncées. Alors, comme $xy=g=zt$, on a $x^{-1}z=yt^{-1}$ et : \[
\begin{array}{rcl}
x^{-1}z&=&(x^{-1}z)^{nu+mv} \\
&=&(x^{-1}z)^{nu}.(yt^{-1})^{mv} \\
&=&((x^n)^{-1}z^n)^u.(y^m(t^m)^{-1})^{v} \\
&=&(e.e)^u.(e.e)^v \\
x^{-1}z&=&e
\end{array}
\] D'où $e=x^{-1}z=yt^{-1}$ et donc $x=z$ et $y=t$. Ce qui prouve l'unicité.
Montrer que $G=\{z \in \mathbb{C} \; | \; \exists\; n \in \mathbb{N}^*, z^n=1\}$ est un sous-groupe de $(\mathbb{C}^*,\times)$. Quel est son cardinal ? Justifier.
Soit $n \in \mathbb{N}^*$. On considère $f:x \mapsto x^n$ et $\mathbb{K}=\mathbb{R}$ ou $\mathbb{C}$. Montrer que $f$ est un morphisme de groupes de $(\mathbb{K}^*,\times)$ dans lui-même puis, en fonction de $\mathbb{K}$, déterminer son image et son noyau.
Soit $G$ un groupe. On condidère l'application $f:x \mapsto x^{-1}$ de $G$ dans $G$ où $x^{-1}$ désigne le symétrique de l'élement $x \in G$ pour la loi de composition interne de $G$.
Montrer que $f$ est bijective.
Montrer que $f$ est un morphisme si, et seulement si, $G$ est commutatif.
Soit $A$ un anneau commutatif et $I$ un idéal de $A$. On note :\[
\sqrt{I}=\{x \in A \; | \; \exists \,n \in \mathbb{N}^*, \; x^n \in I \}.
\]
Montrer que $\sqrt{I}$ est un idéal de $A$.
Déterminer $\sqrt{169\mathbb{Z}}$ et $\sqrt{256\mathbb{Z}}$ dans l'anneau $\mathbb{Z}$.
Montrer que $\sqrt{\sqrt{I}} = \sqrt{I}$.
Soit $J$ un idéal de $A$. Montrer que : \[
\sqrt{I\cap J}=\sqrt{I} \cap \sqrt{J} \text{ et } \sqrt{I}+\sqrt{J} \subset \sqrt{I+J}.
\] Trouver un exemple dans $\mathbb{Z}[X]$ qui montre que, pour le dernier point, l'inclusion réciproque est fausse en général.
On considère l'ensemble :\[
A=\{x \in \mathbb{Q} \; | \; \exists\, a \in \mathbb{Z},\; \exists\, b \in 2\mathbb{Z}+1, \; x=\frac{a}{b}\}.
\]Montrer que $A$ est un sous-anneau de $\mathbb{Q}$ puis montrer que $A$ est principal.
On considère l'anneau $\mathbb{Z}[X]$ et $n \in \mathbb{N}$ avec $n\geqslant 2$. Montrer que l'idéal $I=X\mathbb{Z}[X]+n\mathbb{Z}[X]$ n'est pas principal.
On définit deux lois de composition sur $\mathbb{R}$ :\[
x\oplus y=x+y-1 \quad\text{et}\quad x \otimes y=x+y-xy \quad\text{pour }x,y \in \mathbb{R}
\]Montrer que $(\mathbb{R},\oplus,\otimes)$ est un corps.
On pose $j=e^{i\frac{2\pi}{3}}$. Montrer que le système linéaire suivant admet une unique solution $(x,y,z) \in \mathbb{C}^3$ vérifiant $x=\alpha(1-j)$ avec $\alpha \in \mathbb{R}$ à déterminer :\[
\left\{
\begin{array}{ccccccc}
x&+&jy&+&j^2z&=&0 \\
jx&+&y&+&j^2z&=&-j \\
j^2x&+&j^2y&+&z&=&j^2
\end{array}\right.
\]
Calculer le polynôme caractéristique, le polynôme minimal et le rang de $A$.
Soit $u$ un endomorphisme d'un espace vectoriel de dimension finie, montrer que $\text{dim}(\text{Ker}(u^2))\leqslant 2\text{dim}(\text{Ker}(u))$.
Soit $B \in \mathcal{M}_{3n}(\mathbb{R})$ telle que $B^3=0_{3n}$ et $\text{rg}(B) = 2n$.
Montrer que $\text{Im}(B^2) \subset \text{Ker}(B)$.
En déduire le rang de $B^2$.
Soit $(X_1,\hdots , X_m)$ une base d'un supplémentaire de $\text{Ker}(B^2)$. Montrer que $(B^2X_1, \hdots , B^2X_m, BX_1, \hdots, BX_m, X_1, \hdots, X_m)$ est une famille libre.
Montrer que $A$ et $B$ sont semblables.
Indications
Polynôme caractéristique : soit par un calcul direct, soit après avoir fait le polynôme minimal; polynôme minimal : calculer $A^2$ et $A^3$; rang : déterminer le nombre maximum de colonnes qui forme une famille libre (une base de l'image donc).
Montrer d'abord que $(B^2X_1, \hdots , B^2X_m)$ est une famille libre avec la définition en utilisant ensuite que l'intersection de $\text{Ker}(B^2)$ et du supplémentaire considéré est réduite à $0_{3n,1}$. Puis rappliquer la définition de famille libre à la famille entière et multiplier par $B$ puis par $B^2$.
Considérer l'endomorphisme $u:X \mapsto BX$ de $M_{3n,1}(\mathbb{K})$ ou encore écrire la matrice $P$ ayant pour colonnes les éléments de la base de $M_{3n,1}(\mathbb{K})$ de la question précédente.
Correction
On a, pour $\lambda \in \mathbb{R}$ : \[
\chi_A(\lambda)=\begin{vmatrix} \lambda I_n & -I_n & 0_n \\ 0_n & \lambda I_n & -I_n \\ 0_n & 0_n & \lambda I_n \end{vmatrix}
\] Ce déterminant étant celui d'une matrice triangulaire par blocs, il est égal au produit des déterminants des blocs diagonaux, d'où : \[
\chi_A(\lambda) = \text{det}(\lambda I_n)^3 = \lambda^{3n}
\] et donc $\chi_A=X^{3n}$. On a $A^2=\begin{pmatrix} 0_n & 0_n & I_n \\ 0_n & 0_n & 0_n \\ 0_n & 0_n & 0_n \end{pmatrix}$ et $A^3=0_{3n}$ donc $X^3$ est annulateur de $A$ mais pas $X^2$, d'où $\pi_A=X^3$. Le rang de $A$ est égal à $2n$ car ses $2n$ dernières colonnes forment une famille libre de $\mathcal{M}_{3n,1}(\mathbb{K})$ et les $n$ premières sont nulles donc liées aux $2n$ dernières. Remarque : on aurait également pu déduire le polynôme caractéristique à partir du polynôme minimal : en effet, comme $\pi_A=X^3$, $A$ est nilpotente et le cours affirme que dans ce cas, $\chi_A=X^{3n}$ car $A \in \mathcal{M}_{3n}(\mathbb{K})$.
On note $v$ la restriction de $u$ à $\text{Im}(u)$. Alors $\text{Ker}(v) \subset \text{Ker}(u)$ et $\text{Im}(v) = \text{Im}(u^2)$ car, pour tout $x \in E$, $v(u(x))=u^2(x)$. Ainsi, d'après le théorème du rang, on a : \[
\begin{array}{rcl}
\text{rg}(u)&=&\text{dim}\left(\text{Im}(u)\right) \\
&=&\text{rg}(v)+\text{dim}\left(\text{Ker}(v)\right) \\
&=&\text{rg}(u^2)+\text{dim}\left(\text{Ker}(v)\right) \\
&\leqslant &\text{rg}(u^2)+\text{dim}\left(\text{Ker}(u)\right) \\
\end{array}
\] d'où : \[
\text{rg}(u)-\text{rg}(u^2)\leqslant\text{dim}\left(\text{Ker}(u)\right) \quad (*)
\] Or, en appliquant le théorème du rang à $u$ puis à $u^2$, on a : \[
\begin{array}{l}
\text{dim}\left(E\right)=\text{rg}(u)+\text{dim}\left(\text{Ker}(u)\right) \\
\text{dim}\left(E\right)=\text{rg}(u^2)+\text{dim}\left(\text{Ker}(u^2)\right)
\end{array}
\] donc : \[
\text{rg}(u)-\text{rg}(u^2) = \text{dim}\left(\text{Ker}(u^2)\right)-\text{dim}\left(\text{Ker}(u)\right).
\] En reportant cette dernière égalité dans $(*)$ et en ajoutant $\text{dim}\left(\text{Ker}(u)\right)$ on obtient le résultat.
Soit $Y \in \text{Im}(B^2)$. Alors il existe $X \in \mathcal{M}_{3n,1}(\mathbb{K})$ tel que $Y=B^2X$. Ainsi $BY=B(B^2X)=B^3X=0_3X=0_{3n,1}$. D'où $Y \in \text{Ker}(B)$. D'où l'inclusion.
Comme $\text{rg}(B)=2n$, d'après le théorème du rang, $\text{dim}\left(\text{Ker}(B)\right)=3n-2n=n$. Ainsi, d'après la question précédente, $\text{rg}(B^2)\leqslant n$. De plus, pour $u$ l'endomorphisme de $\mathbb{K}^n$ canoniquement associé à $B$. D'après la question 2., on a : \[
\text{dim}\left(\text{Ker}(u^2)\right)\leqslant 2\text{dim}\left(\text{Ker}(u)\right)
\] d'où : \[
\text{dim}\left(\text{Ker}(B^2)\right)\leqslant 2\text{dim}\left(\text{Ker}(B)\right)
\] et donc \[
3n-\text{rg}(B^2)\leqslant 6n - 2\text{rg}(B) = 6n-4n=2n.
\] Par suite, on obtient $\text{rg}(B^2) \geqslant 3n-2n = n$. Ainsi, $\text{rg}(B^2)=n$.
D'après le résultat de la question précédente et le théorème du rang, on a $\text{dim}\left(\text{Ker}(B^2)\right)=3n-n=2n$, donc tout supplémentaire de $\text{Ker}(B^2)$ est de dimension $3n-2n=n$. Par suite, $m=n$. On note $S= \text{Vect}(X_1,\hdots,X_n)$ le supplémentaire de $\text{Ker}(B^2)$ considéré. Montrons que la famille $(B^2X_1,\hdots,B^2X_n)$ est libre. Soit $\lambda_1,\hdots, \lambda_n \in \mathbb{K}$. On suppose que $\sum_{i=1}^n \lambda_i B^2X_i = 0_{3n,1}$. On note $X=\sum_{i=1}^n \lambda_i X_i \in S$. Alors on a $B^2X=\sum_{i=1}^n \lambda_i B^2X_i = 0_{3n,1}$, donc $X \in S \cap \text{Ker}(B^2)= \{0_{3n,1}\}$ d'où $\sum_{i=1}^n \lambda_i X_i=0_{3n,1}$. Or, la famille $(X_1,\hdots,X_n)$ est libre comme base de $S$, donc $\lambda_1=0,\hdots, \lambda_n=0$. Par suite, $(B^2X_1,\hdots,B^2X_n)$ est libre. Montrons que la famille $(B^2X_1,\hdots,B^2X_n,BX_1,\hdots,BX_n,X_1,\hdots,X_n)$ est libre. Soit $\lambda_1,\hdots,\lambda_{n},\mu_1,\hdots,\mu_{n},\nu_1,\hdots,\nu_{n} \in \mathbb{K}$. On suppose que $Y=\sum_{i=1}^n \lambda_i B^2X_i+\sum_{i=1}^n \mu_i BX_i+\sum_{i=1}^n \nu_i X_i = 0_{3n,1}$.
On a : $B^2Y = \sum_{i=1}^n \lambda_i \underbrace{B^4X_i}_{=0_{3n,1}}+\sum_{i=1}^n \mu_i \underbrace{B^3X_i}_{=0_{3n,1}}+\sum_{i=1}^n \nu_i B^2X_i = B^20_{3n,1}=0_{3n,1}$, donc $\sum_{i=1}^n \nu_i B^2X_i =0_{3n,1}$. Or, d'après ce qui précède, la famille $(B^2X_1,\hdots,B^2X_n)$ est libre, d'où $\nu_1=0,...,\nu_n=0$.
$BY = \sum_{i=1}^n \lambda_i \underbrace{B^3X_i}_{=0_{3n,1}}+\sum_{i=1}^n \mu_i B^2X_i = B0_{3n,1}=0_{3n,1}$, donc $\sum_{i=1}^n \mu_i B^2X_i =0_{3n,1}$, d'où, comme précédemment, $\mu_1=0,...,\mu_n=0$.
$Y=\sum_{i=1}^n \lambda_i B^2X_i=0_{3n,1}$, d'où, comme précédemment, $\lambda_1=0,...,\lambda_n=0$.
Il en résulte que $(B^2X_1,\hdots,B^2X_n,BX_1,\hdots,BX_n,X_1,\hdots,X_n)$ est libre.
Comme $\mathcal{B}=(B^2X_1,\hdots,B^2X_n,BX_1,\hdots,BX_n,X_1,\hdots,X_n)$ est une famille libre de cardinal $3n$ dans $\mathcal{M}_{3n,1}(\mathbb{K})$ qui est de dimension $3n$, $\mathcal{B}$ est une base de $\mathcal{M}_{3n,1}(\mathbb{K})$. On considère la base canonique $\mathcal{C}=(E_1,\hdots,E_{3n})$ de $\mathcal{M}_{3n,1}(\mathbb{K})$. Voici deux façons (quasiment similaires) d'établir le résultat :
1ère façon : en montrant que $A$ et $B$ représentent le même endomorphisme dans deux bases différentes. Soit $u:X \mapsto BX$. Alors $u$ est un endomorphisme de $\mathcal{M}_{3n,1}(\mathbb{K})$ et $\text{Mat}_{\mathcal{C}}(u)=B$. Déterminons la matrice $\text{Mat}_{\mathcal{B}}(u)$ de $u$ dans la base $\mathcal{B}$. On a, pour tout $i \in \;[\!\!\![\; 1,n \;]\!\!\!]\;$ : \[
\begin{array}{l}
u(B^2X_i)=B(B^2X_i)=B^2X_i=0_{3n,1}, \\
u(BX_i)=B(BX_i)=B^2X_i \text{ et} \\
u(X_i)=B(X_i)=BX_i.
\end{array}
\] Par suite, on a : \[
\text{Mat}_{\mathcal{B}}(u) = \begin{pmatrix} 0_n & I_n & 0_n \\ 0_n & 0_n & I_n \\ 0_n & 0_n & 0_n \end{pmatrix} = A
\] Comme deux matrices qui représentent un même endomorphisme sont semblables, il en résulte que $A$ et $B$ sont semblables.
2ème façon : en exhibant une matrice inversible de similitude entre $A$ et $B$. La matrice $P=(P_1|\hdots|P_{3n}) \in \mathcal{M}_{3n}(\mathbb{K})$ dont les colonnes $P_i$ de $P$ sont les éléments (dans l'ordre) de la base $\mathcal{B}$ est inversible car de rang $3n$ et on a : \[
\begin{array}{rcl}
P^{-1}BP&=&P^{-1}B(B^2X_1|\hdots|B^2X_n|BX_1|\hdots|BX_n|X_1|\hdots|X_n) \\
&=&P^{-1}(B^3X_1|\hdots|B^3X_n|B^2X_1|\hdots|B^2X_n|BX_1|\hdots|BX_n) \\
&=&P^{-1}(0_{3n,1}|\hdots|0_{3n,1}|B^2X_1|\hdots|B^2X_n|BX_1|\hdots|BX_n) \\
&=&(0_{3n,1}|\hdots|0_{3n,1}|P^{-1}B^2X_1|\hdots|P^{-1}B^2X_n|P^{-1}BX_1|\hdots|P^{-1}BX_n) \\
\end{array}
\] Or, comme $P^{-1}(B^2X_1|\hdots|B^2X_n|BX_1|\hdots|BX_n|X_1|\hdots|X_n)=P^{-1}P=I_{3n}=\left(E_1|\hdots|E_{3n}\right)$, on a : \[
(P^{-1}B^2X_1|\hdots|P^{-1}B^2X_n|P^{-1}BX_1|\hdots|P^{-1}BX_n|P^{-1}X_1|\hdots|P^{-1}X_n)=\left(E_1|\hdots|E_{n}|E_{n+1}|\hdots|E_{2n}|E_{2n+1}|\hdots|E_{3n}\right),
\] d'où : \[
\begin{array}{rcl}
P^{-1}BP&=&(0_{3n,1}|\hdots|0_{3n,1}|P^{-1}B^2X_1|\hdots|P^{-1}B^2X_n|P^{-1}BX_1|\hdots|P^{-1}BX_n) \\
&=&(0_{3n,1}|\hdots|0_{3n,1}|E_{1}|\hdots|E_n|E_{n+1}|\hdots|E_{2n}) \\
&=&\begin{pmatrix} 0_n & I_n & 0_n \\ 0_n & 0_n & I_n \\ 0_n & 0_n & 0_n \end{pmatrix} \\
P^{-1}BP&=&A.
\end{array}
\] Par suite, $A$ et $B$ sont semblables.
Soit $A=\begin{pmatrix}
1&1&-1 \\
2&0&-3 \\
-1&1&1
\end{pmatrix}$. Déterminer les éléments propres (valeurs propres, sous-espaces propres) de $A$ vue comme appartenant à $M_3(\mathbb{R})$ puis à $M_3(\mathbb{C})$.
Pour $n \in \mathbb{N}^*$, on note $A_n=(a_{ij})_{1\leqslant i,j \leqslant n } \in \mathcal{M}_n(\mathbb{R})$ la matrice telle que, pour $i,j \in \;[\!\!\![\; 1,n\;]\!\!\!]\;$ :\[
a_{i,j}=\begin{cases}
1&\text{ si }i=j+1\text{ ou }j=i+1 \\
0&\text{ sinon }
\end{cases}
\]et on note $\chi_n$ le polynôme caractéristique de $A_n$ i.e. $\chi_n(X)=\text{det}(XI_n-A_n)$.
Soit $n \in \mathbb{N}^*$. Montrer que, pour tout $\lambda \in \mathbb{R}$, \[
\chi_{n+2}(\lambda)=\lambda \chi_{n+1}(\lambda)-\chi_n(\lambda)
\]
On pose, pour $\theta \in ]0,\pi[$, $\lambda=2\cos(\theta)$. Montrer que \[
\chi_n(\lambda)=\frac{\sin\left((n+1)\theta\right)}{\sin(\theta)}
\]
En déduire le spectre de $A_n$ puis que $A_n$ est diagonalisable.
Soit un entier $n \geqslant 2$ et $f$ un endomorphisme de $\mathbb{R}^n$ tel que $\text{rg}(f)=2$. Exprimer le polynôme caractéristique de $f$ en fonction de $\text{Tr}(f)$ et $\text{Tr}(f^2)$.
Soit $A=\begin{pmatrix}
-3&1&3 \\
1&-3&3 \\
-5&5&1
\end{pmatrix}$. Diagonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $D \in \mathcal{M}_{3}(\mathbb{R})$ diagonale telle que $A=PDP^{-1}$.
Soit $A=\begin{pmatrix}
1&-1&3 \\
-2&2&3 \\
2&1&0
\end{pmatrix}$. Diagonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $D \in \mathcal{M}_{3}(\mathbb{R})$ diagonale telle que $A=PDP^{-1}$.
Soit $A=\begin{pmatrix}
4&-1&-3 \\
1&2&-3 \\
-1&1&6
\end{pmatrix}$. Diagonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $D \in \mathcal{M}_{3}(\mathbb{R})$ diagonale telle que $A=PDP^{-1}$.
Soit $A=\begin{pmatrix}
0&-1&1 \\
6&-5&2 \\
-3&1&-4
\end{pmatrix}$. Trigonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $T \in \mathcal{M}_{3}(\mathbb{R})$ triangulaire supérieure telle que $A=PTP^{-1}$.
Soit $A=\begin{pmatrix}
3&-4&-5 \\
6&-8&-6 \\
-7&8&5
\end{pmatrix}$. Trigonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $T \in \mathcal{M}_{3}(\mathbb{R})$ triangulaire supérieure telle que $A=PTP^{-1}$.
Soit $A=\begin{pmatrix}
0&\frac{1}{2}&\frac{1}{2} \\
1&0&1 \\
1&-1&0
\end{pmatrix}$. Trigonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $T \in \mathcal{M}_{3}(\mathbb{R})$ triangulaire supérieure telle que $A=PTP^{-1}$.
Soit $A=\begin{pmatrix}
4&1&0 \\
0&2&-1 \\
1&1&3
\end{pmatrix}$. Trigonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $T \in \mathcal{M}_{3}(\mathbb{R})$ triangulaire supérieure telle que $A=PTP^{-1}$.
Soit $n \in \mathbb{N}^*$, $E$ une espace vectoriel de dimension $n$ sur $\mathbb{K}=\mathbb{R}$ ou $\mathbb{C}$ et $u \in \mathcal{L}(E)$ de rang $1$. Montrer que $u$ est diagonalisable si, et seulement si, $\text{Tr}(u)\neq 0$.
Soit $n \in \mathbb{N}^*$. Déterminer toutes les matrices $A \in \mathcal{M}_n(\mathbb{R})$ telles que :\[
\begin{cases}
\text{Tr}(A)=0 \\
A^3-6A^2+9A=0_n
\end{cases}
\]
Soit $E$ un espace vectoriel de dimension finie et $u \in \mathcal{L}(E)$ un endomorphisme de rang $1$. Montrer que $u$ est diagonalisable si, et seulement si, $\text{Im}(u) \not \subset \text{Ker}(u)$.
Soit $n \in \mathbb{N}^*$ et $\mathbb{K}=\mathbb{R}$ ou $\mathbb{C}$. Soit $A,N \in \mathcal{M}_n(\mathbb{K})$ telles que $N$ est nilpotente et $A,N$ commutent. Montrer que :\[
\text{det}(A+N)=\text{det}(A)
\]On pourra commencer par étudier le cas $A \in \text{GL}_n(\mathbb{K})$.
Soit $E$ un espace vectoriel et $f,p \in \mathcal{L}(E)$ avec $p$ projecteur. Montrer que $f$ et $p$ commutent si, et seulement si, $\text{Ker}(p)$ et $\text{Im}(p)$ sont stables par $f$.
On considère l'endomorphisme $\Delta: \mathbb{R}[X] \rightarrow \mathbb{R}[X]$ tel que, pour $P \in \mathbb{R}[X]$, $\Delta(P)=P'$. Montrer qu'il n'existe pas d'endomorphisme $\delta$ de $\mathbb{R}[X]$ tel que $\delta^2=\Delta$.
On considère la matrice suivante :\[
A=\begin{pmatrix}
3&3 \\
0&3
\end{pmatrix}.
\]Montrer que $A$ est inversible puis calculer $A^n$ pour $n \in \mathbb{Z}$.
Trouver toutes les matrices colonnes $X \in \mathcal{M}_{3,1}(\mathbb{R})$ telle que $AX=2X$, où :\[
A=\begin{pmatrix}
0&-1&1 \\
-2&1&1 \\
-4&-2&4
\end{pmatrix}.
\]De même pour $AX=X$.
Soit $n \in \mathbb{N}^*$ et $A,B,C \in \mathcal{M}_n(\mathbb{R})$ des matrices non nulles telles que $ABC=O_n$. Montrer qu'au moins deux matrices parmi $A,B,C$ ne sont pas inversibles.
Soit $n \in \mathbb{N}^*$ et $x \in \mathbb{C}$. On considère le déterminant de taille $(n+1) \times (n+1)$ suivant : \[
\Delta_n(x)=\begin{vmatrix}
1 &1 &\hdots&\hdots &1 \\
1 &1-x &\ddots& &\vdots \\
\vdots&\ddots&\ddots&\ddots &\vdots \\
\vdots& &\ddots&(n-1)-x&1 \\
1 &\hdots&\hdots&1 &n-x
\end{vmatrix}
\]Calculer $\Delta_n(x)$ de deux manières différentes : l'une en utilisant des opérations sur les lignes et/ou colonnes; l'autre en étudiant les zéros de la fonction $x \mapsto \Delta_n(x)$.
Soit $\mathcal{B}=(e_1,e_2,e_3)$ la base canonique de $\mathbb{R}^3$ et $\mathcal{B}'=(\varepsilon_1,\varepsilon_2,\varepsilon_3)$ la famille de vecteurs de $\mathbb{R}^3$ définie par :\[
\varepsilon_1=e_1+e_2-2e_3\,; \quad \varepsilon_2=e_1-2e_3\,; \quad \varepsilon_3=e_1-e_2\,.
\]
Montrer que $\mathcal{B}'$ est une base de $\mathbb{R}^3$.
Déterminer la matrice $P$ de passage de $\mathcal{B}$ vers $\mathcal{B}'$ puis la matrice $Q$ de passage de $\mathcal{B}'$ vers $\mathcal{B}$.
Soit $n \in \mathbb{N}^*$. Montrer que le sous-ensemble suivant est un sous-espace affine de $\mathcal{M}_n(\mathbb{R})$ :\[
\mathcal{F}=\{A \in \mathcal{M}_n(\mathbb{R}) \; | \; \text{tr}(A)=n \}.
\]
Montrer que le sous-ensemble suivant est un sous-espace affine de $\mathcal{C}([0,1],\mathbb{R})$ :\[
\mathcal{F}=\{f \in \mathcal{C}([0,1],\mathbb{R}) \; | \; f(0)=1 \text{ et }f(1)=-1\}
\]
Montrer que le sous-ensemble suivant est un sous-espace affine de $\mathcal{C}^{\infty}(\mathbb{R},\mathbb{R})$ :\[
\mathcal{F}=\left\{f \in \mathcal{C}([0,1],\mathbb{R}) \; | \; \forall \; k \in \mathbb{N}, \; f^{(k)}(0) = \begin{cases}
(-1)^p &\text{ si }k=2p \text{ pair avec }p\in \mathbb{N} \\
0&\text{ si }k\text{ impair}
\end{cases}
\right\}.
\]
Soit $n \in \mathbb{N}^*$. Montrer que le sous-ensemble suivant est un sous-espace affine de $\mathbb{R}[X]$ :\[
\mathcal{F}=\{P \in \mathbb{R}[X] \; | \; \forall k \in \;[\!\!\![\; 0, n \;]\!\!\!]\;, \;P(k)=e^k\}.
\]
On considère les sous-espaces vectoriels $F=\text{Vect}(1,1,1)$ et $G=\{(x,y,z) \in \mathbb{R}^3 \; | \; x+y+z=0 \}$ de $\mathbb{R}^3$. Montrer que $F$ et $G$ sont supplémentaires dans $\mathbb{R}^3$.
On note $E=C^{\infty}(\mathbb{R},\mathbb{R})$ et $F=\mathcal{F}(\mathbb{R},\mathbb{R})$. Soit $\varphi:E\rightarrow F$ l'application définie, pour $f \in E$, par $\varphi(f)=f''-3f'+2f$. Montrer que $\varphi$ est un endomorphisme de $E$ et déterminer son noyau.
Soit $E=C([0,1],\mathbb{R})$. On pose $\varphi:E\rightarrow \mathbb{R}$ telle que, pour tout $f\in E$ :\[
\varphi(f)=\int_0^1f(t) dt;
\]et on note $F=\{f \in E \; | \; f \text{ est affine }\}$ (on rappelle qu'une fonction $f$ de $\mathbb{R}$ dans $\mathbb{R}$ est affine s'il existe $a,b \in \mathbb{R}$ tels que $f:t\mapsto at+b$).
Montrer que $\varphi$ est une application linéaire surjective.
Montrer que $F$ est un sous-espace vectoriel de $E$.
Montrer qu'il existe $c \in [0,1]$ tel que $F\cap \text{Ker}(\varphi)=\{f \in F \; | \; f(c)=0\}$.
Indications
Pour la linéarité, utiliser la linéarité de l'intégrale. Pour la surjectivité, que sait-on d'une forme linéaire non nulle ?
Utiliser la définition/caractérisation des sous-espaces vectoriels; ou bien montrer que $F$ est le sous-espace engendré par plusieurs fonctions de $E$ bien choisies.
Dessiner des graphes de fonctions affines d'intégrale nulle sur $[0,1]$.
Correction
Soit $f,g \in E$ et $\lambda \in \mathbb{R}$. On a, par linéarité de l'intégrale : \[
\begin{array}{rcl}
\varphi(\lambda f+g) &=& \displaystyle\int_0^1 (\lambda f+g)(t) dt \medskip \\
&=& \displaystyle \int_0^1 (\lambda f(t)+g(t)) dt \medskip \\
&=& \displaystyle \lambda\int_0^1f(t) dt + \int_0^1g(t) dt \medskip \\
\varphi(\lambda f+g) &=& \lambda\varphi(f)+\varphi(g).
\end{array}
\] Donc $\varphi$ est linéaire. Il s'agit donc d'une forme linéaire sur $E$; or $\varphi(f_0)=1\neq 0$ pour $f_0:x \mapsto 1$, par suite, $\varphi$ est surjective car toute forme linéaire non nulle est surjective.
1ère façon : caractérisation d'un sous-espace vectoriel. Le vecteur nul de $E$ est la fonction nulle $\mathbf{0}$ sur $[0,1]$. Or $\mathbf{0}:t \mapsto 0=0\times t +0$ donc $\mathbf{0}$ est affine i.e. $\mathbf{0} \in F$. Soit $f,g \in F$ et $\lambda \in R$. Alors $f$ et $g$ étant affines, il existe $a,b,a',b' \in \mathbb{R}$ tels que $f:t\mapsto at+b$ et $g:t\mapsto a't+b'$ On a, pour tout $t \in [0,1]$ : \[
\begin{array}{rcl}
(\lambda f+g)(t) &=& \lambda f(t) +g(t) \medskip \\
&=& \lambda (at+b)+ (a't+b') \medskip \\
(\lambda f+g)(t)&=& (\lambda a+a')t+(\lambda b +b')
\end{array}
\] Par suite, comme $(\lambda a+a') \in \mathbb{R}$ et $(\lambda b+b') \in \mathbb{R}$, $\lambda f+g$ est affine et donc $\lambda f+g \in E$. Il en résulte que $F$ est un sous-espace vectoriel de $E$.
2ème façon : sous-espace engendré. On sait que $f$ est une fonction affine si, et seulement si, il existe $a,b$ tel que $f:t \mapsto at+b$. Ainsi, $f$ est affine si, et seulement si, $f=af_1+bf_0$ où $f_0:t \mapsto 1$ et $f_1:t \mapsto t$. Par suite, $F=\text{Vect}(f_0,f_1)$ (où on note par le même nom les restrictions de $f_0$ et $f_1$ à $[0,1]$). Un sous-espace engendré par une famille de vecteurs de $E$ étant un sous-espace vectoriel de $E$, on en déduit que $F$ est un sous-espace vectoriel de $E$.
En dessinant quelques graphes, on conjecture que $c=\frac{1}{2}$. Montrons le :
On procède par double inclusion : Soit $f \in F\cap \text{Ker}(\varphi)$. Alors $f \in F$ et $f \in \text{Ker}(\varphi)$ donc il existe $a,b \in \mathbb{R}$ tels que $f: t \mapsto at+b$ et $\int_0^1f(t) dt=\varphi(f)=0$. Par suite, on a : \[
0=\int_0^1f(t) dt= \int_0^1(at+b) dt = \frac{1}{2}a+b
\] d'où $b=-\frac{1}{2}a$ et donc, pour tout $t \in [0,1]$, $f(t)=a(x-\frac{1}{2})$. Ainsi, $f(\frac{1}{2})=a(\frac{1}{2}-\frac{1}{2})=0$. Donc $F\cap \text{Ker}(\varphi)\subset \{f \in F \; | \; f(\frac{1}{2})=0\}$.
Réciproquement, si $f \in \{f \in F \; | \; f(\frac{1}{2})=0\}$. Alors $f$ est affine et donc il existe $a,b \in \mathbb{R}$ tels que $f: t \mapsto at+b$. Comme $a\frac{1}{2}+b=0=f(\frac{1}{2})$, on a $b=-\frac{1}{2}a$ et donc : \[
\int_0^1f(t) dt = \int_0^1a(x-\frac{1}{2}) dt=a(\frac{1}{2}-\frac{1}{2})=0
\] Donc $f \in F \cap \text{Ker}(\varphi)$; d'où $\{f \in F \; | \; f(\frac{1}{2})=0\} \subset \text{Ker}(\varphi)$.
Il en résulte que $F\cap \text{Ker}(\varphi)= \{f \in F \; | \; f(\frac{1}{2})=0\}$.
Soit $E$ un espace vectoriel sur $\mathbb{K}$ et $p,q$ des projecteurs de $E$ qui commutent. Montrer que $p\circ q$ est un projecteur puis déterminer son noyau et son image en fonction de ceux de $p$ et $q$.
Soit $H$ un hyperplan d'un espace vectoriel $E$ et $x_0 \in E$. Montrer que $x_0 \notin H$ si, et seulement si, $H$ et $\text{Vect}(x_0)$ sont supplémentaires dans $E$.
Soit $n \in \mathbb{N}$ et $x_0,...,x_n$ des réels tous distincts. Montrer que l'application $f:\mathbb{R}_n[X]\rightarrow \mathbb{R}^{n+1}$ définie, pour $P \in \mathbb{R}_n[X]$, par :\[
f(P)=(P(x_0),...,P(x_n))
\]est un isomorphisme d'espaces vectoriels.
Soit $E$ un espace vectoriel de dimension finie et $f,g \in \mathcal{L}(E)$. Montrer que si $f+g$ est bijectif et $g\circ f = \mathbf{0}$ alors $\text{rg}(f)+\text{rg}(g)=\text{dim}(E)$.
Soit $\mathcal{B}=(e_1,e_2,e_3)$ la base canonique de $\mathbb{R}^3$, $\mathcal{B}'=(\varepsilon_1,\varepsilon_2,\varepsilon_3)$ la famille de vecteurs de $\mathbb{R}_3$ définie par :\[
\varepsilon_1=e_1+e_2-e_3; \quad \varepsilon_2=e_1-e_3; \quad \varepsilon_3=e_1-e_2
\]On note $A=\begin{pmatrix}
2&-1&0 \\
-2&1&-2 \\
1&1&3
\end{pmatrix}$ et on considère $f$ l'endomorphisme de $\mathbb{R}^3$ canoniquement associé à $A$.
Montrer que $\mathcal{B}'$ est une base de $\mathbb{R}^3$ et déterminer la matrice $P$ de passage de $\mathcal{B}$ vers $\mathcal{B}'$ puis la matrice $Q$ de passage de $\mathcal{B}'$ vers $\mathcal{B}$.
Soit $n\in \mathbb{N}^*$, $E$ un espace vectoriel de dimension $n$ et $f \in \mathcal{L}(E)$ tel que $f^n=\mathbf{0}$ et $f^{n-1}\neq\mathbf{0}$. Montrer qu'il existe une base $\mathcal{B}$ de $E$ telle que :\[
\text{Mat}_{\mathcal{B}}(f)=\begin{pmatrix}
0 &1 & &0 \\
\vdots&\ddots&\ddots& \\
\vdots& &\ddots&1 \\
0 &\dots &\dots &0
\end{pmatrix}
\]
Déterminer la matrice dans les bases canoniques des espaces de départ et d'arrivée de l'application linéaire $f: \mathbb{R}_4[X] \rightarrow \mathbb{R}_4[X]$ telle que, pour $P \in \mathbb{R}_4[X]$ :\[
f(P)=P(X+2).
\]
Déterminer la matrice dans les bases canoniques des espaces de départ et d'arrivée de l'application linéaire $f: \mathbb{R}^3 \rightarrow \mathbb{R}^4$ telle que, pour $(x,y,z) \in \mathbb{R}^3$ :\[
f(x,y,z)=(x+y,y-4z,z-x,x-2y-z).
\]
Déterminer la matrice dans les bases canoniques des espaces de départ et d'arrivée de l'application linéaire $f: \mathbb{R}^3 \rightarrow \mathbb{R}^2$ telle que, pour $(x,y,z) \in \mathbb{R}^3$ :\[
f(x,y,z)=(2x+y,y-x+3z)
\]
On considère la famille $\mathcal{F}=(e_1,e_2,e_3)$ de $\mathbb{R}^3$ où $e_1=(1,1,0)$, $e_2=(1,1,1)$ et $e_3=(0,1,1)$. Montrer que $\mathcal{F}$ est une base de $\mathbb{R}^3$.
Soit $n \in \mathbb{N}^*$. Pour $k \in \;[\!\!\![\; 0,n \;]\!\!\!]\;$, on pose $P_k=X^k(X-1)^{n-k}$. Montrer que la famille $(P_0,...,P_n)$ est une base de $\mathbb{R}_n[X]$.
Soit $n \in \mathbb{N}^*$, $E$ une espace vectoriel de dimension $n$ et $(e_1,...,e_n)$, $(\varepsilon_1,...,\varepsilon_n)$ des bases d'un espace vectoriel $E$. Montrer qu'il existe $i \in \;[\!\!\![\; 1,n \;]\!\!\!]\;$ tel que $(e_1,...,e_{n-1},\varepsilon_i)$ est une base de $E$.
Résoudre l'équation $x^2+x+11 \; \equiv \; 0 \text{ mod }143$.
Correction
On a $143=11\times 13$ et $11$ est premier avec $13$ donc d'après le théorème chinois, $(*) \;x^2+x+11 \; \equiv \; 0 \text{ mod }143$ si, et seulement si, $$(1)\; x^2+x+11 \; \equiv \; 0 \text{ mod }11 \quad \text{et} \quad (2)\; x^2+x+11 \; \equiv \; 0 \text{ mod }13$$ Donc si $x_1$ est une solution de $(1)$ et $x_2$ une solution de $(2)$, alors $x=x_1u+x_2v$ est solution de $(*)$ où $u,v \in \mathbb{Z}$ sont tels que $11u+13v=1$, et toutes les solutions sont de cette forme.
On a $$ (x+1)x=x^2+x \; \equiv \; x^2+x+11 \; \equiv \; 0 \text{ mod }11 $$ et $$ (x-1)(x+2)=x^2+x-2 \; \equiv \; x^2+x+11 \; \equiv \; 0 \text{ mod }13 $$ Donc les solutions de $(1)$ sont $x \; \equiv \; 0 \text{ mod }11$ et $x \; \equiv \; -1 \text{ mod }11$ et les solutions de $(2)$ sont $x \; \equiv \; 1 \text{ mod }13$ et $x \; \equiv \; -2 \text{ mod }13$.
Déterminons les coefficients $u$ et $v$ : on a $6\times 11-5\times 13=1$, d'où $u=6$ et $v=5$.
Ainsi, on a donc les solutions suivantes : $$ x \; \equiv \; 66 \text{ mod }143 $$ $$ x \; \equiv \; 11 \text{ mod }143 $$ $$ x \; \equiv \; -12 \text{ mod }143 $$ $$ x \; \equiv \; 76 \text{ mod }143 $$
Montrer que le polynôme $P$ est à coefficients dans $\mathbb{R}[X]$ puis le factoriser en produit de polynômes irréductibles dans $\mathbb{R}[X]$ où :\[
P(X)=-i\left((X+i)^n-(X-i)^n\right).
\]