On pose $j=e^{i\frac{2\pi}{3}}$. Montrer que le système linéaire suivant admet une unique solution $(x,y,z) \in \mathbb{C}^3$ vérifiant $x=\alpha(1-j)$ avec $\alpha \in \mathbb{R}$ à déterminer :\[
\left\{
\begin{array}{ccccccc}
x&+&jy&+&j^2z&=&0 \\
jx&+&y&+&j^2z&=&-j \\
j^2x&+&j^2y&+&z&=&j^2
\end{array}\right.
\]
Calculer le polynôme caractéristique, le polynôme minimal et le rang de $A$.
Soit $u$ un endomorphisme d'un espace vectoriel de dimension finie, montrer que $\text{dim}(\text{Ker}(u^2))\leqslant 2\text{dim}(\text{Ker}(u))$.
Soit $B \in \mathcal{M}_{3n}(\mathbb{R})$ telle que $B^3=0_{3n}$ et $\text{rg}(B) = 2n$.
Montrer que $\text{Im}(B^2) \subset \text{Ker}(B)$.
En déduire le rang de $B^2$.
Soit $(X_1,\hdots , X_m)$ une base d'un supplémentaire de $\text{Ker}(B^2)$. Montrer que $(B^2X_1, \hdots , B^2X_m, BX_1, \hdots, BX_m, X_1, \hdots, X_m)$ est une famille libre.
Montrer que $A$ et $B$ sont semblables.
Indications
Polynôme caractéristique : soit par un calcul direct, soit après avoir fait le polynôme minimal; polynôme minimal : calculer $A^2$ et $A^3$; rang : déterminer le nombre maximum de colonnes qui forme une famille libre (une base de l'image donc).
Montrer d'abord que $(B^2X_1, \hdots , B^2X_m)$ est une famille libre avec la définition en utilisant ensuite que l'intersection de $\text{Ker}(B^2)$ et du supplémentaire considéré est réduite à $0_{3n,1}$. Puis rappliquer la définition de famille libre à la famille entière et multiplier par $B$ puis par $B^2$.
Considérer l'endomorphisme $u:X \mapsto BX$ de $M_{3n,1}(\mathbb{K})$ ou encore écrire la matrice $P$ ayant pour colonnes les éléments de la base de $M_{3n,1}(\mathbb{K})$ de la question précédente.
Correction
On a, pour $\lambda \in \mathbb{R}$ : \[
\chi_A(\lambda)=\begin{vmatrix} \lambda I_n & -I_n & 0_n \\ 0_n & \lambda I_n & -I_n \\ 0_n & 0_n & \lambda I_n \end{vmatrix}
\] Ce déterminant étant celui d'une matrice triangulaire par blocs, il est égal au produit des déterminants des blocs diagonaux, d'où : \[
\chi_A(\lambda) = \text{det}(\lambda I_n)^3 = \lambda^{3n}
\] et donc $\chi_A=X^{3n}$. On a $A^2=\begin{pmatrix} 0_n & 0_n & I_n \\ 0_n & 0_n & 0_n \\ 0_n & 0_n & 0_n \end{pmatrix}$ et $A^3=0_{3n}$ donc $X^3$ est annulateur de $A$ mais pas $X^2$, d'où $\pi_A=X^3$. Le rang de $A$ est égal à $2n$ car ses $2n$ dernières colonnes forment une famille libre de $\mathcal{M}_{3n,1}(\mathbb{K})$ et les $n$ premières sont nulles donc liées aux $2n$ dernières. Remarque : on aurait également pu déduire le polynôme caractéristique à partir du polynôme minimal : en effet, comme $\pi_A=X^3$, $A$ est nilpotente et le cours affirme que dans ce cas, $\chi_A=X^{3n}$ car $A \in \mathcal{M}_{3n}(\mathbb{K})$.
On note $v$ la restriction de $u$ à $\text{Im}(u)$. Alors $\text{Ker}(v) \subset \text{Ker}(u)$ et $\text{Im}(v) = \text{Im}(u^2)$ car, pour tout $x \in E$, $v(u(x))=u^2(x)$. Ainsi, d'après le théorème du rang, on a : \[
\begin{array}{rcl}
\text{rg}(u)&=&\text{dim}\left(\text{Im}(u)\right) \\
&=&\text{rg}(v)+\text{dim}\left(\text{Ker}(v)\right) \\
&=&\text{rg}(u^2)+\text{dim}\left(\text{Ker}(v)\right) \\
&\leqslant &\text{rg}(u^2)+\text{dim}\left(\text{Ker}(u)\right) \\
\end{array}
\] d'où : \[
\text{rg}(u)-\text{rg}(u^2)\leqslant\text{dim}\left(\text{Ker}(u)\right) \quad (*)
\] Or, en appliquant le théorème du rang à $u$ puis à $u^2$, on a : \[
\begin{array}{l}
\text{dim}\left(E\right)=\text{rg}(u)+\text{dim}\left(\text{Ker}(u)\right) \\
\text{dim}\left(E\right)=\text{rg}(u^2)+\text{dim}\left(\text{Ker}(u^2)\right)
\end{array}
\] donc : \[
\text{rg}(u)-\text{rg}(u^2) = \text{dim}\left(\text{Ker}(u^2)\right)-\text{dim}\left(\text{Ker}(u)\right).
\] En reportant cette dernière égalité dans $(*)$ et en ajoutant $\text{dim}\left(\text{Ker}(u)\right)$ on obtient le résultat.
Soit $Y \in \text{Im}(B^2)$. Alors il existe $X \in \mathcal{M}_{3n,1}(\mathbb{K})$ tel que $Y=B^2X$. Ainsi $BY=B(B^2X)=B^3X=0_3X=0_{3n,1}$. D'où $Y \in \text{Ker}(B)$. D'où l'inclusion.
Comme $\text{rg}(B)=2n$, d'après le théorème du rang, $\text{dim}\left(\text{Ker}(B)\right)=3n-2n=n$. Ainsi, d'après la question précédente, $\text{rg}(B^2)\leqslant n$. De plus, pour $u$ l'endomorphisme de $\mathbb{K}^n$ canoniquement associé à $B$. D'après la question 2., on a : \[
\text{dim}\left(\text{Ker}(u^2)\right)\leqslant 2\text{dim}\left(\text{Ker}(u)\right)
\] d'où : \[
\text{dim}\left(\text{Ker}(B^2)\right)\leqslant 2\text{dim}\left(\text{Ker}(B)\right)
\] et donc \[
3n-\text{rg}(B^2)\leqslant 6n - 2\text{rg}(B) = 6n-4n=2n.
\] Par suite, on obtient $\text{rg}(B^2) \geqslant 3n-2n = n$. Ainsi, $\text{rg}(B^2)=n$.
D'après le résultat de la question précédente et le théorème du rang, on a $\text{dim}\left(\text{Ker}(B^2)\right)=3n-n=2n$, donc tout supplémentaire de $\text{Ker}(B^2)$ est de dimension $3n-2n=n$. Par suite, $m=n$. On note $S= \text{Vect}(X_1,\hdots,X_n)$ le supplémentaire de $\text{Ker}(B^2)$ considéré. Montrons que la famille $(B^2X_1,\hdots,B^2X_n)$ est libre. Soit $\lambda_1,\hdots, \lambda_n \in \mathbb{K}$. On suppose que $\sum_{i=1}^n \lambda_i B^2X_i = 0_{3n,1}$. On note $X=\sum_{i=1}^n \lambda_i X_i \in S$. Alors on a $B^2X=\sum_{i=1}^n \lambda_i B^2X_i = 0_{3n,1}$, donc $X \in S \cap \text{Ker}(B^2)= \{0_{3n,1}\}$ d'où $\sum_{i=1}^n \lambda_i X_i=0_{3n,1}$. Or, la famille $(X_1,\hdots,X_n)$ est libre comme base de $S$, donc $\lambda_1=0,\hdots, \lambda_n=0$. Par suite, $(B^2X_1,\hdots,B^2X_n)$ est libre. Montrons que la famille $(B^2X_1,\hdots,B^2X_n,BX_1,\hdots,BX_n,X_1,\hdots,X_n)$ est libre. Soit $\lambda_1,\hdots,\lambda_{n},\mu_1,\hdots,\mu_{n},\nu_1,\hdots,\nu_{n} \in \mathbb{K}$. On suppose que $Y=\sum_{i=1}^n \lambda_i B^2X_i+\sum_{i=1}^n \mu_i BX_i+\sum_{i=1}^n \nu_i X_i = 0_{3n,1}$.
On a : $B^2Y = \sum_{i=1}^n \lambda_i \underbrace{B^4X_i}_{=0_{3n,1}}+\sum_{i=1}^n \mu_i \underbrace{B^3X_i}_{=0_{3n,1}}+\sum_{i=1}^n \nu_i B^2X_i = B^20_{3n,1}=0_{3n,1}$, donc $\sum_{i=1}^n \nu_i B^2X_i =0_{3n,1}$. Or, d'après ce qui précède, la famille $(B^2X_1,\hdots,B^2X_n)$ est libre, d'où $\nu_1=0,...,\nu_n=0$.
$BY = \sum_{i=1}^n \lambda_i \underbrace{B^3X_i}_{=0_{3n,1}}+\sum_{i=1}^n \mu_i B^2X_i = B0_{3n,1}=0_{3n,1}$, donc $\sum_{i=1}^n \mu_i B^2X_i =0_{3n,1}$, d'où, comme précédemment, $\mu_1=0,...,\mu_n=0$.
$Y=\sum_{i=1}^n \lambda_i B^2X_i=0_{3n,1}$, d'où, comme précédemment, $\lambda_1=0,...,\lambda_n=0$.
Il en résulte que $(B^2X_1,\hdots,B^2X_n,BX_1,\hdots,BX_n,X_1,\hdots,X_n)$ est libre.
Comme $\mathcal{B}=(B^2X_1,\hdots,B^2X_n,BX_1,\hdots,BX_n,X_1,\hdots,X_n)$ est une famille libre de cardinal $3n$ dans $\mathcal{M}_{3n,1}(\mathbb{K})$ qui est de dimension $3n$, $\mathcal{B}$ est une base de $\mathcal{M}_{3n,1}(\mathbb{K})$. On considère la base canonique $\mathcal{C}=(E_1,\hdots,E_{3n})$ de $\mathcal{M}_{3n,1}(\mathbb{K})$. Voici deux façons (quasiment similaires) d'établir le résultat :
1ère façon : en montrant que $A$ et $B$ représentent le même endomorphisme dans deux bases différentes. Soit $u:X \mapsto BX$. Alors $u$ est un endomorphisme de $\mathcal{M}_{3n,1}(\mathbb{K})$ et $\text{Mat}_{\mathcal{C}}(u)=B$. Déterminons la matrice $\text{Mat}_{\mathcal{B}}(u)$ de $u$ dans la base $\mathcal{B}$. On a, pour tout $i \in \;[\!\!\![\; 1,n \;]\!\!\!]\;$ : \[
\begin{array}{l}
u(B^2X_i)=B(B^2X_i)=B^2X_i=0_{3n,1}, \\
u(BX_i)=B(BX_i)=B^2X_i \text{ et} \\
u(X_i)=B(X_i)=BX_i.
\end{array}
\] Par suite, on a : \[
\text{Mat}_{\mathcal{B}}(u) = \begin{pmatrix} 0_n & I_n & 0_n \\ 0_n & 0_n & I_n \\ 0_n & 0_n & 0_n \end{pmatrix} = A
\] Comme deux matrices qui représentent un même endomorphisme sont semblables, il en résulte que $A$ et $B$ sont semblables.
2ème façon : en exhibant une matrice inversible de similitude entre $A$ et $B$. La matrice $P=(P_1|\hdots|P_{3n}) \in \mathcal{M}_{3n}(\mathbb{K})$ dont les colonnes $P_i$ de $P$ sont les éléments (dans l'ordre) de la base $\mathcal{B}$ est inversible car de rang $3n$ et on a : \[
\begin{array}{rcl}
P^{-1}BP&=&P^{-1}B(B^2X_1|\hdots|B^2X_n|BX_1|\hdots|BX_n|X_1|\hdots|X_n) \\
&=&P^{-1}(B^3X_1|\hdots|B^3X_n|B^2X_1|\hdots|B^2X_n|BX_1|\hdots|BX_n) \\
&=&P^{-1}(0_{3n,1}|\hdots|0_{3n,1}|B^2X_1|\hdots|B^2X_n|BX_1|\hdots|BX_n) \\
&=&(0_{3n,1}|\hdots|0_{3n,1}|P^{-1}B^2X_1|\hdots|P^{-1}B^2X_n|P^{-1}BX_1|\hdots|P^{-1}BX_n) \\
\end{array}
\] Or, comme $P^{-1}(B^2X_1|\hdots|B^2X_n|BX_1|\hdots|BX_n|X_1|\hdots|X_n)=P^{-1}P=I_{3n}=\left(E_1|\hdots|E_{3n}\right)$, on a : \[
(P^{-1}B^2X_1|\hdots|P^{-1}B^2X_n|P^{-1}BX_1|\hdots|P^{-1}BX_n|P^{-1}X_1|\hdots|P^{-1}X_n)=\left(E_1|\hdots|E_{n}|E_{n+1}|\hdots|E_{2n}|E_{2n+1}|\hdots|E_{3n}\right),
\] d'où : \[
\begin{array}{rcl}
P^{-1}BP&=&(0_{3n,1}|\hdots|0_{3n,1}|P^{-1}B^2X_1|\hdots|P^{-1}B^2X_n|P^{-1}BX_1|\hdots|P^{-1}BX_n) \\
&=&(0_{3n,1}|\hdots|0_{3n,1}|E_{1}|\hdots|E_n|E_{n+1}|\hdots|E_{2n}) \\
&=&\begin{pmatrix} 0_n & I_n & 0_n \\ 0_n & 0_n & I_n \\ 0_n & 0_n & 0_n \end{pmatrix} \\
P^{-1}BP&=&A.
\end{array}
\] Par suite, $A$ et $B$ sont semblables.
Soit $A=\begin{pmatrix}
1&1&-1 \\
2&0&-3 \\
-1&1&1
\end{pmatrix}$. Déterminer les éléments propres (valeurs propres, sous-espaces propres) de $A$ vue comme appartenant à $M_3(\mathbb{R})$ puis à $M_3(\mathbb{C})$.
Pour $n \in \mathbb{N}^*$, on note $A_n=(a_{ij})_{1\leqslant i,j \leqslant n } \in \mathcal{M}_n(\mathbb{R})$ la matrice telle que, pour $i,j \in \;[\!\!\![\; 1,n\;]\!\!\!]\;$ :\[
a_{i,j}=\begin{cases}
1&\text{ si }i=j+1\text{ ou }j=i+1 \\
0&\text{ sinon }
\end{cases}
\]et on note $\chi_n$ le polynôme caractéristique de $A_n$ i.e. $\chi_n(X)=\text{det}(XI_n-A_n)$.
Soit $n \in \mathbb{N}^*$. Montrer que, pour tout $\lambda \in \mathbb{R}$, \[
\chi_{n+2}(\lambda)=\lambda \chi_{n+1}(\lambda)-\chi_n(\lambda)
\]
On pose, pour $\theta \in ]0,\pi[$, $\lambda=2\cos(\theta)$. Montrer que \[
\chi_n(\lambda)=\frac{\sin\left((n+1)\theta\right)}{\sin(\theta)}
\]
En déduire le spectre de $A_n$ puis que $A_n$ est diagonalisable.
Soit un entier $n \geqslant 2$ et $f$ un endomorphisme de $\mathbb{R}^n$ tel que $\text{rg}(f)=2$. Exprimer le polynôme caractéristique de $f$ en fonction de $\text{Tr}(f)$ et $\text{Tr}(f^2)$.
Soit $A=\begin{pmatrix}
-3&1&3 \\
1&-3&3 \\
-5&5&1
\end{pmatrix}$. Diagonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $D \in \mathcal{M}_{3}(\mathbb{R})$ diagonale telle que $A=PDP^{-1}$.
Soit $A=\begin{pmatrix}
1&-1&3 \\
-2&2&3 \\
2&1&0
\end{pmatrix}$. Diagonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $D \in \mathcal{M}_{3}(\mathbb{R})$ diagonale telle que $A=PDP^{-1}$.
Soit $A=\begin{pmatrix}
4&-1&-3 \\
1&2&-3 \\
-1&1&6
\end{pmatrix}$. Diagonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $D \in \mathcal{M}_{3}(\mathbb{R})$ diagonale telle que $A=PDP^{-1}$.
Soit $A=\begin{pmatrix}
0&-1&1 \\
6&-5&2 \\
-3&1&-4
\end{pmatrix}$. Trigonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $T \in \mathcal{M}_{3}(\mathbb{R})$ triangulaire supérieure telle que $A=PTP^{-1}$.
Soit $A=\begin{pmatrix}
3&-4&-5 \\
6&-8&-6 \\
-7&8&5
\end{pmatrix}$. Trigonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $T \in \mathcal{M}_{3}(\mathbb{R})$ triangulaire supérieure telle que $A=PTP^{-1}$.
Soit $A=\begin{pmatrix}
0&\frac{1}{2}&\frac{1}{2} \\
1&0&1 \\
1&-1&0
\end{pmatrix}$. Trigonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $T \in \mathcal{M}_{3}(\mathbb{R})$ triangulaire supérieure telle que $A=PTP^{-1}$.
Soit $A=\begin{pmatrix}
4&1&0 \\
0&2&-1 \\
1&1&3
\end{pmatrix}$. Trigonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $T \in \mathcal{M}_{3}(\mathbb{R})$ triangulaire supérieure telle que $A=PTP^{-1}$.
Soit $n \in \mathbb{N}^*$, $E$ une espace vectoriel de dimension $n$ sur $\mathbb{K}=\mathbb{R}$ ou $\mathbb{C}$ et $u \in \mathcal{L}(E)$ de rang $1$. Montrer que $u$ est diagonalisable si, et seulement si, $\text{Tr}(u)\neq 0$.
Soit $n \in \mathbb{N}^*$. Déterminer toutes les matrices $A \in \mathcal{M}_n(\mathbb{R})$ telles que :\[
\begin{cases}
\text{Tr}(A)=0 \\
A^3-6A^2+9A=0_n
\end{cases}
\]
Soit $E$ un espace vectoriel de dimension finie et $u \in \mathcal{L}(E)$ un endomorphisme de rang $1$. Montrer que $u$ est diagonalisable si, et seulement si, $\text{Im}(u) \not \subset \text{Ker}(u)$.
Soit $n \in \mathbb{N}^*$ et $\mathbb{K}=\mathbb{R}$ ou $\mathbb{C}$. Soit $A,N \in \mathcal{M}_n(\mathbb{K})$ telles que $N$ est nilpotente et $A,N$ commutent. Montrer que :\[
\text{det}(A+N)=\text{det}(A)
\]On pourra commencer par étudier le cas $A \in \text{GL}_n(\mathbb{K})$.
Soit $E$ un espace vectoriel et $f,p \in \mathcal{L}(E)$ avec $p$ projecteur. Montrer que $f$ et $p$ commutent si, et seulement si, $\text{Ker}(p)$ et $\text{Im}(p)$ sont stables par $f$.
On considère l'endomorphisme $\Delta: \mathbb{R}[X] \rightarrow \mathbb{R}[X]$ tel que, pour $P \in \mathbb{R}[X]$, $\Delta(P)=P'$. Montrer qu'il n'existe pas d'endomorphisme $\delta$ de $\mathbb{R}[X]$ tel que $\delta^2=\Delta$.
On considère la matrice suivante :\[
A=\begin{pmatrix}
3&3 \\
0&3
\end{pmatrix}.
\]Montrer que $A$ est inversible puis calculer $A^n$ pour $n \in \mathbb{Z}$.
Trouver toutes les matrices colonnes $X \in \mathcal{M}_{3,1}(\mathbb{R})$ telle que $AX=2X$, où :\[
A=\begin{pmatrix}
0&-1&1 \\
-2&1&1 \\
-4&-2&4
\end{pmatrix}.
\]De même pour $AX=X$.
Soit $n \in \mathbb{N}^*$ et $A,B,C \in \mathcal{M}_n(\mathbb{R})$ des matrices non nulles telles que $ABC=O_n$. Montrer qu'au moins deux matrices parmi $A,B,C$ ne sont pas inversibles.
Soit $n \in \mathbb{N}^*$ et $x \in \mathbb{C}$. On considère le déterminant de taille $(n+1) \times (n+1)$ suivant : \[
\Delta_n(x)=\begin{vmatrix}
1 &1 &\hdots&\hdots &1 \\
1 &1-x &\ddots& &\vdots \\
\vdots&\ddots&\ddots&\ddots &\vdots \\
\vdots& &\ddots&(n-1)-x&1 \\
1 &\hdots&\hdots&1 &n-x
\end{vmatrix}
\]Calculer $\Delta_n(x)$ de deux manières différentes : l'une en utilisant des opérations sur les lignes et/ou colonnes; l'autre en étudiant les zéros de la fonction $x \mapsto \Delta_n(x)$.
Soit $\mathcal{B}=(e_1,e_2,e_3)$ la base canonique de $\mathbb{R}^3$ et $\mathcal{B}'=(\varepsilon_1,\varepsilon_2,\varepsilon_3)$ la famille de vecteurs de $\mathbb{R}^3$ définie par :\[
\varepsilon_1=e_1+e_2-2e_3\,; \quad \varepsilon_2=e_1-2e_3\,; \quad \varepsilon_3=e_1-e_2\,.
\]
Montrer que $\mathcal{B}'$ est une base de $\mathbb{R}^3$.
Déterminer la matrice $P$ de passage de $\mathcal{B}$ vers $\mathcal{B}'$ puis la matrice $Q$ de passage de $\mathcal{B}'$ vers $\mathcal{B}$.
Soit $n \in \mathbb{N}^*$. Montrer que le sous-ensemble suivant est un sous-espace affine de $\mathcal{M}_n(\mathbb{R})$ :\[
\mathcal{F}=\{A \in \mathcal{M}_n(\mathbb{R}) \; | \; \text{tr}(A)=n \}.
\]
Montrer que le sous-ensemble suivant est un sous-espace affine de $\mathcal{C}([0,1],\mathbb{R})$ :\[
\mathcal{F}=\{f \in \mathcal{C}([0,1],\mathbb{R}) \; | \; f(0)=1 \text{ et }f(1)=-1\}
\]
Montrer que le sous-ensemble suivant est un sous-espace affine de $\mathcal{C}^{\infty}(\mathbb{R},\mathbb{R})$ :\[
\mathcal{F}=\left\{f \in \mathcal{C}([0,1],\mathbb{R}) \; | \; \forall \; k \in \mathbb{N}, \; f^{(k)}(0) = \begin{cases}
(-1)^p &\text{ si }k=2p \text{ pair avec }p\in \mathbb{N} \\
0&\text{ si }k\text{ impair}
\end{cases}
\right\}.
\]
Soit $n \in \mathbb{N}^*$. Montrer que le sous-ensemble suivant est un sous-espace affine de $\mathbb{R}[X]$ :\[
\mathcal{F}=\{P \in \mathbb{R}[X] \; | \; \forall k \in \;[\!\!\![\; 0, n \;]\!\!\!]\;, \;P(k)=e^k\}.
\]
On considère les sous-espaces vectoriels $F=\text{Vect}(1,1,1)$ et $G=\{(x,y,z) \in \mathbb{R}^3 \; | \; x+y+z=0 \}$ de $\mathbb{R}^3$. Montrer que $F$ et $G$ sont supplémentaires dans $\mathbb{R}^3$.
On note $E=C^{\infty}(\mathbb{R},\mathbb{R})$ et $F=\mathcal{F}(\mathbb{R},\mathbb{R})$. Soit $\varphi:E\rightarrow F$ l'application définie, pour $f \in E$, par $\varphi(f)=f''-3f'+2f$. Montrer que $\varphi$ est un endomorphisme de $E$ et déterminer son noyau.
Soit $E=C([0,1],\mathbb{R})$. On pose $\varphi:E\rightarrow \mathbb{R}$ telle que, pour tout $f\in E$ :\[
\varphi(f)=\int_0^1f(t) dt;
\]et on note $F=\{f \in E \; | \; f \text{ est affine }\}$ (on rappelle qu'une fonction $f$ de $\mathbb{R}$ dans $\mathbb{R}$ est affine s'il existe $a,b \in \mathbb{R}$ tels que $f:t\mapsto at+b$).
Montrer que $\varphi$ est une application linéaire surjective.
Montrer que $F$ est un sous-espace vectoriel de $E$.
Montrer qu'il existe $c \in [0,1]$ tel que $F\cap \text{Ker}(\varphi)=\{f \in F \; | \; f(c)=0\}$.
Indications
Pour la linéarité, utiliser la linéarité de l'intégrale. Pour la surjectivité, que sait-on d'une forme linéaire non nulle ?
Utiliser la définition/caractérisation des sous-espaces vectoriels; ou bien montrer que $F$ est le sous-espace engendré par plusieurs fonctions de $E$ bien choisies.
Dessiner des graphes de fonctions affines d'intégrale nulle sur $[0,1]$.
Correction
Soit $f,g \in E$ et $\lambda \in \mathbb{R}$. On a, par linéarité de l'intégrale : \[
\begin{array}{rcl}
\varphi(\lambda f+g) &=& \displaystyle\int_0^1 (\lambda f+g)(t) dt \medskip \\
&=& \displaystyle \int_0^1 (\lambda f(t)+g(t)) dt \medskip \\
&=& \displaystyle \lambda\int_0^1f(t) dt + \int_0^1g(t) dt \medskip \\
\varphi(\lambda f+g) &=& \lambda\varphi(f)+\varphi(g).
\end{array}
\] Donc $\varphi$ est linéaire. Il s'agit donc d'une forme linéaire sur $E$; or $\varphi(f_0)=1\neq 0$ pour $f_0:x \mapsto 1$, par suite, $\varphi$ est surjective car toute forme linéaire non nulle est surjective.
1ère façon : caractérisation d'un sous-espace vectoriel. Le vecteur nul de $E$ est la fonction nulle $\mathbf{0}$ sur $[0,1]$. Or $\mathbf{0}:t \mapsto 0=0\times t +0$ donc $\mathbf{0}$ est affine i.e. $\mathbf{0} \in F$. Soit $f,g \in F$ et $\lambda \in R$. Alors $f$ et $g$ étant affines, il existe $a,b,a',b' \in \mathbb{R}$ tels que $f:t\mapsto at+b$ et $g:t\mapsto a't+b'$ On a, pour tout $t \in [0,1]$ : \[
\begin{array}{rcl}
(\lambda f+g)(t) &=& \lambda f(t) +g(t) \medskip \\
&=& \lambda (at+b)+ (a't+b') \medskip \\
(\lambda f+g)(t)&=& (\lambda a+a')t+(\lambda b +b')
\end{array}
\] Par suite, comme $(\lambda a+a') \in \mathbb{R}$ et $(\lambda b+b') \in \mathbb{R}$, $\lambda f+g$ est affine et donc $\lambda f+g \in E$. Il en résulte que $F$ est un sous-espace vectoriel de $E$.
2ème façon : sous-espace engendré. On sait que $f$ est une fonction affine si, et seulement si, il existe $a,b$ tel que $f:t \mapsto at+b$. Ainsi, $f$ est affine si, et seulement si, $f=af_1+bf_0$ où $f_0:t \mapsto 1$ et $f_1:t \mapsto t$. Par suite, $F=\text{Vect}(f_0,f_1)$ (où on note par le même nom les restrictions de $f_0$ et $f_1$ à $[0,1]$). Un sous-espace engendré par une famille de vecteurs de $E$ étant un sous-espace vectoriel de $E$, on en déduit que $F$ est un sous-espace vectoriel de $E$.
En dessinant quelques graphes, on conjecture que $c=\frac{1}{2}$. Montrons le :
On procède par double inclusion : Soit $f \in F\cap \text{Ker}(\varphi)$. Alors $f \in F$ et $f \in \text{Ker}(\varphi)$ donc il existe $a,b \in \mathbb{R}$ tels que $f: t \mapsto at+b$ et $\int_0^1f(t) dt=\varphi(f)=0$. Par suite, on a : \[
0=\int_0^1f(t) dt= \int_0^1(at+b) dt = \frac{1}{2}a+b
\] d'où $b=-\frac{1}{2}a$ et donc, pour tout $t \in [0,1]$, $f(t)=a(x-\frac{1}{2})$. Ainsi, $f(\frac{1}{2})=a(\frac{1}{2}-\frac{1}{2})=0$. Donc $F\cap \text{Ker}(\varphi)\subset \{f \in F \; | \; f(\frac{1}{2})=0\}$.
Réciproquement, si $f \in \{f \in F \; | \; f(\frac{1}{2})=0\}$. Alors $f$ est affine et donc il existe $a,b \in \mathbb{R}$ tels que $f: t \mapsto at+b$. Comme $a\frac{1}{2}+b=0=f(\frac{1}{2})$, on a $b=-\frac{1}{2}a$ et donc : \[
\int_0^1f(t) dt = \int_0^1a(x-\frac{1}{2}) dt=a(\frac{1}{2}-\frac{1}{2})=0
\] Donc $f \in F \cap \text{Ker}(\varphi)$; d'où $\{f \in F \; | \; f(\frac{1}{2})=0\} \subset \text{Ker}(\varphi)$.
Il en résulte que $F\cap \text{Ker}(\varphi)= \{f \in F \; | \; f(\frac{1}{2})=0\}$.
Soit $E$ un espace vectoriel sur $\mathbb{K}$ et $p,q$ des projecteurs de $E$ qui commutent. Montrer que $p\circ q$ est un projecteur puis déterminer son noyau et son image en fonction de ceux de $p$ et $q$.
Soit $H$ un hyperplan d'un espace vectoriel $E$ et $x_0 \in E$. Montrer que $x_0 \notin H$ si, et seulement si, $H$ et $\text{Vect}(x_0)$ sont supplémentaires dans $E$.
Soit $n \in \mathbb{N}$ et $x_0,...,x_n$ des réels tous distincts. Montrer que l'application $f:\mathbb{R}_n[X]\rightarrow \mathbb{R}^{n+1}$ définie, pour $P \in \mathbb{R}_n[X]$, par :\[
f(P)=(P(x_0),...,P(x_n))
\]est un isomorphisme d'espaces vectoriels.
Soit $E$ un espace vectoriel de dimension finie et $f,g \in \mathcal{L}(E)$. Montrer que si $f+g$ est bijectif et $g\circ f = \mathbf{0}$ alors $\text{rg}(f)+\text{rg}(g)=\text{dim}(E)$.
Soit $\mathcal{B}=(e_1,e_2,e_3)$ la base canonique de $\mathbb{R}^3$, $\mathcal{B}'=(\varepsilon_1,\varepsilon_2,\varepsilon_3)$ la famille de vecteurs de $\mathbb{R}_3$ définie par :\[
\varepsilon_1=e_1+e_2-e_3; \quad \varepsilon_2=e_1-e_3; \quad \varepsilon_3=e_1-e_2
\]On note $A=\begin{pmatrix}
2&-1&0 \\
-2&1&-2 \\
1&1&3
\end{pmatrix}$ et on considère $f$ l'endomorphisme de $\mathbb{R}^3$ canoniquement associé à $A$.
Montrer que $\mathcal{B}'$ est une base de $\mathbb{R}^3$ et déterminer la matrice $P$ de passage de $\mathcal{B}$ vers $\mathcal{B}'$ puis la matrice $Q$ de passage de $\mathcal{B}'$ vers $\mathcal{B}$.
Soit $n\in \mathbb{N}^*$, $E$ un espace vectoriel de dimension $n$ et $f \in \mathcal{L}(E)$ tel que $f^n=\mathbf{0}$ et $f^{n-1}\neq\mathbf{0}$. Montrer qu'il existe une base $\mathcal{B}$ de $E$ telle que :\[
\text{Mat}_{\mathcal{B}}(f)=\begin{pmatrix}
0 &1 & &0 \\
\vdots&\ddots&\ddots& \\
\vdots& &\ddots&1 \\
0 &\dots &\dots &0
\end{pmatrix}
\]
Déterminer la matrice dans les bases canoniques des espaces de départ et d'arrivée de l'application linéaire $f: \mathbb{R}_4[X] \rightarrow \mathbb{R}_4[X]$ telle que, pour $P \in \mathbb{R}_4[X]$ :\[
f(P)=P(X+2).
\]
Déterminer la matrice dans les bases canoniques des espaces de départ et d'arrivée de l'application linéaire $f: \mathbb{R}^3 \rightarrow \mathbb{R}^4$ telle que, pour $(x,y,z) \in \mathbb{R}^3$ :\[
f(x,y,z)=(x+y,y-4z,z-x,x-2y-z).
\]
Déterminer la matrice dans les bases canoniques des espaces de départ et d'arrivée de l'application linéaire $f: \mathbb{R}^3 \rightarrow \mathbb{R}^2$ telle que, pour $(x,y,z) \in \mathbb{R}^3$ :\[
f(x,y,z)=(2x+y,y-x+3z)
\]
On considère la famille $\mathcal{F}=(e_1,e_2,e_3)$ de $\mathbb{R}^3$ où $e_1=(1,1,0)$, $e_2=(1,1,1)$ et $e_3=(0,1,1)$. Montrer que $\mathcal{F}$ est une base de $\mathbb{R}^3$.
Soit $n \in \mathbb{N}^*$. Pour $k \in \;[\!\!\![\; 0,n \;]\!\!\!]\;$, on pose $P_k=X^k(X-1)^{n-k}$. Montrer que la famille $(P_0,...,P_n)$ est une base de $\mathbb{R}_n[X]$.
Soit $n \in \mathbb{N}^*$, $E$ une espace vectoriel de dimension $n$ et $(e_1,...,e_n)$, $(\varepsilon_1,...,\varepsilon_n)$ des bases d'un espace vectoriel $E$. Montrer qu'il existe $i \in \;[\!\!\![\; 1,n \;]\!\!\!]\;$ tel que $(e_1,...,e_{n-1},\varepsilon_i)$ est une base de $E$.