On pose $j=e^{i\frac{2\pi}{3}}$. Montrer que le système linéaire suivant admet une unique solution $(x,y,z) \in \mathbb{C}^3$ vérifiant $x=\alpha(1-j)$ avec $\alpha \in \mathbb{R}$ à déterminer :\[ \left\{ \begin{array}{ccccccc} x&+&jy&+&j^2z&=&0 \\ jx&+&y&+&j^2z&=&-j \\ j^2x&+&j^2y&+&z&=&j^2 \end{array}\right.\]
Résoudre le système linéaire suivant d'inconnues $x,y,z \in \mathbb{R}$, en fonction du paramètre $m \in \mathbb{R}$ :\[ \left\{ \begin{array}{ccccccc} x&+&my&+&m^2z&=&0 \\ mx&+&y&+&mz&=&0 \\ mx&+&m^2y&+&z&=&0 \end{array}\right.\]
Soit $A=\begin{pmatrix} 1&1&-1 \\ 2&0&-3 \\ -1&1&1 \end{pmatrix}$Déterminer les éléments propres (valeurs propres, sous-espaces propres) de $A$ vue comme appartenant à $M_3(\mathbb{R})$ puis à $M_3(\mathbb{C})$.
Pour $n \in \mathbb{N}^*$, on note $A_n=(a_{ij})_{1\leqslant i,j \leqslant n } \in \mathcal{M}_n(\mathbb{R})$ la matrice telle que, pour $i,j \in \;[\!\!\![\; 1,n\;]\!\!\!]\;$ :\[ a_{i,j}=\begin{cases} 1&\text{ si }i=j+1\text{ ou }j=i+1 \\ 0&\text{ sinon } \end{cases}\]et on note $\chi_n$ le polynôme caractéristique de $A_n$ i.e. $\chi_n(X)=\text{det}(XI_n-A_n)$.
Soit $n \in \mathbb{N}^*$. Montrer que, pour tout $\lambda \in \mathbb{R}$, \[ \chi_{n+2}(\lambda)=\lambda \chi_{n+1}(\lambda)-\chi_n(\lambda) \]
On pose, pour $\theta \in ]0,\pi[$, $\lambda=2\cos(\theta)$. Montrer que \[ \chi_n(\lambda)=\frac{\sin\left((n+1)\theta\right)}{\sin(\theta)} \]
En déduire le spectre de $A_n$ puis que $A_n$ est diagonalisable.
Soit un entier $n \geqslant 2$ et $f$ un endomorphisme de $\mathbb{R}^n$ tel que $\text{rg}(f)=2$. Exprimer le polynôme caractéristique de $f$ en fonction de $\text{Tr}(f)$ et $\text{Tr}(f^2)$.
Soit $A=\begin{pmatrix} -3&1&3 \\ 1&-3&3 \\ -5&5&1 \end{pmatrix}$. Diagonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $D \in \mathcal{M}_{3}(\mathbb{R})$ diagonale telle que $A=PDP^{-1}$.
Soit $A=\begin{pmatrix} 1&-1&3 \\ -2&2&3 \\ 2&1&0 \end{pmatrix}$. Diagonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $D \in \mathcal{M}_{3}(\mathbb{R})$ diagonale telle que $A=PDP^{-1}$.
Soit $A=\begin{pmatrix} 4&-1&-3 \\ 1&2&-3 \\ -1&1&6 \end{pmatrix}$. Diagonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $D \in \mathcal{M}_{3}(\mathbb{R})$ diagonale telle que $A=PDP^{-1}$.
Soit $A=\begin{pmatrix} 0&-1&1 \\ 6&-5&2 \\ -3&1&-4 \end{pmatrix}$. Trigonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $T \in \mathcal{M}_{3}(\mathbb{R})$ triangulaire supérieure telle que $A=PTP^{-1}$.
Soit $A=\begin{pmatrix} 3&-4&-5 \\ 6&-8&-6 \\ -7&8&5 \end{pmatrix}$. Trigonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $T \in \mathcal{M}_{3}(\mathbb{R})$ triangulaire supérieure telle que $A=PTP^{-1}$.
Soit $A=\begin{pmatrix} 0&\frac{1}{2}&\frac{1}{2} \\ 1&0&1 \\ 1&-1&0 \end{pmatrix}$. Trigonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $T \in \mathcal{M}_{3}(\mathbb{R})$ triangulaire supérieure telle que $A=PTP^{-1}$.
Soit $A=\begin{pmatrix} 4&1&0 \\ 0&2&-1 \\ 1&1&3 \end{pmatrix}$. Trigonaliser la matrice $A$ dans $\mathbb{R}$ i.e. expliciter un matrice $P \in \text{GL}_3(\mathbb{R})$ et une matrice $T \in \mathcal{M}_{3}(\mathbb{R})$ triangulaire supérieure telle que $A=PTP^{-1}$.
Soit $n \in \mathbb{N}^*$, $E$ une espace vectoriel de dimension $n$ sur $\mathbb{K}=\mathbb{R}$ ou $\mathbb{C}$ et $u \in \mathcal{L}(E)$ de rang $1$. Montrer que $u$ est diagonalisable si, et seulement si, $\text{Tr}(u)\neq 0$.
Soit $n \in \mathbb{N}^*$. Déterminer toutes les matrices $A \in \mathcal{M}_n(\mathbb{R})$ telles que :\[ \begin{cases} \text{Tr}(A)=0 \\ A^3-6A^2+9A=0_n \end{cases}\]
Soit $E$ un espace vectoriel de dimension finie et $u \in \mathcal{L}(E)$ un endomorphisme de rang $1$. Montrer que $u$ est diagonalisable si, et seulement si, $\text{Im}(u) \not \subset \text{Ker}(u)$.
Soit $n \in \mathbb{N}^*$ et $\mathbb{K}=\mathbb{R}$ ou $\mathbb{C}$. Soit $A,N \in \mathcal{M}_n(\mathbb{K})$ telles que $N$ est nilpotente et $A,N$ commutent. Montrer que :\[ \text{det}(A+N)=\text{det}(A)\]On pourra commencer par étudier le cas $A \in \text{GL}_n(\mathbb{K})$.
Soit $E$ un espace vectoriel et $f,p \in \mathcal{L}(E)$ avec $p$ projecteur. Montrer que $f$ et $p$ commutent si, et seulement si, $\text{Ker}(p)$ et $\text{Im}(p)$ sont stables par $f$.
On considère l'endomorphisme $\Delta: \mathbb{R}[X] \rightarrow \mathbb{R}[X]$ tel que, pour $P \in \mathbb{R}[X]$, $\Delta(P)=P'$. Montrer qu'il n'existe pas d'endomorphisme $\delta$ de $\mathbb{R}[X]$ tel que $\delta^2=\Delta$.
On considère la matrice suivante :\[ A=\begin{pmatrix} 3&3 \\ 0&3 \end{pmatrix}.\]Montrer que $A$ est inversible puis calculer $A^n$ pour $n \in \mathbb{Z}$.
Trouver toutes les matrices colonnes $X \in \mathcal{M}_{3,1}(\mathbb{R})$ telle que $AX=2X$, où :\[ A=\begin{pmatrix} 0&-1&1 \\ -2&1&1 \\ -4&-2&4 \end{pmatrix}.\]De même pour $AX=X$.
Soit $n \in \mathbb{N}^*$ et $A,B,C \in \mathcal{M}_n(\mathbb{R})$ des matrices non nulles telles que $ABC=O_n$. Montrer qu'au moins deux matrices parmi $A,B,C$ ne sont pas inversibles.
Soit $n \in \mathbb{N}^*$. Montrer que la matrice $A$ est inversible et déterminer son inverse, où :\[A=\begin{pmatrix}1 &2 &3 & ... &n \\0 &\ddots&\ddots&\ddots&\vdots \\\vdots&\ddots&\ddots&\ddots&3 \\\vdots&\ddots&\ddots&\ddots&2 \\0 &... &... &0 &1\end{pmatrix}\in \mathcal{M}_n(\mathbb{R}).\]
On considère les sous-espaces vectoriels $F=\text{Vect}(1,1,1)$ et $G=\{(x,y,z) \in \mathbb{R}^3 \; | \; x+y+z=0 \}$ de $\mathbb{R}^3$. Montrer que $F$ et $G$ sont supplémentaires dans $\mathbb{R}^3$.
On note $E=C^{\infty}(\mathbb{R},\mathbb{R})$ et $F=\mathcal{F}(\mathbb{R},\mathbb{R})$. Soit $\varphi:E\rightarrow F$ l'application définie, pour $f \in E$, par $\varphi(f)=f''-3f'+2f$. Montrer que $\varphi$ est un endomorphisme de $E$ et déterminer son noyau.
Soit $E=C([0,1],\mathbb{R})$. On pose $\varphi:E\rightarrow \mathbb{R}$ telle que, pour tout $f\in E$ :\[\varphi(f)=\int_0^1f(t) dt;\]et on note $F=\{f \in E \; | \; f \text{ est affine }\}$ (on rappelle qu'une fonction $f$ de $\mathbb{R}$ dans $\mathbb{R}$ est affine s'il existe $a,b \in \mathbb{R}$ tels que $f:t\mapsto at+b$).
Montrer que $\varphi$ est une application linéaire surjective.
Montrer que $F$ est un sous-espace vectoriel de $E$.
Montrer qu'il existe $c \in [0,1]$ tel que $F\cap \text{Ker}(\varphi)=\{f \in F \; | \; f(c)=0\}$.
Indications
Pour la linéarité, utiliser la linéarité de l'intégrale. Pour la surjectivité, que sait-on d'une forme linéaire non nulle ?
Utiliser la définition/caractérisation des sous-espaces vectoriels; ou bien montrer que $F$ est le sous-espace engendré par plusieurs fonctions de $E$ bien choisies.
Dessiner des graphes de fonctions affines d'intégrale nulle sur $[0,1]$.
Correction
Soit $f,g \in E$ et $\lambda \in \mathbb{R}$. On a, par linéarité de l'intégrale : \[ \begin{array}{rcl} \varphi(\lambda f+g) &=& \displaystyle\int_0^1 (\lambda f+g)(t) dt
\\ \varphi(\lambda f+g) &=& \lambda\varphi(f)+\varphi(g). \end{array} \] Donc $\varphi$ est linéaire. Il s'agit donc d'une forme linéaire sur $E$; or $\varphi(f_0)=1\neq 0$ pour $f_0:x \mapsto 1$, par suite, $\varphi$ est surjective car toute forme linéaire non nulle est surjective.
1ère façon : caractérisation d'un sous-espace vectoriel. Le vecteur nul de $E$ est la fonction nulle $\mathbf{0}$ sur $[0,1]$. Or $\mathbf{0}:t \mapsto 0=0\times t +0$ donc $\mathbf{0}$ est affine i.e. $\mathbf{0} \in F$. Soit $f,g \in F$ et $\lambda \in R$. Alors $f$ et $g$ étant affines, il existe $a,b,a',b' \in \mathbb{R}$ tels que $f:t\mapsto at+b$ et $g:t\mapsto a't+b'$ On a, pour tout $t \in [0,1]$ : \[ \begin{array}{rcl} (\lambda f+g)(t) &=& \lambda f(t) +g(t)
\\ &=& \lambda (at+b)+ (a't+b')
\\ (\lambda f+g)(t)&=& (\lambda a+a')t+(\lambda b +b') \end{array} \] Par suite, comme $(\lambda a+a') \in \mathbb{R}$ et $(\lambda b+b') \in \mathbb{R}$, $\lambda f+g$ est affine et donc $\lambda f+g \in E$. Il en résulte que $F$ est un sous-espace vectoriel de $E$.
2ème façon : sous-espace engendré. On sait que $f$ est une fonction affine si, et seulement si, il existe $a,b$ tel que $f:t \mapsto at+b$. Ainsi, $f$ est affine si, et seulement si, $f=af_1+bf_0$ où $f_0:t \mapsto 1$ et $f_1:t \mapsto t$. Par suite, $F=\text{Vect}(f_0,f_1)$ (où on note par le même nom les restrictions de $f_0$ et $f_1$ à $[0,1]$). Un sous-espace engendré par une famille de vecteurs de $E$ étant un sous-espace vectoriel de $E$, on en déduit que $F$ est un sous-espace vectoriel de $E$.
En dessinant quelques graphes, on conjecture que $c=\frac{1}{2}$. Montrons le :
On procède par double inclusion : Soit $f \in F\cap \text{Ker}(\varphi)$. Alors $f \in F$ et $f \in \text{Ker}(\varphi)$ donc il existe $a,b \in \mathbb{R}$ tels que $f: t \mapsto at+b$ et $\int_0^1f(t) dt=\varphi(f)=0$. Par suite, on a : \[ 0=\int_0^1f(t) dt= \int_0^1(at+b) dt = \frac{1}{2}a+b \] d'où $b=-\frac{1}{2}a$ et donc, pour tout $t \in [0,1]$, $f(t)=a(x-\frac{1}{2})$. Ainsi, $f(\frac{1}{2})=a(\frac{1}{2}-\frac{1}{2})=0$. Donc $F\cap \text{Ker}(\varphi)\subset \{f \in F \; | \; f(\frac{1}{2})=0\}$.
Réciproquement, si $f \in \{f \in F \; | \; f(\frac{1}{2})=0\}$. Alors $f$ est affine et donc il existe $a,b \in \mathbb{R}$ tels que $f: t \mapsto at+b$. Comme $a\frac{1}{2}+b=0=f(\frac{1}{2})$, on a $b=-\frac{1}{2}a$ et donc : \[ \int_0^1f(t) dt = \int_0^1a(x-\frac{1}{2}) dt=a(\frac{1}{2}-\frac{1}{2})=0 \] Donc $f \in F \cap \text{Ker}(\varphi)$; d'où $\{f \in F \; | \; f(\frac{1}{2})=0\} \subset \text{Ker}(\varphi)$.
Il en résulte que $F\cap \text{Ker}(\varphi)= \{f \in F \; | \; f(\frac{1}{2})=0\}$.
Soit $E$ un espace vectoriel sur $\mathbb{K}$ et $p,q$ des projecteurs de $E$ qui commutent. Montrer que $p\circ q$ est un projecteur puis déterminer son noyau et son image en fonction de ceux de $p$ et $q$.
Soit $H$ un hyperplan d'un espace vectoriel $E$ et $x_0 \in E$. Montrer que $x_0 \notin H$ si, et seulement si, $H$ et $\text{Vect}(x_0)$ sont supplémentaires dans $E$.
Soit $n \in \mathbb{N}$ et $x_0,...,x_n$ des réels tous distincts. Montrer que l'application $f:\mathbb{R}_n[X]\rightarrow \mathbb{R}^{n+1}$ définie, pour $P \in \mathbb{R}_n[X]$, par :\[ f(P)=(P(x_0),...,P(x_n))\]est un isomorphisme d'espaces vectoriels.
Soit $E$ un espace vectoriel de dimension finie et $f,g \in \mathcal{L}(E)$. Montrer que si $f+g$ est bijectif et $g\circ f = \mathbf{0}$ alors $\text{rg}(f)+\text{rg}(g)=\text{dim}(E)$.
On considère la famille $\mathcal{F}=(e_1,e_2,e_3)$ de $\mathbb{R}^3$ où $e_1=(1,1,0)$, $e_2=(1,1,1)$ et $e_3=(0,1,1)$. Montrer que $\mathcal{F}$ est une base de $\mathbb{R}^3$.
Soit $n \in \mathbb{N}^*$. Pour $k \in \;[\!\!\![\; 0,n \;]\!\!\!]\;$, on pose $P_k=X^k(X-1)^{n-k}$. Montrer que la famille $(P_0,...,P_n)$ est une base de $\mathbb{R}_n[X]$.
Soit $n \in \mathbb{N}^*$, $E$ une espace vectoriel de dimension $n$ et $(e_1,...,e_n)$, $(\varepsilon_1,...,\varepsilon_n)$ des bases d'un espace vectoriel $E$. Montrer qu'il existe $i \in \;[\!\!\![\; 1,n \;]\!\!\!]\;$ tel que $(e_1,...,e_{n-1},\varepsilon_i)$ est une base de $E$.