Concours externe d'administrat·eur·rice de l'Insee — 2016

Épreuve de mathématiques


Le sujet est accessible ici au format PDF.

Les propositions de corrections présentées ci-dessous n'engagent que l'auteur de ce site.


Partie 1 — Analyse et algèbre

Exercice 1

On note \(J\) l'intervalle \(\left] 0,+\infty \right[\) et on définit sur \(J\) la fonction \(h\) par :

    $$ \forall x \in J, \quad h(x) \;=\;\int_{0}^{+\infty} \frac{x \cos t}{x^{2} + t^{2}} \,\mathrm{d}t. $$
  1. Montrer que la fonction \(h\) est bien définie.

    Pour \(x>0\), la fonction \(t\mapsto \dfrac{x\cos t}{x^{2}+t^{2}}\) est continue sur \([0,+\infty[\).
    – Sur \([0,1]\), elle est bornée (en particulier \( \left|\dfrac{x\cos t}{x^{2}+t^{2}}\right| \le \dfrac{x}{x^{2}}=\dfrac1x\)), donc intégrable.
    – Sur \([1,+\infty[\), on a par critère de Riemann : \[ \left|\frac{x\cos t}{x^{2}+t^{2}}\right| \le \frac{x}{t^{2}}, \qquad \text{et} \quad \int_{1}^{+\infty}\frac{x}{t^{2}}\,\mathrm dt = x <+\infty. \] L'intégrale impropre converge donc absolument sur \([1,+\infty[\). Par additivité, l'intégrale sur \([0,+\infty[\) existe : \(h\) est bien définie sur \(J\).

    1. À l'aide d'une intégration par parties, établir l'égalité suivante :

      $$ h(x) \;=\; 2x \int_{0}^{+\infty} \frac{t \,\sin t}{\bigl(x^{2} + t^{2}\bigr)^{2}} \,\mathrm{d}t. $$

      Pour \(b>0\), on intègre par parties sur \([0,b]\) avec \[ u(t)=\frac{x}{x^{2}+t^{2}},\qquad v'(t)=\cos t \quad\Longrightarrow\quad u'(t)=-\frac{2xt}{(x^{2}+t^{2})^{2}},\; v(t)=\sin t. \] On obtient donc \[ \int_{0}^{b}\frac{x\cos t}{x^{2}+t^{2}}\,\mathrm dt =\Big[\frac{x\sin t}{x^{2}+t^{2}}\Big]_{0}^{b} +2x\int_{0}^{b}\frac{t\sin t}{(x^{2}+t^{2})^{2}}\,\mathrm dt. \] Comme \(\dfrac{x\sin b}{x^{2}+b^{2}}\to 0\) quand \(b\to+\infty\) (car \(|\sin b|\le 1\) et \(\dfrac{x}{x^{2}+b^{2}}\le \dfrac{x}{b^{2}}\)), et \(\sin 0=0\), on peut passer à la limite \(b\to+\infty\) (les intégrales impropres étant convergentes par majoration) et l'égalité annoncée s'ensuit : \[ h(x)=2x\int_{0}^{+\infty}\frac{t\sin t}{(x^{2}+t^{2})^{2}}\,\mathrm dt. \]

    2. En déduire l'inégalité suivante :

      $$ \forall x \in J,\quad |h(x)| \;\leqslant\; \frac{1}{x}. $$

      D'après (a), \[ |h(x)|\le 2x\int_{0}^{+\infty}\frac{t\,|\sin t|}{(x^{2}+t^{2})^{2}}\,\mathrm dt \le 2x\int_{0}^{+\infty}\frac{t}{(x^{2}+t^{2})^{2}}\,\mathrm dt. \] Or, en posant \(u=t^{2}\), \[ \int_{0}^{+\infty}\frac{t}{(x^{2}+t^{2})^{2}}\,\mathrm dt =\frac1{2}\int_{0}^{+\infty}\frac{1}{(x^{2}+u)^{2}}\,\mathrm du =\frac1{2}\Big[-\frac{1}{x^{2}+u}\Big]_{0}^{+\infty} =\frac{1}{2x^{2}}. \] Ainsi \(|h(x)|\le 2x\times \dfrac{1}{2x^{2}}=\dfrac{1}{x}\).

    3. Donner la limite de \(h(x)\) quand \(x\) tend vers \(+\infty\).

      D'après (b), on a \(\forall x \in J\) : \[ -\frac{1}{x} \le h(x) \le \frac{1}{x}. \] Par encadrement, \(\displaystyle \lim_{x\to +\infty}h(x)=0\).

    1. À l'aide d'un changement de variable, montrer que, pour tout \(x \in J\) :

      $$ h(x) \;=\; \int_{0}^{+\infty} \frac{\cos (xt)}{1 + t^{2}} \,\mathrm{d}t. $$

      Dans la définition de \(h(x)\), on pose \(t=xu\) (avec \(u\in[0,+\infty[\)), donc \(\mathrm dt=x\,\mathrm du\). Alors \[ h(x)=\int_{0}^{+\infty}\frac{x\cos(xu)}{x^{2}+x^{2}u^{2}}\,x\,\mathrm du =\int_{0}^{+\infty}\frac{\cos(xu)}{1+u^{2}}\,\mathrm du, \] ce qui donne la formule voulue (en renommant la variable d'intégration).

    2. Établir, pour tout réel \(a\), l'encadrement suivant :

      $$ 0 \;\leqslant\; 1 - \cos a \;\leqslant\; \frac{a^{2}}{2}. $$

      Comme \(\forall a \in \mathbb{R}\), \(-1 \le \cos(a) \le 1\), on a directement : \[ 0 \le 1 - \cos(a). \] Puis, en utilisant la formule de l'angle double : \[ 1-\cos a = 2\sin^{2}\!\Big(\frac{a}{2}\Big) \le 2\Big(\frac{|a|}{2}\Big)^{2}=\frac{a^{2}}{2}, \] car \(|\sin u|\le |u|\) pour tout \(u\in\mathbb R\).

    3. Montrer l'encadrement suivant :

      $$ \forall x \in J,\; \forall A>0,\quad 0 \;\leqslant\; \frac{\pi}{2} - h(x) \;\leqslant\; \frac{x^{2}}{2} \int_{0}^{A} \frac{t^{2}}{1+t^{2}} \,\mathrm{d}t \;+\; 2 \int_{A}^{+\infty} \frac{1}{1 + t^{2}} \,\mathrm{d}t. $$

      On remarque que, en utilisant la dérivée de \(\arctan\), \(\forall x \in J\) : \[ \frac{\pi}{2}-h(x)=\int_{0}^{+\infty}\frac{1}{1+t^{2}}\,\mathrm dt - \int_{0}^{+\infty}\frac{\cos(xt)}{1+t^{2}}\,\mathrm dt = \int_{0}^{+\infty}\frac{1-\cos(xt)}{1+t^{2}}\,\mathrm dt \ge 0. \] Soit \(A>0\). En découpant \([0,+\infty[=[0,A]\cup[A,+\infty[\) et en utilisant (3b) et \(|1-\cos(xt)|\le 2\), on obtient \[ \begin{aligned} 0\le \frac{\pi}{2}-h(x) &\le \int_{0}^{A}\frac{1-\cos(xt)}{1+t^{2}}\,\mathrm dt +\int_{A}^{+\infty}\frac{2}{1+t^{2}}\,\mathrm dt \\ &\le \int_{0}^{A}\frac{(xt)^{2}}{2(1+t^{2})}\,\mathrm dt +2\int_{A}^{+\infty}\frac{1}{1+t^{2}}\,\mathrm dt \\ &= \frac{x^{2}}{2}\int_{0}^{A}\frac{t^{2}}{1+t^{2}}\,\mathrm dt +2\int_{A}^{+\infty}\frac{1}{1+t^{2}}\,\mathrm dt, \end{aligned} \] ce qui donne l'encadrement requis.

    4. Déterminer la limite de \(h(x)\) quand \(x\) tend vers \(0\) par valeurs supérieures.

      D'après (3c), \(\forall x \in J\), \(\forall A>0\) : \[ 0\le \frac{\pi}{2}-h(x)\le \frac{x^{2}}{2}\int_{0}^{A}\frac{t^{2}}{1+t^{2}}\,\mathrm dt +\pi - 2\arctan(A). \] En fixant \(A\) et en faisant tendre \(x\to 0^{+}\), le premier terme du majorant tend vers \(0\). On obtient \(\forall A > 0\) : \[ 0 \le \frac{\pi}{2} - \lim_{x\to 0^{+}}h(x) \le \pi - 2\arctan(A). \] En faisant tendre \(A \to +\infty\), on a : \[ 0 \le \frac{\pi}{2} - \lim_{x\to 0^{+}}h(x) \le 0. \] Par encadrement, on déduit \[ \lim_{x\to 0^{+}}h(x)=\frac{\pi}{2}. \]

    1. On définit sur \(U = \mathbb{R}^{2}\setminus\{\,(0,0)\}\) la fonction \(\Phi\) par

      $$ \Phi(x, t) \;=\; \frac{x}{x^{2} + t^{2}}. $$

      Calculer, pour \((x,t)\in U,\; \frac{\partial^2 \Phi}{\partial x^2}(x,t) \;+\; \frac{\partial^2 \Phi}{\partial t^2}(x,t).\)

      Posons \(s=x^{2}+t^{2}\). On a \(\forall (x,t) \in U\) : \[ \frac{\partial \Phi}{\partial x}=\frac{s-2x^{2}}{s^{2}}=\frac{t^{2}-x^{2}}{s^{2}}, \qquad \frac{\partial \Phi}{\partial t}=-\frac{2xt}{s^{2}}. \] Puis \[ \frac{\partial^{2} \Phi}{\partial x^{2}} =\frac{-2x(x^{2}+t^{2})^{2}-4x(t^{2}-x^{2})(x^{2}+t^{2})}{s^{4}} = \frac{-2x}{s^{3}}(3t^{2}-x^{2}), \] \[ \frac{\partial^{2} \Phi}{\partial t^{2}} =\frac{-2x(x^{2}+t^{2})^{2}+8xt^{2}(x^{2}+t^{2})}{s^{4}} = \frac{-2x}{s^{3}}(x^{2}-3t^{2}). \] En sommant, \[ \frac{\partial^{2} \Phi}{\partial x^{2}}+\frac{\partial^{2} \Phi}{\partial t^{2}} =\frac{-2x}{s^{3}}\bigl(3t^{2}-x^{2}+x^{2}-3t^{2}\bigr)=0. \] Ainsi, \(\Phi\) est harmonique sur \(U\).

    2. En déduire que, pour tout \(x \in J,\; h''(x) = h(x)\).

      On remarque que \(\forall x \in J\), par intégration par parties : \[ \begin{aligned} h(x) &= \int_{0}^{+\infty}\cos(t)\,\Phi(x,t)\,\mathrm dt \\ &= \Big[\sin(t)\,\Phi(x,t)\Big]_{0}^{+\infty} - \int_{0}^{+\infty}\sin(t)\,\frac{\partial \Phi}{\partial t}(x,t)\,\mathrm dt \\ &= -\int_{0}^{+\infty}\sin(t)\,\frac{\partial \Phi}{\partial t}(x,t)\,\mathrm dt \\ &= \Big[\cos(t)\,\frac{\partial \Phi}{\partial t}(x,t)\Big]_{0}^{+\infty} - \int_{0}^{+\infty}\cos(t)\,\frac{\partial^{2} \Phi}{\partial t^{2}}(x,t)\,\mathrm dt \\ &= -\int_{0}^{+\infty}\cos(t)\,\frac{\partial^{2} \Phi}{\partial t^{2}}(x,t)\,\mathrm dt. \end{aligned} \] Par ailleurs, on peut dériver sous le signe intégral (les conditions de régularité et de domination étant satisfaites) : \[ h''(x)=\int_{0}^{+\infty}\cos(t)\,\frac{\partial^{2} \Phi}{\partial x^{2}}(x,t)\,\mathrm dt. \] On en déduit alors que \(\forall x \in J\) : \[ \begin{aligned} h''(x)-h(x) &= \int_{0}^{+\infty}\cos(t)\,\frac{\partial^{2} \Phi}{\partial x^{2}}(x,t)\,\mathrm dt + \int_{0}^{+\infty}\cos(t)\,\frac{\partial^{2} \Phi}{\partial t^{2}}(x,t)\,\mathrm dt \\ &= \int_{0}^{+\infty}\cos(t)\left[\frac{\partial^{2} \Phi}{\partial x^{2}}(x,t) + \frac{\partial^{2} \Phi}{\partial t^{2}}(x,t)\right]\mathrm dt \\ &= 0. \end{aligned} \] On a donc bien \(\forall x \in J\) : \(h''(x)=h(x)\).

  2. On pose, pour tout \(x \in J,\; k(x)=e^{-2x}\bigl(e^{x}h(x)\bigr)'\).

    1. Calculer \(k'(x)\).

      On a \((e^{x}h(x))'=e^{x}(h'(x)+h(x))\), donc \[ k(x)=e^{-2x}\cdot e^{x}\,(h'+h)=e^{-x}(h'+h). \] Ainsi \[ \begin{aligned} k'(x) &= -e^{-x}(h'+h)+e^{-x}(h''+h') \\ &= e^{-x}\bigl(h''-h\bigr) \\ &= 0, \end{aligned} \] d'après (4b).

    2. En déduire que, pour tout \(x \in J,\; h(x)=\frac{\pi}{2}\, e^{-x}\).

      D'après (a), \(k'(x)=0\), donc \(k\) est constante sur \(J\). Il existe \(c\in\mathbb R\) tel que \(\forall x \in J\) : \[ e^{-2x}\bigl(e^{x}h(x)\bigr)'=c \quad\Longrightarrow\quad \bigl(e^{x}h(x)\bigr)'=c\,e^{2x}. \] En intégrant, il existe \(d\in\mathbb R\) tel que \[ e^{x}h(x)=\frac{c}{2}e^{2x}+d \quad\Longleftrightarrow\quad h(x)=\frac{c}{2}e^{x}+d\,e^{-x}. \] Or, d'après (2c), \(\displaystyle \lim_{x\to+\infty}h(x)=0\), donc nécessairement \(c=0\), d'où \(h(x)=d\,e^{-x}\).
      Puis, d'après (3d), \(\displaystyle \lim_{x\to 0^{+}}h(x)=\dfrac{\pi}{2}\), ce qui impose \(d=\dfrac{\pi}{2}\). Par suite, \[ \boxed{\;h(x)=\dfrac{\pi}{2}\,e^{-x}\;}\qquad (x>0). \]

Exercice 2

  1. On désigne par \(n\) un entier naturel supérieur ou égal à 2 et on considère l'espace vectoriel \(E_{n} = \mathbb{R}_{n}[X]\) des polynômes de degré inférieur ou égal à \(n\), dont la base canonique est \(\mathcal{B} = (1, X, \ldots, X^n)\).

    On pose, pour tout couple \((P,Q)\) d'éléments de \(\bigl(\mathbb{R}_{n}[X]\bigr)^2\):

    $$ \langle P,Q\rangle \;=\;\int_{-1}^{1} P(t)\,Q(t)\,\mathrm{d}t. $$

    Montrer que \(\langle \,\cdot\,,\,\cdot\,\rangle\) est un produit scalaire.

    On montre que \(\langle \cdot, \cdot \rangle\) définit un produit scalaire :

    Bilinéarité : \(\forall P, Q, R \in \mathbb{R}_{n}[X]\), \(\forall \lambda \in \mathbb{R}\), on a : \[ \begin{aligned} \langle \lambda P + Q, R \rangle &= \int_{-1}^{1}(\lambda P(t)+Q(t))R(t)\,\mathrm{d}t \\ &= \lambda \int_{-1}^{1}P(t)R(t)\,\mathrm{d}t + \int_{-1}^{1}Q(t)R(t)\,\mathrm{d}t \\ &= \lambda\langle P, R\rangle + \langle Q, R\rangle. \end{aligned} \] • Symétrie : \(\forall P, Q \in \mathbb{R}_{n}[X]\), on a : \[ \langle P, Q \rangle = \int_{-1}^{1}P(t)Q(t)\,\mathrm{d}t = \int_{-1}^{1}Q(t)P(t)\,\mathrm{d}t = \langle Q, P \rangle. \] • Positivité : \(\forall P \in \mathbb{R}_{n}[X]\), on a : \[ \langle P, P \rangle = \int_{-1}^{1}P(t)^{2}\,\mathrm{d}t \ge 0. \] • Définie : \(\forall P \in \mathbb{R}_{n}[X]\), si \(\langle P, P \rangle = 0\), alors \(\int_{-1}^{1}P(t)^{2}\,\mathrm{d}t = 0\). Comme \(P^2\) est continue et positive, on a \(P(t)=0\) pour tout \(t \in [-1,1]\), donc \(P = 0\) (un polynôme ayant une infinité de racines est nul).

    On conclut que \(\langle \cdot, \cdot \rangle\) est bien un produit scalaire.

  2. On pose, pour tout couple de réels \((x,y)\):

    $$ f(x,y) \;=\; \int_{-1}^{1}\bigl(t^4 - x\,t - y\bigr)^2 \,\mathrm{d}t. $$
    1. Justifier l'existence d'un unique couple de réels \(\bigl(x_0, y_0\bigr)\) tel que \(f(x_0, y_0)=\displaystyle\inf_{(x,y)\in \mathbb{R}^2} f(x,y)\).

      Soit \(g:(x,y,t) \mapsto (t^{4}-xt-y)^{2}\). Les dérivées partielles \(\frac{\partial g}{\partial x}\) et \(\frac{\partial g}{\partial y}\) existent et sont continues. On peut donc utiliser la dérivation sous le signe intégral et on a : \[ \frac{\partial f}{\partial x}(x,y) = \int_{-1}^{1}-2t(t^{4}-xt-y)\,\mathrm{d}t, \qquad \frac{\partial f}{\partial y}(x,y) = \int_{-1}^{1}-2(t^{4}-xt-y)\,\mathrm{d}t. \] En dérivant de nouveau sous le signe intégral : \[ \frac{\partial^{2} f}{\partial x^{2}}(x,y) = \int_{-1}^{1}2t^{2}\,\mathrm{d}t = \frac{4}{3}, \qquad \frac{\partial^{2} f}{\partial y^{2}}(x,y) = \int_{-1}^{1}2\,\mathrm{d}t = 4, \qquad \frac{\partial^{2} f}{\partial x \partial y}(x,y) = \int_{-1}^{1}2t\,\mathrm{d}t = 0. \] La matrice hessienne de \(f\) est donc donnée par : \[ \forall (x,y) \in \mathbb{R}^{2} : \quad H_f(x,y) = \begin{pmatrix} \frac{4}{3} & 0 \\ 0 & 4 \end{pmatrix}. \] On a \(\forall (x,y) \in \mathbb{R}^{2}\) : \(H_f(x,y)\) est définie positive. La fonction \(f\) est donc strictement convexe sur \(\mathbb{R}^{2}\).
      Dès lors, il existe un unique \((x_0, y_0)\) tel que \(f(x_0, y_0) = \inf_{(x,y) \in \mathbb{R}^{2}} f(x,y)\).

    2. Déterminer \(\bigl(x_0, y_0\bigr)\).

      Par la condition du premier ordre, ce minimum est atteint quand \(\frac{\partial f}{\partial x}(x,y)=0\) et \(\frac{\partial f}{\partial y}(x,y)=0\).
      On a \(\forall (x,y) \in \mathbb{R}^{2}\) : \[ \begin{aligned} \frac{\partial f}{\partial x}(x,y) &= \int_{-1}^{1}-2t^{5}+2xt^{2}+2yt\,\mathrm{d}t \\ &= \left[-\frac{t^{6}}{3}+\frac{2x t^{3}}{3}+yt^{2}\right]_{-1}^{1} \\ &= -\frac{1}{3}+\frac{2x}{3}+y+\frac{1}{3}+\frac{2x}{3}-y = \frac{4x}{3}, \end{aligned} \] \[ \begin{aligned} \frac{\partial f}{\partial y}(x,y) &= \int_{-1}^{1}-2t^{4}+2xt+2y\,\mathrm{d}t \\ &= \left[-\frac{2t^{5}}{5}+xt^{2}+2yt\right]_{-1}^{1} \\ &= -\frac{2}{5}+x+2y+\frac{2}{5}-x+2y = 4y - \frac{4}{5}. \end{aligned} \] Donc : \[ \frac{\partial f}{\partial x}(x,y)=0 \Leftrightarrow x=0, \qquad \frac{\partial f}{\partial y}(x,y)=0 \Leftrightarrow y=\frac{1}{5}. \] On en déduit : \(\boxed{x_0 = 0 \text{ et } y_0 = \frac{1}{5}}\).

  3. Soit \(A\) un élément de \(E_{n}\). On définit l'application \(S_{A}\) de \(E_{n}\) dans \(\mathbb{R}\) par :

    $$ S_{A}: \quad E_{n} \longrightarrow \mathbb{R},\quad Q \longmapsto \langle A,\, Q\rangle. $$

    Montrer que l'application \(h: A \longmapsto S_{A}\) (de \(E_{n}\) vers \(\mathcal{L}(E_{n}, \mathbb{R})\)) est un isomorphisme d'espaces vectoriels.

    On sait que \(\mathcal{B} = \{1, X, X^{2}, \ldots, X^{n}\}\) est une base de \(E_{n}\).
    Considérons la famille \(\mathcal{E} = \{S_{1}, S_{X}, S_{X^{2}}, \ldots, S_{X^{n}}\}\). On remarque que :

    • \(\mathcal{E}\) est de cardinal \(n+1\) et \(\dim \mathcal{L}(E_{n}, \mathbb{R}) = \dim(E_{n}) \times \dim(\mathbb{R}) = n+1\).

    Liberté : Soient \(\lambda_{0}, \ldots, \lambda_{n} \in \mathbb{R}\) tels que \(\sum_{k=0}^{n}\lambda_{k}S_{X^{k}} = 0\). On a alors \(\forall Q \in E_{n}\) : \[ \sum_{k=0}^{n}\lambda_{k}S_{X^{k}}(Q) = 0 \Rightarrow \sum_{k=0}^{n}\lambda_{k}\langle X^{k}, Q\rangle = 0 \Rightarrow \left\langle \sum_{k=0}^{n}\lambda_{k}X^{k}, Q \right\rangle = 0. \] En prenant \(Q = \sum_{k=0}^{n}\lambda_{k}X^{k}\), on obtient : \[ \left\langle \sum_{k=0}^{n}\lambda_{k}X^{k}, \sum_{k=0}^{n}\lambda_{k}X^{k} \right\rangle = 0. \] Comme \(\langle \cdot, \cdot \rangle\) est un produit scalaire, on a nécessairement \(\sum_{k=0}^{n}\lambda_{k}X^{k} = 0\), d'où \(\forall k = 0, \ldots, n\) : \(\lambda_{k} = 0\). La famille \(\mathcal{E}\) est donc libre.

    La famille \(\mathcal{E}\) est une famille libre de cardinal maximal dans \(\mathcal{L}(E_{n}, \mathbb{R})\), c'est donc une base.
    On conclut que \(h\) est un isomorphisme d'espaces vectoriels.

  4. On définit l'application \(\Phi\) par :

    $$ \Phi: E_{n}\times E_{n}\;\longrightarrow\;\mathbb{R},\quad (P,Q)\;\longmapsto\;\int_{-1}^{1} t\,P(t)\,Q(t)\,\mathrm{d}t. $$

    Montrer que \(\Phi\) est une forme bilinéaire symétrique sur \(E_{n}\). Est-ce un produit scalaire sur \(E_{n}\)?

    On a clairement :

    • \(\forall (P, Q) \in E_{n} \times E_{n}\) : \(\Phi(P, Q) \in \mathbb{R}\).

    Symétrie : \(\forall (P, Q) \in E_{n} \times E_{n}\) : \[ \Phi(P, Q) = \int_{-1}^{1}tP(t)Q(t)\,\mathrm{d}t = \int_{-1}^{1}tQ(t)P(t)\,\mathrm{d}t = \Phi(Q, P). \] • Bilinéarité : \(\forall (P, Q, R) \in E_{n} \times E_{n} \times E_{n}\), \(\forall \lambda \in \mathbb{R}\) : \[ \begin{aligned} \Phi(\lambda P + Q, R) &= \int_{-1}^{1}t(\lambda P + Q)(t)R(t)\,\mathrm{d}t \\ &= \int_{-1}^{1}\lambda tP(t)R(t) + tQ(t)R(t)\,\mathrm{d}t \\ &= \lambda\Phi(P, R) + \Phi(Q, R). \end{aligned} \] On en déduit que \(\Phi\) est bien une forme bilinéaire symétrique sur \(E_{n}\).

    En revanche, en prenant \(P : t \mapsto 1\), on a : \[ \Phi(P, P) = \int_{-1}^{1}t\,\mathrm{d}t = 0. \] Or \(P \neq 0_{E_{n}}\), donc \(\Phi\) n'est pas définie positive. On en déduit que \(\Phi\) n'est pas un produit scalaire sur \(E_{n}\).

  5. Montrer qu'il existe un unique polynôme \(A \in E_{n}\), dépendant de \(P\), tel que: \[ \forall Q \in E_{n},\quad \Phi(P,Q) \;=\;\langle A,\,Q\rangle. \]

    On note alors \(\varphi\) l'application de \(E_{n}\) dans lui-même, définie par \(\varphi(P)=A\). On a donc \(\forall(P,Q)\in E_{n}^2, \;\Phi(P,Q)=\langle\varphi(P),\,Q\rangle\).

    On a vu que l'application \(h : A \mapsto S_{A}\) est un isomorphisme d'espaces vectoriels. En particulier, elle est surjective.
    Dès lors, \(\forall S \in \mathcal{L}(E_{n}, \mathbb{R})\), \(\exists!\, A \in E_{n}\) tel que : \[ \forall Q \in E_{n} : S(Q) = \langle A, Q \rangle. \] Or, ici, pour \(P\) fixé, l'application \(Q \mapsto \Phi(P, Q)\) est une forme linéaire sur \(E_{n}\) (par bilinéarité de \(\Phi\)). On en déduit : \[ \forall P \in E_{n}, \;\exists!\, A \in E_{n} \text{ tel que } \forall Q \in E_{n} : \Phi(P, Q) = \langle A, Q \rangle. \]

    1. Montrer que \(\varphi\) est un endomorphisme de \(E_{n}\).

      \(\varphi\) est une application de \(E_{n}\) dans lui-même. Il suffit donc de montrer la linéarité.
      Soient \(P_{1}, P_{2} \in E_{n}\) et \(\lambda \in \mathbb{R}\). Par la question 5, il existe \(A_{1}, A_{2} \in E_{n}\) tels que : \[ \forall Q \in E_{n} : \Phi(P_{1}, Q) = \langle A_{1}, Q \rangle \text{ et } \Phi(P_{2}, Q) = \langle A_{2}, Q \rangle. \] On a alors \(\varphi(P_{1}) = A_{1}\) et \(\varphi(P_{2}) = A_{2}\).
      Or, on a aussi : \[ \begin{aligned} \Phi(\lambda P_{1} + P_{2}, Q) &= \lambda\Phi(P_{1}, Q) + \Phi(P_{2}, Q) \\ &= \lambda\langle A_{1}, Q \rangle + \langle A_{2}, Q \rangle \\ &= \langle \lambda A_{1} + A_{2}, Q \rangle. \end{aligned} \] Par unicité, on en déduit que \(\varphi(\lambda P_{1} + P_{2}) = \lambda A_{1} + A_{2} = \lambda\varphi(P_{1}) + \varphi(P_{2})\).
      On en déduit que \(\varphi\) est bien un endomorphisme de \(E_{n}\).

    2. Montrer que, pour tout polynôme \(P\) de \(E_{n}\) avec \(\deg P \leqslant n-1,\; \varphi(P)=X\,P\).

      Pour tout polynôme \(P\) de \(E_{n}\) tel que \(\deg P \le n-1\), on a \(\deg(XP) \le n\), donc \(XP \in E_{n}\).
      On a alors \(\forall Q \in E_{n}\) : \[ \Phi(P, Q) = \int_{-1}^{1}tP(t)Q(t)\,\mathrm{d}t = \langle XP, Q \rangle. \] Par unicité, on en déduit que \(\varphi(P) = XP\).

  6. On suppose, dans cette question, que \(n=2\).

    1. Donner la matrice de \(\varphi\) dans la base canonique de \(E_{2}\).

      On remarque qu'avec \(n=2\) :
      • \(\varphi(1) = X\) (d'après 6b).
      • \(\varphi(X) = X^{2}\) (d'après 6b).
      • Pour \(\varphi(X^{2})\), notons \(Q : t \mapsto at^{2}+bt+c\). On a : \[ \begin{aligned} \Phi(X^{2}, Q) &= \int_{-1}^{1}t \cdot t^{2}(at^{2}+bt+c)\,\mathrm{d}t \\ &= \int_{-1}^{1}at^{5}+bt^{4}+ct^{3}\,\mathrm{d}t \\ &= \left[\frac{at^{6}}{6}+\frac{bt^{5}}{5}+\frac{ct^{4}}{4}\right]_{-1}^{1} = \frac{2b}{5}. \end{aligned} \] De même : \[ \begin{aligned} \langle eX, aX^{2}+bX+c \rangle &= \int_{-1}^{1}et(at^{2}+bt+c)\,\mathrm{d}t \\ &= \int_{-1}^{1}eat^{3}+ebt^{2}+ect\,\mathrm{d}t \\ &= \left[\frac{eat^{4}}{4}+\frac{ebt^{3}}{3}+\frac{ect^{2}}{2}\right]_{-1}^{1} = \frac{2eb}{3}. \end{aligned} \] En prenant \(e = \frac{3}{5}\), on a bien \(\forall Q \in E_{2}\) : \(\Phi(X^{2}, Q) = \langle \frac{3}{5}X, Q \rangle\), donc \(\varphi(X^{2}) = \frac{3}{5}X\).

      La matrice de \(\varphi\) dans la base canonique de \(E_{2}\) est : \[ \boxed{M = \begin{pmatrix} 0 & 0 & 0 \\ 1 & 0 & \frac{3}{5} \\ 0 & 1 & 0 \end{pmatrix}} \]

    2. Donner les valeurs propres de \(\varphi\).

      On a \(\forall \lambda \in \mathbb{R}\) : \[ M - \lambda I_{3} = \begin{pmatrix} -\lambda & 0 & 0 \\ 1 & -\lambda & \frac{3}{5} \\ 0 & 1 & -\lambda \end{pmatrix}. \] Donc : \[ \det(M - \lambda I_{3}) = -\lambda\left(\lambda^{2} - \frac{3}{5}\right) = -\lambda\left(\lambda - \sqrt{\frac{3}{5}}\right)\left(\lambda + \sqrt{\frac{3}{5}}\right). \] On en déduit que le spectre de \(\varphi\) est : \[ \boxed{\mathrm{Sp}(\varphi) = \left\{-\sqrt{\frac{3}{5}},\; 0,\; \sqrt{\frac{3}{5}}\right\}} \]

Partie 2 — Probabilités et statistiques

Exercice 3

  1. Soit \(X\) une variable aléatoire à densité, dont une densité \(f\) est nulle sur \(\mathbb{R}_{-}\) et continue sur \(\mathbb{R}_{+}\). On note \(F\) la fonction de répartition de \(X\).

    1. Établir, pour tout réel \(x\) positif, l'égalité suivante :

      $$ \int_{0}^{x} t\,f(t)\,\mathrm{d}t \;=\; \int_{0}^{x}\bigl[\,1 - F(t)\bigr]\mathrm{d}t \;-\; x\,\mathbb{P}(X > x). $$

      ...

    2. On suppose que l'intégrale \(\int_{0}^{+\infty}\bigl[\,1 - F(t)\bigr]\mathrm{d}t\) est convergente. Montrer que \(X\) admet une espérance mathématique et établir l'égalité suivante :

      $$ \mathbb{E}(X) \;=\;\int_{0}^{+\infty}\bigl[\,1 - F(t)\bigr]\mathrm{d}t. $$

      ...

  2. On considère une suite de variables aléatoires \(\bigl(X_{n}\bigr)_{n \in \mathbb{N}^{*}}\), définies sur le même espace probabilisé \((\Omega,\mathcal{A},\mathbb{P})\), mutuellement indépendantes et suivant toutes la loi exponentielle de paramètre \(\lambda\) (\(\lambda>0\)).

    Pour tout \(n \in \mathbb{N}^{*}\), on pose \(S_{n} = \max\bigl(X_{1}, X_{2}, \ldots, X_{n}\bigr)\).

    $$ \forall \omega \in \Omega,\quad S_{n}(\omega) = \max\bigl(X_{1}(\omega), X_{2}(\omega),\ldots, X_{n}(\omega)\bigr). $$
    1. (i) Déterminer la fonction de répartition \(F_{n}\) de \(S_{n}\).
      (ii) En déduire que \(S_{n}\) est une variable aléatoire à densité et déterminer une densité \(f_{n}\) de \(S_{n}\).

      ...

    2. (i) On pose, pour tout entier \(n \ge 1\):

      $$ J_{n} \;=\; \int_{0}^{+\infty}\bigl[\,1 - F_{n}(t)\bigr]\mathrm{d}t. $$
      1. Montrer que l'intégrale \(J_{n}\) est convergente.

        ...

      2. En déduire que \(S_{n}\) admet une espérance mathématique.

        ...

  3. On se propose de trouver une expression simple de \(\mathbb{E}\bigl(S_{n}\bigr)\) et un équivalent de \(\mathbb{E}\bigl(S_{n}\bigr)\) quand \(n \to +\infty\). Pour tout \(n \ge 1\), on pose \(T_{n} = \sum_{j=1}^{n} \dfrac{X_{j}}{j}\).

    1. Déterminer une densité de la variable aléatoire \(\dfrac{X_{n+1}}{n+1}\).

      ...

    2. Montrer que, pour tout \(n \ge 1,\; f_{n}\) est une densité de \(T_{n}\).

      ...

    3. En déduire l'expression de \(\mathbb{E}\bigl(S_{n}\bigr)\) et un équivalent de \(\mathbb{E}\bigl(S_{n}\bigr)\) quand \(n\) tend vers \(+\infty\).

      ...

Exercice 4

  1. On dit qu'une variable aléatoire \(Z\) à valeurs strictement positives suit une loi lognormale si la variable aléatoire \(\ln Z\) suit une loi normale.

    Soit \(Z_{1}\) une variable aléatoire à valeurs strictement positives, telle que \(X_{1} = \ln Z_{1}\) suive la loi normale centrée réduite.

    1. Donner la densité de \(Z_{1}\).

      ...

    2. Calculer, pour tout réel \(s\), \(\mathbb{E}\bigl(e^{sX_{1}}\bigr)\).

      ...

    3. En déduire que \(\mathbb{E}\bigl(Z_{1}\bigr) = e^{\tfrac12}\).

      ...

  2. Soit \(Z_{2}\) une variable aléatoire à valeurs strictement positives telle que \(X_{2}=\ln Z_{2}\) suive la loi normale \(\mathcal{N}(m,\sigma^2)\). Calculer, en utilisant les résultats de la première question, \(\mathbb{E}\bigl(Z_{2}\bigr)\) et \(\mathrm{Var}\bigl(Z_{2}\bigr)\).

    On considère dorénavant une suite de variables aléatoires \(\bigl(Y_{n}\bigr)_{n\ge1}\), à valeurs strictement positives, indépendantes, suivant toutes la même loi lognormale, associées aux variables \(X_{i}=\ln Y_{i}\), où chaque \(X_{i}\) suit la loi \(\mathcal{N}(m,\sigma^{2})\). On notera génériquement \(\mathbb{E}(Y)\) et \(\mathrm{Var}(Y)\) l'espérance et la variance de ces variables.

    On pose, pour tout \(n\ge1\):

    $$ \overline{Y_{n}} = \frac{1}{n}\sum_{i=1}^{n}Y_{i} \quad\text{et}\quad \overline{X_{n}} = \frac{1}{n}\sum_{i=1}^{n}X_{i}. $$
    1. Proposer un estimateur convergent de \(\mathbb{E}(Y)\), obtenu à partir des \(Y_{i}\).

      ...

    2. Calculer la variance de cet estimateur, en fonction de \(m\) et de \(\sigma^{2}\).

      ...

  3. On suppose, dans les questions suivantes 4, 5 et 6, que \(\sigma^2\) est connu : \(\sigma^2 = \sigma_{0}^2\).

    1. Proposer un estimateur convergent de \(m\) obtenu à partir des \(X_{i}\).

      ...

    2. En déduire un nouvel estimateur convergent de \(\mathbb{E}(Y)\), fonction de \(\overline{X_{n}}\) et de \(\sigma_{0}^2\).

      ...

    3. Cet estimateur est-il sans biais ?

      ...

  4. Comparer, pour \(n\) grand, selon leurs variances, les deux estimateurs de \(\mathbb{E}(Y)\) obtenus en 3.(a) et en 4.(b). On pourra effectuer des développements limités des variances considérées en puissances de \(\tfrac1n\).

    ...

  5. On note \(T_{1,n}\) l'estimateur de \(\mathbb{E}(Y)\) obtenu en 3.(a) et \(T_{2,n}\) celui obtenu en 4.(b). On cherche à construire un estimateur convergent de \(\mathbb{E}(Y)\), combinaison linéaire de \(T_{1,n}\) et \(T_{2,n}\) et de variance minimale. Un tel estimateur sera donc de la forme :

    $$ T_{n} \;=\;\lambda_{1} T_{1,n} \;+\;\lambda_{2} T_{2,n}. $$
    1. En raisonnant sur les moments de \(T_{1,n}\) et \(T_{2,n}\), sans chercher à les expliciter à ce stade, montrer que la solution optimale de ce problème conduit à prendre, pour valeur de \(\lambda_{1}\), le réel \(\tilde{\lambda}_{1}\) défini par :

      $$ \tilde{\lambda}_{1} \;=\; \frac{\mathrm{Cov}\bigl(T_{2,n}-T_{1,n},\,T_{2,n}\bigr)} {\mathrm{Var}\bigl(T_{2,n}-T_{1,n}\bigr)}. $$

      ...

    2. Pour tout \(i\) fixé, calculer \(\mathrm{Cov}\bigl(Y_{i},\,e^{\overline{X_{n}}}\bigr)\).

      ...

    3. En déduire l'expression explicite de l'estimateur optimal obtenu.

      ...

    4. Que devient cette expression pour \(n\) assez grand ?
      (On effectuera à nouveau des développements limités des variances considérées en puissances de \(1/n\).)

      ...

  6. On revient au cas où \(\sigma^2\) est inconnu. Proposer un estimateur convergent de \(\sigma^2\), s'exprimant comme fonction, à la fois, de \(\overline{X_{n}}\) et de \(\overline{Y_{n}}\). Connaissez-vous d'autres estimateurs de la variance dans un échantillon normal ?

    ...