Le sujet est accessible ici au format PDF.
Les propositions de corrections présentées ci-dessous n'engagent que l'auteur de ce site.
On note \(J\) l’intervalle \(\left] 0,+\infty \right[\) et on définit sur \(J\) la fonction \(h\) par :
Montrer que la fonction \(h\) est bien définie.
...
À l’aide d’une intégration par parties, établir l’égalité suivante :
$$ h(x) \;=\; 2x \int_{0}^{+\infty} \frac{t \,\sin t}{\bigl(x^{2} + t^{2}\bigr)^{2}} \,\mathrm{d}t. $$...
En déduire l’inégalité suivante :
$$ \forall x \in J,\quad |h(x)| \;\leqslant\; \frac{1}{x}. $$...
Donner la limite de \(h(x)\) quand \(x\) tend vers \(+\infty\).
...
À l’aide d’un changement de variable, montrer que, pour tout \(x \in J\) :
$$ h(x) \;=\; \int_{0}^{+\infty} \frac{\cos (xt)}{1 + t^{2}} \,\mathrm{d}t. $$...
Établir, pour tout réel \(a\), l’encadrement suivant :
$$ 0 \;\leqslant\; 1 - \cos a \;\leqslant\; \frac{a^{2}}{2}. $$...
Montrer l’encadrement suivant :
$$ \forall x \in J,\; \forall A>0,\quad 0 \;\leqslant\; \frac{\pi}{2} - h(x) \;\leqslant\; \frac{x^{2}}{2} \int_{0}^{A} \frac{t^{2}}{1+t^{2}} \,\mathrm{d}t \;+\; 2 \int_{A}^{+\infty} \frac{1}{1 + t^{2}} \,\mathrm{d}t. $$...
Déterminer la limite de \(h(x)\) quand \(x\) tend vers \(0\) par valeurs supérieures.
...
On définit sur \(U = \mathbb{R}^{2}\setminus\{\,(0,0)\}\) la fonction \(\Phi\) par
$$ \Phi(x, t) \;=\; \frac{x}{x^{2} + t^{2}}. $$Calculer, pour \((x,t)\in U,\; \frac{\partial^2 \Phi}{\partial x^2}(x,t) \;+\; \frac{\partial^2 \Phi}{\partial t^2}(x,t).\)
...
En déduire que, pour tout \(x \in J,\; h''(x) = h(x)\).
...
On pose, pour tout \(x \in J,\; k(x)=e^{-2x}\bigl(e^{x}h(x)\bigr)'\).
Calculer \(k'(x)\).
...
En déduire que, pour tout \(x \in J,\; h(x)=\frac{\pi}{2}\, e^{-x}\).
...
On désigne par \(n\) un entier naturel supérieur ou égal à 2 et on considère l’espace vectoriel \(E_{n} = \mathbb{R}_{n}[X]\) des polynômes de degré inférieur ou égal à \(n\), dont la base canonique est \(\mathcal{B} = (1, X, \ldots, X^n)\).
On pose, pour tout couple \((P,Q)\) d’éléments de \(\bigl(\mathbb{R}_{n}[X]\bigr)^2\):
$$ \langle P,Q\rangle \;=\;\int_{-1}^{1} P(t)\,Q(t)\,\mathrm{d}t. $$Montrer que \(\langle \,\cdot\,,\,\cdot\,\rangle\) est un produit scalaire.
...
On pose, pour tout couple de réels \((x,y)\):
$$ f(x,y) \;=\; \int_{-1}^{1}\bigl(t^4 - x\,t - y\bigr)^2 \,\mathrm{d}t. $$Justifier l’existence d’un unique couple de réels \(\bigl(x_0, y_0\bigr)\) tel que \(f(x_0, y_0)=\displaystyle\inf_{(x,y)\in \mathbb{R}^2} f(x,y)\).
...
Déterminer \(\bigl(x_0, y_0\bigr)\).
...
Soit \(A\) un élément de \(E_{n}\). On définit l’application \(S_{A}\) de \(E_{n}\) dans \(\mathbb{R}\) par :
$$ S_{A}: \quad E_{n} \longrightarrow \mathbb{R},\quad Q \longmapsto \langle A,\, Q\rangle. $$Montrer que l’application \(h: A \longmapsto S_{A}\) (de \(E_{n}\) vers \(\mathcal{L}(E_{n}, \mathbb{R})\)) est un isomorphisme d’espaces vectoriels.
...
On définit l’application \(\Phi\) par :
$$ \Phi: E_{n}\times E_{n}\;\longrightarrow\;\mathbb{R},\quad (P,Q)\;\longmapsto\;\int_{-1}^{1} t\,P(t)\,Q(t)\,\mathrm{d}t. $$Montrer que \(\Phi\) est une forme bilinéaire symétrique sur \(E_{n}\). Est-ce un produit scalaire sur \(E_{n}\)?
...
Montrer qu’il existe un unique polynôme \(A \in E_{n}\), dépendant de \(P\), tel que: \[ \forall Q \in E_{n},\quad \Phi(P,Q) \;=\;\langle A,\,Q\rangle. \]
On note alors \(\varphi\) l’application de \(E_{n}\) dans lui-même, définie par \(\varphi(P)=A\). On a donc \(\forall(P,Q)\in E_{n}^2, \;\Phi(P,Q)=\langle\varphi(P),\,Q\rangle\).
...
Montrer que \(\varphi\) est un endomorphisme de \(E_{n}\).
...
Montrer que, pour tout polynôme \(P\) de \(E_{n}\) avec \(\deg P \leqslant n-1,\; \varphi(P)=X\,P\).
...
On suppose, dans cette question, que \(n=2\).
Donner la matrice de \(\varphi\) dans la base canonique de \(E_{2}\).
...
Donner les valeurs propres de \(\varphi\).
...
Soit \(X\) une variable aléatoire à densité, dont une densité \(f\) est nulle sur \(\mathbb{R}_{-}\) et continue sur \(\mathbb{R}_{+}\). On note \(F\) la fonction de répartition de \(X\).
Établir, pour tout réel \(x\) positif, l’égalité suivante :
$$ \int_{0}^{x} t\,f(t)\,\mathrm{d}t \;=\; \int_{0}^{x}\bigl[\,1 - F(t)\bigr]\mathrm{d}t \;-\; x\,\mathbb{P}(X > x). $$...
On suppose que l’intégrale \(\int_{0}^{+\infty}\bigl[\,1 - F(t)\bigr]\mathrm{d}t\) est convergente. Montrer que \(X\) admet une espérance mathématique et établir l’égalité suivante :
$$ \mathbb{E}(X) \;=\;\int_{0}^{+\infty}\bigl[\,1 - F(t)\bigr]\mathrm{d}t. $$...
On considère une suite de variables aléatoires \(\bigl(X_{n}\bigr)_{n \in \mathbb{N}^{*}}\), définies sur le même espace probabilisé \((\Omega,\mathcal{A},\mathbb{P})\), mutuellement indépendantes et suivant toutes la loi exponentielle de paramètre \(\lambda\) (\(\lambda>0\)).
Pour tout \(n \in \mathbb{N}^{*}\), on pose \(S_{n} = \max\bigl(X_{1}, X_{2}, \ldots, X_{n}\bigr)\).
$$ \forall \omega \in \Omega,\quad S_{n}(\omega) = \max\bigl(X_{1}(\omega), X_{2}(\omega),\ldots, X_{n}(\omega)\bigr). $$
(i) Déterminer la fonction de répartition \(F_{n}\) de \(S_{n}\).
(ii) En déduire que \(S_{n}\) est une variable aléatoire à densité
et déterminer une densité \(f_{n}\) de \(S_{n}\).
...
(i) On pose, pour tout entier \(n \ge 1\):
$$ J_{n} \;=\; \int_{0}^{+\infty}\bigl[\,1 - F_{n}(t)\bigr]\mathrm{d}t. $$Montrer que l’intégrale \(J_{n}\) est convergente.
...
En déduire que \(S_{n}\) admet une espérance mathématique.
...
On se propose de trouver une expression simple de \(\mathbb{E}\bigl(S_{n}\bigr)\) et un équivalent de \(\mathbb{E}\bigl(S_{n}\bigr)\) quand \(n \to +\infty\). Pour tout \(n \ge 1\), on pose \(T_{n} = \sum_{j=1}^{n} \dfrac{X_{j}}{j}\).
Déterminer une densité de la variable aléatoire \(\dfrac{X_{n+1}}{n+1}\).
...
Montrer que, pour tout \(n \ge 1,\; f_{n}\) est une densité de \(T_{n}\).
...
En déduire l’expression de \(\mathbb{E}\bigl(S_{n}\bigr)\) et un équivalent de \(\mathbb{E}\bigl(S_{n}\bigr)\) quand \(n\) tend vers \(+\infty\).
...
On dit qu’une variable aléatoire \(Z\) à valeurs strictement positives suit une loi lognormale si la variable aléatoire \(\ln Z\) suit une loi normale.
Soit \(Z_{1}\) une variable aléatoire à valeurs strictement positives, telle que \(X_{1} = \ln Z_{1}\) suive la loi normale centrée réduite.
Donner la densité de \(Z_{1}\).
...
Calculer, pour tout réel \(s\), \(\mathbb{E}\bigl(e^{sX_{1}}\bigr)\).
...
En déduire que \(\mathbb{E}\bigl(Z_{1}\bigr) = e^{\tfrac12}\).
...
Soit \(Z_{2}\) une variable aléatoire à valeurs strictement positives telle que \(X_{2}=\ln Z_{2}\) suive la loi normale \(\mathcal{N}(m,\sigma^2)\). Calculer, en utilisant les résultats de la première question, \(\mathbb{E}\bigl(Z_{2}\bigr)\) et \(\mathrm{Var}\bigl(Z_{2}\bigr)\).
On considère dorénavant une suite de variables aléatoires \(\bigl(Y_{n}\bigr)_{n\ge1}\), à valeurs strictement positives, indépendantes, suivant toutes la même loi lognormale, associées aux variables \(X_{i}=\ln Y_{i}\), où chaque \(X_{i}\) suit la loi \(\mathcal{N}(m,\sigma^{2})\). On notera génériquement \(\mathbb{E}(Y)\) et \(\mathrm{Var}(Y)\) l’espérance et la variance de ces variables.
On pose, pour tout \(n\ge1\):
$$ \overline{Y_{n}} = \frac{1}{n}\sum_{i=1}^{n}Y_{i} \quad\text{et}\quad \overline{X_{n}} = \frac{1}{n}\sum_{i=1}^{n}X_{i}. $$Proposer un estimateur convergent de \(\mathbb{E}(Y)\), obtenu à partir des \(Y_{i}\).
...
Calculer la variance de cet estimateur, en fonction de \(m\) et de \(\sigma^{2}\).
...
On suppose, dans les questions suivantes 4, 5 et 6, que \(\sigma^2\) est connu : \(\sigma^2 = \sigma_{0}^2\).
Proposer un estimateur convergent de \(m\) obtenu à partir des \(X_{i}\).
...
En déduire un nouvel estimateur convergent de \(\mathbb{E}(Y)\), fonction de \(\overline{X_{n}}\) et de \(\sigma_{0}^2\).
...
Cet estimateur est-il sans biais ?
...
Comparer, pour \(n\) grand, selon leurs variances, les deux estimateurs de \(\mathbb{E}(Y)\) obtenus en 3.(a) et en 4.(b). On pourra effectuer des développements limités des variances considérées en puissances de \(\tfrac1n\).
...
On note \(T_{1,n}\) l’estimateur de \(\mathbb{E}(Y)\) obtenu en 3.(a) et \(T_{2,n}\) celui obtenu en 4.(b). On cherche à construire un estimateur convergent de \(\mathbb{E}(Y)\), combinaison linéaire de \(T_{1,n}\) et \(T_{2,n}\) et de variance minimale. Un tel estimateur sera donc de la forme :
$$ T_{n} \;=\;\lambda_{1} T_{1,n} \;+\;\lambda_{2} T_{2,n}. $$En raisonnant sur les moments de \(T_{1,n}\) et \(T_{2,n}\), sans chercher à les expliciter à ce stade, montrer que la solution optimale de ce problème conduit à prendre, pour valeur de \(\lambda_{1}\), le réel \(\tilde{\lambda}_{1}\) défini par :
$$ \tilde{\lambda}_{1} \;=\; \frac{\mathrm{Cov}\bigl(T_{2,n}-T_{1,n},\,T_{2,n}\bigr)} {\mathrm{Var}\bigl(T_{2,n}-T_{1,n}\bigr)}. $$...
Pour tout \(i\) fixé, calculer \(\mathrm{Cov}\bigl(Y_{i},\,e^{\overline{X_{n}}}\bigr)\).
...
En déduire l’expression explicite de l’estimateur optimal obtenu.
...
Que devient cette expression pour \(n\) assez grand ?
(On effectuera à nouveau des développements limités
des variances considérées en puissances de \(1/n\).)
...
On revient au cas où \(\sigma^2\) est inconnu. Proposer un estimateur convergent de \(\sigma^2\), s’exprimant comme fonction, à la fois, de \(\overline{X_{n}}\) et de \(\overline{Y_{n}}\). Connaissez-vous d’autres estimateurs de la variance dans un échantillon normal ?
...