Concours externe d'administrat·eur·rice de l'Insee — 2024

Épreuve de mathématiques


Le sujet est accessible ici au format PDF.

Les propositions de corrections présentées ci-dessous n'engagent que l'auteur de ce site.


Partie 1

Exercice 1

Dans tout le problème, \( p, q \) et \( f \) désignent trois fonctions définies et continues sur \( [0,1] \).


De plus, la fonction \( p \) est de classe \( \mathcal{C}^{1} \) sur \( [0,1] \) et les fonctions \( p \) et \( q \) vérifient :

\[\forall x \in[0,1], \quad p(x)>0 \quad q(x) \geq 0.\]


On note \( H \) l'ensemble des fonctions de classe \( \mathcal{C}^{1} \) sur \( [0,1] \) à valeurs réelles s'annulant en 0 et en 1 :

\[H = \left\{ u \in \mathcal{C}^{1}[0,1], u(0)=u(1)=0 \right\}.\]


Pour tout couple \( (u, v) \) éléments de \( H \) on pose :

\[\langle u, v\rangle=\int_{0}^{1}\left(u(t) v(t)+u^{\prime}(t) v^{\prime}(t)\right) \mathrm{d} t, \\[1em] \varphi(u, v)=\int_{0}^{1}\left(q(t) u(t) v(t)+p(t) u^{\prime}(t) v^{\prime}(t)\right) \mathrm{d} t, \\[1em] L(v)=\int_{0}^{1} f(t) v(t) \mathrm{d} t.\]

Études de produits scalaires

  1. Énoncer et redémontrer l'inégalité de Cauchy-Schwarz dans le cadre d'un espace vectoriel \( E \) muni d'un produit scalaire quelconque. Étudier le cas d'égalité.

    On énonce l'inégalité de Cauchy-Schwarz sur \( E \) un espace vectoriel muni du produit scalaire \( \langle \cdot, \cdot \rangle \) : $$ \forall (u, v) \in E^2: \left| \langle u, v \rangle \right| \leq \sqrt{\langle u, u \rangle} \cdot \sqrt{\langle v, v \rangle} $$ Pour la démontrer, on définit : $$ \forall\lambda \in \mathbb{R}: P(\lambda) = \langle u + \lambda v, u + \lambda v \rangle $$ Par bilinéarité du produit scalaire on a : $$ \langle u + \lambda v\rangle^2 = \langle u, u \rangle + 2\lambda \langle u, v \rangle + \lambda^2 \langle v, v \rangle $$ Puis, par positivité du produit scalaire, \( \forall\lambda \in \mathbb{R}: P(\lambda) \geq 0 \).

    Or, \( P \) étant un polynôme du second degré positif sur \( \mathbb{R} \), son discriminant doit être négatif ou nul. On en déduit que : $$ \Delta = 4\langle u, v \rangle^2 - 4\langle u, u \rangle \langle v, v \rangle \leq 0 $$ En réarrangeant, on retrouve l'inégalité de Cauchy-Schwarz : $$ \forall (u, v) \in E^2: \left| \langle u, v \rangle \right| \leq \sqrt{\left| u, u \right|} \cdot \sqrt{\left| v, v \right|} $$ On note par ailleurs qu'il y a égalité si et seulement si le \( \Delta \) le discriminant de \( P \) est nul.

    Le cas d'égalité n'est donc vérifié que si il existe \( \lambda_0 \in \mathbb{R} \) tel quel \( P(\lambda_0) = 0 \).

    Par définie positivité du produit scalaire, il s'ensuit : $$ \langle u + \lambda_0 v, u + \lambda_0 v \rangle = 0 \Leftrightarrow u + \lambda_0 v = 0. $$ On en déduit que le cas d'égalité n'est vérifié que si \( u \) et \( v \) sont colinéaires ou dans le cas trivial où \( u = v = 0 \).

  2. Justifier l'existence de quatre réels positifs \( p_{0}, q_{0}, p_{1} \) et \( q_{1} \) tels que $$ \forall x \in [0, 1]: 0 < p_0 \leq p(x) \leq p_1 \; et \; 0 \leq q_0 \leq q(x) \leq q_1. $$

    Par le théorème des valeurs extrêmes, \( p \) étant continue sur le compact [0, 1], on a : $$ \exists p_0 = \min_{x\in [0,1]} p(x), \; p_1 = \max_{x\in [0,1]} p(x) : p_0 \leq p(x) \leq p_1 $$ Or \( \forall x \in [0, 1] : p(x) > 0 \) donc \( p_0 > 0 \) et on obtient l'inégalité.

    De la même manière, \( q \) étant continue sur le compact [0, 1], on a : $$ \exists q_0 = \min_{x\in [0,1]} q(x), \; q_1 = \max_{x\in [0,1]} q(x) : q_0 \leq q(x) \leq q_1 $$ Or \( \forall x \in [0, 1] : q(x) \geq 0 \) donc \( q_0 \geq 0 \) et on obtient l'inégalité.

  1. (a) Montrer que \( H \) est un \( \mathbb{R} \)-espace vectoriel.

    On montre que \( H \) est un \( \mathbb{R} \)-espace vectoriel en montrant que \( H \) est un sous-espace vectoriel du \( \mathbb{R} \)-espace vectoriel \( \mathcal{C}^1([0,1]) \). On note que :

    •   \( H \in \mathcal{C}^1([0,1]) \) par définition

    •   en notant \( Z \) la fonction nulle, on a bien \( Z(0) = Z(1) = 0 \) d'où \( Z \in H \)

    •   \( \forall (\alpha, \beta) \in \mathbb{R}^2 \) et \( \forall (u, v) \in H^2 \) : $$ (\alpha u + \beta v)(0) = \alpha u(0) + \beta v(0) = 0 \; \; \text{et} \; \; (\alpha u + \beta v)(1) = \alpha u(1) + \beta v(1) = 0 $$
    On en déduit que \( H \) est un \( \mathbb{R} \)-espace vectoriel.

    (b) Montrer que \( L \) est une forme linéaire sur \( H \).

    Il est direct de voir que \( L \) est une application de \( H \) dans \( \mathbb{R} \).

    Par ailleurs on note que \( \forall (\alpha, \beta) \in \mathbb{R}^2 \) et \( \forall (u, v) \in H^2 \) on a : $$ \begin{aligned} L(\alpha u + \beta v) & = \int_0^1 f(t)(\alpha u(t) + \beta v(t)) \mathrm{d}t \\ & = \alpha \int_0^1 f(t)u(t) \mathrm{d}t + \beta \int_0^1 f(t)v(t) \mathrm{d}t \\ & = \alpha L(u) + \beta L(v) \end{aligned} $$ On en déduit que \( L \) est bien une forme linéaire sur \( H \).

    (c) Montrer que \( \langle .,. \rangle \) est un produit scalaire sur \( H \).

    On montre que \( \langle .,. \rangle \) est un produit scalaire sur \( H \) en vérifiant les propriétés associées :

    •   la forme \( \langle .,. \rangle \) est symétrique car \( \forall u, v \in H \) : $$ \langle u, v \rangle = \int_0^1 (u(t)v(t) + u'(t)v'(t)) \mathrm{d}t = \langle v, u \rangle $$
    •   la forme \( \langle .,. \rangle \) est bilinéaire par linéarité de l'intégrale

    •   la forme \( \langle .,. \rangle \) est positive car \( \forall u \in H \) : $$ \langle u, u \rangle = \int_0^1 (u^2(t) + (u'(t))^2) \mathrm{d}t \geq 0 $$
    •   la forme \( \langle .,. \rangle \) est définie positive car si \( \exists u \in H: \langle u, u \rangle = 0 \) alors : $$ \int_0^1 u^2(t) + u'(t)^2 \mathrm{d} t = 0 $$ Or si \( \forall t \in [0, 1]: u^2(t) + u'(t)^2 \geq 0 \) on déduit par positivité de l'intégrale d'une fonction positive continue sur un compact que \( \forall t \in [0, 1]: u^2(t) + u'(t)^2 = 0 \).

    Il s'ensuit que \( \forall t \in [0, 1]: u^2(t) = 0 \) et \( u'(t)^2 = 0 \) et donc \( \forall t \in [0, 1]: u(t) = u'(t) = 0 \).

    On note, pour le reste du problème, \( ||.|| \) la norme associée, i.e. \( ||u|| = \sqrt{\langle u, u \rangle} \).

    (d) Montrer que \( \varphi \) est un produit scalaire sur \( H \).

    On montre que \( \varphi \) est un produit scalaire sur \( H \) en vérifiant les propriétés associées :

    •   la forme \( \varphi \) est symétrique car \( \forall u, v \in H \) : $$ \varphi(u, v) = \int_{0}^{1}\left(q(t) u(t) v(t)+p(t) u^{\prime}(t) v^{\prime}(t)\right) \mathrm{d} t = \varphi(v, u) $$
    •   la forme \( \varphi \) est bilinéaire par linéarité de l'intégrale

    •   la forme \( \varphi \) est positive car en utilisant la positivité de \( p \) et \( q \) on a \( \forall u \in H \) : $$ \varphi(u, u) = \int_0^1 (q(t)u^2(t) + p(t)(u'(t))^2) \mathrm{d}t \geq 0 $$
    •   la forme \( \varphi \) est définie positive car si \( \exists u \in H: \varphi(u, u) = 0 \) alors : $$ \int_0^1 (q(t)u^2(t) + p(t)(u'(t))^2) \mathrm{d}t = 0 $$ Or comme \( \forall t \in [0, 1]: p(t) > 0 \), on a nécessairement \( \forall t \in [0, 1]: u'(t) = 0 \).

    On en déduit que \( u \) est constante, et comme \( u(0) = 0 \) il s'ensuit que \( \forall t \in [0, 1]: u(t) = 0 \).

  2. (a) Soit \( E \) l'espace vectoriel des fonctions continues de \( [0,1] \) sur \( \mathbb{R} \).

    Montrer que la forme suivante : $$ \begin{aligned} \vartheta: \left\{ \begin{array}{l} E \times E \rightarrow \mathbb{R} \\ (f, g) \rightarrow \int_{0}^{1} f(t) g(t) \mathrm{d} t \end{array} \right. \end{aligned} $$ est un produit scalaire sur \( E \).

    On montre que cette forme, que l'on note \( \vartheta \) pour des questions de lisibilité, est un produit scalaire sur \( E \) en vérifiant les propriétés associées :

    •   la forme \( \vartheta \) est symétrique car \( \forall f, g \in E \) : $$ \int_{0}^{1} f(t) g(t) \mathrm{d} t = \int_{0}^{1} g(t) f(t) \mathrm{d} t $$
    •   la forme \( \vartheta \) est bilinéaire par linéarité de l'intégrale

    •   la forme \( \vartheta \) est positive car \( \forall f \in E \), par positivité de l'intégrale : $$ \int_{0}^{1} (f(t))^2 \mathrm{d} t \geq 0 $$
    •   la forme \( \vartheta \) est définie positive car si il existe \( f \in E \) tel que \( \varphi(f, f) = 0 \) alors : $$ \int_{0}^{1} (f(t))^2 \mathrm{d} t = 0 $$ Et comme \( f \in E \) et par conséquent est continue, on a nécessairement \( \forall t \in [0, 1]: f(t) = 0 \).

    (b) En utilisant l'inégalité de Cauchy-Schwarz, montrer l'existence d'un réel \( \gamma \) positif tel que : $$ \forall v \in H: |L(v)| \leq \gamma\|v\| $$

    En utilisant l'inégalité de Cauchy-Schwarz appliquée au produit scalaire \( \vartheta \), on a : $$ |L(v)| = \left| \int_0^1 f(t)v(t) \mathrm{d}t \right| \leq \sqrt{\int_0^1 f^2(t) \mathrm{d}t} \times \sqrt{\int_0^1 v^2(t) \mathrm{d} t} $$ Or \( \int_0^1 v^2(t) \mathrm{d}t \leq \int_0^1 (v^2(t) + (v'(t))^2) \mathrm{d} t = \|v\|^2 \).

    On a donc bien \( |L(v)| \leq \gamma \|v\| \) avec \( \gamma = \sqrt{\int_0^1 f^2(t)dt} > 0\).

  1. Montrer de même qu'il existe un réel \( \delta \) strictement positif tel que $$ \forall(u, v) \in H^{2}, |\varphi(u, v)| \leq \delta\|u\|\|v\| . $$ On explicitera le réel \( \delta \) en fonction de \( p_{1} \) et de \( q_{1} \).

    On note en utilisant la linéarité de l'intégrale on note que \( \forall u \in H \) on a : $$ \begin{aligned} \varphi(u, u) & = \int_0^1 (q(t)(u(t))^2 + p(t)(u'(t))^2 \mathrm{d}t \\ & \leq q_1 \int_0^1 (u(t))^2 \mathrm{d}t + p_1 \int_0^1 (u'(t))^2 \mathrm{d}t \\ & \leq \max(q_1, p_1) \int_0^1 (u(t))^2 + (u'(t))^2 \mathrm{d}t \end{aligned} $$
    En appliquant l'inégalité de Cauchy-Schwarz, on note par ailleurs que : $$ \|\varphi(u, v)\| \leq \sqrt{\varphi(u, u)}\sqrt{\varphi(v, v)} \leq \max(q_1, p_1) \|u\| \|v\| $$
    On en déduit que \( |\varphi(u, v)| \leq \delta \|u\| \|v\| \) avec \(\delta = \max(q_1, p_1) \).

  1. (a) Montrer que : $$ \forall v \in H, \forall x \in[0,1], v^{2}(x) \leq x \int_{0}^{1}\left(v^{\prime}(t)\right)^{2} \mathrm{d} t $$

    Par le théorème fondamental de l'analyse, on rappelle qu'on a \( \forall v \in H, forall x \in [0, 1] \): $$ v(x) = \int_{0}^{x} v'(t) \mathrm{d}t \; \; \text{car} \; \; v(0) = 0 $$
    On remarque qu'il est immédiat par les questions précédentes de montrer que la forme \( \vartheta_x: (f, g) \in E^2 \rightarrow \int_{0}^{x} f(t) g(t) \mathrm{d} t \) est également un produit scalaire sur \( E \) pour tout \( x \in ]0, 1] \).

    Dès lors, en appliquant l'inégalité de Cauchy-Schwarz on a \( \forall x \in ]0, 1] \) : $$ v^2(x) = \left(\int_{0}^{x} v'(t) \mathrm{d}t\right)^2 \leq \left(\int_0^x \mathrm{d}t\right) \times \left(\int_0^x (v'(t))^2\mathrm{d}t\right) = x \int_0^x (v'(t))^2\mathrm{d}t $$
    En majorant l'intégrale, on en déduit : \( \forall \in ]0, 1] : v^{2}(x) \leq x \int_{0}^{1}\left(v^{\prime}(t)\right)^{2} \mathrm{ d} t \).

    Enfin, le cas où \( x = 0 \) est trivial car on a \( v(0) = 0 \).

    On conclut qu'on a bien \( \forall \in [0, 1] : v^{2}(x) \leq x \int_{0}^{1}\left(v^{\prime}(t)\right)^{2} \mathrm{ d} t \).

    (b) En déduire que : $$ \forall v \in H, p_{0}\|v\|^{2} \leq \frac{3}{2} \varphi(v, v) . $$

    On remarque par linéarité de l'intégrale que \( \forall v \in H \) : $$ ||v||^2 = \int_0^1 v^2(t) + (v'(t))^2\mathrm{d}t = \int_0^1 v^2(t)\mathrm{d}t + \int_0^1(v'(t))^2\mathrm{d}t $$
    Or, par la question précédente, on a \( \forall v \in H \) : $$ \int_0^1 v^2(t)\mathrm{d}t \leq \int_0^1 t \left( \int_{0}^{1}\left(v^{\prime}(s)\right)^{2} \mathrm{ d} s \right) \mathrm{d}t = \frac{1}{2} \int_{0}^{1}\left(v^{\prime}(s)\right)^{2} \mathrm{ d} s $$
    On en déduit alors en combinant les deux équations précédentes : $$ ||v||^2 \leq \frac{1}{2} \int_{0}^{1}\left(v^{\prime}(s)\right)^{2} \mathrm{ d} s + \int_0^1(v'(t))^2)\mathrm{d}t = \frac{3}{2} \int_0^1(v'(t))^2)\mathrm{d}t $$
    Il s'ensuit alors par les propriétés de \( p_0 \) et de \( q \) que : $$ p_0 ||v||^2 \leq \frac{3}{2} \int_0^1 p_0 (v'(t))^2 \mathrm{d}t \leq \frac{3}{2} \int_0^1 p(t) (v'(t))^2 \mathrm{d}t \leq \frac{3}{2} \varphi(v, v). $$

  1. Soit \( v \in H \). Donner un encadrement de \( \|v\| \) à l'aide de \( \sqrt{\varphi(v, v)} \).

    Pour la borne supérieure, par la question précédente, on a directement \( \forall v \in H \) : $$ ||v|| \leq \sqrt{\frac{3}{2p_0}} \sqrt{\varphi(v, v)} $$
    Pour la borne inférieure, on remarque que \( \forall v \in H \) : $$ \varphi(v, v) = \int_{0}^{1} \left( q(t) v^2(t) + p(t) (v'(t))^2 \right) \mathrm{d} t \leq q_1 \int_{0}^{1} v^2(t) \mathrm{d} t + p_1 \int_{0}^{1} (v'(t))^2 \mathrm{d} t \leq \text{max} (q_1, p_1) ||v||^2 $$
    Et on en déduit que \( ||v|| \geq \sqrt{\frac{\varphi(v, v)}{\text{max}(q_1, p_1)}} \)

    En combinant ces deux bornes, on en déduit donc que \( \forall v \in H \) : $$ \sqrt{\frac{\varphi(v, v)}{\text{max}(q_1, p_1)}} \leq ||v|| \leq \sqrt{\frac{3}{2p_0}} \sqrt{\varphi(v, v)} $$

  2. On suppose qu'il existe une fonction \( u \) de \( H \) vérifiant : $$ \forall v \in H, \varphi(u, v)=L(v) $$ Montrer qu'une telle fonction \( u \), si elle existe, est unique.

    On suppose, en raisonnant par l'absurde, qu'il existe deux fonctions \( u_1, u_2 \in H \) vérifiant \( \forall v \in H, \varphi(u_1, v)=\varphi(u_2, v)=L(v) \).

    Alors par bilinéarité, on a nécessairement \( \forall v \in H : \varphi(u_1 - u_2, v) = 0 \).

    En prenant \( v = u_1 - u_2 \in H \) on a alors \( \varphi(u_1-u_2, u_1-u_2) = 0 \) et par définie positivité du produit scalaire \( \varphi \) on a directement \( u_1-u_2 = 0 \).

    On en déduit donc que \( u_1 = u_2 \), ce qui prouve l'unicité.

Application à l’étude d’une équation différentielle

On s'intéresse aux fonctions \( u \) de classe \( \mathcal{C}^{2} \) sur \( [0,1] \) vérifiant l'équation dite de Sturm-Liouville : $$ \forall x \in[0, 1], -p(x) u^{\prime \prime}(x)-p^{\prime}(x) u^{\prime}(x)+q(x) u(x)=f(x) $$
Aucune connaissance préalable sur les équations différentielles n'est ici requise.

On admet dans toute la suite du problème que les fonctions \( p, q \) et \( f \) sont choisies de telle sorte que l'équation différentielle de Sturm-Liouville admette une solution \( u \) vérifiant : $$ u(0)=u(1)=0 $$
On remarquera qu'une telle fonction \( u \) est un élément de \( H \).

  1. On se place, dans cette question seulement, dans le cas particulier : $$ p: x \mapsto e^{-x} \quad q: x \mapsto 0 \quad \text { et } \quad f: x \mapsto 1 . $$ (a) Soit \( u \in H \). Montrer que la fonction \( u \) est solution de l'équation de Sturm-Liouville si et seulement si il existe un réel \( \lambda \) tel que : $$ \forall x \in[0,1], \quad u^{\prime}(x)=(\lambda-x) e^{x} . $$

    On remarque que l'équation de Sturm-Liouville devient : $$ -e^{-x}u''(x) + e^{-x}u'(x) = 1 \Leftrightarrow u''(x) - u'(x) = -e^x $$
    Or, on identifie par la formule de la dérivée du produit qu'on a \( \forall x \in [0, 1] \) : $$ \frac{\partial e^{-x}u'(x)}{\partial x} = -e^{-x}u'(x) + e^{-x}u''(x) = e^{-x} \left( u''(x) - u'(x) \right) = -1 $$
    On en déduit que \( u \) est solution de l'équation si et seulement si \( \frac{\partial e^{-x}u'(x)}{\partial x} = -1 \).

    Dès lors, \( u \) est solution de l'équation si et seulement si \( \exists \lambda \in \mathbb{R}: e^{-x} u'(x) = -x + \lambda \) soit : $$ u'(x) = (\lambda-x) e^x $$

    (b) Déterminer l'unique fonction \( u \) de \( H \) solution de l'équation de Sturm-Liouville.

    Par le théorème fondamental de l'analyse, on a donc \( \forall x \in [0, 1] \): $$ u(x) = \int_0^x (\lambda - t) e^t \mathrm{d}t = [(\lambda - t)e^t]_0^x + \int_0^x e^t dt = (\lambda - x)e^x - (\lambda - 0)e^0 + e^x - 1 $$
    Or, on sait que \( u(1) = 0 \) d'où \( (\lambda - 1)e^1 - \lambda + e^1 - 1 = 0 \) soit \( \lambda = \frac{1}{e^1-1} \).

    On en déduit que l'unique solution de l'équation différentielle de Sturm-Liouville est : $$ \forall x \in [0, 1]: \left(\frac{1}{e^1-1} - x\right)e^x - \frac{1}{e^1-1} + e^x - 1 $$

  1. On revient au cas général. Soit \( u \in H \) une fonction solution de l'équation de Sturm-Liouville. Montrer que : $$ \forall v \in H, \quad \varphi(u, v)=L(v) . $$

    On remarque qu'on a \( \forall v \in H \) : $$ L(v) = \int_0^1 f(x)v(x) \mathrm{d} x = \int_0^1 (-p(x)u''(x) - p'(x)u'(x) + q(x)u(x))v(x) \mathrm{d} x $$ On sépare cette intégrale en trois parties : $$ L(v) = \int_0^1 q(x)u(x)v(x) \mathrm{d} x - \int_0^1 p(x)u''(x)v(x) \mathrm{d} x - \int_0^1 p'(x)u'(x)v(x) \mathrm{d} x $$ Les fonctions \( p, \; u \) et \( v \) étant de classe \( \mathcal{C}^1 \) sur \( [0, 1] \), on a par intégration par parties : $$ \int_0^1 p(x)u''(x)v(x)\mathrm{d}x = [p(x)u'(x)v(x)]_0^1 - \int_0^1 u'(x)\left( p'(x)v(x) + p(x)v'(x) \right)\mathrm{d}x $$
    Or comme \( v(0) = v(1) = 0 \) on a \( [p(x)u'(x)v(x)]_0^1 = 0 \).

    On en conclut que \( \forall v \in H \): $$ L(v) = \int_0^1 q(x)u(x)v(x) \mathrm{d} x + \int_0^1 u'(x)p'(x)v(x) + u'(x)p(x)v'(x)\mathrm{d}x - \int_0^1 p'(x)u'(x)v(x) \mathrm{d} x $$
    Il s'ensuit directement que \( L(v) = \varphi(u, v) \) par identification.

  1. En utilisant les résultats de la première partie, montrer que l'équation de Sturm-Liouville admet une unique solution dans \( H \).

    On rappelle que, d'après la partie précédente, si il existe \( u \in H \) tel quel \( \forall v \in H: \varphi(u, v) = L(v) \), alors cette fonction est unique.

    Or, d'après la question précédente, toute solution de l'équation de Sturm-Liouville vérifie \( \forall v \in H: \varphi(u, v) = L(v) \).

    Il s'ensuit que l'équation de Sturm-Liouville admet au plus une solution dans \( H \).

    Par ailleurs, l'énoncé admet l'existence d'une solution, on peut donc conclure que l'équation de Sturm-Liouville admet une unique solution dans \( H \).

  2. Pour tout élément \( v \in H \), on pose : $$ J(v)=\frac{1}{2} \varphi(v, v)-L(v) $$ On désigne par \( u \) l'unique solution de l'équation différentielle (1) dans \( H \).

    (a) Pour tout \( w \in H \), exprimer \( J(u+w) \) en fonction de \( J(u) \) et de \( \varphi(w, w) \).

    En utilisant la bilinéarité de \( \varphi \), on remarque qu'on a : $$ \begin{aligned} J(u+w) & = \frac{1}{2}\varphi(u+w, u+w) - L(u+w) \\ & = \frac{1}{2}(\varphi(u,u) + 2\varphi(u,w) + \varphi(w,w)) - L(u) - L(w) \end{aligned} $$
    Or, comme u est l’unique solution de l'équation de Sturm-Liouville dans \( H \) on a \( \forall w \in H \): $$ \varphi(u, w) = L(w) $$
    Il s'ensuit alors que : $$ J(u+w) = \frac{1}{2}(\varphi(u,u) + \varphi(w,w)) - L(u) = J(u) + \frac{1}{2}\varphi(w,w) $$

    (b) Montrer que : $$ \forall v \in H, \quad J(u) \leq J(v) . $$ Préciser pour quelle(s) valeur(s) de \( v \) l'égalité est réalisée.

    D'après la question précédente, \( \forall v \in H \), en posant \( w = v-u \) on a : $$ J(v) = J(u) + \frac{1}{2}\varphi(v-u, v-u) \geq J(u) $$
    On remarque que l'égalité est vérifiée si et seulement si \( \varphi(v-u, v-u) \), et donc par définie positivité de \( \varphi \) si et seulement si \( u = v \).

    (c) Réciproquement, soit \( u_{0} \in H \) tel que : $$ \forall v \in H, J\left(u_{0}\right) \leq J(v) $$ En calculant \( J\left(u_{0}+\lambda w\right) \) pour tout \( w \in H \) et tout \( \lambda \in \mathbb{R} \), montrer que : $$ \forall w \in H, \varphi\left(u_{0}, w\right)=L(w) $$ Que peut-on en conclure ?

    On a \( \forall w \in H \) et \( \forall \lambda \in \mathbb{R} \): $$ \begin{aligned} J(u_0 + \lambda w) & = \frac{1}{2}\varphi(u_0 + \lambda w, u_0 + \lambda w) - L(u_0 + \lambda w) \\ & = \frac{1}{2}\varphi(u_0, u_0) + \lambda \varphi(u_0, w) + \frac{\lambda^2}{2}\varphi(w, w) - L(u_0) - \lambda L(w) \\ & = J(u_0) + \frac{\lambda^2}{2}\varphi(w, w) + \lambda \left( \varphi(u_0, w) - L(w) \right) \end{aligned} $$ Or, comme \( J(u_0) = \min_{v \in H}J(v) \), la fonction \( \lambda \mapsto J(u_0 + \lambda w) \) atteint son minimum en \( \lambda = 0 \).

    Cette fonction étant un trinôme du second degré qui atteint son minimum en \( \lambda \), sa dérivée est nulle en \( \lambda = 0 \) soit \( \forall w \in H \): $$ \varphi\left(u_{0}, w\right)=L(w) $$
    On en conclut que l'unique solution \( u \) de l'équation de Sturm-Liouville dans \( H \) vérifie : $$ u = \min_{v \in H} J(v) $$

Exercice 2

Le but de ce problème est d'étudier le développement en série de Engel des réels de \( ]0,1] \).

On note \( E \) l'ensemble des suites croissantes d'entiers supérieurs à 2.

Pour toute suite \( q=\left(q_{n}\right)_{n \in \mathbb{N}} \in E \), on note \( S_{n}(q)=\sum_{k=0}^{n} \frac{1}{q_{0} \cdots q_{k}} \).

Préliminaires

  1. Déterminer la limite de (\ S_{n}(q) \) dans les cas suivants :

    (a) pour tout \( n \in \mathbb{N}, q_{n}=p \), où \( p \in \mathbb{N} - \{0,1\} \)

    Par définition de \( S_n(q) \), on a \( \forall n \in \mathbb{N} \) : $$ S_n(q) = \frac{1}{p} + \frac{1}{p^2} + \frac{1}{p^3} + \cdots + \frac{1}{p^{n+1}} = \sum_{k=0}^{n} \frac{1}{p} \left( \frac{1}{p} \right)^{k} $$
    C'est une suite géométrique de raison \( \frac{1}{p} \in ]-1, 1[\), elle converge donc et on a \( \forall n \in \mathbb{N} \): $$ S_n(q) = \frac{1}{p} \times \frac{1-\left(\frac{1}{p}\right)^{n-1}}{1-\frac{1}{p}} = \frac{1 - \left(\frac{1}{p}\right)^{n+1}}{p-1} $$
    Il s'ensuit directement par passage à la limite que : $$ \lim_{n \rightarrow +\infty} S_n(q) = \frac{1}{p-1} $$

    (b) pour tout \( n \in \mathbb{N} \), \( q_{n}=n+2 \).

    Par définition de \( S_n(q) \), on a \( \forall n \in \mathbb{N} \) : $$ S_n(q) = \sum_{k=2}^{n+2} \frac{1}{k!} $$
    On reconnaît le développement en série de Taylor de la fonction exponentielle et on a directement : $$ \lim_{n \rightarrow +\infty} S_n(q) = \lim_{n \rightarrow +\infty} \left( \sum_{k=0}^{n} \frac{1}{k!} \right) - 1 - 1 = e - 2 $$

  2. Montrer que pour tout \( q \in E,\left(S_{n}(q)\right) \) converge vers un réel de \( \left] 0,1\right] \).

    La suite \( \left(q_{n}\right)_{n \in \mathbb{N}} \) étant une suite croissante d'entiers supérieurs à deux, on a \( \forall n \in \mathbb{N} - \{0\} \): $$ S_n(q) \leq \sum_{k=0}^{n} \frac{1}{2^{k+1}} $$
    Or, par identification d'une suite géoémtrique de raison \( \frac{1}{2} \in ]-1, 1[\), on a : $$ \lim_{n \rightarrow +\infty} \sum_{k=0}^{n} \frac{1}{2^{k+1}} = \frac{1}{2} \lim_{n \rightarrow +\infty} \sum_{k=0}^{n} \frac{1}{2^{k}} = \frac{1}{2} \times \frac{1 - \left(\frac{1}{2}\right)^{n+1}}{1 - \frac{1}{2}} = 1-\left( \frac{1}{2} \right)^{n+1 }< 1 $$
    Par le théorème de convergence monotone, \( \left(q_{n}\right)_{n \in \mathbb{N}} \) étant une suite croissante majorée de termes tous positifs, elle converge vers une limite \( \ell \in [0, 1] \).

    Par ailleurs, comme \( \forall n \in \mathbb{N} - \{0\} \), on a \( \frac{1}{2} = S_0(q) \leq S_n(q) \), on a bien : $$ 0 < \lim_{n \rightarrow +\infty} S_n(q) \leq 1 $$

Existence du développement de Engel

Dans la suite, \( \lfloor x\rfloor \) désigne la partie entière de \( x \). Dans toute cette partie, on fixe \( x \in] 0,1] \).

On définit deux suites \( \left(x_{n}\right)_{n \in \mathbb{N}} \) et \( \left(q_{n}\right)_{n \in \mathbb{N}} \) par : $$ \forall n \in \mathbb{N} : x_{0}=x \; \; \text{et} \; \; q_{n}=1+\left\lfloor\frac{1}{x_{n}}\right\rfloor \; \; \text{et} \; \; x_{n+1}=q_{n} x_{n}-1 $$

  1. Montrer que les suites \( \left(x_{n}\right)_{n \in \mathbb{N}} \) et \( \left(q_{n}\right)_{n \in \mathbb{N}} \) sont bien définies.

    On montre d'abord que \( \left(x_{n}\right)_{n \in \mathbb{N}} \) est bien définie.

    Pour ce faire, on montre par récurrence que \( \forall n \in \mathbb{N}: x_n \in ]0, 1] \).

    Initialisation

    On a \( x_0 \in ]0, 1] \) par hypothèse.

    Hérédité

    On suppose qu'il existe \( n \in \mathbb{N} - \{ 0 \} \) tel que \( x_n \in ]0, 1] \).

    Par définition de la partie entière, on a : $$ q_n - 1 \leq \frac{1}{x_n} < q_n $$
    Il s'ensuite en multipliant par \( x_n \) que : $$ (q_n - 1)x_n \leq 1 < q_n x_n $$
    Par l'inégalité de droite, on a alors directement : $$ x_{n+1} = q_n x_n - 1 > 0 $$
    Par l'inégalité de gauche, comme \( x_n \leq 1 \) par hyppothèse, on a : $$ x_{n+1} = q_n x_n - 1 \leq q_n x_n - x_n \leq 1 $$
    On en déduit que \( \forall n \in \mathbb{N}: x_n \in ]0, 1] \).

    Par définition de \( \left(q_{n}\right)_{n \in \mathbb{N}} \) et de la partie entière, on a alors \( \forall n \in \mathbb{N}: 0 \leq q_n < \infty \).

  2. Etudier la monotonie de la suite \( \left(x_{n}\right)_{n \in \mathbb{N}} \).

    En utilisant le résultat \( q_n - 1)x_n \leq 1 \), on a \( \forall n \in \mathbb{N} - \{ 0 \} \): $$ x_{n+1} - x_n = (q_n - 1)x_n - 1 \leq 0 $$
    Il s'ensuit que la suite (\ left(x_{n}\right)_{n \in \mathbb{N}} \) est décroissante.

    Par ailleurs, on a \( x_{n+1} = x_n \Leftrightarrow \left\lfloor\frac{1}{x_{n}}\right\rfloor = \frac{1}{x_n} \) soit si \( \frac{1}{x_{n}} \) est entier.

  3. Montrer que \( \left(q_{n}\right)_{n \in \mathbb{N}} \in E \).

    Par les propriétés de la partie entière, il est trivial de montrer que \( \forall n \in \mathbb{N} : q_n \in \mathbb{N} \).

    Puis on a \( \forall n \in \mathbb{N} \): $$ x_{n+1} \leq x_n \; \Leftrightarrow \; 1/x_{n+1} \geq 1/x_n \; \Leftrightarrow \; \lfloor 1/x_{n+1}\rfloor \geq \lfloor 1/x_n\rfloor \; \Leftrightarrow \; q_{n+1} \geq q_n $$
    Ainsi, \( \left(q_{n}\right)_{n \in \mathbb{N}} \) est une suite croissante d'entiers.

    Enfin, comme \( \forall n \in \mathbb{N} : x_n \leq 1 \) on a nécessairement \( \forall n \in \mathbb{N} : q_n \geq 2 \) et donc \( \left(q_{n}\right)_{n \in \mathbb{N}} \in E \).

  4. Montrer que pour tout \( n \in \mathbb{N} \): $$ x=S_{n}(q)+\frac{x_{n+1}}{q_{0} \cdots q_{n}} . $$

    On note que \( \forall n \in \mathbb{N} \) : $$ x_{n+1} = q_n x_n-1 \; \Leftrightarrow \; x_n = \frac{1}{q_n} + \frac{x_{n+1}}{q_n} $$
    On a donc pour les cas \( n = 1 \) et \( n = 2 \) : $$ x_0 = \frac{1}{q_0} + \frac{x_1}{q_0} = \frac{1}{q_0} + \frac{\frac{1}{q_1} + \frac{x_2}{q_1}}{q_0} = \frac{1}{q_0} + \frac{1}{q_0q_1} + \frac{x_2}{q_0q_1} $$
    En chaînant cette formule (ou par récurrence immédiate), on obtient pour tout \( n \in \mathbb{N} \): $$ x = \frac{1}{q_0} + \frac{1}{q_0q_1} + \cdots + \frac{1}{q_0\cdots q_{n-1}} + \frac{x_{n+1}}{q_0\cdots q_n} = S_n(q) + \frac{x_{n+1}}{q_0\cdots q_n} $$

  1. Déterminer \( \lim _{n \rightarrow+\infty} S_{n}(q) \).

    En utilisant le fait que \( 0 < x_{n+1} \leq 1 \) et que \( \left(q_{n}\right)_{n \in \mathbb{N}} \in E \) on a : $$ 0 \leq \frac{x_{n+1}}{q_0\cdots q_n} \leq \frac{1}{2^{n+1}} $$ Par le théorème d'encadrement, il s'ensuit que \( \lim_{n \rightarrow+\infty} \frac{x_{n+1}}{q_0\cdots q_n} = 0 \).

    Comme \( S(n)_{n \in \mathbb{N}} \) convergence, par unicité de la limite, on en déduit \( \lim _{n \rightarrow+\infty} S_{n}(q) = x_0 \).

  2. Soit \( a \geq 3 \).
    (a) Montrer que l'équation \( x^{2}-a x+1=0 \) admet une unique solution dans \( \left.] 0,1\right] \).

    On note cette solution \( r(a) \). On ne demande pas de l'expliciter.

    Le discriminant de ce polynôme du second degré est \( \Delta = \sqrt{a^2 - 4} > 0 \). Il admet donc deux racines : $$ r(a) = \frac{a-\sqrt{a^2-4}}{2} \; \; \text{et} \; \; l(a) = \frac{a+\sqrt{a^2-4}}{2} $$
    Il est trivial de montrer que \( \forall a \geq 3: l(a) > 1 \).

    En notant que :

    •   \( \forall a \geq 2 : \sqrt{a^2 - 4} < a \; \Leftrightarrow \; r(a) > 0 \)

    •   \( \forall a \geq 2 : a^2 − 2^2 \geq (a−2)^2 \; \Leftrightarrow \; \sqrt{a^2-4} \geq a - 2 \; \Leftrightarrow \; a-sqrt{a^2-4} \leq 2\)

    On a bien \( r(a) \in ]0, 1] \) et donc admet une unique solution dans \( ]0, 1] \).

    (b) On suppose \( a \in \mathbb{N} \). Montrer que si \( x=r(a) \), alors \( a=1+\left\lfloor\frac{1}{x}\right\rfloor \).

    On note que \( \forall a \in \mathbb{N} \), si \( x = r(a) \) on a : $$ x^2 - ax + 1 = 0 \; \Leftrightarrow \; \frac{1}{x} = a - x $$
    Or on sait que \( x = r(a) \in ]0, 1] \) d'où \( a - x \in ]a-1, a] \) et donc : $$ a = 1 +\left\lfloor \frac{1}{x}\right\rfloor $$

    (c) Soit \( p \in \mathbb{N} \) un entier supérieur ou égal à 3.

    On note \( \left(x_{n}\right)_{n \in \mathbb{N}} \) et \( \left(q_{n}\right)_{n \in \mathbb{N}} \) les suites définies comme précédemment en posant \( x=r(p) \).

    Montrer que si \( x_{n}=r\left(q_{n}\right) \) alors \( x_{n+1}=r\left(q_{n}^{2}-2\right) \).

    On suppose que \( \forall n \in \mathbb{N} : x_{n}=r\left(q_{n}\right) \).

    Alors \(\forall n \in \mathbb{N} : x_n \) vérifie \( x_n^2-q_n x_n+1=0 \; \Leftrightarrow \; x_n^2 = q_n x_n - 1\).

    En utilisant la définition de la suite \( \left(x_{n}\right)_{n \in \mathbb{N}} \), on montre que \( x_{n+1} \) satisfait : $$ x_{n+1}^2 - (q_n^2 - 2)x_{n+1} + 1 = 0 $$
    Pour ce faire, on met en évidence en développant que : $$ x_{n+1}^2 - (q_n^2 - 2)x_{n+1} + 1 = (q_n x_n - 1)^2 - (q_n^2 - 2)(q_n x_n - 1) + 1 = q_n^2 (x_n^2 - q_n x_n + 1) = 0 $$
    On conclut qu'on a bien \( \forall n \in \mathbb{N} : x_{n+1} = r(q_n^2 - 2)\).

    (d) Conclure que \( \left(q_{n}\right)_{n \in \mathbb{N}} \) vérifie : $$ q_{0}=p \quad \text { et } \quad \forall n \in \mathbb{N}, \quad q_{n+1}=q_{n}^{2}-2 . $$

    Par la question (b), on a directement \( x = r(p) \; \Leftrightarrow \; p = 1+\left\lfloor\frac{1}{x}\right\rfloor = q_0 \).

    Puis on montre par récurrence que \( \forall n \in \mathbb{N} : q_{n+1} = q_n^2 - 2 \).

    Initialisation

    On note qu'on a bien \( q_0^2-2 > 3 \) car \( q_0 = p > 3 \).

    Comme \( q_0 = p \), on a en utilisant la question (c) : \( x_1 = r(q_0^2-2) \).

    Or, par la question (b), on a \( x_1 = r(q_0^2 - 2) \; \Leftrightarrow \; q_0^2 - 2 = 1+\left\lfloor\frac{1}{x_1}\right\rfloor = q_1 \).

    On en déduit qu'on a bien \( q_1 = q_0^2 - 2 \).

    Hérédité

    On suppose qu'il existe \( n \in \mathbb{N} \) tel que \( q_{n+1} = q_n^2 - 2 \).

    On note que par récurrence immédiate, on a bien \( q_n^2 - 2 > 3 \).

    En utilisant la question (c), on a \( x_{n+2} = r(q_{}n+1^2-2) \).

    Puis par la question (b), on a \( x_{n+2} = r(q_{n+1}^2 - 2) \; \Leftrightarrow \; q_{n+1}^2 - 2 = 1+\left\lfloor\frac{1}{x_{n+2}}\right\rfloor = q_{n+2} \).

    On a donc bien \( q_{n+2} = q_{n+1}^2 - 2 \).

    On en déduit que \( \forall n \in \mathbb{N} : q_{n+1} = q_n^2 - 2 \).

Partie 2

Dans la suite, v.a. signifie variable aléatoire et v.a.i.i.d. variables aléatoires mutuellement indépendantes et identiquement distribuées.

\( \mathbb{P}[A \mid B] \) est la probabilité conditionnelle de l'évémenent \( A \) sachant que l'événement \( B \) est réalisé.

\( \mathbb{E}[X \mid Y] \) est l'espérance conditionnelle de la v.a. \( X \) sachant la v.a. \( Y \).

\( \mathbb{E}[X] \) et \( \mathbb{V}(X) \) représentent respectivement l'espérance et la variance d'une v.a. \( X \), lorsque ces quantités existent.

Exercice 1

Dans tout cet exercice, \( n \) désigne un entier naturel non nul.

Soit \( \left(X_{n}\right)_{n \geq 1} \) une suite de v.a.i.i.d. de loi normale standard \( \mathcal{N}(0,1) \), de densité : $$ \forall x \in \mathbb{R}, \varphi(x)=\frac{1}{\sqrt{2 \pi}} e^{-x^{2} / 2} $$
et de fonction de répartition : $$ \forall x \in \mathbb{R}, \Phi(x)=\int_{-\infty}^{x} \varphi(x) d x $$
On note \( S_{n}=X_{1}+\ldots+X_{n} \) et pour tout \( x>0 \): $$ \rho_{n}(x)=\mathbb{P}\left[\left|\frac{S_{n}}{n}\right| \geq x\right] $$

  1. Déterminer la loi de \( S_{n} / n \) et en déduire que : $$ \forall x>0: \rho_{n}(x)=\mathbb{P}\left[\left|X_{1}\right| \geq x \sqrt{n}\right]=2 \mathbb{P}\left[X_{1} \geq x \sqrt{n}\right]=2(1-\Phi(x \sqrt{n})) $$

    On sait que \( \forall n \in \mathbb{N} \): \( \frac{S_n}{n} \) suit une loi normale en tant que combinaison linéaire de variables aléatoires de loi normale indépendantes.

    Par ailleurs, on a :

    •   \( \mathbb{E}[\frac{S_n}{n}] = \frac{1}{n} \mathbb{E}[S_n] = \frac{1}{n} \sum_{i=1}^{n} \mathbb{E}[X_i] = 0 \)

    •   \( \mathbb{V}(\frac{S_n}{n}) = \frac{1}{n^2} \mathbb{V}(S_n) = \frac{1}{n^2} \sum_{i=1}^{n} \mathbb{V}(X_i) = \frac{1}{n} \) par indépendance

    La loi normale étant caractérisée par ses moments, on en déduit \( \frac{S_n}{n} \sim \mathcal{N}(0, \frac{1}{n})\).

    Par symétrie de la loi normale, on a alors \( \forall x \in \mathbb{R} \) : $$ \rho_n(x) = \mathbb{P}\left[\left|\frac{S_n}{n}\right| \geq x\right] = \mathbb{P}\left[\frac{S_n}{n} \geq x\right] + \mathbb{P}\left[\frac{S_n}{n} \leq -x\right] = 2\mathbb{P}\left[\frac{S_n}{n} \geq x\right] $$
    En notant que \( \frac{S_n}{\sqrt{n}} \sim \mathcal{N}(0,1) \) et en rappelant \( X_1 \sim \mathcal{N}(0,1) \) également, on a alors : $$ \rho_n(x) = 2\mathbb{P}\left[\frac{S_n}{n} \geq x\right] = 2 \mathbb{P}\left[\frac{S_n}{\sqrt{n}} \geq x\sqrt{n}\right] = 2\mathbb{P}[X_1 \geq x\sqrt{n}] = 2(1 - \Phi(x\sqrt{n})) $$ En utilisant de nouveau la symétrie de la loi normale, on conclut que \( \forall x \in \mathbb{R} \) : $$ \rho_{n}(x)=\mathbb{P}\left[\left|X_{1}\right| \geq x \sqrt{n}\right]=2 \mathbb{P}\left[X_{1} \geq x \sqrt{n}\right]=2(1-\Phi(x \sqrt{n})) $$

  1. Démontrer que : $$ \forall x>0,\left(\frac{1}{x}-\frac{1}{x^{3}}\right) e^{-x^{2} / 2} \leq \int_{x}^{+\infty} e^{-t^{2} / 2} d t \leq \frac{1}{x} e^{-x^{2} / 2} $$

    On raisonne séparément pour les bornes supérieure et inférieure.

    Borne supérieure

    On note que \( \forall x > 0 \) on a : $$ \int_x^{+\infty} e^{-t^2/2} \mathrm{d}t \leq \int_x^{+\infty} \frac{t}{x} e^{-t^2/2} \mathrm{d}t = \frac{1}{x} \left[-e^{-t^2/2}\right]_x^{+\infty} = \frac{1}{x} e^{-x^2/2} $$

    Borne inférieure

    On utilise une intégration par parties.

    Pour ce faire, on note que :

    •   la fonction \( t \mapsto \frac{1}{t} \) est de classe \( \mathcal{C}^1 \) sur \( \mathbb{R}_{+}^* \)

    •   la fonction \( t \mapsto te^{-t^2/2} \) est de classe \( \mathcal{C}^1 \) sur \( \mathbb{R}_{+}^* \)

    •   \( \lim_{t \rightarrow +\infty} e^{-t^2/2} = 0 \)

    On obtient ainsi pour tout \( x > 0 \) : $$ \int_x^{+\infty} \frac{t}{t} e^{-t^2/2} \mathrm{d}t = \left[-\frac{1}{t}e^{-t^2/2}\right]_x^{+\infty} - \int_x^{+\infty}\frac{1}{t^2}e^{-t^2/2}\mathrm{d}t = \frac{1}{x}e^{-x^2/2} - \int_x^{+\infty}\frac{1}{t^2}e^{-t^2/2}\mathrm{d}t $$
    Or, on a \( \forall t \geq x > 0 : \frac{1}{t^2} \leq \frac{1}{x^2} \) d'où : $$ \int_x^{+\infty}\frac{1}{t^2}e^{-t^2/2}\mathrm{d}t\le \frac{1}{x^2}\int_x^{+\infty}e^{-t^2/2}\mathrm{d}t $$
    En intégrant cette inégalité dans l'égalité précédente, on obtient \( \forall x > 0 \) : $$ \int_x^{+\infty} e^{-t^2/2} \mathrm{d}t \geq \frac{1}{x}e^{-x^2/2} - \frac{1}{x^2} \int_x^{+\infty} e^{-t^2/2} \mathrm{d}t $$
    En réarrangeant les termes, on en déduit alors : $$ \int_x^{+\infty} e^{-t^2/2} \mathrm{d}t \geq \frac{x}{x^2+1}e^{-x^2/2} $$
    Or, comme \( \forall x > 0 : \frac{x}{x^2 + 1} \geq \left(\frac{1}{x}-\frac{1}{x^{3}}\right) \) car \( x^4 \geq (x^2-1)(x^2+1) = x^4-1 \) on déduit : $$ \int_x^{+\infty} e^{-t^2/2} \mathrm{d}t \geq \left(\frac{1}{x}-\frac{1}{x^{3}}\right) e^{-x^2/2} $$

    Encadrement

    En utilisant les deux bornes, on déduit qu'on a bien \( \forall x > 0 \) : $$ \forall x>0,\left(\frac{1}{x}-\frac{1}{x^{3}}\right) e^{-x^{2} / 2} \leq \int_{x}^{+\infty} e^{-t^{2} / 2} d t \leq \frac{1}{x} e^{-x^{2} / 2} $$

  1. En déduire l'inégalité de concentration gaussienne suivante : $$ \forall n \geq 1, \forall x>0, \sqrt{\frac{2}{\pi}}\left(\frac{1}{x \sqrt{n}}-\frac{1}{x^{3} n^{3 / 2}}\right) e^{-n x^{2} / 2} \leq \rho_{n}(x) \leq \sqrt{\frac{2}{\pi}} \frac{1}{x \sqrt{n}} e^{-n x^{2} / 2} $$

    On rappelle qu'on a \( \forall n \geq 1, \forall x > 0 \) : $$ \rho_n(x) = 2\left(1-\Phi(x\sqrt{n})\right) = \sqrt{\frac{2}{\pi}}\int_{x\sqrt{n}}^{+\infty} e^{-t^2/2}\mathrm{d}t. $$
    En intégrant \( \rho_n(x) \) dans l'inégalité montrée à la question précédente, on obtient : $$ \forall n \geq 1, \forall x > 0: \sqrt{\frac{2}{\pi}}\left(\frac{1}{x \sqrt{n}}-\frac{1}{x^{3} n^{3 / 2}}\right) e^{-n x^{2} / 2} \leq \rho_{n}(x) \leq \sqrt{\frac{2}{\pi}} \frac{1}{x \sqrt{n}} e^{-n x^{2} / 2} $$

  1. Rappeler les inégalités de Markov et de Bienaymé-Tchebychev et les redémontrer.

    Inégalité de Markov

    On rappelle que pour \( X \) une variable aléatoire positive, l'inégalité de Markov donne : $$ \forall a > 0 : \mathbb{P}[X \geq a] \leq \frac{\mathbb{E}[X]}{a} $$
    Pour le prouver, on considère \( a > 0 \). Comme \( X \) admet une espérance, l'intégrale \( \int_{0}^{+\infty} tf(t)\mathrm{d}t \) converge absolument et on a : $$ a \mathbb{P}[X \geq a] = a \int_{a}^{+\infty} f(t) \mathrm{d}t \leq \int_{a}^{+\infty} t f(t) \mathrm{d}t $$
    On majorant à droite, on en déduit que : $$ a \mathbb{P}[X \geq a] \leq \int_{a}^{+\infty} t f(t) \mathrm{d}t = \mathbb{E}[X] $$
    Inégalité de Bienaymé-Tchebychev

    On rappelle que pour \( X \) une variable aléatoire positive, l'inégalité de Bienaymé-Tchebychev donne : $$ \forall a > 0 : \mathbb{P}[|X - \mathbb{E}[X]|\geq a] \leq \frac{\mathbb{V}(X)}{a^2} $$
    Pour le prouver, on applique l'inégalité de Markov à la variable aléatoire positive \( |X - \mathbb{E}[X]| \) : $$ \forall a > 0 : \mathbb{P}[|X - \mathbb{E}[X]| \geq a] = \mathbb{P}[|X - \mathbb{E}[X]|^2 \geq a^2] \leq \frac{\mathbb{E}[|X - \mathbb{E}[X]|^2]}{a^2} = \frac{\mathbb{V}(X)}{a^2} $$

  2. Soit \( h \) une fonction positive et strictement croissante sur \( \mathbb{R} \).

    Après avoir justifié de l'existence de l'espérance, démontrer que pour toute variable aléatoire positive, intégrable et pour tout \( t>0 \) : $$ \mathbb{P}[X \geq t] \leq \frac{\mathbb{E}[h(X)]}{h(t)} $$

    Avec \( h \) une fonction positive, strictement croissante sur \( \mathbb{R} \), on a en appliquant l'inégalité de Markov à \( h(X) \) : $$ \forall t > 0 : \mathbb{P}[X \geq t] = \mathbb{P}[h(X) \geq h(t)] = \leq \frac{\mathbb{E}[h(X)]}{h(a)} $$
    Le cas où \( \mathbb{E}[h(X)] = +\infty \) est trivial car l'inégalité est alors toujours satisfaite.

  1. Après avoir justifié l'existence de l'espérance, en déduire que : $$ \forall x>0, \rho_{n}(x) \leq 2 e^{-t x \sqrt{n}} \mathbb{E}\left[e^{t X_{1}}\right] $$

    Par le théorème du transfert, on note que \( \forall t \in \mathbb{R} \) on a : $$ \mathbb{E}[e^{tX_1}] = \frac{1}{\sqrt{2\pi}}\int_{\mathbb{R}} e^{tx}e^{-x^2/2}\mathrm{d}x = \frac{e^{t^2/2}}{\sqrt{2\pi}}\int_{\mathbb{R}} e^{-(x-t)^2/2}\mathrm{d}x = e^{t^2/2} < +\infty $$
    Ainsi \( \forall t > 0 \), en appliquant le résultat de la question précédente avec \( h:u \mapsto e^{tu} \) (qui est bien positive, strictement croissante sur \( \mathbb{R} \) on a \( \forall x > 0 \) : $$ \mathbb{P}\left[X_1\ge x\sqrt{n}\right] \leq \frac{\mathbb{E}[e^{tX_1}]}{e^{t x\sqrt{n}}} $$
    En rappelant que \( \rho_n(x)=2\,\mathbb{P}\left[X_1\ge x\sqrt{n}\right] \) on obtient \( \forall n \geq 1, \forall x > 0 \) : $$ \rho_n(x) \leq 2 e^{-t x\sqrt{n}} \mathbb{E}[e^{tX_1}] $$

  1. Démontrer que : $$ \forall t \in \mathbb{R}, \mathbb{E}\left[e^{t X_{1}}\right]=e^{t^{2} / 2} $$

    Comme à la question précédente, par le théorème du transfert, on a \( \forall t \in \mathbb{R} \) : $$ \mathbb{E}[e^{tX_1}] = \frac{1}{\sqrt{2\pi}}\int_{\mathbb{R}} e^{tx}e^{-x^2/2}\mathrm{d}x = \frac{e^{t^2/2}}{\sqrt{2\pi}}\int_{\mathbb{R}} e^{-(x-t)^2/2}\mathrm{d}x = e^{t^2/2} $$

  1. En déduire que : $$ \forall n \geq 1, \forall x>0, \rho_{n}(x) \leq 2 e^{-n x^{2} / 2} $$

    En combinant les résultats des deux dernières questions, on a \( \forall n \geq 1, \forall x>0 \) et \( \forall t \in \mathbb{R} \) : $$ \rho_n(x) \leq 2 e^{-t x\sqrt{n} + t^2/2} $$
    Or le polynôme du second degré \( g: t \mapsto \frac{t^2}{2} - tx\sqrt{n} \) atteint son minimum en \( t = x\sqrt{n} \), on peut donc affiner cette inégalité et obtenir \( \forall n \geq 1, \forall x > 0 \): $$ \rho_n(x) \leq 2 e^{-(x\sqrt{n})^2 + (x\sqrt{n})^2/2} = 2 e^{-nx^2/2} $$

Exercice 2

Dans tout cet exercice, \( n \) est un entier naturel non nul. On considère une suite de v.a.i.i.d. \( \left(X_{n}\right)_{n \geq 1} \) de loi de Bernoulli de paramètre \( p \in] 0,1\left[\right. \).

On notera \( q=1-p \).

L'événement \( \left[X_{n}=1\right] \) représente un succès au \( n \)-ième tirage.

  1. Soit \( Y \) la variable aléatoire égale au nombre de tirages nécessaires avant d'obtenir un premier succès. Démontrer que : $$ \forall k \geq 1, \mathbb{P}[Y=k]=q^{k-1} p $$
    Déterminer l'expression de l'espérance \( \mathbb{E}[Y] \) et de la variance \( \mathbb{V}(Y) \) de \( Y \), en fonction de \( p \) et \( q \).

    Un premier succès au \( k \)-ème tirage signifie nécessairement \( k-1 \) échecs suivis d’un succès, d'où par indépendance des tirages : $$ \forall k \geq 1 : \mathbb{P}[Y=k] = \mathbb{P}[\cap_{i=1}^{k-1} X_i=0] \times \mathbb{P}[X_k=1] = q^{k-1} p $$ On peut alors calculer \( \forall k \geq 1 \) :

    •   \( \mathbb{E}[Y] = \sum_{k \geq 1} k p q^{k-1} = p\sum_{k \geq 1} k q^{k-1} = \frac{p}{(1-q)^2} = \frac{1}{p} \)

    •   \( \mathbb{E}[Y^2] = p \sum_{k \geq 1} k^2 q^{k-1} = p \times \frac{1+q}{(1-q)^3} = \frac{1+q}{p^2} \)

    •   \( \mathbb{V}(Y) = \mathbb{E}[Y^2] - \mathbb{E}[Y]^2 = \frac{1+q}{p^2} - \frac{1}{p^2} = \frac{q}{p^2} \) par la formule de König-Huygens

  1. On considère deux v.a. indépendantes \( Y_{1} \) et \( Y_{2} \) de même loi géométrique de paramètre \( p \). On note \( S=Y_{1}+Y_{2} \). Démontrer que : $$ \forall n \geq 2, \mathbb{P}[S=n] = (n-1) p^2 q^{n-2} $$

    En utilisant l'indépendance des deux variables aléatoires, on a \( \forall n \geq 2 \) : $$ \mathbb{P}[S=n] = \mathbb{P}[\cup_{k=1}^{n-1} \left( Y_1=k \cap Y_2=n-k \right)] = \sum_{k=1}^{n-1}\mathbb{P}[Y_1=k] \mathbb{P}[Y_2=n-k] = \sum_{k=1}^{n-1} p^2 q^{n-2} = (n-1) p^2 q^{n-2} $$

  1. Déterminer la probabilité conditionnelle \( \mathbb{P}\left[Y_{1}=k \mid S=n\right] \). Interpréter le résultat.

    En utilisant la formule de Bayes, on a pour \( 1 \leq k \leq n-1 \) : $$ \mathbb{P}[Y_1=k \mid S=n] = \frac{\mathbb{P}[Y_1=k \cap Y_2=n-k]}{\mathbb{P}[S=n]} = \frac{p^2 q^{n-2}}{(n-1)p^2 q^{n-2}} = \frac{1}{n-1}. $$
    Le résultat indique que si l'on sait que deux succès ont été obtenus au tirage \( n \), le numéro du premier tirage à succès parmi les \( n-1 \) premiers tirages est équiprobable.

On note \( S_{n}=X_{1}+\ldots+X_{n} \) la somme des \( n \) premiers tirages et \( T_{n} \) le nombre de tirages nécessaires pour obtenir \( n \) succès.

On dit que \( T_{n} \) suit une loi de Pascal de paramètres \( n \) et \( p \).

  1. Reconnaître la loi suivie par \( S_{n} \), puis démontrer que pour tout \( k \geq n \) : $$ \left[T_{n}=k\right]=\left[S_{n-1}=k-1\right] \cap\left[X_{n}=1\right] . $$

    On identifie que \( S_n = \sum_{i=1}^n X_i \) suit la loi binomiale $\mathcal{B}(n,p)$.

    De plus, il est immédiat qu'on ait \( \forall k \geq n \) : $$ \left[ S_{k-1} = n-1 \right] \cap\ [ X_k = 1 ] \Rightarrow [ T_n = k ] $$
    En effet, si on a obtenu \( n-1 \) succès après \( k-1 \) tirage et que le \( k \)-ème tirage est un succès, alors il aura fallu \( k \) tirages pour obtenir \( n \) succès.

    Inversement, si on sait qu'il a fallu \( k \) tirages pour obtenir \( n \) succès, c'est que le \( k \)-ème tirage était un succès et qu'on avait déjà rencontré \( n-1 \) succès avant, donc : $$ [ T_n = k ] \Rightarrow \left[ S_{k-1} = n-1 \right] \cap\ [ X_k = 1 ] $$
    On en déduit en combinant ces implications : $$ \left[ S_{k-1} = n-1 \right] \cap\ [ X_k = 1 ] \Leftrightarrow [ T_n = k ] $$

  1. En déduire que : $$ \forall k \geq n, \mathbb{P}\left[T_{n}=k\right]=\binom{k-1}{n-1} p^{n} q^{k-n} . $$

    En utilisant le résultat de la question précédente et le lemme des coalitions, on a \( \mathbb{P}[S_{k-1}=n-1 \cap X_k=1] = \mathbb{P}[S_{k-1}=n-1] \mathbb{P}[X_k=1] \) et donc \( \forall k \geq n \) : $$ \mathbb{P}[T_n=k] = \mathbb{P}[S_{k-1}=n-1] \mathbb{P}[X_k=1] = \binom{k-1}{n-1}p^{n-1}q^{k-n} p = \binom{k-1}{n-1}p^n q^{k-n} $$

  1. On pose \( Y_{1}=T_{1} \) et pour tout \( i \geq 2, Y_{i}=T_{i}-T_{i-1} \). Montrer que les \( \left(Y_{i}\right)_{i} \) forment une suite de variables de loi géométrique de paramètre \( p \). Montrer qu'elles sont mutuellement indépendantes et que : $$ T_{n}=Y_{1}+\ldots+Y_{n} . $$

    On note que \( Y_1 \) représente le nombre de tirages nécessaires pour rencontrer le premier succès, et que \( \forall i \geq 2 \), \( Y_i \) représente le nombre de tirages supplémentaires nécessaires pour rencontrer de nouveau un succès.

    Il est clair, par identification, que \( Y_1 \) et \( Y \) ont même loi et ainsi \( Y_1 \sim \mathcal{G}(p) \).

    Puis, \( \forall i \geq 2 \), par indépendance des \( (X_n)_{n \geq 1} \) on a \( \forall k \geq 1 \) : $$ \mathbb{P}[Y_i=k \mid T_{i-1}=t] = \mathbb{P}[X_{T_{i-1}+1} = 0 \cap X_{T_{i-1}+2} = 0 \cap \ldots \cap X_{T_{i-1}+(k-1)} = 0 \cap X_{T_{i-1}+k} = 1] = q^{k-1}p $$
    On en déduit que \( \forall i \geq 2 : Y_i \sim \mathcal{G}(p) \).

    Par ailleurs, on note que :

    •   \( Y_1 \) ne dépend que de \( X_1, \ldots, X_{T_1} \)

    •   \( Y_2 \) ne dépend que de \( X_{T_1 + 1}, \ldots, X_{T_2 - 1} \)

    •   etc.

    Ces ensembles sont disjoints, ainsi par indépendance des \( (X_n)_{n \geq 1} \) et par le lemme des coalitions, il s'ensuit que les \( (Y_n)_{n \geq 1} \) sont bien indépendants.

    Enfin, par téléscopage, on a directement : $$ T_n = T_n = T_{n-1} + Y_n = T_{n-2} + Y_{n-1} + Y_n = \cdots = Y_1 + Y_2 + \cdots + Y_n $$

  1. Déterminer \( \mathbb{E}\left[T_{n}\right] \) et \( \mathbb{V}\left(T_{n}\right) \).

    Par linéarité de l'espérance, en utilisant la question précédente on a \( \forall n \geq 1 \) : $$ \mathbb{E}[T_n] = \sum_{i=1}^{n} \mathbb{E}[Y_i] = \sum_{i=1}^{n} \frac{1}{p} = \frac{n}{p} $$ Puis, par indépendance des \( (Y_n)_{n \geq 1} \) on a \( \forall n \geq 1 \) : $$ \mathbb{V}(T_n) = \sum_{i=1}^{n} \mathbb{V}(Y_i) = \sum_{i=1}^{n} \frac{q}{p^2} = \frac{nq}{p^2} $$

  2. On note \( V_{n} \) le nombre d'échecs dans la séquence \( \left(X_{i}\right)_{i} \) nécessaires avant d'obtenir \( n \) succès. On dit que \( V_{n} \) suit une loi binomiale négative de paramètres \( n \) et \( p \). Démontrer que pour tout \( n \geq 1, V_{n} \) et \( T_{n} \) sont liées par la relation suivante: $$ T_{n}=V_{n}+n . $$
    En déduire que $$ \forall k \geq 0, \mathbb{P}\left[V_{n}=k\right]=\binom{k+n-1}{k} p^{n} q^{k} . $$

    Dans un tirage, le succès et l'échec forment une partition complète de l'univers.

    Le nombre total de tirages \( T_n \) est donc égal à la somme du nombre d'échecs et de succès soit : $$ T_n = V_n + n $$
    On en déduit en utilisant la question (5) qu'on a \( \forall k \geq 0 \) : $$ \mathbb{P}[V_n=k] = \mathbb{P}[T_n=k+n] = \binom{k+n-1}{n-1} p^n q^{k+n-n} = \binom{k+n-1}{n-1} p^n q^k $$
    Par symétrie du coefficient binomial, on en déduit que \( \forall k \geq 0 \) : $$ \mathbb{P}[V_n=k] = \binom{k+n-1}{k} p^n q^k $$

  1. Démontrer que $$ \mathbb{E}\left[\frac{n-1}{T_{n}-1}\right]=p \text { et } \mathbb{E}\left[\frac{n}{T_{n}}\right]>p, $$ après avoir justifié de l'existence de ces espérances.

    Existence des espérances

    On sait que \( \forall n \geq 1 \) : \( T_n \geq n \Rightarrow T_n - 1 \geq n - 1 \) presque sûrement.

    Par ailleurs, on a \( \forall n \geq 1 \) : \( \frac{n-1}{T_n - 1} > 0 \) car \( T_n - 1 \geq n-1 > 0 \) presque sûrement.

    Il s'ensuit qu'on a \( \forall n \geq 1 : 0 \) : $$ \forall n \geq 1 : 0 < \frac{n-1}{T_n - 1} \leq 1 \; \; \text{p.s.} \; \; \text{d'où} \; \; 0 < \mathbb{E}\left[\frac{n-1}{T_{n}-1}\right] \leq 1 $$
    Et de même, on a \( \forall n \geq 1 \) : $$ 0 < \frac{n}{T_n} \leq 1 \; \; \text{p.s.} \; \; \text{d'où} \; \; 0 < \mathbb{E}\left[\frac{n}{T_{n}}\right] \leq 1 $$

    Calcul de la relation d'égalité

    Par la formule du transfert, on a \( \forall n \geq 1 \) : $$ \mathbb{E}\left[\frac{n-1}{T_n-1}\right] = \sum_{k=n}^{+\infty} \frac{n-1}{k-1} \mathbb{P}[T_n=k] = \sum_{k=n}^{+\infty} \frac{n-1}{k-1} \binom{k-1}{n-1} p^n q^{k-n} $$
    Pour \( n = 1 \), tous les termes sauf celui où \( k = n \) s'annulent, on a donc : \( \mathbb{E}\left[\frac{n-1}{T_n-1}\right] = p \).

    Puis pour \( n \geq 2 \), par la formule du pion, on sait que \( \forall 1 \leq k \leq n : (n-1)\binom{k-1}{n-1} = (k-1)\binom{k-2}{n-2} \) d'où : $$ \mathbb{E}\left[\frac{n-1}{T_n-1}\right] = \sum_{k=n}^{+\infty} \binom{k-2}{n-2} p^n q^{k-n} $$
    En posant le changement de variable \( m = k - n \) on obtient : $$ \mathbb{E}\left[\frac{n-1}{T_n-1}\right] = \sum_{m=0}^{+\infty} \binom{m+n-2}{n-2} p^n q^m = p \sum_{m=0}^{+\infty} \binom{m+n-2}{m} p^{n-1} q^m $$
    Or \( V_{n-1} \in \mathbb{N} \) presque sûrement donc on a : $$ \sum_{m=0}^{+\infty} \binom{m+n-2}{m} p^{n-1} q^m = \sum_{m=0}^{+\infty} \mathbb{P}[V_{n-1} = m] = 1 $$
    On peut donc conclure que \( \forall n \geq 1 \) : $$ \mathbb{E}\left[\frac{n-1}{T_{n}-1}\right]=p $$

    Calcul de la relation d'inégalité

    Par application de l'inégalité de Jensen, on a directement \( \forall n \geq 1 \) : $$ \mathbb{E}\left[\frac{n}{T_{n}}\right] \geq \frac{n}{\mathbb{E}[T_n]} = \frac{n}{n/p} = p $$
    Par ailleurs, l'inégalité de Jensen n'est une égalité que si la variable aléatoire \( T_n \) est constante, or \( \mathbb{V}(T_n) > 0 \) d'où on conclut que \( \forall n \geq 1 \) : $$ \mathbb{E}\left[\frac{n}{T_{n}}\right] > p $$

  1. On suppose \( p \) inconnu et on souhaite l'estimer à partir des observations. Démontrer que la suite de v.a. \( \left(n / T_{n}\right)_{n} \) converge en probabilité et préciser sa limite. En déduire un estimateur \( \hat{p} \) de \( p \). Est-il biaisé ? Proposer un estimateur \( \tilde{p} \) non biaisé.

    D'après la loi faible des grands nombres, comme \( T_n = Y_1 + \ldots + Y_n \) avec \( (Y_i)_{i\in\mathbb{N^*}} \) i.i.d., on a : $$ \frac{T_n}{n} \xrightarrow[n \to +\infty]{\mathbb{P}} \mathbb{E}[Y_1] = \frac{1}{p} $$
    Par le lemme de l'application continue (ou continuous mapping theorem), comme la fonction \( g: x \mapsto \frac{1}{x} \) est continue sur \( \mathbb{R}_{+}^* \), on a alors : $$ \frac{n}{T_n} \xrightarrow[n \to +\infty]{\mathbb{P}} p $$
    On peut donc prendre comme estimateur de \( p \) l'estimateur \( \hat{p} \) tel que : $$ \hat{p} = \frac{n}{T_n} $$
    Par ailleurs, on sait que \( \mathbb{E}[\hat{p}] = \mathbb{E}[\frac{n}{T_n}] > p \) par la question précédente, donc \( \hat{p} \) est biaisé

    On sait également que \( \mathbb{E}\left[\frac{n-1}{T_{n}-1}\right]=p \), on peut donc prendre comme estimateur non biaisé \( \tilde{p} \) tel que : $$ \tilde{p} = \frac{n-1}{T_{n}-1} $$

  2. On suppose \( n \) et \( p \) inconnus. On considère une suite \( \left(W_{i}\right)_{i} \) de v.a.i.i.d. dont chaque élément \( W_{i} \) suit la même loi que \( T_{n} \). Déduire de la question \( 7^{\circ} \) des estimateurs \( \hat{n} \) et \( \hat{p} \) de \( n \) et \( p \) mettant en jeu la moyenne et la variance empirique de \( W_{1}, \ldots, W_{i} \). Déterminer de même des estimateurs \( \widetilde{n} \) et \( \widetilde{p} \) de \( n \) et \( p \) à partir d'une suite \( \left(W_{i}\right)_{i} \) de v.a.i.i.d. dont chaque élément suit la même loi que \( V_{n} \). Quels problèmes peuvent poser ces derniers estimateurs ?

    Estimateurs basés sur \( (W_i)_{i \geq 1} \)

    Par la loi faible des grands nombres, on a :

    •   \( \bar{W_N} = \frac{1}{N} \frac{1}{N}\sum_{i=1}^N W_i \xrightarrow[n \to +\infty]{\mathbb{P}} mathbb{E}[T_n] = \frac{n}{p} \)

    •   \( S^2_N = \frac{1}{N}\sum_{i=1}^N (W_i - \bar{W}_N)^2 \xrightarrow[n \to +\infty]{\mathbb{P}} \mathbb{V}(T_n) = \frac{n(1-p)}{p^2} \)

    On remarque alors qu'on a : $$ \frac{n(1-p)/p^2}{n/p} = \frac{1-p}{p} $$
    En réarrangeant les termes, on en déduit : $$ \frac{n(1-p)/p^2}{n/p} = \frac{1-p}{p} \Rightarrow p \left(\frac{n(1-p)/p^2}{n/p}\right) = 1-p \Rightarrow p = \frac{n/p}{n/p + n(1-p)/p^2} $$
    On peut donc prendre un estimateur \( \hat{p} \) de \( p \) tel que : $$ \hat{p} = \frac{\bar{W}_N}{\bar{W}_N + S^2_N} $$
    De la même manière, on remarque qu'on a : $$ n = p \times \frac{n}{p} = \frac{n/p}{n/p + n(1-p)/p^2} \times \frac{n}{p} $$ On peut donc prendre un estimateur \( \hat{n} \) de \( n \) tel que : $$
    \hat{n} = \frac{\bar{W}_N^2}{\bar{W}_N + S^2_N} $$

    Estimateurs basés sur \( (U_i)_{i \geq 1} \)

    On rappelle que par linéarité de l'espérance on a : $$ \mathbb{E}[V_n] = \mathbb{E}[T_n] - n = \frac{n}{p} - n = \frac{n(1-p)}{p} $$
    De même, par linéarité de la variance pour des variables aléatoires indépendantes, on a : $$ \mathbb{V}(V_n) = \mathbb{V}(T_n - n) = \mathbb{V}(T_n) = \frac{n(1-p)}{p^2} $$
    Dès lors, par la loi faible des grands nombres, on a :

    •   \( \bar{U_N} = \frac{1}{N} \frac{1}{N}\sum_{i=1}^N U_i \xrightarrow[n \to +\infty]{\mathbb{P}} mathbb{E}[V_n] = \frac{n(1-p)}{p} \)

    •   \( \Sigma^2_N = \frac{1}{N}\sum_{i=1}^N (V_i - \bar{V}_N)^2 \xrightarrow[n \to +\infty]{\mathbb{P}} \mathbb{V}(V_n) = \frac{n(1-p)}{p^2} \)

    Or, on remarque qu'on a : $$ p = \frac{\frac{n(1-p)}{p}}{\frac{n(1-p)}{p^2}} $$
    On peut donc prendre un estimateur \( \tilde{p} \) de \( p \) tel que : $$ \tilde{p} = \frac{\bar{U}_N}{\Sigma^2_N} $$
    De même, on remarque qu'on a : $$ n = \frac{p}{1-p} \frac{n(1-p)}{p} \Rightarrow n = \frac{\frac{\frac{n(1-p)}{p}}{\frac{n(1-p)}{p^2}}}{1 - \frac{\frac{n(1-p)}{p}}{\frac{n(1-p)}{p^2}}} \frac{n(1-p)}{p} \Rightarrow n = \frac{\left( \frac{n(1-p)}{p} \right)^2}{\frac{n(1-p)}{p^2} - \frac{n(1-p)}{p}} $$
    On peut donc prendre un estimateur \( \tilde{n} \) de \( n \) tel que : $$ \tilde{n} = \frac{\bar{U}_N^2}{\Sigma^2_N - \bar{U}_N}} $$

    Inconvénients éventuels

    Ces derniers estimateurs présentent, entre autres, deux principaux inconvénients :

    •   si \( \Sigma^2_N < \bar{U}_N \), alors \( tilde{n} < 0 \) ce qui n'est pas possible

    •   si \( \Sigma^2_N \approx \bar{U}_N \) alors \( tilde{n} < 0 \) peut être très instable