Concours externe d'administrat·eur·rice de l'Insee — 2024
Épreuve de mathématiques
Le sujet est accessible ici au format PDF.
Les propositions de corrections présentées ci-dessous n'engagent que l'auteur de ce site.
Partie 1
Exercice 1
Dans tout le problème, \( p, q \) et \( f \) désignent trois fonctions définies et continues sur \( [0,1] \).
De plus, la fonction \( p \) est de classe \( \mathcal{C}^{1} \) sur \( [0,1] \) et les fonctions \( p \) et \( q \) vérifient :
\[\forall x \in[0,1], \quad p(x)>0 \quad q(x) \geq 0.\]On note \( H \) l'ensemble des fonctions de classe \( \mathcal{C}^{1} \) sur \( [0,1] \) à valeurs réelles s'annulant en 0 et en 1 :
\[H = \left\{ u \in \mathcal{C}^{1}[0,1], u(0)=u(1)=0 \right\}.\]Pour tout couple \( (u, v) \) éléments de \( H \) on pose :
\[\langle u, v\rangle=\int_{0}^{1}\left(u(t) v(t)+u^{\prime}(t) v^{\prime}(t)\right) \mathrm{d} t, \\[1em] \varphi(u, v)=\int_{0}^{1}\left(q(t) u(t) v(t)+p(t) u^{\prime}(t) v^{\prime}(t)\right) \mathrm{d} t, \\[1em] L(v)=\int_{0}^{1} f(t) v(t) \mathrm{d} t.\]Études de produits scalaires
-
Énoncer et redémontrer l'inégalité de Cauchy-Schwarz dans le cadre d'un espace vectoriel \( E \) muni d'un produit scalaire quelconque. Étudier le cas d'égalité.
On énonce l'inégalité de Cauchy-Schwarz sur \( E \) un espace vectoriel muni du produit scalaire \( \langle \cdot, \cdot \rangle \) : $$ \forall (u, v) \in E^2: \left| \langle u, v \rangle \right| \leq \sqrt{\langle u, u \rangle} \cdot \sqrt{\langle v, v \rangle} $$ Pour la démontrer, on définit : $$ \forall\lambda \in \mathbb{R}: P(\lambda) = \langle u + \lambda v, u + \lambda v \rangle $$ Par bilinéarité du produit scalaire on a : $$ \langle u + \lambda v\rangle^2 = \langle u, u \rangle + 2\lambda \langle u, v \rangle + \lambda^2 \langle v, v \rangle $$ Puis, par positivité du produit scalaire, \( \forall\lambda \in \mathbb{R}: P(\lambda) \geq 0 \).
Or, \( P \) étant un polynôme du second degré positif sur \( \mathbb{R} \), son discriminant doit être négatif ou nul. On en déduit que : $$ \Delta = 4\langle u, v \rangle^2 - 4\langle u, u \rangle \langle v, v \rangle \leq 0 $$ En réarrangeant, on retrouve l'inégalité de Cauchy-Schwarz : $$ \forall (u, v) \in E^2: \left| \langle u, v \rangle \right| \leq \sqrt{\left| u, u \right|} \cdot \sqrt{\left| v, v \right|} $$ On note par ailleurs qu'il y a égalité si et seulement si le \( \Delta \) le discriminant de \( P \) est nul.
Le cas d'égalité n'est donc vérifié que si il existe \( \lambda_0 \in \mathbb{R} \) tel quel \( P(\lambda_0) = 0 \).
Par définie positivité du produit scalaire, il s'ensuit : $$ \langle u + \lambda_0 v, u + \lambda_0 v \rangle = 0 \Leftrightarrow u + \lambda_0 v = 0. $$ On en déduit que le cas d'égalité n'est vérifié que si \( u \) et \( v \) sont colinéaires ou dans le cas trivial où \( u = v = 0 \). -
Justifier l'existence de quatre réels positifs \( p_{0}, q_{0}, p_{1} \) et \( q_{1} \) tels que
$$
\forall x \in [0, 1]: 0 < p_0 \leq p(x) \leq p_1 \; et \; 0 \leq q_0 \leq q(x) \leq q_1.
$$
Par le théorème des valeurs extrêmes, \( p \) étant continue sur le compact [0, 1], on a : $$ \exists p_0 = \min_{x\in [0,1]} p(x), \; p_1 = \max_{x\in [0,1]} p(x) : p_0 \leq p(x) \leq p_1 $$ Or \( \forall x \in [0, 1] : p(x) > 0 \) donc \( p_0 > 0 \) et on obtient l'inégalité.
De la même manière, \( q \) étant continue sur le compact [0, 1], on a : $$ \exists q_0 = \min_{x\in [0,1]} q(x), \; q_1 = \max_{x\in [0,1]} q(x) : q_0 \leq q(x) \leq q_1 $$ Or \( \forall x \in [0, 1] : q(x) \geq 0 \) donc \( q_0 \geq 0 \) et on obtient l'inégalité.
-
(a) Montrer que \( H \) est un \( \mathbb{R} \)-espace vectoriel.
On montre que \( H \) est un \( \mathbb{R} \)-espace vectoriel en montrant que \( H \) est un sous-espace vectoriel du \( \mathbb{R} \)-espace vectoriel \( \mathcal{C}^1([0,1]) \). On note que :
(b) Montrer que \( L \) est une forme linéaire sur \( H \).
• \( H \in \mathcal{C}^1([0,1]) \) par définition
• en notant \( Z \) la fonction nulle, on a bien \( Z(0) = Z(1) = 0 \) d'où \( Z \in H \)
• \( \forall (\alpha, \beta) \in \mathbb{R}^2 \) et \( \forall (u, v) \in H^2 \) : $$ (\alpha u + \beta v)(0) = \alpha u(0) + \beta v(0) = 0 \; \; \text{et} \; \; (\alpha u + \beta v)(1) = \alpha u(1) + \beta v(1) = 0 $$
On en déduit que \( H \) est un \( \mathbb{R} \)-espace vectoriel.
Il est direct de voir que \( L \) est une application de \( H \) dans \( \mathbb{R} \).
(c) Montrer que \( \langle .,. \rangle \) est un produit scalaire sur \( H \).
Par ailleurs on note que \( \forall (\alpha, \beta) \in \mathbb{R}^2 \) et \( \forall (u, v) \in H^2 \) on a : $$ \begin{aligned} L(\alpha u + \beta v) & = \int_0^1 f(t)(\alpha u(t) + \beta v(t)) \mathrm{d}t \\ & = \alpha \int_0^1 f(t)u(t) \mathrm{d}t + \beta \int_0^1 f(t)v(t) \mathrm{d}t \\ & = \alpha L(u) + \beta L(v) \end{aligned} $$ On en déduit que \( L \) est bien une forme linéaire sur \( H \).
On montre que \( \langle .,. \rangle \) est un produit scalaire sur \( H \) en vérifiant les propriétés associées :
On note, pour le reste du problème, \( ||.|| \) la norme associée, i.e. \( ||u|| = \sqrt{\langle u, u \rangle} \).
• la forme \( \langle .,. \rangle \) est symétrique car \( \forall u, v \in H \) : $$ \langle u, v \rangle = \int_0^1 (u(t)v(t) + u'(t)v'(t)) \mathrm{d}t = \langle v, u \rangle $$
• la forme \( \langle .,. \rangle \) est bilinéaire par linéarité de l'intégrale
• la forme \( \langle .,. \rangle \) est positive car \( \forall u \in H \) : $$ \langle u, u \rangle = \int_0^1 (u^2(t) + (u'(t))^2) \mathrm{d}t \geq 0 $$
• la forme \( \langle .,. \rangle \) est définie positive car si \( \exists u \in H: \langle u, u \rangle = 0 \) alors : $$ \int_0^1 u^2(t) + u'(t)^2 \mathrm{d} t = 0 $$ Or si \( \forall t \in [0, 1]: u^2(t) + u'(t)^2 \geq 0 \) on déduit par positivité de l'intégrale d'une fonction positive continue sur un compact que \( \forall t \in [0, 1]: u^2(t) + u'(t)^2 = 0 \).
Il s'ensuit que \( \forall t \in [0, 1]: u^2(t) = 0 \) et \( u'(t)^2 = 0 \) et donc \( \forall t \in [0, 1]: u(t) = u'(t) = 0 \).
(d) Montrer que \( \varphi \) est un produit scalaire sur \( H \).On montre que \( \varphi \) est un produit scalaire sur \( H \) en vérifiant les propriétés associées :
• la forme \( \varphi \) est symétrique car \( \forall u, v \in H \) : $$ \varphi(u, v) = \int_{0}^{1}\left(q(t) u(t) v(t)+p(t) u^{\prime}(t) v^{\prime}(t)\right) \mathrm{d} t = \varphi(v, u) $$
• la forme \( \varphi \) est bilinéaire par linéarité de l'intégrale
• la forme \( \varphi \) est positive car en utilisant la positivité de \( p \) et \( q \) on a \( \forall u \in H \) : $$ \varphi(u, u) = \int_0^1 (q(t)u^2(t) + p(t)(u'(t))^2) \mathrm{d}t \geq 0 $$
• la forme \( \varphi \) est définie positive car si \( \exists u \in H: \varphi(u, u) = 0 \) alors : $$ \int_0^1 (q(t)u^2(t) + p(t)(u'(t))^2) \mathrm{d}t = 0 $$ Or comme \( \forall t \in [0, 1]: p(t) > 0 \), on a nécessairement \( \forall t \in [0, 1]: u'(t) = 0 \).
On en déduit que \( u \) est constante, et comme \( u(0) = 0 \) il s'ensuit que \( \forall t \in [0, 1]: u(t) = 0 \).
-
(a) Soit \( E \) l'espace vectoriel des fonctions continues de \( [0,1] \) sur \( \mathbb{R} \).
Montrer que la forme suivante : $$ \begin{aligned} \vartheta: \left\{ \begin{array}{l} E \times E \rightarrow \mathbb{R} \\ (f, g) \rightarrow \int_{0}^{1} f(t) g(t) \mathrm{d} t \end{array} \right. \end{aligned} $$ est un produit scalaire sur \( E \).
On montre que cette forme, que l'on note \( \vartheta \) pour des questions de lisibilité, est un produit scalaire sur \( E \) en vérifiant les propriétés associées :
(b) En utilisant l'inégalité de Cauchy-Schwarz, montrer l'existence d'un réel \( \gamma \) positif tel que : $$ \forall v \in H: |L(v)| \leq \gamma\|v\| $$
• la forme \( \vartheta \) est symétrique car \( \forall f, g \in E \) : $$ \int_{0}^{1} f(t) g(t) \mathrm{d} t = \int_{0}^{1} g(t) f(t) \mathrm{d} t $$
• la forme \( \vartheta \) est bilinéaire par linéarité de l'intégrale
• la forme \( \vartheta \) est positive car \( \forall f \in E \), par positivité de l'intégrale : $$ \int_{0}^{1} (f(t))^2 \mathrm{d} t \geq 0 $$
• la forme \( \vartheta \) est définie positive car si il existe \( f \in E \) tel que \( \varphi(f, f) = 0 \) alors : $$ \int_{0}^{1} (f(t))^2 \mathrm{d} t = 0 $$ Et comme \( f \in E \) et par conséquent est continue, on a nécessairement \( \forall t \in [0, 1]: f(t) = 0 \).
En utilisant l'inégalité de Cauchy-Schwarz appliquée au produit scalaire \( \vartheta \), on a : $$ |L(v)| = \left| \int_0^1 f(t)v(t) \mathrm{d}t \right| \leq \sqrt{\int_0^1 f^2(t) \mathrm{d}t} \times \sqrt{\int_0^1 v^2(t) \mathrm{d} t} $$ Or \( \int_0^1 v^2(t) \mathrm{d}t \leq \int_0^1 (v^2(t) + (v'(t))^2) \mathrm{d} t = \|v\|^2 \).
On a donc bien \( |L(v)| \leq \gamma \|v\| \) avec \( \gamma = \sqrt{\int_0^1 f^2(t)dt} > 0\).
-
Montrer de même qu'il existe un réel \( \delta \) strictement positif tel que
$$
\forall(u, v) \in H^{2}, |\varphi(u, v)| \leq \delta\|u\|\|v\| .
$$
On explicitera le réel \( \delta \) en fonction de \( p_{1} \) et de \( q_{1} \).
On note en utilisant la linéarité de l'intégrale on note que \( \forall u \in H \) on a : $$ \begin{aligned} \varphi(u, u) & = \int_0^1 (q(t)(u(t))^2 + p(t)(u'(t))^2 \mathrm{d}t \\ & \leq q_1 \int_0^1 (u(t))^2 \mathrm{d}t + p_1 \int_0^1 (u'(t))^2 \mathrm{d}t \\ & \leq \max(q_1, p_1) \int_0^1 (u(t))^2 + (u'(t))^2 \mathrm{d}t \end{aligned} $$
En appliquant l'inégalité de Cauchy-Schwarz, on note par ailleurs que : $$ \|\varphi(u, v)\| \leq \sqrt{\varphi(u, u)}\sqrt{\varphi(v, v)} \leq \max(q_1, p_1) \|u\| \|v\| $$
On en déduit que \( |\varphi(u, v)| \leq \delta \|u\| \|v\| \) avec \(\delta = \max(q_1, p_1) \).
-
(a) Montrer que :
$$
\forall v \in H, \forall x \in[0,1], v^{2}(x) \leq x \int_{0}^{1}\left(v^{\prime}(t)\right)^{2} \mathrm{d} t
$$
Par le théorème fondamental de l'analyse, on rappelle qu'on a \( \forall v \in H, forall x \in [0, 1] \): $$ v(x) = \int_{0}^{x} v'(t) \mathrm{d}t \; \; \text{car} \; \; v(0) = 0 $$
(b) En déduire que : $$ \forall v \in H, p_{0}\|v\|^{2} \leq \frac{3}{2} \varphi(v, v) . $$
On remarque qu'il est immédiat par les questions précédentes de montrer que la forme \( \vartheta_x: (f, g) \in E^2 \rightarrow \int_{0}^{x} f(t) g(t) \mathrm{d} t \) est également un produit scalaire sur \( E \) pour tout \( x \in ]0, 1] \).
Dès lors, en appliquant l'inégalité de Cauchy-Schwarz on a \( \forall x \in ]0, 1] \) : $$ v^2(x) = \left(\int_{0}^{x} v'(t) \mathrm{d}t\right)^2 \leq \left(\int_0^x \mathrm{d}t\right) \times \left(\int_0^x (v'(t))^2\mathrm{d}t\right) = x \int_0^x (v'(t))^2\mathrm{d}t $$
En majorant l'intégrale, on en déduit : \( \forall \in ]0, 1] : v^{2}(x) \leq x \int_{0}^{1}\left(v^{\prime}(t)\right)^{2} \mathrm{ d} t \).
Enfin, le cas où \( x = 0 \) est trivial car on a \( v(0) = 0 \).
On conclut qu'on a bien \( \forall \in [0, 1] : v^{2}(x) \leq x \int_{0}^{1}\left(v^{\prime}(t)\right)^{2} \mathrm{ d} t \).On remarque par linéarité de l'intégrale que \( \forall v \in H \) : $$ ||v||^2 = \int_0^1 v^2(t) + (v'(t))^2\mathrm{d}t = \int_0^1 v^2(t)\mathrm{d}t + \int_0^1(v'(t))^2\mathrm{d}t $$
Or, par la question précédente, on a \( \forall v \in H \) : $$ \int_0^1 v^2(t)\mathrm{d}t \leq \int_0^1 t \left( \int_{0}^{1}\left(v^{\prime}(s)\right)^{2} \mathrm{ d} s \right) \mathrm{d}t = \frac{1}{2} \int_{0}^{1}\left(v^{\prime}(s)\right)^{2} \mathrm{ d} s $$
On en déduit alors en combinant les deux équations précédentes : $$ ||v||^2 \leq \frac{1}{2} \int_{0}^{1}\left(v^{\prime}(s)\right)^{2} \mathrm{ d} s + \int_0^1(v'(t))^2)\mathrm{d}t = \frac{3}{2} \int_0^1(v'(t))^2)\mathrm{d}t $$
Il s'ensuit alors par les propriétés de \( p_0 \) et de \( q \) que : $$ p_0 ||v||^2 \leq \frac{3}{2} \int_0^1 p_0 (v'(t))^2 \mathrm{d}t \leq \frac{3}{2} \int_0^1 p(t) (v'(t))^2 \mathrm{d}t \leq \frac{3}{2} \varphi(v, v). $$
-
Soit \( v \in H \). Donner un encadrement de \( \|v\| \) à l'aide de \( \sqrt{\varphi(v, v)} \).
Pour la borne supérieure, par la question précédente, on a directement \( \forall v \in H \) : $$ ||v|| \leq \sqrt{\frac{3}{2p_0}} \sqrt{\varphi(v, v)} $$
Pour la borne inférieure, on remarque que \( \forall v \in H \) : $$ \varphi(v, v) = \int_{0}^{1} \left( q(t) v^2(t) + p(t) (v'(t))^2 \right) \mathrm{d} t \leq q_1 \int_{0}^{1} v^2(t) \mathrm{d} t + p_1 \int_{0}^{1} (v'(t))^2 \mathrm{d} t \leq \text{max} (q_1, p_1) ||v||^2 $$
Et on en déduit que \( ||v|| \geq \sqrt{\frac{\varphi(v, v)}{\text{max}(q_1, p_1)}} \)
En combinant ces deux bornes, on en déduit donc que \( \forall v \in H \) : $$ \sqrt{\frac{\varphi(v, v)}{\text{max}(q_1, p_1)}} \leq ||v|| \leq \sqrt{\frac{3}{2p_0}} \sqrt{\varphi(v, v)} $$ -
On suppose qu'il existe une fonction \( u \) de \( H \) vérifiant :
$$
\forall v \in H, \varphi(u, v)=L(v)
$$
Montrer qu'une telle fonction \( u \), si elle existe, est unique.
On suppose, en raisonnant par l'absurde, qu'il existe deux fonctions \( u_1, u_2 \in H \) vérifiant \( \forall v \in H, \varphi(u_1, v)=\varphi(u_2, v)=L(v) \).
Alors par bilinéarité, on a nécessairement \( \forall v \in H : \varphi(u_1 - u_2, v) = 0 \).
En prenant \( v = u_1 - u_2 \in H \) on a alors \( \varphi(u_1-u_2, u_1-u_2) = 0 \) et par définie positivité du produit scalaire \( \varphi \) on a directement \( u_1-u_2 = 0 \).
On en déduit donc que \( u_1 = u_2 \), ce qui prouve l'unicité.
Application à l’étude d’une équation différentielle
On s'intéresse aux fonctions \( u \) de classe \( \mathcal{C}^{2} \) sur \( [0,1] \) vérifiant l'équation dite de Sturm-Liouville :
$$
\forall x \in[0, 1], -p(x) u^{\prime \prime}(x)-p^{\prime}(x) u^{\prime}(x)+q(x) u(x)=f(x)
$$
Aucune connaissance préalable sur les équations différentielles n'est ici requise.
On admet dans toute la suite du problème que les fonctions \( p, q \) et \( f \) sont choisies de telle sorte que l'équation différentielle de Sturm-Liouville admette une solution \( u \) vérifiant :
$$
u(0)=u(1)=0
$$
On remarquera qu'une telle fonction \( u \) est un élément de \( H \).
-
On se place, dans cette question seulement, dans le cas particulier :
$$
p: x \mapsto e^{-x} \quad q: x \mapsto 0 \quad \text { et } \quad f: x \mapsto 1 .
$$
(a) Soit \( u \in H \). Montrer que la fonction \( u \) est solution de l'équation de Sturm-Liouville si et seulement si il existe un réel \( \lambda \) tel que :
$$
\forall x \in[0,1], \quad u^{\prime}(x)=(\lambda-x) e^{x} .
$$
On remarque que l'équation de Sturm-Liouville devient : $$ -e^{-x}u''(x) + e^{-x}u'(x) = 1 \Leftrightarrow u''(x) - u'(x) = -e^x $$
(b) Déterminer l'unique fonction \( u \) de \( H \) solution de l'équation de Sturm-Liouville.
Or, on identifie par la formule de la dérivée du produit qu'on a \( \forall x \in [0, 1] \) : $$ \frac{\partial e^{-x}u'(x)}{\partial x} = -e^{-x}u'(x) + e^{-x}u''(x) = e^{-x} \left( u''(x) - u'(x) \right) = -1 $$
On en déduit que \( u \) est solution de l'équation si et seulement si \( \frac{\partial e^{-x}u'(x)}{\partial x} = -1 \).
Dès lors, \( u \) est solution de l'équation si et seulement si \( \exists \lambda \in \mathbb{R}: e^{-x} u'(x) = -x + \lambda \) soit : $$ u'(x) = (\lambda-x) e^x $$Par le théorème fondamental de l'analyse, on a donc \( \forall x \in [0, 1] \): $$ u(x) = \int_0^x (\lambda - t) e^t \mathrm{d}t = [(\lambda - t)e^t]_0^x + \int_0^x e^t dt = (\lambda - x)e^x - (\lambda - 0)e^0 + e^x - 1 $$
Or, on sait que \( u(1) = 0 \) d'où \( (\lambda - 1)e^1 - \lambda + e^1 - 1 = 0 \) soit \( \lambda = \frac{1}{e^1-1} \).
On en déduit que l'unique solution de l'équation différentielle de Sturm-Liouville est : $$ \forall x \in [0, 1]: \left(\frac{1}{e^1-1} - x\right)e^x - \frac{1}{e^1-1} + e^x - 1 $$
-
On revient au cas général. Soit \( u \in H \) une fonction solution de l'équation de Sturm-Liouville. Montrer que :
$$
\forall v \in H, \quad \varphi(u, v)=L(v) .
$$
On remarque qu'on a \( \forall v \in H \) : $$ L(v) = \int_0^1 f(x)v(x) \mathrm{d} x = \int_0^1 (-p(x)u''(x) - p'(x)u'(x) + q(x)u(x))v(x) \mathrm{d} x $$ On sépare cette intégrale en trois parties : $$ L(v) = \int_0^1 q(x)u(x)v(x) \mathrm{d} x - \int_0^1 p(x)u''(x)v(x) \mathrm{d} x - \int_0^1 p'(x)u'(x)v(x) \mathrm{d} x $$ Les fonctions \( p, \; u \) et \( v \) étant de classe \( \mathcal{C}^1 \) sur \( [0, 1] \), on a par intégration par parties : $$ \int_0^1 p(x)u''(x)v(x)\mathrm{d}x = [p(x)u'(x)v(x)]_0^1 - \int_0^1 u'(x)\left( p'(x)v(x) + p(x)v'(x) \right)\mathrm{d}x $$
Or comme \( v(0) = v(1) = 0 \) on a \( [p(x)u'(x)v(x)]_0^1 = 0 \).
On en conclut que \( \forall v \in H \): $$ L(v) = \int_0^1 q(x)u(x)v(x) \mathrm{d} x + \int_0^1 u'(x)p'(x)v(x) + u'(x)p(x)v'(x)\mathrm{d}x - \int_0^1 p'(x)u'(x)v(x) \mathrm{d} x $$
Il s'ensuit directement que \( L(v) = \varphi(u, v) \) par identification.
-
En utilisant les résultats de la première partie, montrer que l'équation de Sturm-Liouville admet une unique solution dans \( H \).
On rappelle que, d'après la partie précédente, si il existe \( u \in H \) tel quel \( \forall v \in H: \varphi(u, v) = L(v) \), alors cette fonction est unique.
Or, d'après la question précédente, toute solution de l'équation de Sturm-Liouville vérifie \( \forall v \in H: \varphi(u, v) = L(v) \).
Il s'ensuit que l'équation de Sturm-Liouville admet au plus une solution dans \( H \).
Par ailleurs, l'énoncé admet l'existence d'une solution, on peut donc conclure que l'équation de Sturm-Liouville admet une unique solution dans \( H \). -
Pour tout élément \( v \in H \), on pose :
$$
J(v)=\frac{1}{2} \varphi(v, v)-L(v)
$$
On désigne par \( u \) l'unique solution de l'équation différentielle (1) dans \( H \).
(a) Pour tout \( w \in H \), exprimer \( J(u+w) \) en fonction de \( J(u) \) et de \( \varphi(w, w) \).
En utilisant la bilinéarité de \( \varphi \), on remarque qu'on a : $$ \begin{aligned} J(u+w) & = \frac{1}{2}\varphi(u+w, u+w) - L(u+w) \\ & = \frac{1}{2}(\varphi(u,u) + 2\varphi(u,w) + \varphi(w,w)) - L(u) - L(w) \end{aligned} $$
(b) Montrer que : $$ \forall v \in H, \quad J(u) \leq J(v) . $$ Préciser pour quelle(s) valeur(s) de \( v \) l'égalité est réalisée.
Or, comme u est l’unique solution de l'équation de Sturm-Liouville dans \( H \) on a \( \forall w \in H \): $$ \varphi(u, w) = L(w) $$
Il s'ensuit alors que : $$ J(u+w) = \frac{1}{2}(\varphi(u,u) + \varphi(w,w)) - L(u) = J(u) + \frac{1}{2}\varphi(w,w) $$
D'après la question précédente, \( \forall v \in H \), en posant \( w = v-u \) on a : $$ J(v) = J(u) + \frac{1}{2}\varphi(v-u, v-u) \geq J(u) $$
(c) Réciproquement, soit \( u_{0} \in H \) tel que : $$ \forall v \in H, J\left(u_{0}\right) \leq J(v) $$ En calculant \( J\left(u_{0}+\lambda w\right) \) pour tout \( w \in H \) et tout \( \lambda \in \mathbb{R} \), montrer que : $$ \forall w \in H, \varphi\left(u_{0}, w\right)=L(w) $$ Que peut-on en conclure ?
On remarque que l'égalité est vérifiée si et seulement si \( \varphi(v-u, v-u) \), et donc par définie positivité de \( \varphi \) si et seulement si \( u = v \).
On a \( \forall w \in H \) et \( \forall \lambda \in \mathbb{R} \): $$ \begin{aligned} J(u_0 + \lambda w) & = \frac{1}{2}\varphi(u_0 + \lambda w, u_0 + \lambda w) - L(u_0 + \lambda w) \\ & = \frac{1}{2}\varphi(u_0, u_0) + \lambda \varphi(u_0, w) + \frac{\lambda^2}{2}\varphi(w, w) - L(u_0) - \lambda L(w) \\ & = J(u_0) + \frac{\lambda^2}{2}\varphi(w, w) + \lambda \left( \varphi(u_0, w) - L(w) \right) \end{aligned} $$ Or, comme \( J(u_0) = \min_{v \in H}J(v) \), la fonction \( \lambda \mapsto J(u_0 + \lambda w) \) atteint son minimum en \( \lambda = 0 \).
Cette fonction étant un trinôme du second degré qui atteint son minimum en \( \lambda \), sa dérivée est nulle en \( \lambda = 0 \) soit \( \forall w \in H \): $$ \varphi\left(u_{0}, w\right)=L(w) $$
On en conclut que l'unique solution \( u \) de l'équation de Sturm-Liouville dans \( H \) vérifie : $$ u = \min_{v \in H} J(v) $$
Exercice 2
Le but de ce problème est d'étudier le développement en série de Engel des réels de \( ]0,1] \).
On note \( E \) l'ensemble des suites croissantes d'entiers supérieurs à 2.
Pour toute suite \( q=\left(q_{n}\right)_{n \in \mathbb{N}} \in E \), on note \( S_{n}(q)=\sum_{k=0}^{n} \frac{1}{q_{0} \cdots q_{k}} \).
Préliminaires
-
Déterminer la limite de (\ S_{n}(q) \) dans les cas suivants :
(a) pour tout \( n \in \mathbb{N}, q_{n}=p \), où \( p \in \mathbb{N} - \{0,1\} \)
Par définition de \( S_n(q) \), on a \( \forall n \in \mathbb{N} \) : $$ S_n(q) = \frac{1}{p} + \frac{1}{p^2} + \frac{1}{p^3} + \cdots + \frac{1}{p^{n+1}} = \sum_{k=0}^{n} \frac{1}{p} \left( \frac{1}{p} \right)^{k} $$
(b) pour tout \( n \in \mathbb{N} \), \( q_{n}=n+2 \).
C'est une suite géométrique de raison \( \frac{1}{p} \in ]-1, 1[\), elle converge donc et on a \( \forall n \in \mathbb{N} \): $$ S_n(q) = \frac{1}{p} \times \frac{1-\left(\frac{1}{p}\right)^{n-1}}{1-\frac{1}{p}} = \frac{1 - \left(\frac{1}{p}\right)^{n+1}}{p-1} $$
Il s'ensuit directement par passage à la limite que : $$ \lim_{n \rightarrow +\infty} S_n(q) = \frac{1}{p-1} $$Par définition de \( S_n(q) \), on a \( \forall n \in \mathbb{N} \) : $$ S_n(q) = \sum_{k=2}^{n+2} \frac{1}{k!} $$
On reconnaît le développement en série de Taylor de la fonction exponentielle et on a directement : $$ \lim_{n \rightarrow +\infty} S_n(q) = \lim_{n \rightarrow +\infty} \left( \sum_{k=0}^{n} \frac{1}{k!} \right) - 1 - 1 = e - 2 $$ -
Montrer que pour tout \( q \in E,\left(S_{n}(q)\right) \) converge vers un réel de \( \left] 0,1\right] \).
La suite \( \left(q_{n}\right)_{n \in \mathbb{N}} \) étant une suite croissante d'entiers supérieurs à deux, on a \( \forall n \in \mathbb{N} - \{0\} \): $$ S_n(q) \leq \sum_{k=0}^{n} \frac{1}{2^{k+1}} $$
Or, par identification d'une suite géoémtrique de raison \( \frac{1}{2} \in ]-1, 1[\), on a : $$ \lim_{n \rightarrow +\infty} \sum_{k=0}^{n} \frac{1}{2^{k+1}} = \frac{1}{2} \lim_{n \rightarrow +\infty} \sum_{k=0}^{n} \frac{1}{2^{k}} = \frac{1}{2} \times \frac{1 - \left(\frac{1}{2}\right)^{n+1}}{1 - \frac{1}{2}} = 1-\left( \frac{1}{2} \right)^{n+1 }< 1 $$
Par le théorème de convergence monotone, \( \left(q_{n}\right)_{n \in \mathbb{N}} \) étant une suite croissante majorée de termes tous positifs, elle converge vers une limite \( \ell \in [0, 1] \).
Par ailleurs, comme \( \forall n \in \mathbb{N} - \{0\} \), on a \( \frac{1}{2} = S_0(q) \leq S_n(q) \), on a bien : $$ 0 < \lim_{n \rightarrow +\infty} S_n(q) \leq 1 $$
Existence du développement de Engel
Dans la suite, \( \lfloor x\rfloor \) désigne la partie entière de \( x \). Dans toute cette partie, on fixe \( x \in] 0,1] \).
On définit deux suites \( \left(x_{n}\right)_{n \in \mathbb{N}} \) et \( \left(q_{n}\right)_{n \in \mathbb{N}} \) par :
$$
\forall n \in \mathbb{N} : x_{0}=x \; \; \text{et} \; \; q_{n}=1+\left\lfloor\frac{1}{x_{n}}\right\rfloor \; \; \text{et} \; \; x_{n+1}=q_{n} x_{n}-1
$$
-
Montrer que les suites \( \left(x_{n}\right)_{n \in \mathbb{N}} \) et \( \left(q_{n}\right)_{n \in \mathbb{N}} \) sont bien définies.
On montre d'abord que \( \left(x_{n}\right)_{n \in \mathbb{N}} \) est bien définie.
Pour ce faire, on montre par récurrence que \( \forall n \in \mathbb{N}: x_n \in ]0, 1] \).
Initialisation
On a \( x_0 \in ]0, 1] \) par hypothèse.
Hérédité
On suppose qu'il existe \( n \in \mathbb{N} - \{ 0 \} \) tel que \( x_n \in ]0, 1] \).
Par définition de la partie entière, on a : $$ q_n - 1 \leq \frac{1}{x_n} < q_n $$
Il s'ensuite en multipliant par \( x_n \) que : $$ (q_n - 1)x_n \leq 1 < q_n x_n $$
Par l'inégalité de droite, on a alors directement : $$ x_{n+1} = q_n x_n - 1 > 0 $$
Par l'inégalité de gauche, comme \( x_n \leq 1 \) par hyppothèse, on a : $$ x_{n+1} = q_n x_n - 1 \leq q_n x_n - x_n \leq 1 $$
On en déduit que \( \forall n \in \mathbb{N}: x_n \in ]0, 1] \).
Par définition de \( \left(q_{n}\right)_{n \in \mathbb{N}} \) et de la partie entière, on a alors \( \forall n \in \mathbb{N}: 0 \leq q_n < \infty \). -
Etudier la monotonie de la suite \( \left(x_{n}\right)_{n \in \mathbb{N}} \).
En utilisant le résultat \( q_n - 1)x_n \leq 1 \), on a \( \forall n \in \mathbb{N} - \{ 0 \} \): $$ x_{n+1} - x_n = (q_n - 1)x_n - 1 \leq 0 $$
Il s'ensuit que la suite (\ left(x_{n}\right)_{n \in \mathbb{N}} \) est décroissante.
Par ailleurs, on a \( x_{n+1} = x_n \Leftrightarrow \left\lfloor\frac{1}{x_{n}}\right\rfloor = \frac{1}{x_n} \) soit si \( \frac{1}{x_{n}} \) est entier. -
Montrer que \( \left(q_{n}\right)_{n \in \mathbb{N}} \in E \).
Par les propriétés de la partie entière, il est trivial de montrer que \( \forall n \in \mathbb{N} : q_n \in \mathbb{N} \).
Puis on a \( \forall n \in \mathbb{N} \): $$ x_{n+1} \leq x_n \; \Leftrightarrow \; 1/x_{n+1} \geq 1/x_n \; \Leftrightarrow \; \lfloor 1/x_{n+1}\rfloor \geq \lfloor 1/x_n\rfloor \; \Leftrightarrow \; q_{n+1} \geq q_n $$
Ainsi, \( \left(q_{n}\right)_{n \in \mathbb{N}} \) est une suite croissante d'entiers.
Enfin, comme \( \forall n \in \mathbb{N} : x_n \leq 1 \) on a nécessairement \( \forall n \in \mathbb{N} : q_n \geq 2 \) et donc \( \left(q_{n}\right)_{n \in \mathbb{N}} \in E \). -
Montrer que pour tout \( n \in \mathbb{N} \):
$$
x=S_{n}(q)+\frac{x_{n+1}}{q_{0} \cdots q_{n}} .
$$
On note que \( \forall n \in \mathbb{N} \) : $$ x_{n+1} = q_n x_n-1 \; \Leftrightarrow \; x_n = \frac{1}{q_n} + \frac{x_{n+1}}{q_n} $$
On a donc pour les cas \( n = 1 \) et \( n = 2 \) : $$ x_0 = \frac{1}{q_0} + \frac{x_1}{q_0} = \frac{1}{q_0} + \frac{\frac{1}{q_1} + \frac{x_2}{q_1}}{q_0} = \frac{1}{q_0} + \frac{1}{q_0q_1} + \frac{x_2}{q_0q_1} $$
En chaînant cette formule (ou par récurrence immédiate), on obtient pour tout \( n \in \mathbb{N} \): $$ x = \frac{1}{q_0} + \frac{1}{q_0q_1} + \cdots + \frac{1}{q_0\cdots q_{n-1}} + \frac{x_{n+1}}{q_0\cdots q_n} = S_n(q) + \frac{x_{n+1}}{q_0\cdots q_n} $$
-
Déterminer \( \lim _{n \rightarrow+\infty} S_{n}(q) \).
En utilisant le fait que \( 0 < x_{n+1} \leq 1 \) et que \( \left(q_{n}\right)_{n \in \mathbb{N}} \in E \) on a : $$ 0 \leq \frac{x_{n+1}}{q_0\cdots q_n} \leq \frac{1}{2^{n+1}} $$ Par le théorème d'encadrement, il s'ensuit que \( \lim_{n \rightarrow+\infty} \frac{x_{n+1}}{q_0\cdots q_n} = 0 \).
Comme \( S(n)_{n \in \mathbb{N}} \) convergence, par unicité de la limite, on en déduit \( \lim _{n \rightarrow+\infty} S_{n}(q) = x_0 \). -
Soit \( a \geq 3 \).
(a) Montrer que l'équation \( x^{2}-a x+1=0 \) admet une unique solution dans \( \left.] 0,1\right] \).
On note cette solution \( r(a) \). On ne demande pas de l'expliciter.
Le discriminant de ce polynôme du second degré est \( \Delta = \sqrt{a^2 - 4} > 0 \). Il admet donc deux racines : $$ r(a) = \frac{a-\sqrt{a^2-4}}{2} \; \; \text{et} \; \; l(a) = \frac{a+\sqrt{a^2-4}}{2} $$
(b) On suppose \( a \in \mathbb{N} \). Montrer que si \( x=r(a) \), alors \( a=1+\left\lfloor\frac{1}{x}\right\rfloor \).
Il est trivial de montrer que \( \forall a \geq 3: l(a) > 1 \).
En notant que :
• \( \forall a \geq 2 : \sqrt{a^2 - 4} < a \; \Leftrightarrow \; r(a) > 0 \)
• \( \forall a \geq 2 : a^2 − 2^2 \geq (a−2)^2 \; \Leftrightarrow \; \sqrt{a^2-4} \geq a - 2 \; \Leftrightarrow \; a-sqrt{a^2-4} \leq 2\)
On a bien \( r(a) \in ]0, 1] \) et donc admet une unique solution dans \( ]0, 1] \).
On note que \( \forall a \in \mathbb{N} \), si \( x = r(a) \) on a : $$ x^2 - ax + 1 = 0 \; \Leftrightarrow \; \frac{1}{x} = a - x $$
(c) Soit \( p \in \mathbb{N} \) un entier supérieur ou égal à 3.
Or on sait que \( x = r(a) \in ]0, 1] \) d'où \( a - x \in ]a-1, a] \) et donc : $$ a = 1 +\left\lfloor \frac{1}{x}\right\rfloor $$
On note \( \left(x_{n}\right)_{n \in \mathbb{N}} \) et \( \left(q_{n}\right)_{n \in \mathbb{N}} \) les suites définies comme précédemment en posant \( x=r(p) \).
Montrer que si \( x_{n}=r\left(q_{n}\right) \) alors \( x_{n+1}=r\left(q_{n}^{2}-2\right) \).
On suppose que \( \forall n \in \mathbb{N} : x_{n}=r\left(q_{n}\right) \).
(d) Conclure que \( \left(q_{n}\right)_{n \in \mathbb{N}} \) vérifie : $$ q_{0}=p \quad \text { et } \quad \forall n \in \mathbb{N}, \quad q_{n+1}=q_{n}^{2}-2 . $$
Alors \(\forall n \in \mathbb{N} : x_n \) vérifie \( x_n^2-q_n x_n+1=0 \; \Leftrightarrow \; x_n^2 = q_n x_n - 1\).
En utilisant la définition de la suite \( \left(x_{n}\right)_{n \in \mathbb{N}} \), on montre que \( x_{n+1} \) satisfait : $$ x_{n+1}^2 - (q_n^2 - 2)x_{n+1} + 1 = 0 $$
Pour ce faire, on met en évidence en développant que : $$ x_{n+1}^2 - (q_n^2 - 2)x_{n+1} + 1 = (q_n x_n - 1)^2 - (q_n^2 - 2)(q_n x_n - 1) + 1 = q_n^2 (x_n^2 - q_n x_n + 1) = 0 $$
On conclut qu'on a bien \( \forall n \in \mathbb{N} : x_{n+1} = r(q_n^2 - 2)\).Par la question (b), on a directement \( x = r(p) \; \Leftrightarrow \; p = 1+\left\lfloor\frac{1}{x}\right\rfloor = q_0 \).
Puis on montre par récurrence que \( \forall n \in \mathbb{N} : q_{n+1} = q_n^2 - 2 \).
Initialisation
On note qu'on a bien \( q_0^2-2 > 3 \) car \( q_0 = p > 3 \).
Comme \( q_0 = p \), on a en utilisant la question (c) : \( x_1 = r(q_0^2-2) \).
Or, par la question (b), on a \( x_1 = r(q_0^2 - 2) \; \Leftrightarrow \; q_0^2 - 2 = 1+\left\lfloor\frac{1}{x_1}\right\rfloor = q_1 \).
On en déduit qu'on a bien \( q_1 = q_0^2 - 2 \).
Hérédité
On suppose qu'il existe \( n \in \mathbb{N} \) tel que \( q_{n+1} = q_n^2 - 2 \).
On note que par récurrence immédiate, on a bien \( q_n^2 - 2 > 3 \).
En utilisant la question (c), on a \( x_{n+2} = r(q_{}n+1^2-2) \).
Puis par la question (b), on a \( x_{n+2} = r(q_{n+1}^2 - 2) \; \Leftrightarrow \; q_{n+1}^2 - 2 = 1+\left\lfloor\frac{1}{x_{n+2}}\right\rfloor = q_{n+2} \).
On a donc bien \( q_{n+2} = q_{n+1}^2 - 2 \).
On en déduit que \( \forall n \in \mathbb{N} : q_{n+1} = q_n^2 - 2 \).
Partie 2
Dans la suite, v.a. signifie variable aléatoire et v.a.i.i.d. variables aléatoires mutuellement indépendantes et identiquement distribuées.
\( \mathbb{P}[A \mid B] \) est la probabilité conditionnelle de l'évémenent \( A \) sachant que l'événement \( B \) est réalisé.
\( \mathbb{E}[X \mid Y] \) est l'espérance conditionnelle de la v.a. \( X \) sachant la v.a. \( Y \).
\( \mathbb{E}[X] \) et \( \mathbb{V}(X) \) représentent respectivement l'espérance et la variance d'une v.a. \( X \), lorsque ces quantités existent.
Exercice 1
Dans tout cet exercice, \( n \) désigne un entier naturel non nul.
Soit \( \left(X_{n}\right)_{n \geq 1} \) une suite de v.a.i.i.d. de loi normale standard \( \mathcal{N}(0,1) \), de densité :
$$
\forall x \in \mathbb{R}, \varphi(x)=\frac{1}{\sqrt{2 \pi}} e^{-x^{2} / 2}
$$
et de fonction de répartition :
$$
\forall x \in \mathbb{R}, \Phi(x)=\int_{-\infty}^{x} \varphi(x) d x
$$
On note \( S_{n}=X_{1}+\ldots+X_{n} \) et pour tout \( x>0 \):
$$
\rho_{n}(x)=\mathbb{P}\left[\left|\frac{S_{n}}{n}\right| \geq x\right]
$$
-
Déterminer la loi de \( S_{n} / n \) et en déduire que :
$$
\forall x>0: \rho_{n}(x)=\mathbb{P}\left[\left|X_{1}\right| \geq x \sqrt{n}\right]=2 \mathbb{P}\left[X_{1} \geq x \sqrt{n}\right]=2(1-\Phi(x \sqrt{n}))
$$
On sait que \( \forall n \in \mathbb{N} \): \( \frac{S_n}{n} \) suit une loi normale en tant que combinaison linéaire de variables aléatoires de loi normale indépendantes.
Par ailleurs, on a :
• \( \mathbb{E}[\frac{S_n}{n}] = \frac{1}{n} \mathbb{E}[S_n] = \frac{1}{n} \sum_{i=1}^{n} \mathbb{E}[X_i] = 0 \)
• \( \mathbb{V}(\frac{S_n}{n}) = \frac{1}{n^2} \mathbb{V}(S_n) = \frac{1}{n^2} \sum_{i=1}^{n} \mathbb{V}(X_i) = \frac{1}{n} \) par indépendance
La loi normale étant caractérisée par ses moments, on en déduit \( \frac{S_n}{n} \sim \mathcal{N}(0, \frac{1}{n})\).
Par symétrie de la loi normale, on a alors \( \forall x \in \mathbb{R} \) : $$ \rho_n(x) = \mathbb{P}\left[\left|\frac{S_n}{n}\right| \geq x\right] = \mathbb{P}\left[\frac{S_n}{n} \geq x\right] + \mathbb{P}\left[\frac{S_n}{n} \leq -x\right] = 2\mathbb{P}\left[\frac{S_n}{n} \geq x\right] $$
En notant que \( \frac{S_n}{\sqrt{n}} \sim \mathcal{N}(0,1) \) et en rappelant \( X_1 \sim \mathcal{N}(0,1) \) également, on a alors : $$ \rho_n(x) = 2\mathbb{P}\left[\frac{S_n}{n} \geq x\right] = 2 \mathbb{P}\left[\frac{S_n}{\sqrt{n}} \geq x\sqrt{n}\right] = 2\mathbb{P}[X_1 \geq x\sqrt{n}] = 2(1 - \Phi(x\sqrt{n})) $$ En utilisant de nouveau la symétrie de la loi normale, on conclut que \( \forall x \in \mathbb{R} \) : $$ \rho_{n}(x)=\mathbb{P}\left[\left|X_{1}\right| \geq x \sqrt{n}\right]=2 \mathbb{P}\left[X_{1} \geq x \sqrt{n}\right]=2(1-\Phi(x \sqrt{n})) $$
-
Démontrer que :
$$
\forall x>0,\left(\frac{1}{x}-\frac{1}{x^{3}}\right) e^{-x^{2} / 2} \leq \int_{x}^{+\infty} e^{-t^{2} / 2} d t \leq \frac{1}{x} e^{-x^{2} / 2}
$$
On raisonne séparément pour les bornes supérieure et inférieure.
Borne supérieure
On note que \( \forall x > 0 \) on a : $$ \int_x^{+\infty} e^{-t^2/2} \mathrm{d}t \leq \int_x^{+\infty} \frac{t}{x} e^{-t^2/2} \mathrm{d}t = \frac{1}{x} \left[-e^{-t^2/2}\right]_x^{+\infty} = \frac{1}{x} e^{-x^2/2} $$
Borne inférieure
On utilise une intégration par parties.
Pour ce faire, on note que :
• la fonction \( t \mapsto \frac{1}{t} \) est de classe \( \mathcal{C}^1 \) sur \( \mathbb{R}_{+}^* \)
• la fonction \( t \mapsto te^{-t^2/2} \) est de classe \( \mathcal{C}^1 \) sur \( \mathbb{R}_{+}^* \)
• \( \lim_{t \rightarrow +\infty} e^{-t^2/2} = 0 \)
On obtient ainsi pour tout \( x > 0 \) : $$ \int_x^{+\infty} \frac{t}{t} e^{-t^2/2} \mathrm{d}t = \left[-\frac{1}{t}e^{-t^2/2}\right]_x^{+\infty} - \int_x^{+\infty}\frac{1}{t^2}e^{-t^2/2}\mathrm{d}t = \frac{1}{x}e^{-x^2/2} - \int_x^{+\infty}\frac{1}{t^2}e^{-t^2/2}\mathrm{d}t $$
Or, on a \( \forall t \geq x > 0 : \frac{1}{t^2} \leq \frac{1}{x^2} \) d'où : $$ \int_x^{+\infty}\frac{1}{t^2}e^{-t^2/2}\mathrm{d}t\le \frac{1}{x^2}\int_x^{+\infty}e^{-t^2/2}\mathrm{d}t $$
En intégrant cette inégalité dans l'égalité précédente, on obtient \( \forall x > 0 \) : $$ \int_x^{+\infty} e^{-t^2/2} \mathrm{d}t \geq \frac{1}{x}e^{-x^2/2} - \frac{1}{x^2} \int_x^{+\infty} e^{-t^2/2} \mathrm{d}t $$
En réarrangeant les termes, on en déduit alors : $$ \int_x^{+\infty} e^{-t^2/2} \mathrm{d}t \geq \frac{x}{x^2+1}e^{-x^2/2} $$
Or, comme \( \forall x > 0 : \frac{x}{x^2 + 1} \geq \left(\frac{1}{x}-\frac{1}{x^{3}}\right) \) car \( x^4 \geq (x^2-1)(x^2+1) = x^4-1 \) on déduit : $$ \int_x^{+\infty} e^{-t^2/2} \mathrm{d}t \geq \left(\frac{1}{x}-\frac{1}{x^{3}}\right) e^{-x^2/2} $$
Encadrement
En utilisant les deux bornes, on déduit qu'on a bien \( \forall x > 0 \) : $$ \forall x>0,\left(\frac{1}{x}-\frac{1}{x^{3}}\right) e^{-x^{2} / 2} \leq \int_{x}^{+\infty} e^{-t^{2} / 2} d t \leq \frac{1}{x} e^{-x^{2} / 2} $$
-
En déduire l'inégalité de concentration gaussienne suivante :
$$
\forall n \geq 1, \forall x>0, \sqrt{\frac{2}{\pi}}\left(\frac{1}{x \sqrt{n}}-\frac{1}{x^{3} n^{3 / 2}}\right) e^{-n x^{2} / 2} \leq \rho_{n}(x) \leq \sqrt{\frac{2}{\pi}} \frac{1}{x \sqrt{n}} e^{-n x^{2} / 2}
$$
On rappelle qu'on a \( \forall n \geq 1, \forall x > 0 \) : $$ \rho_n(x) = 2\left(1-\Phi(x\sqrt{n})\right) = \sqrt{\frac{2}{\pi}}\int_{x\sqrt{n}}^{+\infty} e^{-t^2/2}\mathrm{d}t. $$
En intégrant \( \rho_n(x) \) dans l'inégalité montrée à la question précédente, on obtient : $$ \forall n \geq 1, \forall x > 0: \sqrt{\frac{2}{\pi}}\left(\frac{1}{x \sqrt{n}}-\frac{1}{x^{3} n^{3 / 2}}\right) e^{-n x^{2} / 2} \leq \rho_{n}(x) \leq \sqrt{\frac{2}{\pi}} \frac{1}{x \sqrt{n}} e^{-n x^{2} / 2} $$
-
Rappeler les inégalités de Markov et de Bienaymé-Tchebychev et les redémontrer.
Inégalité de Markov
On rappelle que pour \( X \) une variable aléatoire positive, l'inégalité de Markov donne : $$ \forall a > 0 : \mathbb{P}[X \geq a] \leq \frac{\mathbb{E}[X]}{a} $$
Pour le prouver, on considère \( a > 0 \). Comme \( X \) admet une espérance, l'intégrale \( \int_{0}^{+\infty} tf(t)\mathrm{d}t \) converge absolument et on a : $$ a \mathbb{P}[X \geq a] = a \int_{a}^{+\infty} f(t) \mathrm{d}t \leq \int_{a}^{+\infty} t f(t) \mathrm{d}t $$
On majorant à droite, on en déduit que : $$ a \mathbb{P}[X \geq a] \leq \int_{a}^{+\infty} t f(t) \mathrm{d}t = \mathbb{E}[X] $$
Inégalité de Bienaymé-Tchebychev
On rappelle que pour \( X \) une variable aléatoire positive, l'inégalité de Bienaymé-Tchebychev donne : $$ \forall a > 0 : \mathbb{P}[|X - \mathbb{E}[X]|\geq a] \leq \frac{\mathbb{V}(X)}{a^2} $$
Pour le prouver, on applique l'inégalité de Markov à la variable aléatoire positive \( |X - \mathbb{E}[X]| \) : $$ \forall a > 0 : \mathbb{P}[|X - \mathbb{E}[X]| \geq a] = \mathbb{P}[|X - \mathbb{E}[X]|^2 \geq a^2] \leq \frac{\mathbb{E}[|X - \mathbb{E}[X]|^2]}{a^2} = \frac{\mathbb{V}(X)}{a^2} $$ -
Soit \( h \) une fonction positive et strictement croissante sur \( \mathbb{R} \).
Après avoir justifié de l'existence de l'espérance, démontrer que pour toute variable aléatoire positive, intégrable et pour tout \( t>0 \) : $$ \mathbb{P}[X \geq t] \leq \frac{\mathbb{E}[h(X)]}{h(t)} $$Avec \( h \) une fonction positive, strictement croissante sur \( \mathbb{R} \), on a en appliquant l'inégalité de Markov à \( h(X) \) : $$ \forall t > 0 : \mathbb{P}[X \geq t] = \mathbb{P}[h(X) \geq h(t)] = \leq \frac{\mathbb{E}[h(X)]}{h(a)} $$
Le cas où \( \mathbb{E}[h(X)] = +\infty \) est trivial car l'inégalité est alors toujours satisfaite.
-
Après avoir justifié l'existence de l'espérance, en déduire que :
$$
\forall x>0, \rho_{n}(x) \leq 2 e^{-t x \sqrt{n}} \mathbb{E}\left[e^{t X_{1}}\right]
$$
Par le théorème du transfert, on note que \( \forall t \in \mathbb{R} \) on a : $$ \mathbb{E}[e^{tX_1}] = \frac{1}{\sqrt{2\pi}}\int_{\mathbb{R}} e^{tx}e^{-x^2/2}\mathrm{d}x = \frac{e^{t^2/2}}{\sqrt{2\pi}}\int_{\mathbb{R}} e^{-(x-t)^2/2}\mathrm{d}x = e^{t^2/2} < +\infty $$
Ainsi \( \forall t > 0 \), en appliquant le résultat de la question précédente avec \( h:u \mapsto e^{tu} \) (qui est bien positive, strictement croissante sur \( \mathbb{R} \) on a \( \forall x > 0 \) : $$ \mathbb{P}\left[X_1\ge x\sqrt{n}\right] \leq \frac{\mathbb{E}[e^{tX_1}]}{e^{t x\sqrt{n}}} $$
En rappelant que \( \rho_n(x)=2\,\mathbb{P}\left[X_1\ge x\sqrt{n}\right] \) on obtient \( \forall n \geq 1, \forall x > 0 \) : $$ \rho_n(x) \leq 2 e^{-t x\sqrt{n}} \mathbb{E}[e^{tX_1}] $$
-
Démontrer que :
$$
\forall t \in \mathbb{R}, \mathbb{E}\left[e^{t X_{1}}\right]=e^{t^{2} / 2}
$$
Comme à la question précédente, par le théorème du transfert, on a \( \forall t \in \mathbb{R} \) : $$ \mathbb{E}[e^{tX_1}] = \frac{1}{\sqrt{2\pi}}\int_{\mathbb{R}} e^{tx}e^{-x^2/2}\mathrm{d}x = \frac{e^{t^2/2}}{\sqrt{2\pi}}\int_{\mathbb{R}} e^{-(x-t)^2/2}\mathrm{d}x = e^{t^2/2} $$
-
En déduire que :
$$
\forall n \geq 1, \forall x>0, \rho_{n}(x) \leq 2 e^{-n x^{2} / 2}
$$
En combinant les résultats des deux dernières questions, on a \( \forall n \geq 1, \forall x>0 \) et \( \forall t \in \mathbb{R} \) : $$ \rho_n(x) \leq 2 e^{-t x\sqrt{n} + t^2/2} $$
Or le polynôme du second degré \( g: t \mapsto \frac{t^2}{2} - tx\sqrt{n} \) atteint son minimum en \( t = x\sqrt{n} \), on peut donc affiner cette inégalité et obtenir \( \forall n \geq 1, \forall x > 0 \): $$ \rho_n(x) \leq 2 e^{-(x\sqrt{n})^2 + (x\sqrt{n})^2/2} = 2 e^{-nx^2/2} $$
Exercice 2
Dans tout cet exercice, \( n \) est un entier naturel non nul. On considère une suite de v.a.i.i.d. \( \left(X_{n}\right)_{n \geq 1} \) de loi de Bernoulli de paramètre \( p \in] 0,1\left[\right. \).
On notera \( q=1-p \).
L'événement \( \left[X_{n}=1\right] \) représente un succès au \( n \)-ième tirage.
-
Soit \( Y \) la variable aléatoire égale au nombre de tirages nécessaires avant d'obtenir un premier succès. Démontrer que :
$$
\forall k \geq 1, \mathbb{P}[Y=k]=q^{k-1} p
$$
Déterminer l'expression de l'espérance \( \mathbb{E}[Y] \) et de la variance \( \mathbb{V}(Y) \) de \( Y \), en fonction de \( p \) et \( q \).
Un premier succès au \( k \)-ème tirage signifie nécessairement \( k-1 \) échecs suivis d’un succès, d'où par indépendance des tirages : $$ \forall k \geq 1 : \mathbb{P}[Y=k] = \mathbb{P}[\cap_{i=1}^{k-1} X_i=0] \times \mathbb{P}[X_k=1] = q^{k-1} p $$ On peut alors calculer \( \forall k \geq 1 \) :
• \( \mathbb{E}[Y] = \sum_{k \geq 1} k p q^{k-1} = p\sum_{k \geq 1} k q^{k-1} = \frac{p}{(1-q)^2} = \frac{1}{p} \)
• \( \mathbb{E}[Y^2] = p \sum_{k \geq 1} k^2 q^{k-1} = p \times \frac{1+q}{(1-q)^3} = \frac{1+q}{p^2} \)
• \( \mathbb{V}(Y) = \mathbb{E}[Y^2] - \mathbb{E}[Y]^2 = \frac{1+q}{p^2} - \frac{1}{p^2} = \frac{q}{p^2} \) par la formule de König-Huygens
-
On considère deux v.a. indépendantes \( Y_{1} \) et \( Y_{2} \) de même loi géométrique de paramètre \( p \). On note \( S=Y_{1}+Y_{2} \). Démontrer que :
$$
\forall n \geq 2, \mathbb{P}[S=n] = (n-1) p^2 q^{n-2}
$$
En utilisant l'indépendance des deux variables aléatoires, on a \( \forall n \geq 2 \) : $$ \mathbb{P}[S=n] = \mathbb{P}[\cup_{k=1}^{n-1} \left( Y_1=k \cap Y_2=n-k \right)] = \sum_{k=1}^{n-1}\mathbb{P}[Y_1=k] \mathbb{P}[Y_2=n-k] = \sum_{k=1}^{n-1} p^2 q^{n-2} = (n-1) p^2 q^{n-2} $$
-
Déterminer la probabilité conditionnelle \( \mathbb{P}\left[Y_{1}=k \mid S=n\right] \). Interpréter le résultat.
En utilisant la formule de Bayes, on a pour \( 1 \leq k \leq n-1 \) : $$ \mathbb{P}[Y_1=k \mid S=n] = \frac{\mathbb{P}[Y_1=k \cap Y_2=n-k]}{\mathbb{P}[S=n]} = \frac{p^2 q^{n-2}}{(n-1)p^2 q^{n-2}} = \frac{1}{n-1}. $$
Le résultat indique que si l'on sait que deux succès ont été obtenus au tirage \( n \), le numéro du premier tirage à succès parmi les \( n-1 \) premiers tirages est équiprobable.
On note \( S_{n}=X_{1}+\ldots+X_{n} \) la somme des \( n \) premiers tirages et \( T_{n} \) le nombre de tirages nécessaires pour obtenir \( n \) succès.
On dit que \( T_{n} \) suit une loi de Pascal de paramètres \( n \) et \( p \).
-
Reconnaître la loi suivie par \( S_{n} \), puis démontrer que pour tout \( k \geq n \) :
$$
\left[T_{n}=k\right]=\left[S_{n-1}=k-1\right] \cap\left[X_{n}=1\right] .
$$
On identifie que \( S_n = \sum_{i=1}^n X_i \) suit la loi binomiale $\mathcal{B}(n,p)$.
De plus, il est immédiat qu'on ait \( \forall k \geq n \) : $$ \left[ S_{k-1} = n-1 \right] \cap\ [ X_k = 1 ] \Rightarrow [ T_n = k ] $$
En effet, si on a obtenu \( n-1 \) succès après \( k-1 \) tirage et que le \( k \)-ème tirage est un succès, alors il aura fallu \( k \) tirages pour obtenir \( n \) succès.
Inversement, si on sait qu'il a fallu \( k \) tirages pour obtenir \( n \) succès, c'est que le \( k \)-ème tirage était un succès et qu'on avait déjà rencontré \( n-1 \) succès avant, donc : $$ [ T_n = k ] \Rightarrow \left[ S_{k-1} = n-1 \right] \cap\ [ X_k = 1 ] $$
On en déduit en combinant ces implications : $$ \left[ S_{k-1} = n-1 \right] \cap\ [ X_k = 1 ] \Leftrightarrow [ T_n = k ] $$
-
En déduire que :
$$
\forall k \geq n, \mathbb{P}\left[T_{n}=k\right]=\binom{k-1}{n-1} p^{n} q^{k-n} .
$$
En utilisant le résultat de la question précédente et le lemme des coalitions, on a \( \mathbb{P}[S_{k-1}=n-1 \cap X_k=1] = \mathbb{P}[S_{k-1}=n-1] \mathbb{P}[X_k=1] \) et donc \( \forall k \geq n \) : $$ \mathbb{P}[T_n=k] = \mathbb{P}[S_{k-1}=n-1] \mathbb{P}[X_k=1] = \binom{k-1}{n-1}p^{n-1}q^{k-n} p = \binom{k-1}{n-1}p^n q^{k-n} $$
-
On pose \( Y_{1}=T_{1} \) et pour tout \( i \geq 2, Y_{i}=T_{i}-T_{i-1} \). Montrer que les \( \left(Y_{i}\right)_{i} \) forment une suite de variables de loi géométrique de paramètre \( p \). Montrer qu'elles sont mutuellement indépendantes et que :
$$
T_{n}=Y_{1}+\ldots+Y_{n} .
$$
On note que \( Y_1 \) représente le nombre de tirages nécessaires pour rencontrer le premier succès, et que \( \forall i \geq 2 \), \( Y_i \) représente le nombre de tirages supplémentaires nécessaires pour rencontrer de nouveau un succès.
Il est clair, par identification, que \( Y_1 \) et \( Y \) ont même loi et ainsi \( Y_1 \sim \mathcal{G}(p) \).
Puis, \( \forall i \geq 2 \), par indépendance des \( (X_n)_{n \geq 1} \) on a \( \forall k \geq 1 \) : $$ \mathbb{P}[Y_i=k \mid T_{i-1}=t] = \mathbb{P}[X_{T_{i-1}+1} = 0 \cap X_{T_{i-1}+2} = 0 \cap \ldots \cap X_{T_{i-1}+(k-1)} = 0 \cap X_{T_{i-1}+k} = 1] = q^{k-1}p $$
On en déduit que \( \forall i \geq 2 : Y_i \sim \mathcal{G}(p) \).
Par ailleurs, on note que :
• \( Y_1 \) ne dépend que de \( X_1, \ldots, X_{T_1} \)
• \( Y_2 \) ne dépend que de \( X_{T_1 + 1}, \ldots, X_{T_2 - 1} \)
• etc.
Ces ensembles sont disjoints, ainsi par indépendance des \( (X_n)_{n \geq 1} \) et par le lemme des coalitions, il s'ensuit que les \( (Y_n)_{n \geq 1} \) sont bien indépendants.
Enfin, par téléscopage, on a directement : $$ T_n = T_n = T_{n-1} + Y_n = T_{n-2} + Y_{n-1} + Y_n = \cdots = Y_1 + Y_2 + \cdots + Y_n $$
-
Déterminer \( \mathbb{E}\left[T_{n}\right] \) et \( \mathbb{V}\left(T_{n}\right) \).
Par linéarité de l'espérance, en utilisant la question précédente on a \( \forall n \geq 1 \) : $$ \mathbb{E}[T_n] = \sum_{i=1}^{n} \mathbb{E}[Y_i] = \sum_{i=1}^{n} \frac{1}{p} = \frac{n}{p} $$ Puis, par indépendance des \( (Y_n)_{n \geq 1} \) on a \( \forall n \geq 1 \) : $$ \mathbb{V}(T_n) = \sum_{i=1}^{n} \mathbb{V}(Y_i) = \sum_{i=1}^{n} \frac{q}{p^2} = \frac{nq}{p^2} $$
-
On note \( V_{n} \) le nombre d'échecs dans la séquence \( \left(X_{i}\right)_{i} \) nécessaires avant d'obtenir \( n \) succès. On dit que \( V_{n} \) suit une loi binomiale négative de paramètres \( n \) et \( p \). Démontrer que pour tout \( n \geq 1, V_{n} \) et \( T_{n} \) sont liées par la relation suivante:
$$
T_{n}=V_{n}+n .
$$
En déduire que $$ \forall k \geq 0, \mathbb{P}\left[V_{n}=k\right]=\binom{k+n-1}{k} p^{n} q^{k} . $$Dans un tirage, le succès et l'échec forment une partition complète de l'univers.
Le nombre total de tirages \( T_n \) est donc égal à la somme du nombre d'échecs et de succès soit : $$ T_n = V_n + n $$
On en déduit en utilisant la question (5) qu'on a \( \forall k \geq 0 \) : $$ \mathbb{P}[V_n=k] = \mathbb{P}[T_n=k+n] = \binom{k+n-1}{n-1} p^n q^{k+n-n} = \binom{k+n-1}{n-1} p^n q^k $$
Par symétrie du coefficient binomial, on en déduit que \( \forall k \geq 0 \) : $$ \mathbb{P}[V_n=k] = \binom{k+n-1}{k} p^n q^k $$
-
Démontrer que
$$
\mathbb{E}\left[\frac{n-1}{T_{n}-1}\right]=p \text { et } \mathbb{E}\left[\frac{n}{T_{n}}\right]>p,
$$
après avoir justifié de l'existence de ces espérances.
Existence des espérances
On sait que \( \forall n \geq 1 \) : \( T_n \geq n \Rightarrow T_n - 1 \geq n - 1 \) presque sûrement.
Par ailleurs, on a \( \forall n \geq 1 \) : \( \frac{n-1}{T_n - 1} > 0 \) car \( T_n - 1 \geq n-1 > 0 \) presque sûrement.
Il s'ensuit qu'on a \( \forall n \geq 1 : 0 \) : $$ \forall n \geq 1 : 0 < \frac{n-1}{T_n - 1} \leq 1 \; \; \text{p.s.} \; \; \text{d'où} \; \; 0 < \mathbb{E}\left[\frac{n-1}{T_{n}-1}\right] \leq 1 $$
Et de même, on a \( \forall n \geq 1 \) : $$ 0 < \frac{n}{T_n} \leq 1 \; \; \text{p.s.} \; \; \text{d'où} \; \; 0 < \mathbb{E}\left[\frac{n}{T_{n}}\right] \leq 1 $$
Calcul de la relation d'égalité
Par la formule du transfert, on a \( \forall n \geq 1 \) : $$ \mathbb{E}\left[\frac{n-1}{T_n-1}\right] = \sum_{k=n}^{+\infty} \frac{n-1}{k-1} \mathbb{P}[T_n=k] = \sum_{k=n}^{+\infty} \frac{n-1}{k-1} \binom{k-1}{n-1} p^n q^{k-n} $$
Pour \( n = 1 \), tous les termes sauf celui où \( k = n \) s'annulent, on a donc : \( \mathbb{E}\left[\frac{n-1}{T_n-1}\right] = p \).
Puis pour \( n \geq 2 \), par la formule du pion, on sait que \( \forall 1 \leq k \leq n : (n-1)\binom{k-1}{n-1} = (k-1)\binom{k-2}{n-2} \) d'où : $$ \mathbb{E}\left[\frac{n-1}{T_n-1}\right] = \sum_{k=n}^{+\infty} \binom{k-2}{n-2} p^n q^{k-n} $$
En posant le changement de variable \( m = k - n \) on obtient : $$ \mathbb{E}\left[\frac{n-1}{T_n-1}\right] = \sum_{m=0}^{+\infty} \binom{m+n-2}{n-2} p^n q^m = p \sum_{m=0}^{+\infty} \binom{m+n-2}{m} p^{n-1} q^m $$
Or \( V_{n-1} \in \mathbb{N} \) presque sûrement donc on a : $$ \sum_{m=0}^{+\infty} \binom{m+n-2}{m} p^{n-1} q^m = \sum_{m=0}^{+\infty} \mathbb{P}[V_{n-1} = m] = 1 $$
On peut donc conclure que \( \forall n \geq 1 \) : $$ \mathbb{E}\left[\frac{n-1}{T_{n}-1}\right]=p $$
Calcul de la relation d'inégalité
Par application de l'inégalité de Jensen, on a directement \( \forall n \geq 1 \) : $$ \mathbb{E}\left[\frac{n}{T_{n}}\right] \geq \frac{n}{\mathbb{E}[T_n]} = \frac{n}{n/p} = p $$
Par ailleurs, l'inégalité de Jensen n'est une égalité que si la variable aléatoire \( T_n \) est constante, or \( \mathbb{V}(T_n) > 0 \) d'où on conclut que \( \forall n \geq 1 \) : $$ \mathbb{E}\left[\frac{n}{T_{n}}\right] > p $$
-
On suppose \( p \) inconnu et on souhaite l'estimer à partir des observations. Démontrer que la suite de v.a. \( \left(n / T_{n}\right)_{n} \) converge en probabilité et préciser sa limite. En déduire un estimateur \( \hat{p} \) de \( p \). Est-il biaisé ? Proposer un estimateur \( \tilde{p} \) non biaisé.
D'après la loi faible des grands nombres, comme \( T_n = Y_1 + \ldots + Y_n \) avec \( (Y_i)_{i\in\mathbb{N^*}} \) i.i.d., on a : $$ \frac{T_n}{n} \xrightarrow[n \to +\infty]{\mathbb{P}} \mathbb{E}[Y_1] = \frac{1}{p} $$
Par le lemme de l'application continue (ou continuous mapping theorem), comme la fonction \( g: x \mapsto \frac{1}{x} \) est continue sur \( \mathbb{R}_{+}^* \), on a alors : $$ \frac{n}{T_n} \xrightarrow[n \to +\infty]{\mathbb{P}} p $$
On peut donc prendre comme estimateur de \( p \) l'estimateur \( \hat{p} \) tel que : $$ \hat{p} = \frac{n}{T_n} $$
Par ailleurs, on sait que \( \mathbb{E}[\hat{p}] = \mathbb{E}[\frac{n}{T_n}] > p \) par la question précédente, donc \( \hat{p} \) est biaisé
On sait également que \( \mathbb{E}\left[\frac{n-1}{T_{n}-1}\right]=p \), on peut donc prendre comme estimateur non biaisé \( \tilde{p} \) tel que : $$ \tilde{p} = \frac{n-1}{T_{n}-1} $$ -
On suppose \( n \) et \( p \) inconnus. On considère une suite \( \left(W_{i}\right)_{i} \) de v.a.i.i.d. dont chaque élément \( W_{i} \) suit la même loi que \( T_{n} \). Déduire de la question \( 7^{\circ} \) des estimateurs \( \hat{n} \) et \( \hat{p} \) de \( n \) et \( p \) mettant en jeu la moyenne et la variance empirique de \( W_{1}, \ldots, W_{i} \). Déterminer de même des estimateurs \( \widetilde{n} \) et \( \widetilde{p} \) de \( n \) et \( p \) à partir d'une suite \( \left(W_{i}\right)_{i} \) de v.a.i.i.d. dont chaque élément suit la même loi que \( V_{n} \). Quels problèmes peuvent poser ces derniers estimateurs ?
Estimateurs basés sur \( (W_i)_{i \geq 1} \)
Par la loi faible des grands nombres, on a :
• \( \bar{W_N} = \frac{1}{N} \frac{1}{N}\sum_{i=1}^N W_i \xrightarrow[n \to +\infty]{\mathbb{P}} mathbb{E}[T_n] = \frac{n}{p} \)
• \( S^2_N = \frac{1}{N}\sum_{i=1}^N (W_i - \bar{W}_N)^2 \xrightarrow[n \to +\infty]{\mathbb{P}} \mathbb{V}(T_n) = \frac{n(1-p)}{p^2} \)
On remarque alors qu'on a : $$ \frac{n(1-p)/p^2}{n/p} = \frac{1-p}{p} $$
En réarrangeant les termes, on en déduit : $$ \frac{n(1-p)/p^2}{n/p} = \frac{1-p}{p} \Rightarrow p \left(\frac{n(1-p)/p^2}{n/p}\right) = 1-p \Rightarrow p = \frac{n/p}{n/p + n(1-p)/p^2} $$
On peut donc prendre un estimateur \( \hat{p} \) de \( p \) tel que : $$ \hat{p} = \frac{\bar{W}_N}{\bar{W}_N + S^2_N} $$
De la même manière, on remarque qu'on a : $$ n = p \times \frac{n}{p} = \frac{n/p}{n/p + n(1-p)/p^2} \times \frac{n}{p} $$ On peut donc prendre un estimateur \( \hat{n} \) de \( n \) tel que : $$
\hat{n} = \frac{\bar{W}_N^2}{\bar{W}_N + S^2_N} $$
Estimateurs basés sur \( (U_i)_{i \geq 1} \)
On rappelle que par linéarité de l'espérance on a : $$ \mathbb{E}[V_n] = \mathbb{E}[T_n] - n = \frac{n}{p} - n = \frac{n(1-p)}{p} $$
De même, par linéarité de la variance pour des variables aléatoires indépendantes, on a : $$ \mathbb{V}(V_n) = \mathbb{V}(T_n - n) = \mathbb{V}(T_n) = \frac{n(1-p)}{p^2} $$
Dès lors, par la loi faible des grands nombres, on a :
• \( \bar{U_N} = \frac{1}{N} \frac{1}{N}\sum_{i=1}^N U_i \xrightarrow[n \to +\infty]{\mathbb{P}} mathbb{E}[V_n] = \frac{n(1-p)}{p} \)
• \( \Sigma^2_N = \frac{1}{N}\sum_{i=1}^N (V_i - \bar{V}_N)^2 \xrightarrow[n \to +\infty]{\mathbb{P}} \mathbb{V}(V_n) = \frac{n(1-p)}{p^2} \)
Or, on remarque qu'on a : $$ p = \frac{\frac{n(1-p)}{p}}{\frac{n(1-p)}{p^2}} $$
On peut donc prendre un estimateur \( \tilde{p} \) de \( p \) tel que : $$ \tilde{p} = \frac{\bar{U}_N}{\Sigma^2_N} $$
De même, on remarque qu'on a : $$ n = \frac{p}{1-p} \frac{n(1-p)}{p} \Rightarrow n = \frac{\frac{\frac{n(1-p)}{p}}{\frac{n(1-p)}{p^2}}}{1 - \frac{\frac{n(1-p)}{p}}{\frac{n(1-p)}{p^2}}} \frac{n(1-p)}{p} \Rightarrow n = \frac{\left( \frac{n(1-p)}{p} \right)^2}{\frac{n(1-p)}{p^2} - \frac{n(1-p)}{p}} $$
On peut donc prendre un estimateur \( \tilde{n} \) de \( n \) tel que : $$ \tilde{n} = \frac{\bar{U}_N^2}{\Sigma^2_N - \bar{U}_N}} $$
Inconvénients éventuels
Ces derniers estimateurs présentent, entre autres, deux principaux inconvénients :
• si \( \Sigma^2_N < \bar{U}_N \), alors \( tilde{n} < 0 \) ce qui n'est pas possible
• si \( \Sigma^2_N \approx \bar{U}_N \) alors \( tilde{n} < 0 \) peut être très instable