Concours externe d'administrat·eur·rice de l'Insee — 2025

Épreuve de mathématiques


Le sujet est accessible ici au format PDF.

Les propositions de corrections présentées ci-dessous n'engagent que l'auteur de ce site.


Partie 1

Exercice 1

On note \( V = M_n(\mathbb{C}) \) l'espace vectoriel des matrices carrées de taille \( n \times n \) à coefficients complexes et \( E = \mathbb{C}^n \) identifié à \( M_{n,1}(\mathbb{C}) \) (\( n \geq 2 \)). On notera \( \operatorname{tr} \) la trace d'une matrice.

Une matrice \( N \) est dite nilpotente si et seulement s'il existe \( q \geq 2 \) tel que \( N^q = 0 \).

1ère partie

Soit \( A \in V \), \( A \neq 0 \). On appelle \( \phi \) l'endomorphisme de \( V \) défini par : \( \forall M \in V : \phi(M) = AM \).

  1. (a) Montrer que, si \( \lambda \) est valeur propre de \( \phi \), alors \( \lambda \) est valeur propre de \( A \).

    Si \( \lambda \) est valeur propre de \( \phi \), alors \( \phi \) admet au moins un vecteur propre.

    Soit \( M_0 \neq 0 \) un vecteur propre de \( \phi \) associé à la valeur propre \( \lambda \), c'est-à-dire \( AM_0 = \lambda M_0 \).

    Comme \( M_0 \neq 0 \), il existe au moins un indice \( j \in \{1, \ldots, n\} \) tel que la \( j \)-ème colonne \( C_j \) de \( M_0 \) soit non nulle. En notant \( e_j \) le \( j \)-ème vecteur de la base canonique de \( \mathbb{C}^n \), on a \( C_j = M_0 e_j \).

    En multipliant l'égalité \( AM_0 = \lambda M_0 \) à droite par \( e_j \), on obtient : $$ AM_0 e_j = \lambda M_0 e_j \quad \Longrightarrow \quad A C_j = \lambda C_j $$
    Comme \( C_j \neq 0 \), on en déduit que \( C_j \) est un vecteur propre de \( A \) associé à la valeur propre \( \lambda \), ce qui prouve que \( \lambda \) est bien valeur propre de \( A \).

    (b) Soit \( M_0 \) un vecteur propre de \( \phi \) associé à la valeur propre \( \lambda \). Montrer que, si \( X \in E \) est vecteur propre de \( M_0 \) associé à une valeur propre non nulle, il est vecteur propre de \( A \).

    \( X \) étant un vecteur propre de \( M_0 \) associé à une valeur propre non nulle, il existe \( \mu \neq 0 \) tel que \( M_0 X = \mu X \).

    Dès lors, par associativité du produit matriciel : $$ A(M_0 X) = (AM_0)X = \lambda M_0 X = \lambda \mu X $$
    Par ailleurs, comme \( M_0 X = \mu X \), on a : $$ A(M_0 X) = A(\mu X) = \mu (AX) $$
    On obtient \( \mu AX = \lambda \mu X \) et comme \( \mu \neq 0 \), on peut simplifier et déduire que \( AX = \lambda X \).

    On conclut que \( X \) est bien un vecteur propre de \( A \) associé à la valeur propre \( \lambda \).

    (c) Que peut-on dire de \( A \) lorsque \( M_0 \) n'admet pas \( 0 \) comme valeur propre ?

    Si \( M_0 \) n'admet pas \( 0 \) comme valeur propre, alors \( \ker(M_0) = \{0\} \) et donc \( M_0 \) est inversible.

    En multipliant l'égalité \( AM_0 = \lambda M_0 \) à droite par \( M_0^{-1} \), on obtient : $$ A = \lambda I_n $$
    On en déduit que \( A \) est une matrice scalaire.

  1. (a) Réciproquement, montrer que, si \( \lambda \) est valeur propre de \( A \), \( \lambda \) est valeur propre de \( \phi \) et qu'il existe des vecteurs propres de \( \phi \) de rang 1.

    Soit \( X \neq 0 \) un vecteur propre de \( A \) tel que \( AX = \lambda X \), et soit \( L \in M_{1,n}(\mathbb{C}) \) un vecteur ligne non nul quelconque. On pose \( M = X L \).

    On note que \( M \) est une matrice de rang 1, car c'est le produit d'un vecteur colonne non nul par un vecteur ligne non nul (seul un coefficient de la matrice sera donc non nul).

    On a alors : $$ \phi(M) = AM = AXL = \lambda X L = \lambda M $$
    On en déduit que \( M \) est un vecteur propre de \( \phi \) associé à la valeur propre \( \lambda \), et \( \operatorname{rg}(M) = 1 \). Cela prouve que \( \lambda \) est valeur propre de \( \phi \) et qu'il existe des vecteurs propres de \( \phi \) de rang 1.

    (b) Montrer que, si \( Y \in E \) est vecteur propre de \( A \), il existe une matrice \( M_0 \) de rang 1, vecteur propre de \( \phi \), dont \( Y \) est vecteur propre.

    Soit \( Y \neq 0 \) tel que \( AY = \lambda Y \). On choisit un vecteur ligne \( L \in M_{1,n}(\mathbb{C}) \) tel que \( L Y \neq 0 \) (un tel choix est possible car \( Y \neq 0 \)).

    On pose \( M_0 = Y L \). D'après la question 2.a, on a bien \( \phi(M_0) = \lambda M_0 \), et \( M_0 \) est de rang 1.

    Il reste à montrer que \( Y \) est vecteur propre de \( M_0 \). On calcule : $$ M_0 Y = Y L Y = \eta Y \quad \text{avec} \quad \eta = L Y \in \mathbb{C} $$
    Le scalaire \( \eta \) est non nul par choix de \( L \), donc \( Y \) est bien vecteur propre de \( M_0 \) pour la valeur propre \( \eta \).

    (c) À quelle condition \( I_n \) est-il vecteur propre de \( \phi \) ?

    On a directement \( \phi(I_n) = A I_n = A \).

    Ainsi, \( I_n \) est vecteur propre de \( \phi \) si et seulement s'il existe \( \lambda \in \mathbb{C} \) tel que \( \phi(I_n) = \lambda I_n \), c'est-à-dire \( A = \lambda I_n \) (soit si et seulement si \( A \) est une matrice scalaire).

  1. (a) Soit \( M_0 \) un vecteur propre de \( \phi \) associé à la valeur propre \( \lambda \). Montrer que, si la famille \( (M_0, M_0^2, \ldots, M_0^{n^2}) \) est libre, alors \( A = \lambda I_n \).

    De l'égalité \( AM_0 = \lambda M_0 \), on déduit par récurrence immédiate que pour tout \( k \geq 1 \) : $$ A M_0^k = \lambda M_0^k $$
    Ainsi, \( \phi(M_0^k) = \lambda M_0^k \) pour tout \( k \in \{1, \ldots, n^2\} \).

    Si la famille \( (M_0, M_0^2, \ldots, M_0^{n^2}) \) est libre, elle contient \( n^2 = \dim(V) \) vecteurs linéairement indépendants et forme donc une base de \( V \).

    Comme la famille \( (M_0, M_0^2, \ldots, M_0^{n^2}) \) est une base de \( V \), on en déduit que \( \phi = \lambda \mathrm{id}_V \), ce qui signifie que : $$ \forall M \in V : AM = \phi(M) = \lambda M $$

    En prenant en particulier \( M = I_n \), on obtient \( A = \lambda I_n \).

    (b) Dans le cas contraire, montrer qu'il existe \( p \in \{2, \ldots, n^2\} \), \( (\alpha_1, \ldots, \alpha_{p-1}) \in \mathbb{C}^{p-1} \) tels que : $$ M_0^p = \sum_{k=1}^{p-1} \alpha_k M_0^k $$

    Si la famille \( (M_0, M_0^2, \ldots, M_0^{n^2}) \) est liée, on considère le plus petit entier \( p \in \{2, \ldots, n^2\} \) tel que \( M_0^p \in \mathrm{Vect}(M_0, \ldots, M_0^{p-1}) \). Un tel \( p \) existe car la famille est liée et \( M_0 \neq 0 \).

    Par minimalité de \( p \), la famille \( (M_0, \ldots, M_0^{p-1}) \) est libre.

    Il existe alors \( (\alpha_1, \ldots, \alpha_{p-1}) \in \mathbb{C}^{p-1} \) tels que : $$ M_0^p = \sum_{k=1}^{p-1} \alpha_k M_0^k $$

    (c) On suppose que le sous-espace propre de \( \phi \) associé à la valeur propre \( \lambda \) est de dimension 1.

    i. Montrer qu'il existe \( \alpha \in \mathbb{C} \) tel que \( M_0^2 = \alpha M_0 \).

    On a \( \phi(M_0^2) = AM_0^2 = \lambda M_0^2 \).

    Ainsi, \( M_0^2 \) appartient au sous-espace propre de \( \phi \) associé à la valeur propre \( \lambda \).

    Ce sous-espace étant de dimension 1 et engendré par \( M_0 \), il existe \( \alpha \in \mathbb{C} \) tel que \( M_0^2 = \alpha M_0 \).

    ii. Montrer alors que \( \operatorname{tr}(M_0) = \alpha \, \operatorname{rg}(M_0) \).

    Comme \( M_0^2 = \alpha M_0 \), on en déduit que l'ensemble des vecteurs colonne de \( M_0 \) sont vecteurs propres de \( M_0 \) et, \( M_0 \) ayant \( n \) vecteurs colonnes, que \( \operatorname{sp}(M_0) \in \{ 0, \alpha \} \).

    Soit \( E_0(M_0) \) et \( E_\alpha(M_0) \) les sous-espaces propres associés aux vecteurs propres \( 0 \) et \( \alpha \). On a : $$ \operatorname{rg}(M_0) = \operatorname{dim}(E_\alpha(M_0)) $$
    Par ailleurs, la trace d'une matrice étant égale à la somme de ses valeurs propres, on a : $$ \operatorname{tr}(M_0) = \alpha \operatorname{dim}(E_\alpha(M_0)) + 0 \operatorname{dim}(E_0(M_0)) = \alpha \operatorname{dim}(E_\alpha(M_0)) $$ On en déduit directement que \( \operatorname{tr}(M_0) = \alpha \operatorname{rg}(M_0) \).

    On note que si \( \alpha = 0 \), l'argument reste valide.

  1. (a) Identifier les sous-espaces propres de \( \phi \).

    Soit \( \lambda \) une valeur propre de \( \phi \) (et donc de \( A \) d'après les questions 1.a et 2.a). Le sous-espace propre de \( \phi \) associé à \( \lambda \) est : $$ \ker(\phi - \lambda \, \mathrm{Id}_V) = \{M \in V : AM = \lambda M\} = \{M \in V : (A - \lambda I_n) M = 0\} $$
    Cet ensemble est constitué des matrices \( M \) dont chaque colonne appartient à \( \ker(A - \lambda I_n) = E_\lambda(A)\).

    (b) En déduire que, si \( A \) est diagonalisable, \( \phi \) est diagonalisable.

    Si \( A \) est diagonalisable, en notant \( \lambda_1, \ldots, \lambda_s \) ses valeurs propres distinctes et \( d_i = \dim E_{\lambda_i}(A) \), on a \( \sum_{i=1}^s d_i = n \).

    La somme des dimensions des sous-espaces propres de \( \phi \) est alors : $$ \sum_{i=1}^s n \, d_i = n \sum_{i=1}^s d_i = n \cdot n = n^2 = \dim V $$
    Comme la somme des dimensions des sous-espaces propres de \( \phi \) est égale à la dimension de \( V \), on en conclut que \( \phi \) est diagonalisable.

2ème partie

Soit \( A \in V \). On s'intéresse maintenant à l'endomorphisme \( \psi \) de \( V \) défini par : $$ \forall M \in V : \psi(M) = AM - MA $$

  1. À quelle condition nécessaire et suffisante portant sur \( A \) cet endomorphisme est-il nul ?

    L'endomorphisme \( \psi \) est nul si et seulement si \( \forall M \in V : AM = MA \), c'est-à-dire si \( A \) commute avec toutes les matrices de \( M_n(\mathbb{C}) \).

    Or, on sait qu'une matrice commute avec toutes les matrices de \( M_n(\mathbb{C}) \) si et seulement si elle est scalaire.

    On en conclut que \( \psi = 0 \) si et seulement si \( A = \alpha I_n \) pour un certain \( \alpha \in \mathbb{C} \).

On suppose dans la suite que \( \psi \) n'est pas l'endomorphisme nul.

  1. (a) Donner deux vecteurs propres de \( \psi \) linéairement indépendants.

    On remarque d'une part que : $$ \psi(I_n) = AI_n - I_nA = A - A = 0 $$
    Et d'autre part : $$ \psi(A) = A^2 - A^2 = 0 $$
    Ainsi, \( I_n \) et \( A \) sont tous deux des vecteurs propres de \( \psi \) associés à la valeur propre \( 0 \).

    Comme \( \psi \neq 0 \), on sait d'après la question 5 que \( A \) n'est pas une matrice scalaire. En particulier, \( A \) et \( I_n \) ne sont pas colinéaires, et la famille \( (I_n, A) \) est donc libre.

    On en conclut que \( I_n \) et \( A \) sont deux vecteurs propres de \( \psi \) linéairement indépendants.

    (b) Soit \( M_1 \) un vecteur propre de \( \psi \) associé à la valeur propre \( \mu \). Calculer \( \psi(M_1^k) \) pour \( k \in \mathbb{N}^* \).

    On montre par récurrence sur \( k \) que \( \psi(M_1^k) = k\mu \, M_1^k \).

    Initialisation

    Pour \( k=1 \), on a \( \psi(M_1) = \mu M_1 = 1 \cdot \mu \cdot M_1 \), ce qui est bien le résultat attendu.

    Hérédité

    On suppose que pour un certain \( k \geq 1 \), on a \( AM_1^k - M_1^k A = k\mu M_1^k \), c'est-à-dire \( AM_1^k = M_1^k A + k\mu M_1^k \). On calcule alors : $$ \begin{aligned} AM_1^{k+1} &= (AM_1^k) M_1 = (M_1^k A + k\mu M_1^k) M_1 \\ &= M_1^k (AM_1) + k\mu M_1^{k+1} \\ &= M_1^k (M_1 A + \mu M_1) + k\mu M_1^{k+1} \\ &= M_1^{k+1} A + (k+1)\mu M_1^{k+1} \end{aligned} $$
    On en déduit que \( \psi(M_1^{k+1}) = AM_1^{k+1} - M_1^{k+1}A = (k+1)\mu M_1^{k+1} \), ce qui achève la récurrence.

    On conclut que \( \forall k \in \mathbb{N}^* : \psi(M_1^k) = k\mu \, M_1^k \).

    (c) En déduire que, si \( \mu \neq 0 \), \( M_1 \) est nilpotente.

    D'après la question précédente, si \( M_1^k \neq 0 \), alors \( M_1^k \) est un vecteur propre de \( \psi \) pour la valeur propre \( k\mu \).

    Or, \( \psi \) est un endomorphisme de \( V \), espace de dimension \( n^2 \), et admet donc au plus \( n^2 \) valeurs propres distinctes.

    Si \( \mu \neq 0 \), les valeurs \( k\mu \) pour \( k \in \mathbb{N}^* \) sont deux à deux distinctes. On ne peut donc avoir \( M_1^k \neq 0 \) que pour un nombre fini de valeurs de \( k \).

    Il existe donc un entier \( q \geq 2 \) tel que \( M_1^q = 0 \), ce qui prouve que \( M_1 \) est nilpotente.

    (d) Soit \( P \in \mathbb{C}[X] \), \( P(X) = \sum_{k=0}^{q} \alpha_k X^k \). Démontrer la relation \( \psi[P(M_1)] = \mu M_1 P'(M_1) \).

    Par linéarité de \( \psi \) et en utilisant le résultat de la question 6.b, on a : $$ \psi[P(M_1)] = \psi\!\left(\sum_{k=0}^{q} \alpha_k M_1^k\right) = \sum_{k=0}^{q} \alpha_k \psi(M_1^k) = \sum_{k=1}^{q} \alpha_k k \mu M_1^k $$
    On note que le terme \( k=0 \) disparaît car \( \psi(\alpha_0 I_n) = \alpha_0(AI_n - I_nA) = 0 \).

    D'autre part, on calcule : $$ \mu M_1 P'(M_1) = \mu M_1 \sum_{k=1}^{q} k \alpha_k M_1^{k-1} = \sum_{k=1}^{q} k \alpha_k \mu M_1^k $$
    Les deux expressions sont identiques, ce qui prouve que \( \psi[P(M_1)] = \mu M_1 P'(M_1) \).

    (e) Que peut-on en déduire pour \( P(A) \) ?

    Puisque \( A \) commute avec tout polynôme en \( A \), on a pour tout polynôme \( P \) : $$ \psi(P(A)) = AP(A) - P(A)A = 0 $$
    On en déduit que \( P(A) \) appartient au noyau de \( \psi \), c'est-à-dire que \( P(A) \) commute avec \( A \) pour tout polynôme \( P \).

  1. Si \( M_1 \) est un vecteur propre de \( \psi \), que peut-on dire de \( M_1^{-1} \) ?

    On suppose que \( M_1 \) est inversible et que \( \psi(M_1) = \mu M_1 \), c'est-à-dire \( AM_1 - M_1A = \mu M_1 \).

    En multipliant cette égalité à gauche par \( M_1^{-1} \) et à droite par \( M_1^{-1} \), on obtient : $$ M_1^{-1}(AM_1 - M_1A)M_1^{-1} = \mu M_1^{-1} $$
    Le membre de gauche se développe en \( M_1^{-1}A - AM_1^{-1} = -\psi(M_1^{-1}) \). On en déduit donc : $$ \psi(M_1^{-1}) = -\mu M_1^{-1} $$
    Ainsi, \( M_1^{-1} \) est vecteur propre de \( \psi \) pour la valeur propre \( -\mu \).

    Par ailleurs, d'après la question 6.c, si \( \mu \neq 0 \), alors \( M_1 \) serait nilpotente et donc non inversible, ce qui contredirait l'hypothèse. On en conclut nécessairement que \( \mu = 0 \), et donc que \( M_1^{-1} \) commute avec \( A \).

  1. (a) Si \( M_1 \) et \( M_2 \) sont deux vecteurs propres de \( \psi \), associés aux valeurs propres \( \mu_1 \) et \( \mu_2 \), où l'on suppose que \( M_1 \) est inversible, que peut-on dire de \( M_1 M_2 \) ?

    On dispose des relations \( AM_1 = M_1A + \mu_1 M_1 \) et \( AM_2 = M_2A + \mu_2 M_2 \). On calcule : $$ \begin{aligned} A(M_1 M_2) &= (AM_1)M_2 = (M_1A + \mu_1 M_1)M_2 \\ &= M_1(AM_2) + \mu_1 M_1 M_2 \\ &= M_1(M_2 A + \mu_2 M_2) + \mu_1 M_1 M_2 \\ &= M_1 M_2 A + (\mu_1 + \mu_2) M_1 M_2 \end{aligned} $$
    On en déduit que \( \psi(M_1 M_2) = (\mu_1 + \mu_2) M_1 M_2 \).

    Comme \( M_1 \) est inversible et \( M_2 \neq 0 \), on a \( M_1 M_2 \neq 0 \). On conclut que \( M_1 M_2 \) est un vecteur propre de \( \psi \) pour la valeur propre \( \mu_1 + \mu_2 \).

    (b) En déduire que \( M_1 M_2 \) est vecteur propre de \( \psi \) pour la valeur propre \( \mu_2 \).

    Puisque \( M_1 \) est inversible, d'après la question 7, on a nécessairement \( \mu_1 = 0 \).

    En injectant ce résultat dans la question précédente, on obtient : $$ \psi(M_1 M_2) = (0 + \mu_2) M_1 M_2 = \mu_2 \, M_1 M_2 $$
    On en conclut que \( M_1 M_2 \) est bien vecteur propre de \( \psi \) pour la valeur propre \( \mu_2 \).

  1. Montrer que, si \( A \) est nilpotente, \( \psi \) admet \( 0 \) comme unique valeur propre.

    On va montrer que \( \psi \) est un endomorphisme nilpotent, ce qui impliquera que sa seule valeur propre est \( 0 \).

    On commence par établir par récurrence sur \( k \) la formule suivante : $$ \forall k \in \mathbb{N}, \forall M \in V : \psi^k(M) = \sum_{j=0}^{k} (-1)^j \binom{k}{j} A^{k-j} M A^j $$
    Initialisation

    Pour \( k = 1 \), on a \( \sum_{j=0}^{1} (-1)^j \binom{1}{j} A^{1-j} M A^j = AM - MA = \psi(M) \), ce qui est bien le résultat attendu.

    Hérédité

    On suppose la formule vraie au rang \( k \). Alors : $$ \begin{aligned} \psi^{k+1}(M) &= \psi\!\left(\sum_{j=0}^{k} (-1)^j \binom{k}{j} A^{k-j} M A^j\right) \\ &= \sum_{j=0}^{k} (-1)^j \binom{k}{j} \left( A^{k+1-j} M A^j - A^{k-j} M A^{j+1} \right) \end{aligned} $$
    En réindexant le second terme par \( j' = j+1 \) et en utilisant la relation de Pascal \( \binom{k}{j} + \binom{k}{j-1} = \binom{k+1}{j} \), on retrouve la formule au rang \( k+1 \), ce qui achève la récurrence.

    On utilise maintenant le fait que \( A \) est nilpotente. Il existe donc un entier \( q \leq n \) tel que \( A^q = 0 \). En particulier, \( A^n = 0 \).

    On considère alors \( \psi^{2n-1}(M) \). Dans la somme, chaque terme fait intervenir les puissances \( A^{2n-1-j} \) et \( A^j \). Pour tout \( j \in \{0, \ldots, 2n-1\} \) :

    •   si \( j \leq n-1 \), alors \( 2n-1-j \geq n \), donc \( A^{2n-1-j} = 0 \)

    •   si \( j \geq n \), alors \( A^j = 0 \)

    Tous les termes de la somme sont donc nuls, d'où \( \psi^{2n-1}(M) = 0 \) pour tout \( M \in V \). On en déduit que \( \psi \) est un endomorphisme nilpotent.

    Or, si \( \psi \) admettait une valeur propre \( \mu \neq 0 \), il existerait \( M_0 \neq 0 \) tel que \( \psi(M_0) = \mu M_0 \), ce qui donnerait par récurrence immédiate \( \psi^k(M_0) = \mu^k M_0 \neq 0 \) pour tout \( k \), contredisant la nilpotence de \( \psi \).

    On conclut que l'unique valeur propre de \( \psi \) est \( 0 \).

Exercice 2

Dans tout l'exercice, \( n \) désigne un entier naturel supérieur ou égal à 2. On note \( \binom{n}{p} = \frac{n!}{p!(n-p)!} \). On définit la fonction \( f_n \) de \( \mathbb{R}_+ \) dans \( \mathbb{R} \) par : $$ \forall x \in [0, +\infty[, \quad f_n(x) = \frac{1}{(x+1)(x+2)\cdots(x+n)} $$
et on pose : \( I_n = \int_0^{+\infty} f_n(x)\,dx \).

  1. Montrer que l'intégrale définissant \( I_n \) est convergente.

    La fonction \( f_n \) est continue sur \( [0, +\infty[ \), donc le seul problème potentiel d'intégrabilité se situe au voisinage de \( +\infty \).

    Au voisinage de \( +\infty \), on a l'équivalent : $$ f_n(x) \sim \frac{1}{x^n} \quad (x \to +\infty) $$
    Comme \( n \geq 2 \), l'intégrale de Riemann \( \int_1^{+\infty} \frac{dx}{x^n} \) converge (car l'exposant \( n \geq 2 > 1 \)). Par comparaison de fonctions positives, on en déduit que \( I_n \) est bien convergente.

  2. Déterminer la limite de la suite \( (I_n)_{n \geq 2} \).

    Pour tout \( x \geq 0 \) et tout \( k \geq 1 \), on a \( (x+k) \geq (x+1) \), d'où : $$ 0 \leq f_n(x) \leq \frac{1}{(x+1)^n} \leq \frac{1}{(x+1)^2} \quad \text{pour } n \geq 2 $$
    La fonction \( x \mapsto \frac{1}{(x+1)^2} \) est intégrable sur \( [0,+\infty[ \) et constitue donc un majorant intégrable de \( f_n \), indépendant de \( n \).

    De plus, pour tout \( x > 0 \), \( f_n(x) \to 0 \) quand \( n \to +\infty \).

    Par le théorème de convergence dominée, on en conclut que \( I_n \to 0 \) quand \( n \to +\infty \).

  3. Montrer que la série de terme général \( I_n \) est convergente.

    Pour \( n \geq 3 \) et \( x \geq 0 \), on remarque que \( (x+3)(x+4)\cdots(x+n) \geq 3 \cdot 4 \cdots n = \frac{n!}{2} \). On en déduit la majoration : $$ f_n(x) \leq \frac{2}{n!} \cdot \frac{1}{(x+1)(x+2)} $$
    En intégrant sur \( [0,+\infty[ \) et en utilisant le fait que \( \int_0^{+\infty} \frac{dx}{(x+1)(x+2)} = \ln 2 \) (ce qui se calcule par décomposition en éléments simples), on obtient : $$ I_n \leq \frac{2\ln 2}{n!} $$
    Comme la série \( \sum \frac{1}{n!} \) converge (série exponentielle), on en conclut par comparaison de séries à termes positifs que la série \( \sum I_n \) converge.

  1. On note \( a_1, a_2, \ldots, a_n \) les réels tels que \( \frac{1}{(x+1)(x+2)\cdots(x+n)} = \sum_{p=1}^{n} \frac{a_p}{p+x} \).

    (a) Calculer, pour tout \( p \) de \( \llbracket 1, n \rrbracket \), \( a_p \) en fonction de \( p \) et de \( n \).

    Par la méthode classique de décomposition en éléments simples, on multiplie les deux membres par \( (x+p) \) et on évalue en \( x = -p \) : $$ a_p = \frac{1}{\prod_{\substack{k=1 \\ k \neq p}}^{n} (k - p)} $$
    On calcule séparément les deux morceaux du produit :

    •   pour \( k < p \) : \( \prod_{k=1}^{p-1}(k-p) = (-1)^{p-1}(p-1)! \)

    •   pour \( k > p \) : \( \prod_{k=p+1}^{n}(k-p) = (n-p)! \)

    On en déduit : $$ a_p = \frac{(-1)^{p-1}}{(p-1)!\,(n-p)!} = \frac{(-1)^{p-1}}{(n-1)!}\binom{n-1}{p-1} $$

    (b) Vérifier que \( \sum_{p=1}^{n} a_p = 0 \).

    En utilisant l'expression de \( a_p \) trouvée à la question précédente et en posant le changement d'indice \( j = p - 1 \), on a : $$ \sum_{p=1}^{n} a_p = \frac{1}{(n-1)!} \sum_{p=1}^{n} (-1)^{p-1} \binom{n-1}{p-1} = \frac{1}{(n-1)!} \sum_{j=0}^{n-1} (-1)^{j} \binom{n-1}{j} $$
    On reconnaît le développement du binôme de Newton appliqué à \( (1-1)^{n-1} \). Comme \( n - 1 \geq 1 \), on obtient bien : $$ \sum_{p=1}^{n} a_p = \frac{(1-1)^{n-1}}{(n-1)!} = 0 $$

    (c) En déduire, sous forme de somme, la valeur de \( I_n \).

    En intégrant la décomposition en éléments simples de \( f_n \) sur \( [0, R] \), on obtient : $$ \int_0^R f_n(x)\,dx = \sum_{p=1}^n a_p [\ln(R+p) - \ln p] $$
    On étudie le comportement quand \( R \to +\infty \). On écrit : $$ \sum_{p=1}^n a_p \ln(R+p) = \left(\sum_{p=1}^n a_p\right) \ln R + \sum_{p=1}^n a_p \ln\!\left(1 + \frac{p}{R}\right) $$
    Comme \( \sum_{p=1}^n a_p = 0 \) d'après la question précédente, le premier terme est nul. Le second tend vers \( 0 \) quand \( R \to +\infty \).

    On en déduit donc que : $$ I_n = -\sum_{p=1}^{n} a_p \ln p = \frac{1}{(n-1)!}\sum_{p=0}^{n-1}(-1)^{p+1}\binom{n-1}{p}\ln(p+1) $$

  1. (a) Établir, pour tout \( x \) de \( [0,1] \), l'encadrement suivant : $$ \sum_{p=1}^{n} \frac{1}{p+1} \leq -\frac{f_n'(x)}{f_n(x)} \leq \sum_{p=1}^{n} \frac{1}{p} $$

    On commence par calculer la dérivée logarithmique de \( f_n \). On a \( \ln f_n(x) = -\sum_{p=1}^n \ln(x+p) \), d'où en dérivant : $$ -\frac{f_n'(x)}{f_n(x)} = \sum_{p=1}^n \frac{1}{x+p} $$
    Pour \( x \in [0,1] \), on a l'encadrement \( p \leq x+p \leq p+1 \) pour tout \( p \geq 1 \), ce qui donne : $$ \frac{1}{p+1} \leq \frac{1}{x+p} \leq \frac{1}{p} $$
    En sommant pour \( p \) allant de \( 1 \) à \( n \), on obtient l'encadrement annoncé : $$ \sum_{p=1}^n \frac{1}{p+1} \leq \sum_{p=1}^n \frac{1}{x+p} \leq \sum_{p=1}^n \frac{1}{p} $$

    (b) En déduire le résultat suivant : $$ \int_0^1 f_n(t)\,dt \underset{n \to +\infty}{\sim} \frac{1}{n!\,\ln n} $$

    On note \( H_n = \sum_{p=1}^n \frac{1}{p} \) la somme harmonique partielle. On rappelle que \( H_n \sim \ln n \) quand \( n \to +\infty \).

    L'encadrement de la question 5.a donne, pour \( x \in [0,1] \) : $$ -(H_n) \leq \frac{d}{dx}[\ln f_n(x)] \leq -(H_{n+1} - 1) $$
    En intégrant cette inégalité sur \( [0,x] \) puis en passant à l'exponentielle, on obtient : $$ f_n(0)\,e^{-H_n x} \leq f_n(x) \leq f_n(0)\,e^{-(H_{n+1}-1)x} $$
    Or, \( f_n(0) = \frac{1}{n!} \). En intégrant ces inégalités sur \( [0,1] \) : $$ \frac{1}{n!}\cdot\frac{1 - e^{-H_n}}{H_n} \leq \int_0^1 f_n(t)\,dt \leq \frac{1}{n!}\cdot\frac{1 - e^{-(H_{n+1}-1)}}{H_{n+1} - 1} $$
    Comme \( H_n \to +\infty \), les termes \( e^{-H_n} \) et \( e^{-(H_{n+1}-1)} \) tendent vers \( 0 \). Les bornes sont donc respectivement équivalentes à \( \frac{1}{n!\,H_n} \) et \( \frac{1}{n!\,(H_{n+1}-1)} \), et comme \( H_n \sim H_{n+1} - 1 \sim \ln n \), on conclut par le théorème des gendarmes que : $$ \int_0^1 f_n(t)\,dt \sim \frac{1}{n!\,\ln n} $$

  1. Montrer que \( \int_0^1 f_n(t)\,dt = n\,I_{n+1} \).

    En notant \( a_p^{(n)} = \frac{(-1)^{p-1}}{(p-1)!(n-p)!} \) les coefficients de la décomposition en éléments simples de \( f_n \), on a : $$ \int_0^1 f_n(t)\,dt = \sum_{p=1}^n a_p^{(n)} \ln\!\frac{p+1}{p} $$
    On développe et on regroupe les termes en \( \ln(q) \) pour chaque \( q \) de \( 1 \) à \( n+1 \). Un calcul de regroupement montre que le coefficient de \( \ln(q) \) pour \( 2 \leq q \leq n \) vaut : $$ \frac{(-1)^q}{(q-2)!(n+1-q)!} + \frac{(-1)^q}{(q-1)!(n-q)!} = \frac{(-1)^q \cdot n}{(q-1)!(n+1-q)!} = -n\,b_q^{(n+1)} $$
    où \( b_q^{(n+1)} \) désigne les coefficients de la décomposition en éléments simples de \( f_{n+1} \).

    On en déduit ainsi que : $$ \int_0^1 f_n(t)\,dt = -n \sum_{q=1}^{n+1} b_q^{(n+1)} \ln q = n\,I_{n+1} $$

  2. Déduire de ce qui précède la formule suivante : $$ \sum_{p=0}^{n}(-1)^{p+1}\binom{n-1}{p}\ln(p+1) \underset{n \to +\infty}{\sim} \frac{1}{n\ln n} $$

    D'après la question 4.c, on a \( (n-1)!\,I_n = \sum_{p=0}^{n-1}(-1)^{p+1}\binom{n-1}{p}\ln(p+1) \).

    D'après les questions 5.b et 6, on sait que \( \int_0^1 f_n(t)\,dt = n\,I_{n+1} \sim \frac{1}{n!\ln n} \), d'où : $$ I_{n+1} \sim \frac{1}{n \cdot n! \cdot \ln n} $$
    En remplaçant \( n+1 \) par \( n \), on obtient \( I_n \sim \frac{1}{(n-1)(n-1)!\ln(n-1)} \sim \frac{1}{(n-1)(n-1)!\ln n} \).

    On en déduit alors : $$ (n-1)!\,I_n \sim \frac{1}{(n-1)\ln n} \sim \frac{1}{n\ln n} $$
    On conclut que \( \sum_{p=0}^{n}(-1)^{p+1}\binom{n-1}{p}\ln(p+1) \underset{n \to +\infty}{\sim} \frac{1}{n\ln n} \).


Partie 2

Dans la suite, v.a. signifie variable aléatoire et v.a.i.i.d. variables aléatoires mutuellement indépendantes et identiquement distribuées.

\( \mathbb{E}[X] \) et \( \mathbb{V}(X) \) représentent respectivement l'espérance et la variance d'une v.a. \( X \), lorsque ces quantités existent.

Exercice 1

On considère une suite de variables aléatoires \( (X_n)_{n \in \mathbb{N}^*} \), indépendantes et définies sur un même espace probabilisé \( (\Omega, \mathcal{A}, \mathbb{P}) \), suivant toutes la loi uniforme sur \( [0,1] \). Pour tout entier naturel \( n \) non nul, on note \( S_n = \sum_{k=1}^n X_k \) et \( T \) le plus petit entier aléatoire \( k \) vérifiant \( S_k > 1 \) (et \( T = -1 \) si un tel indice n'existe pas).

  1. (a) Déterminer une densité de \( S_2 \), puis calculer \( \mathbb{P}(S_2 \geq 1) \).

    On a \( S_2 = X_1 + X_2 \) où \( X_1 \) et \( X_2 \) sont indépendantes de loi \( \mathcal{U}([0,1]) \). La densité de \( S_2 \) s'obtient par produit de convolution des densités de \( X_1 \) et \( X_2 \) : $$ f_{S_2}(s) = \int_{\mathbb{R}} \mathbb{1}_{[0,1]}(t) \, \mathbb{1}_{[0,1]}(s-t) \, dt $$
    Après calcul, on obtient la loi triangulaire sur \( [0,2] \) : $$ f_{S_2}(s) = \begin{cases} s & \text{si } 0 \leq s \leq 1, \\ 2-s & \text{si } 1 < s \leq 2, \\ 0 & \text{sinon.} \end{cases} $$
    On calcule alors : $$ \mathbb{P}(S_2 \geq 1) = \int_1^2 (2-s)\,ds = \left[2s - \frac{s^2}{2}\right]_1^2 = (4 - 2) - \left(2 - \frac{1}{2}\right) = \frac{1}{2} $$

    (b) Montrer que la suite \( (\mathbb{P}(S_n \geq 1))_{n \in \mathbb{N}^*} \) converge vers un réel \( \ell \) non nul.

    On remarque que \( \{S_n \geq 1\} \subset \{S_{n+1} \geq 1\} \) car \( X_{n+1} \geq 0 \) implique \( S_{n+1} \geq S_n \). La suite \( (\mathbb{P}(S_n \geq 1))_{n} \) est donc croissante.

    Étant majorée par 1, cette suite converge vers une limite \( \ell \in [0,1] \).

    Par ailleurs, par la loi forte des grands nombres, \( \frac{S_n}{n} \to \frac{1}{2} \) presque sûrement, donc \( S_n \to +\infty \) presque sûrement. En particulier, \( \mathbb{P}(S_n \geq 1) \to 1 \).

    On en déduit que \( \ell = 1 \neq 0 \).

    (c) On pose \( S_n' = \sum_{k=n+1}^{2n} X_k \). En considérant les événements \( (S_{2n} \geq 1) \), \( (S_n \geq 1) \), \( (S_n' \geq 1) \), montrer que \( \ell \geq 2\ell - \ell^2 \).

    On note que \( S_{2n} = S_n + S_n' \), où \( S_n \) et \( S_n' \) sont indépendantes et de même loi (sommes de \( n \) variables i.i.d. uniformes sur \( [0,1] \)).

    On observe l'inclusion : $$ \{S_n \geq 1\} \cup \{S_n' \geq 1\} \subset \{S_{2n} \geq 1\} $$
    En effet, si l'une des deux demi-sommes dépasse 1, alors la somme totale dépasse aussi 1. Par la formule d'inclusion-exclusion et par indépendance de \( S_n \) et \( S_n' \) : $$ \begin{aligned} \mathbb{P}(S_{2n} \geq 1) &\geq \mathbb{P}(S_n \geq 1) + \mathbb{P}(S_n' \geq 1) - \mathbb{P}(S_n \geq 1)\mathbb{P}(S_n' \geq 1) \\ &= 2\,\mathbb{P}(S_n \geq 1) - \mathbb{P}(S_n \geq 1)^2 \end{aligned} $$
    En passant à la limite quand \( n \to +\infty \), on obtient bien \( \ell \geq 2\ell - \ell^2 \).

    (d) En déduire que \( \mathbb{P}(T = -1) = 0 \).

    De l'inégalité \( \ell \geq 2\ell - \ell^2 \), on tire \( \ell^2 \geq \ell \), soit \( \ell(\ell - 1) \geq 0 \). Comme \( \ell > 0 \) d'après la question 1.b, on en déduit que \( \ell \geq 1 \).

    Par ailleurs, \( \ell \leq 1 \) car c'est la limite d'une suite de probabilités, donc \( \ell = 1 \).

    Or, on a : $$ \mathbb{P}(T = -1) = \mathbb{P}\!\left(\bigcap_{n \geq 1} \{S_n \leq 1\}\right) = \lim_{n \to \infty} \mathbb{P}(S_n \leq 1) = 1 - \ell = 0 $$
    On conclut que \( \mathbb{P}(T = -1) = 0 \), c'est-à-dire que la somme de variables uniformes finit presque sûrement par dépasser 1.

  1. Montrer que \( \forall x \in [0,1], \forall n \in \mathbb{N}^*, \mathbb{P}(S_n \leq x) = \frac{x^n}{n!} \).

    On procède par récurrence sur \( n \).

    Initialisation

    Pour \( n = 1 \) et \( x \in [0,1] \), on a \( \mathbb{P}(S_1 \leq x) = \mathbb{P}(X_1 \leq x) = x = \frac{x^1}{1!} \), ce qui est bien le résultat annoncé.

    Hérédité

    On suppose que pour un certain \( n \geq 1 \), on a \( \mathbb{P}(S_n \leq x) = \frac{x^n}{n!} \) pour tout \( x \in [0,1] \).

    Par la formule des probabilités totales, en conditionnant par \( X_{n+1} = t \) : $$ \mathbb{P}(S_{n+1} \leq x) = \int_0^x \mathbb{P}(S_n \leq x - t)\,dt = \int_0^x \frac{(x-t)^n}{n!}\,dt $$
    On note que l'hypothèse de récurrence s'applique bien car pour \( t \in [0,x] \subset [0,1] \), on a \( x - t \in [0,1] \). En effectuant l'intégrale : $$ \mathbb{P}(S_{n+1} \leq x) = \frac{1}{n!}\left[-\frac{(x-t)^{n+1}}{n+1}\right]_0^x = \frac{x^{n+1}}{(n+1)!} $$
    La propriété est bien vérifiée au rang \( n+1 \), ce qui achève la récurrence. On conclut que \( \forall x \in [0,1], \forall n \in \mathbb{N}^* : \mathbb{P}(S_n \leq x) = \frac{x^n}{n!} \).

  1. (a) Calculer, pour tout entier naturel \( n \) non nul, \( \mathbb{P}(T > n) \).

    L'événement \( \{T > n\} \) signifie que le seuil 1 n'a pas été dépassé aux rangs \( 1, \ldots, n \), c'est-à-dire \( \{T > n\} = \{S_n \leq 1\} \).

    D'après la question 2, en prenant \( x = 1 \), on obtient : $$ \mathbb{P}(T > n) = \mathbb{P}(S_n \leq 1) = \frac{1}{n!} $$

    (b) En déduire la loi de \( T \).

    Pour \( n \geq 2 \), on a : $$ \mathbb{P}(T = n) = \mathbb{P}(T > n-1) - \mathbb{P}(T > n) = \frac{1}{(n-1)!} - \frac{1}{n!} = \frac{n-1}{n!} $$
    On note que cette formule est aussi valable pour \( n = 1 \) car \( \mathbb{P}(T = 1) = \mathbb{P}(X_1 > 1) = 0 = \frac{1-1}{1!} \).

    On vérifie que cette loi est bien une loi de probabilité : $$ \sum_{n=1}^{\infty} \mathbb{P}(T = n) = \sum_{n=2}^{\infty} \frac{n-1}{n!} = \sum_{n=2}^{\infty}\frac{1}{(n-1)!} - \sum_{n=2}^{\infty}\frac{1}{n!} = (e-1)-(e-2) = 1 $$

    (c) Calculer \( \mathbb{E}(T) \).

    On calcule l'espérance de \( T \) par la formule usuelle : $$ \mathbb{E}(T) = \sum_{n=2}^{\infty} n \cdot \frac{n-1}{n!} = \sum_{n=2}^{\infty} \frac{n-1}{(n-1)!} = \sum_{n=2}^{\infty} \frac{1}{(n-2)!} $$
    En posant le changement d'indice \( k = n - 2 \), on obtient : $$ \mathbb{E}(T) = \sum_{k=0}^{\infty} \frac{1}{k!} = e $$
    On conclut que le nombre moyen de variables uniformes indépendantes sur \( [0,1] \) qu'il faut additionner pour dépasser 1 est exactement \( e \approx 2{,}718 \).

  1. (a) Justifier la relation suivante : $$ \forall \alpha \in \mathbb{R}, \quad \exists n_0 \in \mathbb{N}^*, \quad n \geq n_0 \Rightarrow \frac{1 - \frac{n}{2}}{\sqrt{\frac{n}{12}}} \leq \alpha $$

    On développe l'expression : $$ \frac{1 - n/2}{\sqrt{n/12}} = \frac{2\sqrt{3}(1 - n/2)}{\sqrt{n}} = \frac{2\sqrt{3}}{\sqrt{n}} - \sqrt{3n} $$
    Quand \( n \to +\infty \), le premier terme tend vers \( 0 \) et le second vers \( -\infty \), donc l'expression tend vers \( -\infty \).

    Par définition de la limite en \( -\infty \), pour tout \( \alpha \in \mathbb{R} \), il existe \( n_0 \in \mathbb{N}^* \) tel que pour tout \( n \geq n_0 \), l'inégalité est bien satisfaite.

    (b) Montrer que, pour tout réel \( \alpha \), \( \ell \geq 1 - \Phi(\alpha) \) où \( \Phi \) désigne la fonction de répartition de la loi normale centrée réduite.

    Chaque \( X_k \) suit la loi \( \mathcal{U}([0,1]) \), d'espérance \( \frac{1}{2} \) et de variance \( \frac{1}{12} \). Par le théorème central limite : $$ \frac{S_n - n/2}{\sqrt{n/12}} \xrightarrow{\mathcal{L}} \mathcal{N}(0,1) $$
    D'après la question 4.a, pour \( n \geq n_0 \), on a \( \frac{1 - n/2}{\sqrt{n/12}} \leq \alpha \), d'où : $$ \mathbb{P}(S_n \geq 1) = \mathbb{P}\!\left(\frac{S_n - n/2}{\sqrt{n/12}} \geq \frac{1 - n/2}{\sqrt{n/12}}\right) \geq \mathbb{P}\!\left(\frac{S_n - n/2}{\sqrt{n/12}} \geq \alpha\right) $$
    En passant à la limite quand \( n \to +\infty \) et en utilisant le théorème central limite, on obtient : $$ \ell \geq 1 - \Phi(\alpha) $$

    (c) Retrouver alors la valeur de \( \mathbb{P}(T = -1) \).

    L'inégalité \( \ell \geq 1 - \Phi(\alpha) \) est valable pour tout \( \alpha \in \mathbb{R} \). Quand \( \alpha \to -\infty \), on a \( \Phi(\alpha) \to 0 \), donc \( 1 - \Phi(\alpha) \to 1 \).

    On en déduit que \( \ell \geq 1 \), et comme \( \ell \leq 1 \) (car c'est une probabilité), on conclut que \( \ell = 1 \).

    Il s'ensuit que \( \mathbb{P}(T = -1) = 1 - \ell = 0 \), ce qui confirme le résultat obtenu à la question 1.d.

  1. On pose, pour tout entier naturel \( k \) non nul, \( Y_k = -\ln(1-X_k) \). Pour tout entier naturel \( n \) non nul, on pose \( V_n = \sum_{k=1}^n Y_k \). Enfin, pour tout réel \( t > 0 \), \( Z_t(\omega) \) est le plus petit entier naturel \( n \) non nul tel que \( V_n(\omega) > t \) (et \( Z_t(\omega) = -1 \) si un tel entier n'existe pas). On admet \( \mathbb{P}(Z_t = -1) = 0 \).

    (a) Pour tout \( k \) de \( \mathbb{N}^* \), déterminer la loi de \( Y_k \).

    On sait que \( X_k \sim \mathcal{U}([0,1]) \), donc \( 1 - X_k \sim \mathcal{U}([0,1]) \) également (par la transformation \( t \mapsto 1-t \)).

    Posons \( U = 1 - X_k \sim \mathcal{U}([0,1]) \). Alors \( Y_k = -\ln(U) \). Pour \( y \geq 0 \), on calcule la fonction de répartition de \( Y_k \) : $$ \mathbb{P}(Y_k \leq y) = \mathbb{P}(-\ln U \leq y) = \mathbb{P}(U \geq e^{-y}) = 1 - e^{-y} $$
    On reconnaît la fonction de répartition de la loi exponentielle de paramètre 1. On en conclut que \( Y_k \sim \mathcal{E}(1) \).

    (b) Quelle est la loi de la variable aléatoire \( V_n \) ?

    \( V_n = \sum_{k=1}^n Y_k \) est une somme de \( n \) variables aléatoires indépendantes de loi \( \mathcal{E}(1) \).

    Par la propriété d'additivité de la loi Gamma (que l'on peut démontrer par produit de convolution des densités ou par la fonction caractéristique), on en déduit que : $$ V_n \sim \Gamma(n, 1) $$
    La densité de \( V_n \) est donc \( f_{V_n}(x) = \frac{x^{n-1}\,e^{-x}}{(n-1)!} \,\mathbb{1}_{x \geq 0} \).

    (c) Montrer que \( Z_t - 1 \) suit la loi de Poisson de paramètre \( t \).

    On remarque d'abord que \( \{Z_t > n\} = \{V_n \leq t\} \), c'est-à-dire que les \( n \) premières sommes partielles ne dépassent pas \( t \).

    Par la relation classique entre loi Gamma et loi de Poisson, on sait que : $$ \mathbb{P}(V_n \leq t) = 1 - \sum_{j=0}^{n-1} \frac{t^j e^{-t}}{j!} = \sum_{j=n}^{\infty} \frac{t^j e^{-t}}{j!} $$
    En notant \( N \sim \mathcal{P}(t) \), on a \( \mathbb{P}(V_n \leq t) = \mathbb{P}(N \geq n) \).

    On en déduit alors pour tout \( k \geq 0 \) : $$ \mathbb{P}(Z_t - 1 = k) = \mathbb{P}(Z_t > k) - \mathbb{P}(Z_t > k+1) = \mathbb{P}(N \geq k) - \mathbb{P}(N \geq k+1) = \mathbb{P}(N = k) = \frac{t^k e^{-t}}{k!} $$
    On conclut que \( Z_t - 1 \sim \mathcal{P}(t) \).

Exercice 2

On considère deux variables aléatoires indépendantes \( X \) et \( Y \), suivant chacune la loi \( \mathcal{N}(0,1) \). On pose \( Z = \frac{X}{Y} \). On rappelle que la loi de \( Z \) est la loi de Cauchy, de densité \( \frac{1}{\pi}\frac{1}{1+z^2} \).

  1. (a) Déterminer la densité de la loi de \( |Z| \).

    Pour \( z \geq 0 \), on calcule la fonction de répartition de \( |Z| \) : $$ F_{|Z|}(z) = \mathbb{P}(|Z| \leq z) = \mathbb{P}(-z \leq Z \leq z) = F_Z(z) - F_Z(-z) $$
    En dérivant par rapport à \( z \), on obtient la densité de \( |Z| \) : $$ f_{|Z|}(z) = f_Z(z) + f_Z(-z) = \frac{1}{\pi(1+z^2)} + \frac{1}{\pi(1+z^2)} = \frac{2}{\pi}\cdot\frac{1}{1+z^2} \quad \text{pour } z \geq 0 $$

    (b) Déterminer la densité de la loi de \( Z^2 \).

    Posons \( W = Z^2 = |Z|^2 \). Pour \( w > 0 \), la fonction de répartition de \( W \) est : $$ \mathbb{P}(W \leq w) = \mathbb{P}(|Z| \leq \sqrt{w}) $$
    En dérivant par rapport à \( w \), on obtient : $$ f_W(w) = f_{|Z|}(\sqrt{w}) \cdot \frac{1}{2\sqrt{w}} = \frac{2}{\pi(1+w)} \cdot \frac{1}{2\sqrt{w}} = \frac{1}{\pi \sqrt{w}(1+w)} \quad \text{pour } w > 0 $$
    On peut reconnaître dans cette expression la densité de la loi de Fisher \( \mathcal{F}(1,1) \).

On considère maintenant deux suites \( (X_i) \) et \( (Y_i) \) de variables aléatoires, toutes indépendantes et de même loi, admettant des moments d'ordre 2, d'espérance \( m \) et de variance \( \sigma^2 \neq 0 \). On pose \( \bar{X}_n = \frac{1}{n}\sum_{i=1}^n X_i \), \( \bar{Y}_n = \frac{1}{n}\sum_{i=1}^n Y_i \) et \( T_n = \left|\frac{\bar{X}_n - m}{\bar{Y}_n - m}\right| \).

  1. Étudier la convergence en loi, quand \( n \to +\infty \), de la suite \( (T_n) \).

    Par le théorème central limite, on a :

    •   \( \sqrt{n}(\bar{X}_n - m) \xrightarrow{\mathcal{L}} \mathcal{N}(0, \sigma^2) \)

    •   \( \sqrt{n}(\bar{Y}_n - m) \xrightarrow{\mathcal{L}} \mathcal{N}(0, \sigma^2) \)

    De plus, les suites \( (\bar{X}_n) \) et \( (\bar{Y}_n) \) sont indépendantes car elles sont fonctions de variables disjointes.

    On remarque que les \( \sqrt{n} \) se simplifient dans le quotient : $$ T_n = \left|\frac{\bar{X}_n - m}{\bar{Y}_n - m}\right| = \left|\frac{\sqrt{n}(\bar{X}_n - m)}{\sqrt{n}(\bar{Y}_n - m)}\right| $$
    Par le lemme de Slutsky et par convergence en loi jointe, \( T_n \) converge en loi vers \( \left|\frac{N_1}{N_2}\right| \), où \( N_1 \) et \( N_2 \) sont indépendantes de loi \( \mathcal{N}(0,\sigma^2) \).

    Le quotient \( N_1/N_2 \) suit la loi de Cauchy (les \( \sigma \) se simplifient). On en conclut que \( T_n \) converge en loi vers \( |C| \) où \( C \) suit la loi de Cauchy, dont la densité a été calculée à la question précédente : $$ f_{T_\infty}(t) = \frac{2}{\pi(1+t^2)} \quad \text{pour } t \geq 0 $$

  1. On définit \( U_n = \mathbb{1}_{T_n < 1} \) (i.e. \( U_n = 1 \Leftrightarrow T_n < 1 \), \( U_n = 0 \) sinon). On admet \( \mathbb{P}(T_n = 1) = 0 \).

    (a) Calculer \( \lim_{n \to +\infty} \mathbb{P}(U_n = 1) \). Le résultat obtenu vous paraît-il intuitif ?

    On a \( \mathbb{P}(U_n = 1) = \mathbb{P}(T_n < 1) \). Par convergence en loi de \( T_n \) vers \( |C| \) (où \( C \) suit la loi de Cauchy), et comme la fonction de répartition de \( |C| \) est continue en 1, on a : $$ \lim_{n \to +\infty} \mathbb{P}(U_n = 1) = \mathbb{P}(|C| < 1) $$
    On calcule cette probabilité : $$ \mathbb{P}(|C| < 1) = \mathbb{P}(-1 < C < 1) = \int_{-1}^{1} \frac{1}{\pi(1+z^2)}\,dz = \frac{1}{\pi}[\arctan z]_{-1}^{1} = \frac{1}{\pi}\left(\frac{\pi}{4} + \frac{\pi}{4}\right) = \frac{1}{2} $$
    Ce résultat est intuitif : par symétrie entre les rôles joués par \( \bar{X}_n \) et \( \bar{Y}_n \), les événements \( \{|\bar{X}_n - m| < |\bar{Y}_n - m|\} \) et \( \{|\bar{Y}_n - m| < |\bar{X}_n - m|\} \) ont la même probabilité. Le fait que cette probabilité tende vers \( \frac{1}{2} \) traduit cette symétrie.

    (b) En déduire la convergence en loi de la suite \( (U_n) \) quand \( n \to +\infty \).

    D'après la question précédente, on a \( \mathbb{P}(U_n = 1) \to \frac{1}{2} \) et \( \mathbb{P}(U_n = 0) \to \frac{1}{2} \).

    Or, la loi de \( U_n \) est entièrement caractérisée par \( \mathbb{P}(U_n = 1) \) puisque \( U_n \in \{0, 1\} \). On en déduit que : $$ U_n \xrightarrow{\mathcal{L}} \mathcal{B}\!\left(\frac{1}{2}\right) $$
    La suite \( (U_n) \) converge en loi vers une variable de Bernoulli de paramètre \( \frac{1}{2} \).

  1. On pose \( Z_n = U_n \bar{X}_n + (1 - U_n) \bar{Y}_n \). Étudier la convergence en probabilité de \( (Z_n) \).

    On note que \( Z_n = \bar{X}_n \) si \( U_n = 1 \) (c'est-à-dire si \( |\bar{X}_n - m| < |\bar{Y}_n - m| \)), et \( Z_n = \bar{Y}_n \) sinon.

    Par la loi faible des grands nombres, on sait que \( \bar{X}_n \xrightarrow{\mathbb{P}} m \) et \( \bar{Y}_n \xrightarrow{\mathbb{P}} m \).

    Comme \( U_n \in \{0,1\} \), on peut majorer : $$ |Z_n - m| = |U_n(\bar{X}_n - m) + (1 - U_n)(\bar{Y}_n - m)| \leq |\bar{X}_n - m| + |\bar{Y}_n - m| $$
    Le membre de droite converge vers \( 0 \) en probabilité. Par le théorème d'encadrement pour la convergence en probabilité, on conclut que \( Z_n \xrightarrow{\mathbb{P}} m \).

On suppose dorénavant que les \( X_i \) et \( Y_i \) suivent la loi \( \mathcal{N}(m, \sigma^2) \). On pose \( W_n = \sqrt{n}(Z_n - m) \), \( A_n = \sqrt{n}(\bar{X}_n - m) \) et \( B_n = \sqrt{n}(\bar{Y}_n - m) \).

  1. Calculer la fonction de répartition de \( W_n \).

    On remarque que \( W_n = A_n \) si \( |A_n| < |B_n| \) et \( W_n = B_n \) si \( |B_n| < |A_n| \) (le cas \( |A_n| = |B_n| \) étant de probabilité nulle).

    Ici, comme les \( X_i \) et \( Y_i \) suivent exactement la loi \( \mathcal{N}(m, \sigma^2) \), on a \( A_n \sim \mathcal{N}(0,\sigma^2) \) et \( B_n \sim \mathcal{N}(0,\sigma^2) \), indépendantes. On note \( h \) la densité et \( H \) la fonction de répartition de \( \mathcal{N}(0,1) \).

    Par symétrie entre \( A_n \) et \( B_n \), puis en conditionnant par \( A_n = a \) : $$ F_{W_n}(w) = 2\int_{-\infty}^{w} \mathbb{P}(|B_n| > |a|) \cdot \frac{1}{\sigma}\,h\!\left(\frac{a}{\sigma}\right)\,da $$
    Or, par symétrie de la loi normale, \( \mathbb{P}(|B_n| > |a|) = 2\left[1 - H\!\left(\frac{|a|}{\sigma}\right)\right] \). On en déduit : $$ F_{W_n}(w) = 4\int_{-\infty}^{w} \left[1 - H\!\left(\frac{|a|}{\sigma}\right)\right] \frac{1}{\sigma}\,h\!\left(\frac{a}{\sigma}\right)\,da $$
    En posant le changement de variable \( u = a/\sigma \), on obtient : $$ F_{W_n}(w) = 4\int_{-\infty}^{w/\sigma} [1 - H(|u|)]\,h(u)\,du $$

  2. En déduire la convergence en loi de la suite \( (W_n) \) et identifier la loi limite.

    On observe que \( A_n \) et \( B_n \) ont exactement la loi \( \mathcal{N}(0,\sigma^2) \) pour tout \( n \) (et non pas seulement asymptotiquement). La loi de \( W_n \) ne dépend donc pas de \( n \).

    La suite \( (W_n) \) converge donc trivialement en loi vers cette même loi, de densité : $$ f_W(w) = \frac{4}{\sigma}\left[1 - H\!\left(\frac{|w|}{\sigma}\right)\right] h\!\left(\frac{w}{\sigma}\right) $$
    On peut vérifier que cette densité est symétrique et unimodale. Par ailleurs, elle vaut \( \frac{2}{\sigma\sqrt{2\pi}} \) en \( 0 \) (soit le double de la valeur au pic de \( \mathcal{N}(0,\sigma^2) \)) et décroît plus vite dans les queues qu'une gaussienne.

    Il ne s'agit donc pas d'un résultat de type théorème central limite, car la loi limite n'est pas gaussienne. Cela s'explique par le fait que \( W_n \) est obtenu en sélectionnant, parmi \( A_n \) et \( B_n \), celui de plus petite valeur absolue : cette opération de sélection, étant non linéaire, altère la loi.