PC & Mobile

Limite centrale et grands nombres

Limite centrale et grands nombres


Si vous êtes dans les équations mathématiques, passons maintenant aux représentations formelles des théorèmes afin de comprendre un peu plus précisément leurs revendications et la relation entre les deux.

Laisser

être des variables aléatoires indépendantes et identiquement distribuées avec la valeur attendue μ et variance finie σ². ensuite

converge vers la distribution normale normale dans la distribution. La convergence dans la distribution signifie que les fonctions de distribution cumulative (CDF) des variables aléatoires convergent vers une fonction limitante - dans ce cas, elles convergent vers la fonction CDF. Φ de la distribution normale standard comme n grandit:

Ceci est connu comme la version Lindeberg / Lévy de la CLT.

Encore une fois, laissez

être des variables aléatoires indépendantes et identiquement distribuées avec la valeur attendue μ et variance finie σ². ensuite

ou écrit différemment avec

il devient

Ceci est connu comme la version de Tschebyscheff du Faible Loi des grands nombres (comme dit il y a d'autres versions, aussi). La première équation limite convient mieux à la comparaison avec le CLT, ce dernier est plus approprié pour capter l’intuition d’approcher la valeur attendue de la moyenne.

Comme vous pouvez le constater, un motif correspondant au terme limite de CLT

et la première variante des termes limites de la LLN d'en haut,

ils sont très similaires (différences colorées en bleu).

Les deux font une déclaration sur la probabilité d'obtenir une valeur de leur expression dans un cadre englobant arbitraire 0, c'est à dire. ]-ε,ε[[. En outre, les deux calculent la même somme des mêmes variables aléatoires, ils doivent tous deux être centrés en soustrayant la valeur attendue croissante de la somme et doivent être réduits d'un facteur croissant pour que la convergence se réalise techniquement.

La différence entre les deux termes limites comparés est évidemment dans l’ordre des dénominateurs (n contre. n) et les limites résultantes sur le côté droit: 1−2Φ (−ϵ) contre. 1. Donc, fondamentalement, les deux traitent du même processus de production de nombres agrégés qui deviennent de plus en plus étroitement répartis normalement autour de la moyenne de zéro. n devient plus grand. Mais puisque nous réduisons les valeurs dans le LLN plus agressivement, leur variance approche de zéro plutôt que de rester constante et cela condense toute la probabilité sur la valeur attendue de manière asymptotique.

En appliquant les règles de base suivantes pour les écarts

on peut vérifier qu'il en est ainsi:

Enfin, une autre simulation permet de visualiser la réduction de la variance sous forme de n grossit dans le processus de calcul de la moyenne décrit par le LLN:

La multiplication de la moyenne par expérience réduit la variance des moyennes autour de la moyenne réelle - Trouvez le code à l'adresse https://gist.github.com/BigNerd/ad880941bbe6987e6621cf99e3b2af78.

Lorsque nous limitons les deux théorèmes à un cas spécial mais important, à savoir celui de variables aléatoires indépendantes identiquement distribuées, avec espérance et variance finies, et limitant davantage la comparaison avec le paramètre Faible LLN, nous pouvons repérer des similitudes et des différences qui nous aident à approfondir notre compréhension des deux.

Afficher plus

SupportIvy

SupportIvy.com : Un lieu pour partager le savoir et mieux comprendre le monde. Meilleure plate-forme de support gratuit pour vous, Documentation &Tutoriels par les experts.

Articles similaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page
Fermer