[SON] [AUDIO_VIDE] Donc, dans cette partie 2 de la séance 5, nous allons commencer par développer un exemple, que je trouve assez amusant, qui est le suivant. On considère une matrice carrée, de taille 2, 2, qui est aléatoire au sens où tous les coefficients de la matrice sont aléatoires, et même, ce sont des variables aléatoires indépendantes et on va supposer qu'elles prennent 2 valeurs + 1 et- 1, avec probabilité 1/2. Donc, voyez la matrice M, c'est une matrice composée de coordonnées Xij, qui sont aléatoires et la probabilité d'avoir Xij égale ± 1, égale 1/2. Alors, ça, c'est un exemple qui peut paraître anecdotique, mais il faut savoir, qu'à l'heure actuelle, il y a de grandes théories qui se développent sur des matrices aléatoires, il y a des tas d'applications de ces objets, et il y a des propriétés extraordinaires de ces matrices aléatoires, mais bien sûr, on ne va pas aborder tout ça dans notre cours de probabilités élémentaires, mais nous allons garder ce petit exemple. Alors, notre but, ici, enfin, c'est la question que je pose, c'est de calculer la variance du déterminant de M. Donc, rappel donc, on écrit M sur la forme d'une matrice X1,1, X1,2, X2,1, X2,2, où les Xij sont des variables aléatoires indépendantes et la probabilité d'avoir Xij égale 1, est égale à la probabilité d'avoir Xij égale à - 1, est égal à 1/2. Donc, une première remarque, que vaut l'espérance de Xij. Bien sûr, nous appliquons le calcul, vous pouvez avoir une idée de ce qu'elle vaut, puisque vous voyez que la variable aléatoire est centrée, elle vaut les valeurs + 1 et- 1 avec même probabilité donc, en fait, son espérance va être nulle. Mais on peut le revérifier puisque E de X, c'est + 1, la probabilité d'avoir, E de Xij pardon, d'avoir Xij égale 1, plus,- 1 probabilité d'avoir Xij égale- 1 et bien sûr, vous voyez que ça fait 0. Alors, ici, i, j, je mets i, j pour désigner bien sûr un indice quelconque i, j entre 1 et 2. Alors, on peut s'amuser de la même façon, à regarder la variance de Xij qui vaut l'espérance, donc, du carré de Xij, et puis, moins le carré de l'espérance. On a vu que l'espérance de Xij, est égale à 0. Donc, dans le cas de variables aléatoires centrées, la variance coïncide avec le moment d'ordre 2. Alors, Xij au carré, ça vaut toujours + 1. Donc, la variance de Xij, c'est 1. Alors, maintenant nous allons passer à notre problème qui est de calculer la variance du déterminant de M, nous allons juste regarder ce que vaut le déterminant de M, donc, c'est une variable aléatoire, donc par définition, le déterminant de M est une variable aléatoire. Je vous rappelle que les Xij sont des variables aléatoires. Et ce déterminant vaut X1,1 fois X2,2 moins X2,1 X1,2. Au sens où pour tout oméga, donc je ne vous ai par écrit l'espace de proba sous-jacent, mais il y a un espace de probabilité sous-jacent, et pour tout oméga déterminant de M de oméga, c'est X1,1 de petit oméga, X2,2 de petit oméga, moins X2,1 de petit oméga, X1,2 de petit oméga. Bien. Alors, nous voulons chercher la variance de ce déterminant. Donc, déjà on va en calculer l'espérance, et l'espérance du déterminant de M, donc, je vous rappelle que l'espérance, c'est un opérateur linéaire, bon, ici, on a des variables aléatoires discrètes, on a pas de problème de finitude de l'espérance, tout est fini, et l'espérance de déterminant de M, ça va être l'espérance de X1,1 X2,2 moins espérance de X2,1, X1,2. Or, les variables aléatoires Xij sont indépendantes, donc, je vous laisse réfléchir pendant que j'écris, eh bien, donc par la proposition que nous avons vue en fin de la partie 1 de cette séances 5, l'espérance de X1,1 X2,2 est égal au produit des espérances, et c'est parce que les variables aléatoires sont indépendantes, qu'on a le droit de faire ça. Donc, ça, c'est l'indépendance de X1,1 et X2,2. Et ensuite, nous avons à calculer l'espérance de X2,1 fois X1,2, là nous allons utiliser l'indépendance de X2,1 et X1,2, et écrire que ceci fait espérance de X2,1 fois espérance de X1,2. Maintenant, chacune de ces espérances est nulle, donc le déterminant de M est d'espérance nulle, c'est ce qu'on appelle une variable aléatoire centrale. Donc, maintenant, on veut calculer la variance. Comme on l'a vu précédemment pour une variable aléatoire centrée, la variance coïncide avec le moment d'ordre 2. Donc, nous allons calculer le moment d'ordre 2 de notre déterminant. Donc, l'espérance du déterminant de M au carré. Alors, qu'est-ce que ça vaut? On va développer la valeur du déterminant par la formule du binôme. Donc, le déterminant c'est X1,1 X2,2 moins X2,1 X1,2 le tout au carré et on en prend l'espérance. Donc, allons-y, c'est l'espérance de X1,1 X2,2 au carré moins 2 fois X1,1 X2,2 X2,1 X1,2 plus X2,1 X1,2 au carré, et je ferme l'espérance. Linéarité de l'espérance, là , je vais avoir espérance de X1,1 carré X2,2 carré moins 2 fois l'espérance du produit X1,1 X2,2 X2,1 X1,2, plus l'espérance de X2,1 au carré, fois, X1,2 au carré. Alors, X1,1 et X2,2 sont indépendantes, donc, on a vu que l'espérance de toute fonction de X1,1 fois une fonction de X2,2 était égale au produit des espérances. Donc, ici, je vais avoir espérance de X1,1 carré espérance de X2,2 au carré, moins 2 fois, alors là on a le produit de 4 variables aléatoires et on sait que toutes ces variables aléatoires sont indépendantes, alors, bon, nous, on a défini seulement 2 variables aléatoires indépendantes, mais en vertu de ce qu'on avait vu sur les événements aléatoires, vous m'accorderez qu'on peut généraliser la définition à 4 variables aléatoires qui sont indépendantes 2 à 2, et montrer très facilement que l'espérance du produit de ces variables est égale au produit des espérances. Donc, ici, on va avoir les produits de X1,1 espérance de X1,1 espérance de X2,2 espérance de X1,2 espérance de X2,1 et de toute façon, ceci vaut 0, puisque les espérances sont nulles. Et donc, il nous reste seulement le dernier terme qui est espérance de X2,1 au carré, fois, espérance de X1,2 au carré. Et je vous rappelle qu'on a vu que l'espérance d'une des variables Xij au carré était égale à 1, donc vous voyez que ce déterminant a pour variance 2. Nous allons maintenant étudier la somme de variables aléatoires indépendantes. Et nous allons voir que c'est une notion assez fondamentale que l'on reverra plusieurs fois dans la suite du cours. Donc, ici, nous allons toujours nous limiter bien sûr à des variables aléatoires qui sont à valeurs entières, non seulement dénombrables, mais ici entières et X et Y prennent leurs valeurs dans N. Et je m'intéresse à la somme Z de X plus Y, qui est, bien évidemment aussi, une variable aléatoire à valeurs dans N. Donc, je voudrais calculer la loi dans Z. Donc, là encore pour trouver la loi de Z, il suffit de connaître cette loi sur chacun des singletons de N et donc, on va calculer la probabilité d'avoir Z égale i. En fait, je sais que X et Y peuvent prendre toutes les valeurs entières si je fixe Z égale i, et si je fixe a priori une valeur de X, par exemple X égale j, nécessairement Y sera égal à i moins j. Donc, le calcul de la probabilité de Z égale i, se ramène au calcul de toutes manières possibles d'écrire i, en posant X égale j et Y égale i moins j. Comme ces façons possibles d'écrire i sous la forme j plus, i moins j, sont disjointes, si les j sont distinctes, eh bien, on va écrire la probabilité de Z égale i, comme la somme pour tout j entiers, de probabilité d'avoir X égal j et Y égal i moins j. Si on ne sait rien de plus sur la loi de XY, et bien on ne peut, on ne peut rien faire de plus sauf que de connaître la loi de XY pour connaître la loi de Z. Donc vous voyez que si vous avez une somme de variables aléatoires, a priori, pour connaître la loi de Z, il faut connaître la loi du couple de variables aléatoires. Les choses sont beaucoup plus sympathiques lorsque X et Y sont indépendantes. En effet, dans ce cas-là , vous pouvez écrire la probabilité d'avoir X égal j et Y égal i moins j. Comme le produit des probabilités de X égal j et probabilité de Y égal i moins j. Et donc, ce sont ces produits de probabilité que l'on somme sur j. Alors, c'est en fait ce que l'on appelle une formule de convolution discrète, pour le calcul de la loi de Z au point i. Alors, bien sûr, ici, j'ai privilégié le fait que ce soit X qui vaille j et du coup Y égal i moins j, j'aurais pu faire l'inverse et écrire que la probabilité d'avoir Z égal i c'est la somme sur j des probabilités d'avoir Y égal j et probabilités de X égal i moins j. Il suffit d' inverser les lettres X et Y, ici. Alors, en fait, ça c'est facile comme formule et simple à mettre en oeuvre au niveau des calculs, surtout si on a des variables discrètes et que ses sommes sont pas trop lourdes, mais en fait on a un outil beaucoup plus simple pour caractériser des lois de sommes de variables aléatoires indépendantes, et dans la pratique je vous demande de penser toujours en priorité à cet outil. Donc, nous allons montrer, et ceci est une proposition, que si X et Y sont des variables aléatoires indépendantes, la fonction génératrice de la somme de X et de Y, prise dans un point s de 0? est égale aux produits des fonctions génératrices de X pris en s et de celle de Y pris en s. Je vous rappelle que la fonction génératrice d'une variable aléatoire caractérise la loi de cette variable. Donc, nous allons voir des exemples, ensuite, où, quand on calcule la fonction génératrice de X plus Y, on reconnait la fonction génératrice d'une certaine loi, et on pourra donc en déduire la loi de X plus Y. Pour le moment, montrons déjà cette proposition. Donc, nous supposons que X et Y sont indépendantes. Et nous voulons calculer, pour s dans 0,1, la fonction génératrice de X+Y(s). Je vous rappelle que par définition c'est l'espérance de [s x+y]. Ceci est égal à l'espérance de [s x s y] Maintenant, j'utilise l'indépendance de X et de Y et je sais que l'espérance d'une fonction quelconque de X du moment que c'est intégrable, donc ici, ce sera s puissance X et d'une fonction de Y intégrable, ici ce sera s puissance Y, dans ce cas-là , on sait que c'est égal au produit des espérances. Donc, je vais avoir que la fonction génératrice de X plus Y pris en s est égale à espérance de s puissance x, espérance de s puissance y, et vous voyez que, j'ai écris en rouge, c'est pas grave, que on reconnait ici, Gx(s) Gy(s), ce qu'on voulait démontrer. Donc voyons, tout de suite, une application de ce résultat, à la somme de n variable aléatoire de paramètre p. Donc nous avions vu que pour une variable aléatoire de Bernoulli de paramètre p, la fonction génératrice prise en s est égale à (1- p + ps). Si je regarde n variable aléatoire de Bernoulli de paramètre p indépendante, et que j'en regarde la fonction génératrice en généralisant cette propriété à une somme de plusieurs variables aléatoires indépendantes, je vous laisse faire ça en exercice, c'est immédiat, si vous avez trois? aléatoires indépendantes X, Y, Z, la fonction génératrice de la somme sera égale au produit de ces trois fonctions génératrices, etc. Donc, si nous avons n variable aléatoire de Bernoulli indépendante, la fonction génératrice de leur somme sera égale au produit des fonctions génératrices de ces variables aléatoires de Bernoulli de paramètre p au point s, toutes ces fonctions génératrices sont identiques, et valent (1 -p+ps). Donc la fonction génératrice de la somme de n variable aléatoire indépendante de Bernoulli de paramètre p vaut (1-p+ps)n. Je vous renvois aux calculs que nous avons faits, de la fonction génératrice d'une variable aléatoire de loi binomiale de paramètre np, et vous verrez que c'est exactement cette valeur-là . Donc nous pouvons en déduire que la fonction génératrice de la somme de nos variables de Bernoulli étant égale à la fonction génératrice d'une loi binomiale de paramètre np, nous pouvons déduire que la somme de n variable aléatoire de Bernoulli de paramètre p indépendante suit une loi binomiale de paramètre n et p. Donc on a une certaine stabilité de ces lois binomiales puisqu'une variable aléatoire de Bernoulli, vous pouvez toujours la voir comme une loi binomiale de paramètres 1 et p. Alors maintenant regardons deux variables aléatoires X et Y qui suivent des lois de Poisson de paramètres respectifs λ et μ, strictement positifs, et on suppose qu'elles sont indépendantes. Calculons la fonction génératrice de leur somme. Donc j'applique ma proposition, Gx+y(s), c'est égal au produit des fonctions génératrices de X et de Y pris en s, et je vous renvois au calcul de la fonction génératrice d'une loi de Poisson qu'on a fait en séance 4, donc Gx(s), c'est l'exponentielle de λ(s-1), et Gy(s), c'est l'exponentielle μ(s-1). Je fais le produit de ces 2 quantités et je trouve l'exponentielle de (λ+μ)(s-1). Vous voyez que cette quantité-là , on peut identifier, on reconnait la fonction génératrice d'une loi de Poisson de paramètres λ plus μ. Et là , il n'y a rien de plus à faire, ça suffit, pour en déduire que X plus Y admet pour loi une loi de Poisson de paramètres λ plus μ. Donc vous voyez que la somme de variables aléatoires indépendantes qui suivent des lois de Poissons, admet elle-même une loi de Poisson, la somme des paramètres des lois initiales. Donc on a, là encore, une stabilité dans cet ensemble de lois de Poisson, une stabilité de la somme, bien sûr pour des variables aléatoires indépendantes. Alors, en application de cette propriété-là , on peut voir, c'est une application assez classique au flux de véhicule durant une certaine tranche horaire, par exemple à un raccordement de route ou d'autoroute, vous avez un flux de véhicule sur cette route ici, qui suit une variable aléatoire X, c'est le nombre de véhicules sur la route, pendant une certaine tranche horaire. Y est le nombre de véhicules sur cette deuxième route, et on s'intéresse à savoir la loi du nombre de véhicules sur ce tronçon de route, ici dans cette troisième partie, sachant que X et Y sont indépendants, c'est deux routes indépendantes ici, et que le nombre de véhicules sur chacune des routes suit une loi de poisson, respectivement de paramètres λ et μ. Donc, ici, bien sûr on a la somme des deux nombres de véhicules de nos deux routes, après le raccordement, donc on sait que sur cette partie-là , le nombre de véhicules suit lui aussi une loi de poisson de paramètre λ plus p. Alors nous allons finir par un exercice, qui en fait répond à une question que je vous avais posée tout au début de ce cours 2, Nous avions vu tout au début de ce cours 2 que si on avait des dés qui étaient réguliers, non-traffickés, la somme des points de ces deux dés, au cours de lancers, n'étaient pas du tout uniformément répartis, vous vous rappelez, on avait vu son histogramme qui était pyramidoïdal. Bien. Et, ma question est, est-ce qu'on peut traffiquer les dés, est-ce qu'on peut piper les dés de telle sorte que la somme des points au cours d'un lancer de 2 dés soit uniformément répartis, sur l'ensemble des valeurs possibles de cette somme, à savoir 2, 3, etc jusqu'à 12. Et nous allons voir une preuve très élégante de la réponse qui utilise les fonctions génératrices et ici, l'indépendance de nos deux dés, de nos deux lancers de dés. Nous enlevons maintenant cet exercice, donc notre somme, j'appelle s la somme de x plus y où x est le résultat du premier dé, et y le resultat du second, et comme on vient de dire elle prend les valeurs entre 2, 3, etc, jusqu'à 12. Donc on a 11 valeurs possibles et si je veux que s suive une loi uniforme ça veut dire que la probabilité d'avoir s égal i, pour un quelconque i de de 2, de l'ensemble de 2 à 12, eh bien, cette probabilité vaut 1 onzième. Alors, maintenant je sais que X et Y sont indépendants, mes 2 lancers de dés sont indépendants donc les résultats des expériences donnent des variables aléatoires indépendantes et donc Gx de petit s fois Gy de petit s va me donner la fonction génératrice de ma somme grand S, donc ceci pour petit s dans 0, 1. Alors quelle est la tête de G grand X de s, de petit s? Eh bien, nous les valeurs de grand X ici sont des valeurs qui varient de 1 à 6. Je vous rappelle que GX de petit s c'est l'espérance de s puissance X et donc c'est donc la somme pour petit k égal 1 à 6 de s puissance k probabilité d'avoir x égal k. Et vous voyez que le premier indice ici c'est k égal 1. Donc dans cette somme là , nous pouvons toujours mettre s en facteur. donc en fait je vais juste écrire ça, alors le premier terme donc c'est k égal 1, il y a 1 s facteur de p de x égal 1 et le dernier terme c'est pour k égal 6, c'est s puissance 6 p x égal 6. Donc vous voyez qu' ici vous avez un polynôme de degré 6 mais qu'en fait il se factorise sous la forme petit s fois p de s où le degré de mon polynôme petit p égal 5. Bien sûr nous pouvons faire cette même remarque pour la fonction génératrice de y et je vais écrire Gy de s sous le forme d'un polynôme s Q de s. J'ai dit que je voulais voir si je pouvais piper mes dés, trafiquer mes dés, de telle sorte que la loi de grand S soit uniforme. Trafiquer les dés ça veut dire que dans mes lois ici que la loi de mon premier dé par exemple n'est pas uniforme, donc je ne sais rien pour l'instant sur la probabilité d'avoir x égal k donc je ne sais rien sur ce polynôme p de s. Et je peux supposer que mes dés, qui me donnent les résultats grand X et Y ont des lois distinctes, donc je ne vais pas supposer à priori que pour le deuxième dé, j'ai le même polynôme P de s, c'est à dire la même loi de répartition des valeurs que peut me donner le lancer de dés. Donc à priori Q est différent du polynôme Q mais il est aussi de degré, excusez moi j'ai perdu ma page, donc je vais récrire, on avait vu que G y de s s'écrit s Q de s et le degré de Q est donc égal à 5. Bien, alors maintenant je vais écrire la fonction génératrice de ma somme on a vu que celle-ci puisque s est supposée uniforme vaut 1 sur 11 facteur donc de s au carré, 2 c'est la première valeur possible de la somme plus s3 plus etc, plus s12. Donc vous voyez qu'ici je peux mettre s au carré en facteur, s sur 11 facteur de 1 plus s plus etc plus s puissance 10. Alors je reconnais ici donc une certaine somme que, donc vous pourrez vérifier, qu'elle s'écrit également, ça c'est très classique sous la forme 1 moins s puissance 11 divisé par 1 moins s. Il suffit, vous devez vérifier ça. Et on sait que les 0 de cette quantité là sont des racines conjuguées complexes. Les zéro sont des racines complexes conjuguées. Il n'y a pas de racine réelle au polynôme 1 plus s plus s2 etc plus s10. Or par hypothèse nous avons vu que Gs de petit s c'était aussi égal às au carré fois P de s Q de s puisque nous avons vu que c'était le produit de G grand X de s fois G grand Y de s. Mais ici nous savons que le polynôme P de s est de degré 5 donc il admet un zéro réel. Et c'est également le cas de Q de s qui est de degré 5. Donc en fait vous voyez une contradiction, dans les 2 cas vous voyez que vous avez s au carré de chaque côté mais ici vous avez un polynôme qui donc n'admet pas de racine réelle et ici vous avez un polynôme qui admet au moins une racine réelle, on a donc une contradiction et on ne peut pas avoir pour la somme des 2 dés une loi uniforme.