Ecole Doctorale
Mathématiques et Informatique de Marseille
Spécialité
Mathématiques
Etablissement
Aix-Marseille Université
Mots Clés
inégalité de la puissance entropique,Entropie,Variables aléatoires,log-concavité,théorème d'Efron,
Keywords
Entropy power inequality,Entropy,Randoms variables,log-concavity,Efron's theorem,
Titre de thèse
Autour de l'inégalité de la puissance entropique
About Entropy power inequality
Date
Jeudi 2 Juin 2022 à 14:00
Adresse
Faculté des Sciences Site St Charles
Aix Marseille Université
3 place Victor Hugo
13331 Marseille cedex 3 Fruman
Jury
CoDirecteur de these |
M. PIERRE MATHIEU |
Aix Marseille Université |
Rapporteur |
M. Matthieu FRADELIZI |
Université Gustave-Eiffel |
Rapporteur |
M. Max FATHI |
Université Paris-Cité |
CoDirecteur de these |
M. Erwan HILLION |
Aix-Marseille Université |
Examinateur |
Mme Fabienne CASTELL |
Aix-Marseille Université |
Examinateur |
M. Oliver JONHSON |
Université de Bristol |
Résumé de la thèse
Le principal objet d'étude de cette thèse est l'EPI (pour Entropy Power
Inequality), introduite dans le célèbre article de Shannon A Mathematical
Theory of Communication(1948). Malheureusement, sa preuve est incomplète. Cest Stam qui donne une preuve complète de lEPI(1959). C'est une inégalité classique de la théorie de l'information dont il existe de nombreuses preuves. Cette inégalité fait intervenir lentropie de Shannon qui peut-être vue comme une notion probabiliste.
La motivation du premier chapitre est la preuve de l'EPI par Rioul(2017).
L'intérêt de cette preuve est son utilisation du transport optimal. De plus, la preuve fait intervenir la formulation équivalente de lEPI donnée par Lieb(1978). De nos jours, cette formulation semble la plus utilisée en pratique. Le chapitre étudie le comportement de l'entropie le long de certains processus stochastiques. Nous utilisons comme outil le transport optimal dynamique, à la Benamou-Brenier.
Dans le deuxième chapitre, nous étudions des conditions pour qu'une fonction exprimée comme une espérance conditionnelle soit croissante. Ce chapitre
donne des généralisation du théorème d'Efron (1965). Le théorème d'Efron
donne des conditions suffisantes pour que l'espérance conditionnelle sachant la somme de variables aléatoire i.i.d. log-concaves soit croissante. Le premier résultat de ce chapitre est la généralisation du théorème dEfron à la classe PFn. Le second résultat donne sous des conditions plus fortes, une notion de croissance plus puissante. On donne aussi une application de ce second résultat.
Dans le chapitre 3, on traite de quelques cas particulier d'une conjec-
ture sur l'entropie de variables aléatoires log-concaves, dans la continuité des
travaux d'Eskenazis, Nayar et Tkocz.
Thesis resume
The main topic of this thesis is the Entropy Power Inequality(EPI). The EPI was introduced by Shannon in the famous article A Mathematical Theory of Communication(1948). Unfortunately, the Shannon's proof is incomplete. Stam is the first to give a complete proof of EPI(1959). This inequality is a classical inequality in Information Theory with several known proofs. The notion of Shannon Entropy is central in EPI. This notion can be seen as a probabilistic notion.
The first chapter is motivated by the proof of EPI by Rioul (2017). The proof is interesting because it is based on the optimal transport theory. Moreover, this proof uses the equivalent formulation of EPI given by Lieb(1978). Nowadays, this formulation is most used than Shannon's formulation of EPI. This chapter studies the behaviour of the entropy along some stochastic processes. We use the dynamical optimal transport(Benamou-Brenier).
In the second chapter, we study conditions required for non-decreasing of a conditional expectation of log-concave i.i.d random variables. This chapter give some generalisations of Efron's theorem(1965). Efron's theorem give some conditions for the non-decreasingness of some conditional expectation of log-concave i.i.d. random variables. The first result of this chapter is a generalisation of the Efron's theorem for random variables in the PFn class. The second one considers the Efron's theorem with a stronger monotonicity assumption. In the last part, we give a more general result of the second generalisation of Efron's theorem.
In the third chapter, following from recent work of Eskenazis, Nayar and Tkocz, we tackle some particular cases of a conjecture about the entropy of log-concave random variables.