Ecole Doctorale

Mathématiques et Informatique de Marseille

Spécialité

Mathématiques

Etablissement

Aix-Marseille Université

Mots Clés

inégalité de la puissance entropique,Entropie,Variables aléatoires,log-concavité,théorème d'Efron,

Keywords

Entropy power inequality,Entropy,Randoms variables,log-concavity,Efron's theorem,

Titre de thèse

Autour de l'inégalité de la puissance entropique
About Entropy power inequality

Date

Jeudi 2 Juin 2022 à 14:00

Adresse

Faculté des Sciences Site St Charles Aix Marseille Université 3 place Victor Hugo 13331 Marseille cedex 3 Fruman

Jury

CoDirecteur de these M. PIERRE MATHIEU Aix Marseille Université
Rapporteur M. Matthieu FRADELIZI Université Gustave-Eiffel
Rapporteur M. Max FATHI Université Paris-Cité
CoDirecteur de these M. Erwan HILLION Aix-Marseille Université
Examinateur Mme Fabienne CASTELL Aix-Marseille Université
Examinateur M. Oliver JONHSON Université de Bristol

Résumé de la thèse

Le principal objet d'étude de cette thèse est l'EPI (pour Entropy Power Inequality), introduite dans le célèbre article de Shannon A Mathematical Theory of Communication(1948). Malheureusement, sa preuve est incomplète. C’est Stam qui donne une preuve complète de l’EPI(1959). C'est une inégalité classique de la théorie de l'information dont il existe de nombreuses preuves. Cette inégalité fait intervenir l’entropie de Shannon qui peut-être vue comme une notion probabiliste. La motivation du premier chapitre est la preuve de l'EPI par Rioul(2017). L'intérêt de cette preuve est son utilisation du transport optimal. De plus, la preuve fait intervenir la formulation équivalente de l’EPI donnée par Lieb(1978). De nos jours, cette formulation semble la plus utilisée en pratique. Le chapitre étudie le comportement de l'entropie le long de certains processus stochastiques. Nous utilisons comme outil le transport optimal dynamique, à la Benamou-Brenier. Dans le deuxième chapitre, nous étudions des conditions pour qu'une fonction exprimée comme une espérance conditionnelle soit croissante. Ce chapitre donne des généralisation du théorème d'Efron (1965). Le théorème d'Efron donne des conditions suffisantes pour que l'espérance conditionnelle sachant la somme de variables aléatoire i.i.d. log-concaves soit croissante. Le premier résultat de ce chapitre est la généralisation du théorème d’Efron à la classe PFn. Le second résultat donne sous des conditions plus fortes, une notion de croissance plus puissante. On donne aussi une application de ce second résultat. Dans le chapitre 3, on traite de quelques cas particulier d'une conjec- ture sur l'entropie de variables aléatoires log-concaves, dans la continuité des travaux d'Eskenazis, Nayar et Tkocz.

Thesis resume

The main topic of this thesis is the Entropy Power Inequality(EPI). The EPI was introduced by Shannon in the famous article A Mathematical Theory of Communication(1948). Unfortunately, the Shannon's proof is incomplete. Stam is the first to give a complete proof of EPI(1959). This inequality is a classical inequality in Information Theory with several known proofs. The notion of Shannon Entropy is central in EPI. This notion can be seen as a probabilistic notion. The first chapter is motivated by the proof of EPI by Rioul (2017). The proof is interesting because it is based on the optimal transport theory. Moreover, this proof uses the equivalent formulation of EPI given by Lieb(1978). Nowadays, this formulation is most used than Shannon's formulation of EPI. This chapter studies the behaviour of the entropy along some stochastic processes. We use the dynamical optimal transport(Benamou-Brenier). In the second chapter, we study conditions required for non-decreasing of a conditional expectation of log-concave i.i.d random variables. This chapter give some generalisations of Efron's theorem(1965). Efron's theorem give some conditions for the non-decreasingness of some conditional expectation of log-concave i.i.d. random variables. The first result of this chapter is a generalisation of the Efron's theorem for random variables in the PFn class. The second one considers the Efron's theorem with a stronger monotonicity assumption. In the last part, we give a more general result of the second generalisation of Efron's theorem. In the third chapter, following from recent work of Eskenazis, Nayar and Tkocz, we tackle some particular cases of a conjecture about the entropy of log-concave random variables.