Ecole Doctorale

Physique et Sciences de la Matière

Spécialité

PHYSIQUE & SCIENCES DE LA MATIERE - Spécialité : INSTRUMENTATION

Etablissement

Aix-Marseille Université

Mots Clés

intelligence artificielle,ATLAS,FPGA,LHC,calorimètre à argon liquide,

Keywords

machine learning,ATLAS,FPGA,LHC,liquid argon calorimeter,

Titre de thèse

Développement d'algorithmes d'intelligence artificielle adaptés au traitement massif de données dans les systèmes de déclenchement et d'acquisition de données embarqués (FPGA) au LHC
Development of artificial intelligence algorithms adapted to big data processing in embedded (FPGAs) trigger and data acquisition systems at the LHC

Date

Mardi 3 Octobre 2023 à 13:30

Adresse

CPPM 163, avenue de Luminy - Case 902 13288 Marseille cedex 09 Amphithéatre

Jury

Directeur de these M. Emmanuel MONNIER CPPM, Aix Marseille Université, CNRS/IN2P3
Rapporteur Mme Julie MALCLES IRFU, CEA, Université Paris-Saclay
Rapporteur M. Julien DONINI Laboratoire de Physique de Clermont-Ferrand, Université Clermont Auvergne, CNRS/IN2P3
Examinateur M. Christophe OCHANDO Laboratoire Leprince Ringuet, Institut Polytechnique de Paris
Président M. Cristinel DIACONU CPPM, Aix Marseille Université, CNRS/IN2P3
CoDirecteur de these M. Georges AAD CPPM, Aix Marseille Université, CNRS/IN2P3

Résumé de la thèse

Le modèle standard de la physique des particules s'est achevé après la découverte du boson de Higgs au Grand collisionneur de Hadrons (LHC) en 2012. La découverte d'une nouvelle physique au-delà du modèle standard et sonder le secteur du boson de Higgs sont deux des objectifs les plus importants des expériences actuelles et futures de physique des particules. En 2026-2029, le LHC fera l'objet d'une mise à niveau afin d'augmenter sa luminosité instantanée d'un facteur de 5 à 7 par rapport à sa luminosité nominale. Cette mise à niveau marquera le début de l'ère du LHC à haute luminosité (HL-LHC). Parallèlement, les détecteurs ATLAS et CMS seront mis à niveau pour faire face à l'augmentation de la luminosité du LHC. Le calorimètre à argon liquide (LAr) d'ATLAS mesure l'énergie des particules produites dans les collisions proton-proton au LHC. L'électronique de lecture du calorimètre LAr sera remplacée pour le préparer à la periode HL-LHC. Cela lui permettra de fonctionner à un taux de déclenchement plus élevé avec une granularité accrue. L'énergie déposée dans le calorimètre LAr est reconstruite à partir du signal d'impulsion électronique à l'aide d'un algorithme de filtrage optimal. L'énergie est calculée en temps réel à l'aide de cartes électroniques basées sur des circuits logiques programmables (FPGA). Les FPGA ont été choisis en raison de leur capacité à traiter de grandes quantités de données avec une faible latence, ce qui est une exigence du système de déclenchement d'ATLAS. L'augmentation de la luminosité du LHC entraînera un taux élevé de collisions proton proton multiples et simultanées (pileup), ce qui se traduira par une dégradation significative de la résolution en énergie calculée par les algorithmes de filtrage optimal. Le calcul de l'énergie avec une grande précision est d'une grande importance pour atteindre les objectifs de physique de l'expérience ATLAS au HL-LHC. Les récentes avancées dans le domaine de l'apprentissage profond, associées à la capacité de calcul accrue des FPGA, font des algorithmes d'apprentissage profond des outils prometteurs pour remplacer les algorithmes de filtrage optimal existants. Dans cette thèse, des réseaux neuronaux récurrents (RNN) sont développés pour calculer l'énergie déposée dans le calorimètre LAr. Des réseaux neuronaux à mémoire à long terme (LSTM) et des réseaux neuronaux récurrents simples sont étudiés. Les paramètres de ces réseaux sont étudiés en détail afin d'optimiser les performances. Les réseaux développés se révèlent plus performants que les algorithmes de filtrage optimaux. Ces réseaux sont en outre optimisés pour être déployés sur des FPGA par des méthodes de quantification et de compression qui permettent de réduire l'utilisation de ressources avec un effet minimal sur les performances. Le calorimètre LAr est composé de 182000 canaux individuels pour lesquels nous devons calculer les énergies déposées. L'entraînement de 182000 réseaux neuronaux différents n'est pas réalisable en pratique. Une nouvelle méthode basée sur l'apprentissage non supervisé est développée pour former des groupes de canaux avec des signaux d'impulsion électroniques similaires, ce qui permet d'utiliser le même réseau neuronal pour tous les canaux dans un même groupe. Cette méthode réduit le nombre de réseaux neuronaux nécessaires à environ 100, ce qui permet de couvrir l'ensemble du détecteur avec ces algorithmes avancés.

Thesis resume

The Standard Model of particle physics is completed after the discovery of the Higgs boson at the Large Hadron Collider (LHC) in 2012. Discovering new physics beyond the Standard Model and probing the newly discovered Higgs sector are two of the most important goals of current and future particle physics experiments. In 2026-2029, the LHC will undergo an upgrade to increase its instantaneous luminosity by a factor of 5-7 with respect to its design luminosity. This upgrade will mark the beginning of the High Luminosity LHC (HL-LHC) era. Concurrently, the ATLAS and the CMS detectors will be upgraded to cope with the increased LHC luminosity. The ATLAS liquid argon (LAr) calorimeter measures the energies of particles produced in proton-proton collisions at the LHC. The LAr calorimeter readout electronics will be replaced to prepare it for the HL-LHC era. This will allow it to run at a higher trigger rate and with an increased granularity. The energy deposited in the LAr calorimeter is reconstructed out of the electronic pulse signal using the optimal filtering algorithm. The energy is computed in real-time using custom electronic boards based on Field Programmable Gate Arrays (FPGAs). FPGAs are chosen due to their ability to process large amounts of data with low latency which is a requirement of the ATLAS trigger system. The increased LHC luminosity will lead to a high rate of simultaneous multiple proton-proton collisions (pileup) that results in a significant degradation of the energy resolution computed by the optimal filtering algorithm. Computing the energy with high precision is of utmost importance to achieve the physics goals of the ATLAS experiment at the HL-LHC. Recent advances in deep learning coupled with the increased computing capacity of FPGAs makes deep learning algorithms promising tools to replace the existing optimal filtering algorithms. In this dissertation, recurrent neural networks (RNNs) are developed to compute the energy deposited in the LAr calorimeter. Long-Short-Term-Memory (LSTM) and simple RNNs are investigated. The parameters of these neural networks are studied in detail to optimize the performance. The developed networks are shown to outperform the optimal filtering algorithms. The models are further optimized to be deployed on FPGAs by quantization and compression methods which are shown to reduce the resource consumption with minimal effect on the performance. The LAr calorimeter is composed of 182000 individual channels for which we need to compute the deposited energies. Training 182000 different neural networks is not practically feasible. A new method based on unsupervised learning is developed to form clusters of channels with similar electronic pulse signals, which allows the use of the same neural network for all channels in one cluster. This method reduces the number of needed neural networks to about 100 making it possible to cover the full detector with these advanced algorithms.