- Gérard Dreyfus
-
Pour les articles homonymes, voir Dreyfus.
Gérard Dreyfus, est un physicien français, spécialiste de modélisation et d'apprentissage statistique[1], directeur du laboratoire SIGMA (SIGnaux, Modèles, Apprentissage statistique)[2] et professeur de l'ESPCI ParisTech.
Élève de l'École supérieure de physique et de chimie industrielles de la ville de Paris (86e promotion)[3], Gérard Dreyfus effectue un doctorat sous la direction de Jacques Lewiner sur les propriétés des électrets. Il étudie certaines applications de ces matériaux et créé une startup en 1973 exploitant une méthode non destructive de mesure des densités de charges dans les isolants. En 1982, il crée un laboratoire d'apprentissage statistique à l'ESPCI et participe à l'élaboration des fondements théoriques de réseaux de neurones, les réseaux de neurones de Hopfield. Il développe ensuite certains résultats fondamentaux de l'apprentissage statistique. Son laboratoire collabore avec de nombreuses industries (Sollac, Michelin, 3M, Renault, Sorin Biomedica) pour la modélisation de phénomènes physiques ou biologiques complexes, la classification automatique, la reconnaissance de forme[4]. Les travaux actuels de son laboratoire sont consacrés au développement de méthodes et d'applications innovantes de l'apprentissage statistique dans le domaine de la santé (aide à la conception de médicament, aide à la thérapie pour un défibrillateur automatique implantable, prédiction du stress oxydant, diagnostic précoce de la maladie d'Alzheimer), ainsi que pour l'aide aux personnes et aux populations (prothèse intelligente pour les handicapés de la voix[5], géolocalisation de personnes en danger à l'intérieur de bâtiments, prédiction des crues subites (flash floods)).
Gérard Dreyfus enseigne l'électronique, l'automatique, l'apprentissage artificiel et les réseaux de neurones à l'ESPCI. Il est le cofondateur de la société éditrice de logiciels d'apprentissage statistique Netral SA[6] et fondateur du chapitre français de la Computer Intelligence Society de l'IEEE dont il a été président jusqu'en 2005. Il est (ou a été) éditeur associé des journaux internationaux majeurs du domaine (Neural Computation, IEEE Transactions on Neural Networks, Neurocomputing, Theoretical Computer Science), et membre des comités de programme de nombreuses conférences internationales.
Bibliographie
- Apprentissage statistique - réseaux de neurones, cartes topologiques, machines à vecteurs supports (Eyrolles, 2008)
- Réseaux de neurones, méthodologie et applications (Eyrolles, 2004)
- Neural Networks, Methodology and Applications (Springer, 2005)
Références
Catégories :- Physicien français
- Élève de l'École supérieure de physique et de chimie industrielles de la ville de Paris
- Professeur de l'École supérieure de physique et de chimie industrielles de la ville de Paris
Wikimedia Foundation. 2010.