Le mois de
l’optimisation
L’efficacité à tous les coups
C’est pour quoi ?
Dans le cadre de la popularisation des sciences, le laboratoire XLIM et le GDR « Mathématiques de l’Optimisation et Applications » vous proposent un cycle de 4 conférences autour de la thématique « Optimisation », domaine des mathématiques cherchant à maximiser (ou à minimiser) un critère sous des contraintes.
C’est pour qui ?
Ouvert à tous : collégiens, lycéens, étudiants de tout horizon, grand public curieux, entreprises, enseignants, chercheurs…
LES 7 – 14 – 21 ET 28
NOVEMBRE 2019

CONFÉRENCES
ÉCHANGES

Jour(s)
:
Heure(s)
:
Minute(s)
:
Seconde(s)
L’optimisation À travers l’histoire :
son ÉVOlution et son dÉveloppement
7 NOV. 2019
L’optimisation au quotidien, son histoire
et les métiers qui en découlent
Samir Adly, Institut de recherche XLIM
Reg Alcorn, artiste peintre
18h30 : À la BFM, Salle de Conférences

Jour(s)
:
Heure(s)
:
Minute(s)
:
Seconde(s)
OPTIMISER LA FORME
14 NOV. 2019
Des formes géométriques optimales dont le triangle de Reuleaux
Antoine Henrot, École des Mines de Nancy
18h30 : À la BFM, Salle de Conférences

Jour(s)
:
Heure(s)
:
Minute(s)
:
Seconde(s)
Tout est sous contrôle :
les mathématiques optimisent le quotidien
21 NOV. 2019
L’optimisation au service
des missions spatiales interplanétaires
Emmanuel Trélat, Sorbonne Université (Paris 6)
18h30 : À la BFM, Salle de Conférences

Jour(s)
:
Heure(s)
:
Minute(s)
:
Seconde(s)
Optimisation et apprentissage
28 NOV. 2019
L’optimisation au service de l’intelligence
artificielle : du gradient stochastique
à la programmation mixte en nombre entiers
Stéphane Canu, INSA de Rouen
18h30 : Au carrefour des Étudiants, Salle de Cinéma
Beaucoup de questions en l’apprentissage statistique sont liées à des problèmes d’optimisation. De ce fait, l’apprentissage statistique n’est pas un simple utilisateur de méthodes d’optimisation, mais un champ en évolution rapide qui génère de lui-même des problèmes spécifiques et de nouvelles démarches en optimisation. Nous allons présenter ces interactions entre les deux disciplines de l’optimisation et l’apprentissage d’un point de vue historique. Nous aborderons les méthodes itératives dans un cadre linéaire et non linéaires et la résurgence dans de nouveaux contextes de cadres établis tels que la programmation linéaire et quadratique, les méthodes de premier ordre, les approximations stochastiques, les relaxations convexes et les méthodes proximales. Nous terminerons en évoquant de nouvelles perspectives en apprentissage statistique comme le transport optimal et la programmation mixte en nombres entiers.
NOS INTERVENANTS
Samir ADLY & Reg ALCORN
Antoine HENROT
Emmanuel TRÉLAT
Stéphane CANU
Fondateur du département « informatique » de l’INSA de Rouen Normandie, Stéphane Canu est professeur des universités à l’INSA et membre du laboratoire de recherche LITIS dont il a été directeur de 2005 à 2012. Il est chargé de cours à l’école polytechnique depuis 2017. Il fait de la recherche depuis 35 ans dans le domaine de l’intelligence artificielle et de la science des données. Il coordonne le programme Deep in France financé par l’ANR sur la question cruciale de la sobriété énergétique de l’apprentissage profond. Il est membre du conseil d’administration de la Normandy French Tech et conseiller scientifique des startup Saagie et OmicsTool. Il a été nommé par l’Usine nouvelle parmi «les 100 Français qui comptent dans l’IA».
UN GRAND MERCI À
L’ORGANISATEUR
NOS PARTENAIRES







