Seminars

Thursday at 2pm, organised by
Joseph Salmon, Olivier Fercoq (ML), Anne Sabourin, François Portier (PS)

Coming talks :

(PS&ML) April 12 : Joon Kwon (Ecole Polytechnique)

Stratégies de descente miroir pour la minimisation du regret et l’approchabilité

Résumé: On présente le modèle d’online linear optimization, qui est un cadre général de minimisation du regret. On y construit une famille de stratégie de “descente miroir” avec paramètres variables. On établit des bornes sur le regret garanties par ces stratégies. Les paramètres variables permettent de retrouver comme cas particuliers un grand nombre de stratégies connues: Exponential Weights Algorithm, Smooth Fictitious Play, Vanishingly Smooth Fictious Play, ainsi que Follow the Perturbed   Leader.

Dans un second temps, on suppose que les vecteurs de paiement ont au plus s composantes non nulles. , et on cherche à déterminer les bornes optimales sur le regret dans ce cadre. On remarque qu’il apparaît alors une différence fondamentale entre les gains et les pertes.

On présente ensuite une méthode générale pour construire des stratégies pour l’approchabilité de Blackwell à partir des stratégies minimisant le regret. Le caractère unificateur de cette approche est illustrée par l’obtention, en corollaire, des bornes optimales pour les problèmes d’online combinatorial optimization et du regret interne/swap. On établit par ailleurs que la stratégie de Blackwell est un cas particuler de la famille de stratégies ainsi construite.

Enfin, on étudie le problème de l’approchabilité de Blackwell avec observations partielles (c’est-à-dire, où le joueur n’observe que des signaux aléatoires). On établit que la vitesse de convergence optimale est de T^{-1/3}.

(ML&PS) May 3: Erwan Scornet (Polytechnique, CMAP)

Consistency and minimax rates of random forests

Past talks :

(ML&PS) April 5: Matthieu Lerasle (CNRS, Psud)

MOM pour l’apprentissage robuste

(ML&PS) January 25 : Arthur Charpentier (Rennes 1)

Insurance: Risk Pooling and Price Segmentation. Using Information in a `Big Data’ Context

(ML&PS) Decembre 14 : Arnaud Guyader (LSTA)

Fleming-Viot particle systems: asymptotic behavior and illustration in molecular dynamics

and Romain Brault (L2S, CentraleSupelec).

Scalable learning of Vector-Valued Functions.

(ML&PS) November 23 : Bernard Delyon (Rennes 1 – IRMAR)

Processus gaussiens changés de temps.

and Emmanuel Soubies (EPFL)

Exact continuous relaxations for the l0-regularized least-squares criteria

(PS) November 9 : Romain Azais (INRIA Nancy)

Inference for conditioned Galton-Watson trees from their Harris path

and Aymeric Dieuleveut (Sierra team)

Bridging the Gap between Constant Step Size Stochastic Gradient Descent and Markov Chains

(ML&PS) October 28 : Rémi Gribonval (INRIA / Panama Team)

Compressive Statistical Learning with Random Feature Moments

and Vincent Duval (INRIA / Mokaplanteam)

A gridless method for super-resolution microscopy

(ML&PS) Septembre 21: Stéphane Robin (Agro ParisTech)

Detecting change-points in the structure of a network: Exact Bayesian inference

(ML&PS) Septembre 14: Johan Segers (Université catholique de Louvain)

Accelerating the convergence rate of Monte Carlo integration through ordinary least squares

and Randal Douc (Télécom SudParis)

Posterior consistency for partially observed Markov models

(ML&PS) April 13 : Rémi Bardenet (CNRS and University of Lille)

Monte Carlo with determinantal point processes

and Hong-Phuong Dang (University of Lille)

Bayesian nonparametric approaches and  dictionary learning for inverse problems in image processing

(ML&PS) April 6: Gwennaëlle Mabon

Aggregation of Laguerre density estimators

and Jérémie Sublime

Collaborative Clustering and its Applications

March 23:

Julie Josse (polytechnique),

Low-rank interaction log-linear model for contingency table analysis

Balamurugan Palaniappan (LTCI)

Stochastic Variance Reduction Methods for Saddle-point Optimization Problems

March 16:

François Roueff (LTCI)

Introduction aux séries temporelles localement stationaires

Tobias Kley (LSE)

Predictive, finite-sample model choice for time series under stationarity and non-stationarity

March 9:

Jean David Fermanian (ENSAE)
Conditional copulas and some tests of the “simplifying assumption

Olivier Lopez (LSTA, Paris 6)
Copula estimation under censoring and applications in actuarial sciences

L’équipe est impliquée dans l’organisation de plusieurs séminaires à Paris :

The team is involved in the organization of several seminars taking place in Paris :

The team seminars are announced in the news section of the site.