(English) Best poster prize for Anne Gagneux @SMAI MODE

Désolé, cet article est seulement disponible en Anglais Américain.

(English) One paper accepted at SIAM Journal on Imaging Sciences

Désolé, cet article est seulement disponible en Anglais Américain.

(English) Three papers accepted at NeurIPS 2023

Désolé, cet article est seulement disponible en Anglais Américain.

(English) New preprint “Abide by the Law and Follow the Flow”

Désolé, cet article est seulement disponible en Anglais Américain.

Lancement de l’équipe-projet Ockham

Un événement pour officialiser le lancement de l’équipe s’est tenu lundi 26 juin 2023, en présence d’Emmanuel Trizac, président de l’ENS de Lyon, Cristina Vieira, vice-présidente déléguée à la recherche à l’Université Claude Bernard Lyon 1 et Stéphane Ubéda, directeur du centre Inria de Lyon.

A cette occasion, les membres de l’équipe ont pu présenter leurs thèmes de recherche autour de la notion de parcimonie et ses implications en traitement du signal et en apprentissage.

Qu’est-ce que la parcimonie ?

Cette notion, historiquement relié au fameux principe du rasoir d’Ockham, s’incarne numériquement comme l’hypothèse que la plupart des coordonnées d’un vecteur ou d’une matrice de grande dimension sont nulles. Cette hypothèse peut porter aussi bien sur l’expression des données (parcimonie des variables explicatives) que sur les paramètres d’une méthode (parcimonie des degrés de liberté).  

L’hypothèse de parcimonie s’avère un avantage clé pour permettre la résolution de nombreux problèmes inverses où les observations sont de petite dimension alors que les inconnues vivent a priori en grande dimension.

Elle prend également des formes détournées pour maîtriser la confidentialité des traitements en apprentissage ou la complexité d’opérations usuelles telles que les transformations linéaires ou le calcul avec des grands réseaux de neurones.

Comment est utilisée la parcimonie par l’équipe ?

Les techniques d’apprentissage et de traitement de signal étudiées et développées par Ockham s’appuyent plus largement sur des avatars modernes de la notion de parcimonie, plus structurés et plus flexibles, notamment via des modèles impliquant des graphes.

Au-delà de la conception des modèles –souvent inspirés par la physique– pour trouver la parcimonie là où elle se trouve, il s’agit de concevoir des algorithmes d’optimisation et d’apprentissage intrinsèquement frugaux en ressources, tout en contrôlant mathématiquement leur performance et leur robustesse à l’erreur de modélisation.

Quels sont les domaines d’application ?

Les travaux de l’équipe touchent ainsi à des domaines d’application aussi variés que l’imagerie cérébrale, l’analyse de données sur des réseaux sociaux, la localisation de sources acoustiques, ou le traitement embarqué de données de capteurs pour les véhicules autonomes.


(English) 6 papers accepted at GRETSI

Désolé, cet article est seulement disponible en Anglais Américain.

(English) Paper accepted at ICLR 2023

Désolé, cet article est seulement disponible en Anglais Américain.

(English) One paper accepted at Transaction of Machine Learning Research

Désolé, cet article est seulement disponible en Anglais Américain.

(English) Three papers accepted at NeurIPS 2022

Désolé, cet article est seulement disponible en Anglais Américain.

« Efficient Identification of Butterfly Sparse Matrix Factorizations » a été accepté pour publication dans SIMODS

Nous avons le plaisir d’annoncer que notre manuscrit « Efficient Identification of Butterfly Sparse Matrix Factorizations » (Léon Zheng, Elisa Riccietti, Rémi Gribonval) a été accepté pour publication dans SIAM Journal on Mathematics of Data Science.

Ce travail étudie les aspects d’identifiabilité de la factorisation parcimonieuse de matrices avec contraintes « butterfly », une structure associée aux transformées rapides et récemment utilisée dans la littérature sur la compression des réseaux de neurones pour ses propriétés d’expressivité et de réduction de complexité. En particulier, notre contribution a été de montrer que l’algorithme de factorisation butterfly de l’article « Fast learning of fast transforms, with guarantees » (ICASSP 2022) admet des garanties de reconstruction dans le cas de la factorisation exacte.