Links

To make your scientific and daily Inria life, nice & easy, please click on this presentation

PresentationInria

The HELPDESK link to request any assistance from IT or General services (problems in your office, with your badge and so on)

https://helpdesk.inria.fr/

 

Utilité publique


  • Tutoriaux, références, ou états de l’art(de choses qui peuvent servir à tous)
    • Tutoriels généraux, listes de tutoriels en ligne
    • Apprentissage
      • La base de la base
        • PCA
        • KNN, Parzen
        • K-means
      • Overview (méthodes à noyaux, réseaux de neurones, boosting, processus gaussiens/Dirichlet)
      • Machines à noyaux (kernel machines) : tutoriel de référence, mon tutoriel
        • KNN (KPPV en français)
          • KD-tree (cf la performante OpenTOOL pour Matlab)
        • Parzen
        • C’est quoi un noyau ? What is a kernel ?
        • SVM
        • SVR
        • Laplacien de graphe
        • Kernel PCA
        • Kernel ridge regression
      • Graphical models
      • Reinforcement learning
      • La structure dans l’apprentissage statistique (ex: Structured Output Learning)
    • Méthodes d’optimisation (minimisation d’énergies)
      • Gradients: classique, conjugué, stochastique, recuit simulé, changement de produit scalaire
      • Graph cuts (max-flow ou kernel) (cf MRF1.6)
      • (Loopy) Belief propagation & graphical models
      • Dynamic time warping
      • “Programmation linéaire”
    • Vision
      • Pourquoi c’est rarement aussi simple que ce que vous croyiez et pourquoi parfois c’est aussi beaucoup plus facile que ce que vous pensiez…
      • Vision “classique”, “traditionnelle”
        • Approche variationnelle (minimisation d’une énergie)
        • Snakes, contours actifs pour la segmentation
        • Critères d’homogénéité / de segmentation
          • intensité (couleurs/gris) : histogrammes, moments, etc. (voir la section sur les patchs…)
          • texture
          • bords : fort gradient d’intensité (ou d’autre chose)
        • Forme
          • différentes façons de représenter une forme
            • points, polygones, meshs (Delaunay, etc.)
            • splines
            • level-sets
            • attention au produit scalaire !
          • astuces pour calculer des quantités géométriques simples (aire, centre de masse, composantes connexes, normales, orientation, transport, etc.)
          • statistiques de forme (en tant que fonction continue décrivant le contour)
          • Parzen- ou kernel-like methods (cf Cremers)
          • approche géodésique (Trouvé-Younès, Pennec, etc.)
      • Vision à patchs
        • patch (c’est quoi un patch? carré, rond, gaussien? Taille? Couleur, gris?) = ensemble de descripteurs locaux de l’image
        • features, ou descripteurs de patchs
          • Invariance par rotation (ou pas)
          • Prendre en compte la position (absolue) du patch ou relative par rapport à d’autres patchs (ou pas)
          • rapidité du calcul des features pour un patch donné
          • détection des patchs intéressants a priori (points de Harris)
          • SIFT
          • SURF (code)
          • Normaliser l’ensemble des features (ou pas)
          • bag-of-words models ou autres pour réduire la complexité du problème
          • Apprendre l’importance relative de chaque feature, ou détecter les combinaisons de features pertinentes… apprentissage statistique !
        • clusters de patchs (distance pertinente entre patchs?)
        • classification/clustering/mise en correpondance d’images à partir de patchs
      • Vision biologique (rétine, V1, etc., feedbacks énormes)
    • Modélisation : hiérarchie, ordre des étapes
      • Top-down
      • Bottom-up
      • Boucles, feedbacks
    • Astuces numériques
      • Numerical recipes
      • EDP: schémas implicit vs explicit (en temps)
      • Schémas de discrétisation du gradient (spatial)
      • Attention aux discrétisations malencontreuses: exemple de la gaussienne tronquée à 2 ou 3 * écart-type qui est source de grosses discontinuités