Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révisionLes deux révisions suivantes
mega:start [2018/02/15 14:45] – [Exposés 2017-2018] malemega:start [2018/02/16 11:17] – [Année 2016-2017] male
Ligne 54: Ligne 54:
  
 * Vendredi **2 Juin 2017**, salle 421 le matin, salle 314 l'après midi * Vendredi **2 Juin 2017**, salle 421 le matin, salle 314 l'après midi
-         * 14h30-15h45:  **[[https://people.kth.se/~schnelli/|Kevin Schnelli]]** // Free addition of random matrices and the local single ring theorem\\ //In the first part of this talk, I will discuss some recent results on local laws and rigidity of eigenvalues for additive random matrix models. In the second part, I will explain how these results can be used to derive the optimal convergence rate of the empirical eigenvalue distribution in the Single Ring Theorem. +         * 14h30-15h45:  **[[https://people.kth.se/~schnelli/|Kevin Schnelli]]** // Free addition of random matrices and the local single ring theorem\\ // 
-         * 15h45-17h00:  **[[http://www.normalesup.org/~menard/|Laurent Ménard]]** //Limite fluide pour l'algorithme de recherche en profondeur dans un graphe d'Erdos-Renyi\\ //Dans cet exposé, je présenterai l'algorithme de recherche en profondeur, qui est une manière d'explorer un graphe en formant des chemins simples longs. L'algorithme fabrique un arbre couvrant pour chaque composante connexe du graphe exploré. Dans le cas d'un graphe d'Erdos-Rényi à n sommets ou les arêtes sont présentes avec probabilité c/n, la forêt construite converge vers une limite déterministe explicite avec le bon changement d'échelle. Il s'agit d'un travail en cours avec Nathanaël Enriquez et Gabriel Faraud.  +         * 15h45-17h00:  **[[http://www.normalesup.org/~menard/|Laurent Ménard]]** //Limite fluide pour l'algorithme de recherche en profondeur dans un graphe d'Erdos-Renyi\\ // 
-         * 10h30-12h00:  **[[http://www.normalesup.org/~decastro/|Yohann de Castro]]** // Quelques aspects statistiques de l'optimisation convexe en matrices aléatoires \\ //La minimisation convexe est une méthode très efficace en Statistique pour résoudre des systèmes d'équations linéaires où le nombre d'équations est bien plus petit que le nombre de variables. Pour que ce problème est un sens (et en vue des applications) on suppose que le nombre de variables non nulles à retrouver est contrôler. Dans ce cas, on sait résoudre exactement de tels systèmes d'équations linéaires dès lors que le noyau de la matrice du système vérifie une certaine propriété. J'expliquerai cette analyse dans un premier temps. Puis j'exposerai, la résolution d'un problème du même goût où l'on rajoute une perturbation et/ou on ne suppose plus de contrôle sur le nombre de variables non nulles à retrouver.+         * 10h30-12h00:  **[[http://www.normalesup.org/~decastro/|Yohann de Castro]]** // Quelques aspects statistiques de l'optimisation convexe en matrices aléatoires \\ //
  
      * Vendredi **4 Novembre 2016**, salle 421      * Vendredi **4 Novembre 2016**, salle 421
  • mega/start.txt
  • Dernière modification : 2024/04/07 19:08
  • de Raphaël BUTEZ