|
|
Résumés des exposésImane Akjouj - Positivity of the equilibrium of sparse large random Lotka-Volterra ecosystems
La nature du spectre est une propriété cruciale d’un opérateur auto-adjoint. Pour un système quantique, on discutera de la correspondance entre les propriétés de transport et la décomposition de Lebesgue des mesures spectrales l'Hamiltonien. Dans le cas des arbres aléatoires de Galton-Watson, on présentera un critère nouveau sur la présence de spectre absolument continu.
Valentin Bailllard - Modèles de matrices aléatoires à valeurs propres sur des chemins complexes Le modèle classique des matrices aléatoires est le GUE : on munit l'ensemble des matrices hermitiennes d'une loi qui fait intervenir un potentiel gaussien. Il est possible de s'intéresser à un modèle plus général de matrices, en choisissant un potentiel non-gaussien, par exemple un autre polynôme, voire une fonction rationnelle. Pour rendre les intégrales finies, un tel choix de potentiel implique de contraindre les valeurs propres à vivre sur des chemins complexes bien choisis. Les intégrales qui interviennent dans ce modèle plus général se retrouvent dans différents domaines de la physique mathématique. De plus, cette généralisation permet de systématiser le lien entre intégrales de matrices aléatoires et fonctions génératrices qui énumèrent certains modèles de cartes. Je définirai ce modèle plus général, montrerai certains résultats sur la convergence du spectre et donnerai des pistes pour obtenir des résultats de grandes déviations, en définissant la notion importante de ce qu'est un poin-col pour ce modèle.
Guillaume Baraquand - Integrable probability and the KPZ universality class
I will start with a very general introduction to the Kardar-Parisi-Zhang equation and integrable models in the same universality class. In a second part, I will explain how the Baik-Ben Arous-Péché phase transition, initially describing the behaviour of outlier eigenvalues of sample covariance matrices, arises in several problems in the KPZ class.
Clément Chouard - Modèles non linéaires de matrices aléatoires et réseaux de neurones
Une particularité des matrices aléatoires intervenant dans l'étude des réseaux de neurones artificiels est l'application d'une fonction d'activation aux entrées individuelles des matrices. Ce type d'opération hautement non linéaire sort du cadre classique des matrices aléatoires, mais plusieurs publications récentes ont développé de nouvelles méthodes et outils pour pallier ce problème. Nous verrons notamment comment des techniques de linéarisation permettent de dégager un modèle gaussien équivalent et d'en déduire des informations sur le spectre limite de certaines matrices de covariance. Maxime Clénet - Phénomène d'attrition dans les grands systèmes d'équations différentiels de Lotka Volterra
La compréhension des grands écosystèmes représente un challenge important en écologie théorique. Le modèle de Lotka-Volterra exprime un premier modèle utilisé pour décrire les grands systèmes en interaction tels que les réseaux trophiques, microbiotes.. Lorsque le nombre d'espèces devient très grand, de nombreuses questions théoriques émergent sur la quantité d'espèces qui arrivent à coexister entre elles. Un enjeu majeur en écologie est de comprendre l'existence de cette sous population stable. Après avoir fait quelques rappels généraux sur le modèle de Lotka Volterra, je mettrai en avant l'émergence des matrices aléatoires associées à ce type de problème, je finirai par parler de l'impact de la force des interactions dans le phénomène d'attrition.
Slim Kammoun - Permutations aléatoires et matrices (aléatoires)
Hugo Lebeau - Cost-efficient classification on large dimensional data streaming: a random matrix vision
Random matrix theory has recently managed to tip the scales in demonstrating that many machine learning algorithms (some of them quite standard) in fact suffer from their being ill-used when dealing with large dimensional realistic data. Correction measures have already been envisioned which sometimes largely improve over existing techniques, in passing providing strong theoretical guarantees.
This presentation introduces how random matrix theory can help us achieve a "cheap and efficient" data sketching when applied to supervised or unsupervised learning: that is, assuming data are too expensive to store or handle, as data arrive in the learning pipeline, they are processed at a low computational cost before being discarded altogether. Using random matrix theory to track and fine-tune the performance of such cheap learning algorithms, we propose a new family of performance-guaranteed machine learning algorithms based on data sketching. VIctor Leger - Apprentissage par transfert semi-supervisé
On cherche à effectuer une tâche de classification pour laquelle peu de données labellisées existent. Supposons qu’il existe une tâche de classification proche pour laquelle on dispose d’un grand nombre de données labellisées. Comment exploiter ces données pour effectuer la première tâche ? Il existe d’ors et déjà des méthodes faisant intervenir des réseaux de neurones, mais celle-ci sont coûteuses en temps de calcul et peu interprétable. En utilisant la théorie des matrices aléatoires de grande dimension, on peut concevoir des algorithmes efficaces à moindre coup, proches des bornes de performances optimales données par la théorie de l’information. Je présenterai dans un premier temps le problème d’optimisation que l’on cherche à résoudre puis la solution explicite de ce problème, à partir de laquelle la théorie des matrices aléatoires nous permet de prédire, puis améliorer, les performances asymptotiques.
Hugo Magaldi - Opérateurs stochastiques et Beta-ensembles
Les Beta-ensembles peuvent être réalisés comme valeurs propres de matrices aléatoires tri-diagonales. Dans cet exposé, je m’intéresse aux opérateurs stochastiques obtenus à la limite n grand de ces matrices aléatoires, et à leur utilisation dans l’étude des Beta-ensemble.
Pierre Mergny - Interpolation entre convolution classique et convolution libre
Supposons que je connaisse le spectre de deux matrices aléatoires symétriques A et B de taille N x N, est il possible de prédire le spectre de leur somme C=A +B? Dans les années 80-90, Voiculescu construit la théorie des probabilités libres (free probability) qui permet de donner une réponse positive à cette question si l’on prend la limite N tend vers l’infini et que l’on suppose que A et B sont asymptotiquement libres. La notion de liberté est l’analogue non-commutatif de l’indépendance et le spectre de C est alors donné par ce qui s’appelle la convolution libre du spectre de A et du spectre de B. Une question qui apparait naturellement est de construire une opération qui interpole entre la convolution classique et la convolution libre. Après avoir introduit les bases nécessaires de probabilités libres, je présenterai une approche prometteuse basée sur les intégrales sphériques pris dans une régime particulier, dit de « hautes températures », pour construire une telle interpolation.
Minh Toan Nguyen - Random optimization in high dimension : applications to high-dimensional statistics and random matrix theory
Random optimization in high dimension is a wide class of problems that encompasses many domains of research: random matrix theory (the largest eigenvalue of a random symmetric matrix A and the corresponding eigenvector are the maximum and the maximizer of the function (x^T)Ax over all unit vectors x), machine learning, signal processing (many algorithms in these domains are optimization problems with data playing the role of random parameters), combinatorial optimization (random matching problem, traveling salesman problem). The replica method is a powerful tool in statistical physics to study disorder systems, in which the controlling parameters are random. Despite being non-rigorous, this method has been used successfully by physicists for decades to discover many fascinating results that take mathematicians a lot of time and effort to prove. In this talk, I will present some applications of this method in high dimensional statistics and random matrix theory.
Ruben Ohana -Optical and Recurrent Random features in machine learning
Kernel methods are very important in machine learning but they can lead to computational bottlenecks when the number of data points is too large. To overcome these bottleneck, random features methods were developed, in the goal of approximating kernel using random matrices. In this presentation, we will introduce kernel methods and random features. We will then explain how to produce them optically using Optical Processing Units. In a second part, we will introduce Reservoir Computing which are random Recurrent Neural Networks and explain how to compute their recurrent kernel limits.
Valentina Ros - High-dimensional counting problems and matrix theory
In this talk, I would like to discuss how problems of “counting” in high-dimension (e.g., counting of stationary points of random landscapes, counting of equilibria of interacting dynamical equations) are intimately connected to Random Matrix Theory. There are plenty of fields in which these counting problems emerge: a prominent example is the field of glasses, but one may as well think about applications to biology, machine learning, theoretical ecology and econophysics. I will discuss how to address these problems within the so called “Kac-Rice formalism”, which allows to count these stationary points or equilibria to leading order in the dimensionality of the system. I will discuss how the counting problem can be rephrased in terms of large deviation problems of an underlying random matrix theory, and discuss an explicit application (namely, counting equilibria for asymmetric Lotka-Volterra equations).
Alexis Rosuel - Quelques résultats autour du périodogramme moyenné de séries temporelles gaussiennes en grande dimension
La densité spectrale à la fréquence \nu d'une série temporelle multivariée Y est l'analogue fréquentiel de la matrice de covariance au lag l, et se base sur la transformée de Fourier de la fonction d'autocovariance du processus. Cette approche peut fournir une description de la dynamique du processus Y plus riche que la matrice d'autocovariance. Étant donné N observations issues d’une série temporelle gaussienne multivariée de dimension M, un estimateur classique de la matrice de densité spectrale à la fréquence \nu est le périodogramme moyenné S, dépendant d'un paramètre de fenêtrage B. Les applications en traitement du signal (en particulier le test d'indépendance des composantes du processus et la détection de signal utile) motivent l'étude du comportement asymptotique d'un certain nombre de statistiques construites à partir de S, telles que les statistiques linéaires des valeurs propres, la plus grande valeur propre, et le maximum du module des entrées non-diagonales de la matrice. Bien que le comportement asymptotique de ces quantités est bien connu dans le régime des petites dimensions (M fixe, N,B tendent vers l'infini et B/N tend vers 0), relativement peu de travaux se sont intéressés au cas des grandes dimensions. Je présenterais des résultats obtenus dans le contexte où M tend vers l'infini tel que M/B tend vers une constante.
|
Personnes connectées : 3 | Vie privée |