ou la vie quotidienne d'un chercheur à Tokyo

Articles tagués ‘Recherche’

Intelligence artificielle et StarCraft

Mine de rien j’ai pas mal de chose à dire, alors comme ça risque d’être un petit peu long, pour plus de clarté je divise le post en 3 chapitres : Algo génétique pour build order, Concours d’IA pour Starcraft 1 et Appel à participation (à ne pas rater).

Algorithme génétique pour build order

StarCraft est bourré de termes techniques, et comme je pense que la plupart d’entre vous ne les connaissent pas, je vais les définir au fur et à mesure. Alors, c’est quoi un build order (BO) ? Comme son nom l’indique, c’est une séquence ordonnée de constructions. Rappelez-vous, j’en parle dans le billet précédent : un BO est une séquence d’ouverture dans StarCraft, c’est-à-dire les actions à faire en début de parties afin de pouvoir appliquer le plus rapidement possible la ou les stratégies choisies (je rappelle que SC est un jeu temps réel : être plus rapide que son adversaire est la clé de la victoire).

L’un des lecteurs de ce blog (JIM pour ne pas le nommer), également joueur de SC1 et 2, m’avait envoyé le lien d’un billet très intéressant sur un programme optimisant le BO de la race Zerg (l’une des trois races disponibles) en utilisant un algorithme génétique. En gros un algo génétique, c’est un algorithme d’optimisation qui va reproduire le schéma de sélection naturel. Pour cela, vous prenez une population d’individus (ici des BO satisfaisant le but à atteindre, à savoir une certaine stratégie donnée). Chaque individu est par nature plus ou moins fort (plus un BO se termine tôt, plus il est « fort »), cette force innée étant caractérisée par des propriétés génétiques (la séquence d’actions du BO). On garde les individus les plus forts et qui satisfont le but à atteindre, puis on renouvelle avec eux la population par croisements génétiques (la reproduction) où intervient parfois une modification aléatoire (mutation génétique). On répète l’opération (sélection, croisements, mutations) un certain nombre de fois, et on peut espérer arriver au bout d’un temps t à un super poulain pure race.

Pour info, c’est cet algo génétique qui a découvert le BO optimal pour la stratégie 7-Roaches sur SC2 (je vais pas rentrer dans les détails), l’une des stratégie les plus redoutable lorsque l’on joue Zerg. Et le BO trouvé par cet algo demande d’appliquer des séquences d’actions contre-intuitives (comme produire 2 overlords de suite), qui sont reconnue être en général sous-optimales. Bref, pas sûr qu’un être humain aurait trouvé ce BO par lui-même, ou alors il aurait fallu une bonne dose d’intuition et de créativité.

J’ai moi-même lancé cet algo sur mon PC. C’est un programme en java pas rapide (pléonasme) mais efficace qui a mis 1h30 à trouver le BO optimal 7-Roaches (et même une seconde plus optimal que le BO connu) en testant près de 3 millions de BO différents (555 BO par seconde) sur un dual core 2,66Gh avec 3Go de ram. Pour les curieux, le BO est le suivant :

@0:00    M:50    G:0    L:3    S:6/10    BuildDrone
@0:13    M:51    G:0    L:2    S:7/10    BuildDrone
@0:15    Spawned:    Larva+1
@0:17    Spawned:    Drone+1
@0:24    M:52    G:0    L:2    S:8/10    BuildDrone
@0:30    Spawned:    Drone+1
@0:30    Spawned:    Larva+1
@0:34    M:54    G:0    L:2    S:9/10    BuildDrone
@0:41    Spawned:    Drone+1
@0:45    Spawned:    Larva+1
@0:51    Spawned:    Drone+1
@1:00    Spawned:    Larva+1
@1:05    M:204    G:0    L:3    S:10/10    BuildSpawningPool
@1:13    M:55    G:0    L:3    S:9/10    BuildDrone
@1:28    Spawned:    Larva+1
@1:28    M:100    G:0    L:3    S:10/10    BuildOverlord
@1:30    Spawned:    Drone+1
@1:43    Spawned:    Larva+1
@1:43    M:105    G:0    L:3    S:10/10    BuildOverlord
@1:46    M:26    G:0    L:2    S:10/10    BuildExtractor
@1:53    Spawned:    Overlord+1
@1:54    M:52    G:0    L:2    S:9/18    BuildDrone
@1:58    Spawned:    Larva+1
@2:08    Spawned:    Overlord+1
@2:10    Spawned:    Spawning Pool+1
@2:11    Spawned:    Drone+1
@2:13    Spawned:    Larva+1
@2:16    Spawned:    Extractor+1
@2:17    M:152    G:0    L:3    S:10/26    BuildRoachWarren
@2:17    M:2    G:0    L:3    S:9/26    MineGas
@2:17    M:2    G:0    L:3    S:9/26    MineGas
@2:19    Mining:     +1 on gas
@2:19    Mining:     +1 on gas
@2:27    M:51    G:12    L:3    S:9/26    BuildDrone
@2:42    Spawned:    Larva+1
@2:44    Spawned:    Drone+1
@3:12    Spawned:    Roach Warren+1
@3:12    M:241    G:75    L:3    S:10/26    BuildRoach
@3:12    M:166    G:50    L:2    S:12/26    BuildRoach
@3:12    M:91    G:25    L:1    S:14/26    MineGas
@3:12    M:91    G:25    L:1    S:14/26    BuildRoach
@3:14    Mining:     +1 on gas
@3:27    Spawned:    Larva+1
@3:27    M:91    G:28    L:1    S:16/26    BuildRoach
@3:39    Spawned:    Roach+1
@3:39    Spawned:    Roach+1
@3:39    Spawned:    Roach+1
@3:42    Spawned:    Larva+1
@3:42    M:90    G:32    L:1    S:18/26    BuildRoach
@3:54    Spawned:    Roach+1
@3:57    Spawned:    Larva+1
@3:57    M:89    G:35    L:1    S:20/26    BuildRoach
@4:09    Spawned:    Roach+1
@4:12    Spawned:    Larva+1
@4:12    M:88    G:39    L:1    S:22/26    BuildRoach
@4:24    Spawned:    Roach+1
@4:27    Spawned:    Larva+1
@4:39    Spawned:    Roach+1
Satisfied.
Number of actions in build order: 32
—Final Output—
At time: 4:39
Minerals: 147    Gas:      65    Supply:   24/26
Drones: 10
Overlords: 3
Roaches: 7
Hatcheries: 1
Gas Extractors: 1
Spawning Pools: 1
Roach Warrens: 1

Concours d’IA pour Starcraft 1

À la mi-novembre de cette année était organisé un concours d’IA de StarCraft 1, à l’Université de Santa Cruz, Californie, lors de la conférence Artificial Intelligence and Interactive Digital Entertainment (AIIDE 2010). La page du concours est ici. Ce concours ouvert à tout le monde proposait 4 types de tournois : deux de micro-gestion, un de matchs à actions limitées et enfin un tournoi de matchs classiques, ce dernier étant bien entendu le plus intéressant car le plus complet et complexe. Les IA étaient tous différents, certains se focalisant sur la même stratégie (très mauvaise idée, et pourtant…), d’autres cherchant à s’adapter en fonction de la situation à travers de l’analyse et de l’apprentissage automatique. Le vainqueur du tournois est l’IA nommée « Overmind » de l’Université de Berkeley (même si le concours est ouvert à tous, c’est a priori les universitaires travaillant dans l’IA qui sont les mieux placés pour le remporter). Mais franchement, je trouve qu’ils ne méritait pas de gagner. Il y a un gros travail dessus, là c’est clair : il s’agit toute de même d’un projet de 10 personnes, plus un chef de projet épaulé par deux chefs adjoints. Mais leur IA a remporté tous ses matchs en appliquant la même technique qu’aucune IA n’a su contrer (harass mutalisks puis mass muta), sauf lors d’un match qu’il a perdu dû à une close position de son adversaire qui lui a rasé sa base par un run-by zealots avant qu’Overmind n’ait eu le temps de faire sa spire. Bref, rien de bien excitant au final. En plus, leur projet est complètement fermé : pas de code source disponible, ce qui je trouve est un comble pour ce genre de compétition, le but premier étant quand même de faire avancer la recherche en appliquant des résultats d’IA sur un « environnement commercial robuste » qu’offre StarCraft (pour reprendre les termes de la conf.) Pas d’articles ni de pre-print (pré-article si vous préférez) pour exposer à la communauté de chercheurs comment ils ont procédé et choisi les diverses facettes de leur IA. J’ai écris au chef du projet pour lui demandé s’il avait des pre-prints à m’envoyer ; je n’ai reçu aucune réponse. Tout ça sent à plein nez la licence propriétaire pour leur programme. Ils espèrent quoi ? Vendre leur IA à Blizzard ?

Franchement, on peut mieux faire. Et comme disait un autre lecteur de ce blog qui se reconnaitra, « si on peut, on doit ».

Appel à participation

L’année prochaine, la conf AIIDE 2011 sera organisée à l’Université d’Alberta au Canada, et inclura une nouvelle édition du concours d’IA pour SC 1. Je suis sans doute un peu fêlé de m’intéresser de si près à ce concours (celui de type 4, le plus complet) alors que j’ai déjà assez peu de temps libre, mais je me sens vraiment motivé. Question : il y a t-il quelques autres fêlés qui voudraient se lancer dans l’aventure ? On a un an pour faire une « kick-ass AI ».

J’ai quelques idées, notamment pour injecter de l’optimisation à travers des méthodes de recherche locale stochastiques (c’est-à-dire aléatoires), ce sur quoi je travaille. D’où mon projet Aiur (Artificial Intelligence Using Randomness). Avec un nom comme ça, je pense que la race choisie sera Protoss. ^^

Si comme moi vous sentez que ce projet vous enflamme, écrivez-moi un mail (plutôt qu’un commentaire sur ce billet) à l’adresse suivante : florian.richoux_arobase_gmail.com (en remplaçant bien sûr _arobase_ par le fameux symbole). Le projet est ouvert à tout le monde. Si jamais je ne vous connais pas, merci de me préciser en quelques mots vos compétences en IA théorique et/ou en algorithmique et/ou en programmation C++ (car oui, ça sera en C++). Je me réserve tout de fois le droit de rejeter une candidature si j’estime que vous n’avez pas le profil (mais j’accepte tous mes potes, car ça peut être délire de faire ça tous ensemble).

Que l’on soit bien d’accords, j’ai quelques idées de comment faire (et j’ai un plan de bataille pour l’organisation, en fait tout est déjà prêt), mais il reste quasiment tout à définir. Toutes idées sont les bienvenues, alors j’espère vous voir nombreux à répondre à cet appel ! (NB : je suis sur Kyoto aujourd’hui et demain, mais pas d’affolement je répondrai aux mails à partir de mercredi)

Mais qu’est-ce que tu fais maintenant ?

Alors je calme les fausses joies tout de suite : ce billet ne signifie pas une reprise sérieuse de mon blog. Mais je crois quand même important d’au moins vous dire ce que je fais en ce moment, version courte (enfin, pas-trop-longue).

Comme vous le savez, j’ai signé un nouveau contrat début septembre nous permettant de rester deux années supplémentaires sur Tokyo. Je ne vais pas détailler ici comment a fini mon différent avec l’administration du CNRS. Sachez juste que nous avons trouvé un « compromis », où ils sont quand même largement gagnant dans l’affaire. Mais bon, j’avais pas trop le choix, c’était à prendre ou à laisser.

J’ai donc un poste de deux ans en temps que chercheur dans un tout nouveau labo nippo-français en info, toujours à l’Université de Tokyo, la fameuse Todai. J’ai déménagé mes affaires à 400m à peine, et partage maintenant un grand bureau avec actuellement 3/4 autres chercheurs français. Autant vous dire que ça ne parle pas souvent anglais, et encore moins japonais…

Et mon boulot, il s’agit de quoi ? Pour ce nouveau poste, j’ai dû changer légèrement de thématique, ce qui n’était pas pour me déplaire car bien que j’ai beaucoup aimé ce que j’ai fais en thèse, je voulais voir un peu autre chose. Ce n’est pas non plus un changement complètement brutal. Avant, j’étudiais la difficulté intrinsèque de certains problèmes de contraintes. Ces derniers, appelés CSP, permettent par exemple de modéliser des problèmes comme le sudoku, l’emploi du temps d’un lycée, mais également les stratégies logistiques d’une compagnie de transport ou encore la décision d’un chemin à emprunter dans un environnement en 3D. Les CSP  sont des modèles couramment utilisés en intelligence artificielle, que l’on abrège par IA. Avant d’aller plus loin, je me suis rendu compte qu’il y avait une grande confusion dans l’esprit des gens. Pour M. Tout-le-monde, IA = robot. C’est faux ; on peut dire merci aux blockbusters américains. Je vais tenter de donner une explication simple, peut être un peu simplificatrice mais efficace. Si on voit le robot comme étant un corps artificiel, l’IA serait l’esprit. L’IA a comme application possible la définition du comportement d’un robot, mais porte également sur un champs beaucoup plus large. Il y a de l’IA dans votre voiture, dans vos jeux vidéos bien sûr, mais aussi dans votre micro-onde, votre ipod et dans la ligne de métro automatique qui vous emmène, peut être, tous les jours au boulot. L’IA est tellement disparate qu’il n’est pas facile d’en donner une définition en quelques mots (sans compter les différentes approches des chercheurs sur ce qu’ils appellent « IA »), mais en gros, je dirais que l’IA est l’étude et la reproduction automatisée des comportements.

Et c’est dans quoi je bosse maintenant. Avant j’étudiais de manière très théorique les CSP. Maintenant, j’essaye de trouver de manière automatisée une solution à ces problèmes le plus rapidement possible. En bref, dans mon labo nous concevons des algorithmes de résolution de CSP. Là où ça devient original, c’est que nous faisons cela sur l’un des supercalculateurs du Japon, ainsi qu’une grille de calcul basé en France (et peut être bientôt sur le supercalculateur du CEA en France). La conception d’algorithmes pour ces problèmes sur de telles machines est un domaine encore largement ouvert, très peu exploré. Et pourtant d’une importance de taille, car avec l’augmentation actuelle des cores CPU dans les ordinateurs, les supercalculateur d’aujourd’hui seront vos PC portables dans 10 ans !

L’une des raison pour laquelle je n’ai plus beaucoup de temps à consacrer à ce blog est la suivante. Travailler dans ce nouveau domaine me demande d’ingurgiter une grande quantité d’articles de recherche sur le sujet auquel je ne connaissais pas grand chose, mais également d’apprendre la programmation parallèle et de lire et comprendre le code existant qui a été écrit par mes collègues (l’une des partie les plus dures ; c’est l’horreur de lire le code source de quelqu’un d’autre, surtout quand c’est peu commenté T_T). C’est pour ça que je pense que d’ici quelques semaines, ça devrait déjà aller mieux une fois après avoir digéré toutes ces nouvelles choses.

Alors soyez encore un peu patient svp. ^_^ La reprise du blog ne devrait pas trop tarder !

And the winner is…

Il y a quelques heures, sont tombés les résultats des lauréats de la Médaille Fields 2010, la plus honorifique distinction en Mathématiques.

Car vous savez qu’il n’y a pas de prix Nobel en Maths. La Médaille Fields est attribuée tous les 4 ans (contre tous les ans pour le Nobel) à des mathématiciens de moins de 40 ans (pas de limite d’âge pour le Nobel). Il y a souvent 4 lauréats une même année, mais ce n’est pas une règle gravée dans le marbre.

Et une fois de plus, la France a pété le score : sur les 4 lauréats 2001, 2 sont Français. Allez, je vais compter les médailles comme pour les J.O. : ça nous en fait 11 (sur 52 depuis 1936), nous mettant à la 2ème place derrière les States (13 médailles). Vu la différence d’investissement dans la recherche entre ces deux pays, c’est un sacré score !

Cette année, les heureux élus sont Villani, un dandy aux goûts vestimentaires bloqués deux siècles en arrière, 36 ans, ENS comme il se doit et directeur de l’Institut Henri Poincaré (IHP pour les intimes). Il fait des Maths pour la physique. On lui a notamment attribué la médaille pour ces travaux sur la théorie cinétique (énergie dépendant de la vitesse de mouvement). Un lecteur de ce blog m’avait dit une fois qu’il détestait les informaticiens théoriciens, c’est-à-dire ma famille scientifique. Je trouve ça dommage ce genre d’attitude fratricide, mais bon, c’est malheureusement assez courant.

L’autre Français est Châu, d’origine Vietnamienne. Il est récompensé par avoir démontré le « lemme fondamental », unifiant la théorie des nombres, la géométrie algébrique et l’analyse (rien que ça). Les deux autres lauréats sont l’Israélien Lindenstrauss et le Russe Smirnov (nasdrovia !), tout deux pour des travaux autour de la statistique. A noter qu’un nom était bien pressenti, le Brésilien Avila, mais il a sans doute été écarté pour son jeune âge (30 ans, putain à peine 3 ans de plus que moi…). Il est donc éligible pour deux fois encore, et il l’aura, c’est quasi-assuré.

On n’oublie pas l’autre prix décerné le même jour, le prix Gauss en Maths appliqués. Cette fois un seul lauréat tous les 4 ans, et c’est aussi un Français qui l’a raflé : Meyer, pour ses études sur les ondelettes et leurs applications dans la compression. L’algorithme de la compression d’image JPEG, c’est notamment à ce Monsieur que nous le devons. Il a développé ça quand il était au CMAP à l’X, au bureau juste au dessus du mieux quand j’étais moi-même à l’X. Le prix ayant été créé en 2006, il n’y a pour l’instant que 2 lauréats : Meyer cette année et le Japonais Ito (en 2006 donc).

De part les contraintes de l’attribution de la Médaille Fields (moins de 40 ans, une fois tous les 4 ans), la très haut distinction en Mathématique qui se rapproche le plus des conditions du prix Nobel (pas de limite d’âge, tous les ans) est le prix Abel créé en 2003. Là encore la France se gave : 3 prix Abel sur 9, deuxième place derrière les States (5 prix). Franchement, y’a de quoi avoir la tête haute, surtout si on prends en compte les conditions de recherche que sont les nôtres en France…

Encore une preuve de P≠NP ?

Oui, sauf que cette fois c’est peut être la bonne…

Depuis deux jours, un énorme buzz a éclaté autour d’un des problèmes mathématiques les plus connus : le problème « P≠NP ? ». Pour faire très simplifié sans être technique (en fait je vais être simpliste mais j’ai pas le choix), on appelle P la classe des problèmes mathématiques facile (c-à-d rapide) à résoudre automatiquement, et NP la classe des problèmes difficiles, où on a a priori pas de méthode intelligente pour trouver une solution rapidement.

Toute les nuances se trouvent dans mon terme « a priori ». En effet, il se peut que les problèmes difficiles soient en fait faciles, car jusque là on avait pas trouvé de bonnes manières de les traiter. Il se peut aussi (hypothèses plus communément admise) que ces deux classes P et NP sont différentes, et que les problèmes difficiles resteront difficiles à jamais.

Mine de rien, cette question est l’une des plus épineuses en mathématiques. Elle a été classé par le Clay Institut comme étant l’un des 7 problèmes les plus compliqués au monde (classement toutefois un peu arbitraire), et leur résolution est récompensée d’un prix de 1 million de dollars pour chacun des problèmes.

J’ai l’habitude de voir défiler tous les ans 2 ou 3 articles disant prouver que P est différent de NP. Donc quand Yusuke, le jeune « assistant professor » avec qui je partage mon bureau au labo m’a dit ce midi devant un plat de karaage « y’a quelqu’un qui semble avoir prouvé P≠NP », j’ai pas trop tiqué et j’ai banalement lancé un « encore ? » légèrement teinté d’ironie.

Oui, mais cette fois c’est différent. L’article est en ligne depuis 5 jours. Depuis 2 jours, toutes la communauté en informatique théorique, surtout dans le domaine de la complexité algorithmique, ne parle que de ça. Les mathématiciens du domaine, en vacances d’été, doivent certainement chercher des points hotspot wifi au bord de la plage où ils se trouvent…

Le quelqu’un en question, Vinay Deolalikar, chercheur dans le privé chez HP-labs, était un parfait inconnu ne serait-ce qu’il y a trois jours. Pas beaucoup de publications en info théorique, et pas dans de grands journaux ou conférences, mais quelqu’un qui semble sérieux quand même. Tout le monde estime que son article est bien rédigé et ne manque pas de référencer les travaux déjà existants. Bien que certains points délicats ont été relevé dans la preuve, un bon nombre de chercheurs émérites et reconnus comme tel dans la communauté info théorique s’accordent à dire qu’il s’agit là d’une avancée certaine, même si la preuve ne s’avèrerait pas juste.

Car bien entendu, la preuve d’un problème de cette envergure n’est pas lisible du premier coup d’œil. Il s’agit d’un manuscrit de 103 pages bien bourrines, utilisant beaucoup de notions très différentes, et surtout extrêmement pointue, et il faudra attendre un bon petit moment pour que la communauté scientifique du domaine comprenne la preuve, y prenne du recul et finisse par estimer que oui, la preuve est juste. Personnellement, je n’ai même pas pris la peine de télécharger l’article car je sais d’avance que je ne vais rien capter. Tout ce que je sais, c’est qu’il s’agit d’une preuve par l’absurde et utilisant à outrance la théorie des modèles finis, ce qui déjà me disqualifie d’office pour comprendre ne serait-ce qu’une demi-page de ce manuscrit.

Je faisais référence au projet polymath dans un précédent billet, où des mathématiciens mettaient judicieusement à profit les nouveaux moyens de communication pour mettre en commun leurs efforts et résoudre ensemble de grands problèmes. Ben c’est un peu ce qui se passe en ce moment, et ce mouvement s’est créé spontanément. Je reste convaincu que cette manière de faire de la recherche est l’avenir.

Pour les plus courageux d’entre vous, la page de type polymath (hébergé par polymath même si cet article ne fait pas directement parti du projet polymath), où tout est bien mieux expliqué qu’ici : http://michaelnielsen.org/polymath1/index.php?title=Deolalikar%27s_P!%3DNP_paper

Pour quelques yens de plus…

Billet court, sans image, pour rapidement faire un point sur mon (notre) avenir.

Mon contrat expire à la fin de ce mois. Depuis maintenant un bout de temps, je sais que mon boss, Kaz, me propose un autre contrat de 5 mois, ce qui me permettrait de rester jusqu’à fin novembre 2010.

Et depuis moins d’une semaine, je sais que j’ai eu un financement CNRS auquel je candidatais, qui commencera le 1er septembre 2010 pour s’achever… à la fin août 2012. Gros lot ! Je suis sur Tokyo pour encore 2 ans et 3 mois ! ;-)

Ainsi mon contrat de 5 mois proposé par Kaz ne durera que 2 mois, ces juillet et août 2010. Chose amusante, je devrais déposer ma démission quasiment aussitôt après avoir signé ce prochain contrat, puisqu’il y a un préavis d’un mois et qu’il faut prendre en compte les vacances d’été du service administratif. Moi, je passerai l’été au frais avec la clim du labo. Ce contrat « de jointure » porte une obligation, mais qui ne me dérange pas : donner trois cours à des étudiants en master et doctorat sur mon domaine de recherche. Expérience intéressante qui me demandera un petit effort, mais pas trop. Je précise que le cours sera en anglais, je suis loin d’être capable d’enseigner en japonais !

Et mon prochain financement de deux ans, ça implique quoi ? Ceci : je reste dans la même université, je déménage dans un autre labo qui se trouve 500m plus loin, je change de chef (je serai sous la responsabilité d’un professeur français qui est ici depuis 6 ans) et je change légèrement de domaine de recherche pour travailler sur des choses plus appliquées, en l’occurrence de l’intelligence artificielle en exploitant la puissance de calcul du super-calculateur du Japon auquel j’aurai accès, rien que ça, oui môssieur.

Alors Mari est heureuse ; elle reste un peu plus longtemps au Japon, ça lui permettra de mieux se préparer à un départ pour la France d’ici deux ans (car je pense difficilement réalisable de trouver un poste titulaire ici). Et autre nouvelle : on a finalement la possibilité de rester dans la maison ces deux prochaines années ! Sauf si jamais les gens du temple se décident à revendre la maison, option qu’ils envisagent dans un avenir plus ou moins proche.

A l’occasion, je décrirai un peu plus mon nouveau boulot… dès que j’en saurai plus moi-même. ^^

La recherche et les nouveaux moyens de communication

Je constate aujourd’hui, mardi 30 mars, à quel point les nouveaux moyens de communication changent non seulement l’accès aux récentes découvertes mais également notre manière de faire de la recherche.

Aujourd’hui est le grand jour pour le super collisionneur LHC du Cern, qui va propulser l’une contre l’autre deux particules subatomiques et mesurer les conséquences de cet impact. Tous les physiciens de la planète (et pas qu’eux) sont en ébullition et retiennent leur souffle devant leur écran, en suivant en direct la progression des étapes de l’expérience via une vidéo live sur la page web du Cern et en lisant les nouveaux commentaires sur twitter apparaissant toutes les 10 minutes. C’est comme si on était en Suisse avec eux.

Autre exemple : il y a 5 jours, Lance Fortnow mettait en live sur twitter les résultats d’une démonstration constructive concernant une nouvelle borne inférieure du lemme local de  Lovasz. J’ai donc eu connaissance de ce résultat 3 heures après son exposition lors d’un séminaire qui s’effectuait à l’autre bout de la planète.

Enfin, l’existence de nombreux blogs de chercheurs parlant de leurs nouvelles découvertes et proposant parfois une mise en commun des efforts. C’est le cas du blog de Terry Tao (voir ma liste) et du projet Polymath regroupant de nombreux mathématiciens réfléchissant ensemble sur des problèmes plutôt que chacun dans leur coin, et proposant non plus de publier nominativement mais sous le label « Polymath ».

La recherche en Mathématiques il y a 100 ans, c’était des mathématiciens qui s’envoyaient entre eux des lettres, à travers le monde (enfin, l’Europe à l’époque), sur leurs réflexions personnelles. Aujourd’hui la communication instantanée permet d’être informé en temps réel et de travailler ensemble quelque que soit la distance. Inutile de dire que cette communication change à jamais le visage de la recherche et permet de déployer un potentiel jusque là inaccessible.

Très cool !

J’ai jamais vraiment pu blairer l’analyse. J’ai toujours considéré cette branche des maths comme dégénérée, et quelque part, impure (à l’opposé de l’algèbre). Pourtant hier Kaz Makino (mon boss, rappelez-vous) m’a refilé un article faisant la correspondance entre les résultats et techniques en algèbre universelle pour classifier la complexité des problèmes de satisfaction de contraintes (CSP) et une méthode analytique basée sur le théorème des preuves probabilistiquement vérifiables. Et je dois dire que la correspondance est très belle (même si j’ai pas encore tout lu) ! Je sais que vous en avez rien à battre mais je voulais quand même partager cela sur le blog. Après tout, c’est mon blog, alors on joue selon mes règles :-p

Ce soir, je vais essayer de trouver le temps d’écrire un billet sur notre week-end à Hamamatsu.