Le monde de la prévision est un peu dans l'impasse depuis quelques années. La plupart des prévisions météorologiques s’appuient en effet sur les méthodes dites de "modélisation", qui montrent de plus en plus leurs limites:
La modélisation consiste à utiliser des équations mathématiques offrant une description simplifiée de l’atmosphère pour obtenir une simulation de ses états futurs. Cette démarche implique tout d’abord de décrire les processus physiques de l’atmosphère (dans notre cas, les phénomènes électriques à l’intérieur des orages), de traduire ces processus par des équations, et de définir un état initial (ou instant donné d’un état de l’atmosphère) à partir duquel ces équations seront utilisées.
Cette manière de procéder a fait ses preuves, elle est encore utilisée aujourd'hui par les plus grands centres de prévisions. Elle pose cependant un certain nombre de problèmes : les modèles doivent tenir compte de ce qui se passe sur l’ensemble de la Terre et englober une grande quantité de processus physiques, ce qui requiert des moyens considérables. Pour ne citer qu’un exemple, le modèle européen (ECMWF), dont la résolution spatiale est de 9 km, digère environ 2 millions de données pour dresser le fameux état initial qui lui permet de faire une prévision. Le tout nécessite une puissance de calcul de 8'500 milliards opérations à la seconde.
Or, pour prévoir correctement les orages avec cette méthode, la foudre en particulier, il faudrait décrire des phénomènes physiques encore plus complexes et parvenir à une résolution plus élevée, de l’ordre de la centaine de mètres. Le nombre de données devrait également être revu à la hausse. Tâche particulièrement difficile...
L'intelligence artificielle: une alternative prometteuse
Dans le domaine de la météorologie, l’usage de l’intelligence artificielle consiste à former un réseau permettant de capter morphologiquement des informations et de les mettre en mémoire en vue d’une fonction. Plus besoin de décrire la complexité de la physique de l’atmosphère, il suffit d’introduire une certaine quantité d’exemples dans le système pour que ce dernier « apprenne », grâce à des algorithmes bien définis. Et finisse par reconnaître les situations.
Le système de prévision de foudre, proposé par l’EPFL, fonctionne ainsi grâce à un algorithme de machine-learning, entraîné à reconnaître les conditions menant à la création des éclairs. Pour réaliser cet entraînement, les chercheurs ont utilisé des données récoltées durant dix ans dans 12 stations météorologiques suisses, situées aussi bien en régions urbaines qu’en régions montagneuses.
Quatre paramètres ont été pris en compte : la pression atmosphérique ; la température de l’air ; humidité relative et la vitesse du vent. Ces paramètres ont été mis en corrélation avec les enregistrements émanant des systèmes de détection et de localisation de foudre. Ainsi, l’algorithme a pu apprendre à identifier les conditions favorables aux éclairs.
Une fois entraîné, le système a effectué des prédictions qui se sont révélées correctes dans près de 80% des cas. Il va être testé dans un proche avenir sur la station du Saentis (AI), l’un des lieux d’Europe plus touchés par la foudre. Il pourrait devenir opérationnel à terme.
Recherche dans le cadre du Laser Lightning Rod
Le projet européen Laser Lightning Rod a été lancé en 2017 dans le but de développer de nouveaux systèmes de protection contre la foudre. Il s’agit notamment, dans des cas d’orage, d’envoyer un laser multi-terawatt à impulsion ultra-courte dans l’atmosphère, afin de provoquer la foudre, la guider vers un endroit précis, et décharger les zones à risque. Un projet ambitieux.
Dans le cadre de ce projet, les chercheurs de l’EPFL vont utiliser leur méthode de prédiction basée sur le machine -learning, afin de déterminer l’instant de déclenchement de la foudre.
Les enjeux de l’intelligence artificielle
Jacques Ambühl a été un des pionniers de l’intelligence artificielle en Suisse dans les années 1990, avec ses collègues Pierre Eckert et Daniel Cattani. Il est devenu par la suite responsable de la recherche auprès de Météosuisse. Dans un article publié en 2015, il résume les enjeux comme suit :
« Tout cela nous ramène à la bionique : jusque vers la fin du dix-neuvième siècle, les pionniers de l’aviation ont tenté de reproduire le vol des oiseaux. Dès le vingtième siècle, les ingénieurs ont conçu leurs avions en s’écartant de ce paradigme. Un siècle plus tard, les Airbus survolent les océans avec 500 personnes à bord, performance inaccessible à la nature, mais sont incapables de se poser sur les fils du téléphone, chose que toute hirondelle maîtrise aisément. Une évolution semblable est en cours dans les sciences de l’intelligence artificielle.
Alors que les systèmes inventés au vingtième siècle tentaient d’approcher l’intelligence humaine, les recherches actuelles s’affranchissent souvent de cette référence. Ainsi, nous allons être de plus en plus souvent confrontés à des machines, des algorithmes, doués de de facultés d’apprentissage autonome. Ces machines trouveront leurs références dans le monde réel via des capteurs, senseurs, systèmes d’observation, mais également dans le monde virtuel.
Si, de par la complexité des systèmes de prévision qu’ils mettent en oeuvre, les météorologistes appartiennent aux premiers groupes professionnels confrontés à cette évolution, ils ne seront certainement pas les derniers ».
Vous l'aurez compris, le projet de l'EPFL n'est qu'un début...
Philippe Jeanneret