Portail National des Ressources et des Savoirs

Actualité

A la Une

Billet de vulgarisation IA

Le grand flou de l’hyper-information et l’atout du Cloud

12/09/25

Dans mon dernier article, nous nous sommes concentrés sur l’enjeu de l’ergonomie des applications d’IA et sur la lutte contre l’hyper-information, perçue comme un risque de saturation cognitive pour le commandant des opérations de secours. Car oui, pour paraphraser Clausewitz dans un langage plus pompier : commander c’est décider dans le brouillard de l’incertitude. Cette incertitude, c’est autant l’absence d’information que l’entremêlement de données complexes et désordonnées.
Aujourd’hui, la lumière sera projetée à un sujet de l’ombre. Quelle infrastructure adoptée permet de déployer les outils IA pour décider de manière éclairée ?

Le service public ne parlant pas de compétitivité, le terme approprié nous concernant est celui d’efficience. C’est dans le but de maximiser celle-ci que nos organisations sont construites. Or, nous construisons avec les outils de notre temps. L’intelligence artificielle est parfois vue comme une force salvatrice, presque mystique, qui résoudrait l’ensemble de nos problématiques.
Oui, l’IA nous permettra incontestablement de gagner en efficacité, mais il est illusoire de croire, ne serait-ce que pour des raisons techniques, que nous pourrons apprivoiser cette (r)évolution sans une profonde transformation organisationnelle de nos structures. Cette mutation commence par la transformation de l’architecture des systèmes d’information des SDIS.

 

Jusqu’à présent, l’univers informatique des SDIS ressemble à une galaxie principalement contenue dans un intranet, composée d’applications qui, pour la plupart, ne communiquent pas entre elles. C’est un peu comme si vous aviez une voiture à laquelle, au fil des évolutions techniques et électroniques, vous ajoutiez des accessoires ou remplaciez certains éléments par des pièces issues d’autres constructeurs et de différents modèles.

Il ne s’agit pas d’une critique, mais simplement d’un constat : une réalité inhérente au fonctionnement des établissements et à l’évolution des besoins et à la règle des marchés publics.

Je termine mon allégorie en disant que cette évolution incrémentale peut fonctionner pour certaines pièces de votre véhicule. Néanmoins, si vous voulez transformer votre diesel en voiture électrique difficile de ne pas se poser la question de s’il ne faut mieux pas changer de voiture.

 

Pour illustrer mon propos, je prendrai l’exemple des LLM (Large Language Models) spécialisés, qui représenteraient une réelle plus-value pour les SDIS, notamment à travers la création d’agents virtuels dédiés au renseignement des collaborateurs.

Nous l’avons vu dans l’article « De la donnée à l'exploitation du savoir » : l’apprentissage des LLM requiert une quantité massive de données textuelles, parfaitement formatées, étiquetées, cohérentes ce qui implique la mise en place d’une politique globale et stratégique de gouvernance des données.

Par ailleurs, les LLM n’arriveront pas seuls dans nos services. Leur mode de fonctionnement, fondé sur des mécanismes probabilistes, et leur méthode d’apprentissage, quasi exclusivement basée sur des données textuelles, en limitent les usages.

Yann Le Cun, l’un des plus grands spécialistes français de l’IA, rappelle qu’un enfant de 4 ans a été éveillé environ 16 000 heures dans ces premières années de vie. La somme d’informations captées par ses sens représenterait, si elle était convertie en données numériques, un volume de l’ordre de 10 000 téraoctets. Or, pour entraîner un LLM qui ne comprend ni le sens, ni l’intention, ni la notion de vérité, il faut environ 10 000 milliards de mots transformés en tokens, soit environ 20 téraoctets de données textuelles. L’illusion nous fait oublier qu’entre les 2, seul l’enfant de 4 ans est réellement capable de raisonner. Il devient donc évident que la connaissance globale, universelle et omnisciente (si tant est qu’elle puisse exister un jour), ne viendra pas de cette seule forme d’intelligence artificielle. Or en informatique, il est communément admis qu’il existe un rapport entre la croissance exponentielle des besoins de calcul par à la difficulté et le nombre de paramètre d’un problème.

 

J’en viens donc au fond de mon propos : Le Cloud.

L’erreur serait de réduire le Cloud à une simple externalisation de l’hébergement par rapport aux serveurs classiques. La réalité est toute autre : le Cloud constitue un véritable démultiplicateur de puissance et de capacités, indispensable à un changement de paradigme.

Les données devront être observées et analysées de manière globale et transverse, et non plus silo par silo, application par application.

La plupart des infrastructures cloud offrent désormais un accès natif à des services d’IA préentraînés (Azure OpenAI, AWS Bedrock, etc.), à des capacités de stockage big data, ainsi qu’à des outils avancés de traitement du langage naturel (NLP), d’OCR ou de vision par ordinateur.

 

shema 1

 © B2Cloud

 

Les points clefs d’un Cloud :

Interopérabilité native par API

  • Les plateformes cloud permettent de connecter les différentes briques du SI via des API RESTful standardisées.
  • Cela facilite l’accès des agents IA à des ressources métier (agenda, cartographie, procédures, référentiels…) sans refonte globale du SI à chaque nouvelle implémentation.

Exemple : un agent IA peut accéder en temps réel aux protocoles opérationnels ou à un moteur de recherche doctrinal via des endpoints sécurisés.

 

Le cloud bien pensé doit :

  • Un accélérateur stratégique pour l’IA, à condition d’y associer :
    • une gouvernance des données solide,
    • une approche modulaire et réversible,
    • un accompagnement des agents techniques de SI et des fonctionnels.
    • Réaliser par un plan de déploiement sur le long terme pour permettre un renouvellement des applications non cloudable trops anciennes.
    • Permettre une mutualisation avec les autres SDIS possible d’applications, de référentiels, de données, et de traitements (REX, formation, cartographie...).

 

Ce que le cloud ne doit pas être :

  • Un simple espace de stockage "externalisé"
  • Une solution imposée sans accompagnement des utilisateurs
  • Une dépendance unilatérale à un fournisseur propriétaire sans stratégie de souveraineté

 

Hybridité, gage de résilience :

Garder des capacités locales (edge computing) en redondance pour les fonctions critiques (alertes, cartographie embarquée) en cas de perte de liaison réseau.

  

Pour conclure, le Cloud, loin d’être un simple levier technique, est un accélérateur structurel indispensable pour accompagner l’arrivée de l’IA dans les SDIS. Il permet d’ouvrir nos systèmes d’information, de connecter nos données, de déployer de nouveaux outils, et surtout de donner corps à une IA utile, robuste et maîtrisée.

Mais cette transformation ne pourra réussir sans vision stratégique, sans accompagnement humain, et sans une exigence de souveraineté numérique. Le Cloud ne doit pas être subi, il doit être construit, piloté et sécurisé. Il est à la fois un levier de modernisation, un socle pour la mutualisation, et une condition de réussite pour une IA pleinement intégrée à la mission opérationnelles et fonctionnelles des SDIS.

Demain, décider dans l’incertitude passera par une meilleure exploitation de la donnée, des interfaces repensées, des agents virtuels spécialisés. Cette promesse, si elle veut être tenue, impose dès aujourd’hui de repenser l’infrastructure, d’armer les équipes techniques, et de sortir du paradigme de l’isolement technologique.

 

Ltn Ernest Werenfrid 

https://www.linkedin.com/in/ernest-werenfrid-6014b7158/

.

Publié le 12/09/25 à 10:42