Recherche et innovation
Pour consulter les numéros de "Perspectives : les cahiers scientifiques" de l'ENSOSP
Cliquez ICI
Dernières publications
Recherche et innovation
+
Actualité
Améliorer la localisation des appels d’urgence 112 provenant d’ouvrages enterrés : Trophée de l'innovation SDMIS
+
Actualité
Le SDIS56 lauréat du prix de l’innovation 2025 de l’ENSOSP pour son outil OPRESQ, : Evènement ENSOSP
+
Actualité
Le Groupe Jeunesse du Beauvau de la Sécurité Civile lauréat du prix de l’innovation 2025 de l’ENSOSP : Evènement de l’ENSOSP
Focus
Conseils de lecture
+
Mémoire
Mémoire
Tenir la ligne en 2035, entre intelligence humaine et artificielle : quand l’algorithme vacille, l’humain décide
Le présent résumé a été réalisé par une intelligence artificielle (ChatGPT). À des fins de démonstration, il n’a fait l’objet d’aucune modification de la part des auteurs de la note.
Cette note prospective, rédigée par trois élèves-colonels sapeurs-pompiers, anticipe l’impact de l’intelligence artificielle (IA) dans la gestion des crises de sécurité civile à l’horizon 2035. Dans un monde confronté à l’intensification des risques climatiques, technologiques et sociaux, les auteurs interrogent l’évolution du rôle de l’officier de sécurité civile à l’ère numérique : comment conjuguer innovation, résilience et éthique dans un contexte de haute complexité ?
L’étude retrace d’abord l’histoire de l’IA, de ses fondements symboliques aux récents progrès du machine learning, du deep learning et des modèles de langage (LLM). L’essor des IA génératives, telles que ChatGPT, marque une rupture : désormais, l’IA peut produire des textes, images, données et recommandations stratégiques. L’IA dite « générale » reste un horizon lointain, mais les outils actuels modifient déjà profondément les pratiques.
Dans le domaine de la sécurité civile, plusieurs usages sont recensés : prédiction des interventions (ex. PredictOps), simulation d’allocation de ressources (OPTeam), entraînements immersifs via la réalité virtuelle, outils d’aide à la décision (ex. WildfireGPT), détection précoce des incendies, analyse automatique des appels d’urgence, etc. La note illustre ces enjeux par deux scénarios contrastés.
Scénario 1 : Paris, 2035. L’officière Emma Dubois utilise un ensemble coordonné d’IA pour gérer une crise incendie. Grâce à une interface en réalité augmentée, des drones, des assistants vocaux et des outils prédictifs, elle coordonne l’intervention avec efficacité tout en conservant l’autorité décisionnelle. L’humain reste au centre d’un écosystème technologique performant, capable d’adaptation, d’anticipation et de communication ciblée.
Scénario 2 : Marseille, 2035. Une IA centralisée nommée REACT orchestre la réponse à un méga-incendie. Mais une cyberattaque désactive les systèmes automatisés. Le capitaine Ilyas Martin reprend le contrôle manuel des opérations. Sa désobéissance tactique permet de sauver de nombreuses vies. Ce scénario met en évidence les limites de l’automatisation totale : vulnérabilité aux attaques, rigidité des algorithmes, et nécessité de conserver un discernement humain.
Ces scénarios montrent que si l’IA permet une efficacité accrue, une meilleure coordination interservices, et un retour d’expérience automatisé, elle n’est pas sans risques : biais des données, atteintes à la vie privée, dépendance aux infrastructures numériques. L’IA ne doit pas supplanter la décision humaine, mais l’éclairer, la soutenir et la sécuriser.
Les recommandations sont nombreuses : garantir l’interopérabilité des données entre acteurs, encadrer l’usage de l’IA par un cadre réglementaire renforcé, instaurer un comité d’éthique des secours, former les cadres à l’interaction homme-machine, favoriser la résilience par la simulation et la pratique. La gouvernance de l’IA doit être partagée, transparente et centrée sur l’humain.
En conclusion, cette note propose une vision équilibrée d’un futur où l’IA joue un rôle essentiel dans la sécurité civile, à condition qu’elle soit maîtrisée, encadrée, et au service de la mission première des sapeurs-pompiers : protéger les vies humaines.
ÉTAT DES LIEUX
L’intelligence artificielle de l’origine à l’omniprésence dans notre société
- Des mythes à la science
- Prémisses de l’IA et premiers doutes
- Renaissance
- Le machine learning et le deep learning
- L’essor des LLM et de l’IA générative
- La prochaine étape : l’IA générale
État de l’art dans le monde de la sécurité civile et projets IA
- Prédiction et anticipation des interventions
- Simulation de l’allocation des ressources
- Formation et entraînement immersifs
- Assistance à la décision
- Détection précoce et surveillance des feux de forêt
SCÉNARIO n°1 : Approche raisonnée de l’utilisation de l’IA générative en gestion de crise
- Une journée ordinaire dans la capitale, Paris, 15 juillet 2035
- Analyse du scénario
- Applications de la technologie et cas d’usage
- Impacts positifs
- Points de fragilité et limites
- Recommandations et bonnes pratiques
SCÉNARIO n°2 : exploitation massive des llm mais toujours sous contrôle humain
-Feu dans la ville machine, Marseille, 2035
- Analyse du scénario
- Applications de la technologie et cas d’usage
- Impacts positifs
- Points de fragilité et limites
- Recommandations et bonnes pratiques
- Synthèse des scénarii
- CONCLUSION
- ANNEXES.
Cette note prospective, rédigée par trois élèves-colonels sapeurs-pompiers, anticipe l’impact de l’intelligence artificielle (IA) dans la gestion des crises de sécurité civile à l’horizon 2035. Dans un monde confronté à l’intensification des risques climatiques, technologiques et sociaux, les auteurs interrogent l’évolution du rôle de l’officier de sécurité civile à l’ère numérique : comment conjuguer innovation, résilience et éthique dans un contexte de haute complexité ?
L’étude retrace d’abord l’histoire de l’IA, de ses fondements symboliques aux récents progrès du machine learning, du deep learning et des modèles de langage (LLM). L’essor des IA génératives, telles que ChatGPT, marque une rupture : désormais, l’IA peut produire des textes, images, données et recommandations stratégiques. L’IA dite « générale » reste un horizon lointain, mais les outils actuels modifient déjà profondément les pratiques.
Dans le domaine de la sécurité civile, plusieurs usages sont recensés : prédiction des interventions (ex. PredictOps), simulation d’allocation de ressources (OPTeam), entraînements immersifs via la réalité virtuelle, outils d’aide à la décision (ex. WildfireGPT), détection précoce des incendies, analyse automatique des appels d’urgence, etc. La note illustre ces enjeux par deux scénarios contrastés.
Scénario 1 : Paris, 2035. L’officière Emma Dubois utilise un ensemble coordonné d’IA pour gérer une crise incendie. Grâce à une interface en réalité augmentée, des drones, des assistants vocaux et des outils prédictifs, elle coordonne l’intervention avec efficacité tout en conservant l’autorité décisionnelle. L’humain reste au centre d’un écosystème technologique performant, capable d’adaptation, d’anticipation et de communication ciblée.
Scénario 2 : Marseille, 2035. Une IA centralisée nommée REACT orchestre la réponse à un méga-incendie. Mais une cyberattaque désactive les systèmes automatisés. Le capitaine Ilyas Martin reprend le contrôle manuel des opérations. Sa désobéissance tactique permet de sauver de nombreuses vies. Ce scénario met en évidence les limites de l’automatisation totale : vulnérabilité aux attaques, rigidité des algorithmes, et nécessité de conserver un discernement humain.
Ces scénarios montrent que si l’IA permet une efficacité accrue, une meilleure coordination interservices, et un retour d’expérience automatisé, elle n’est pas sans risques : biais des données, atteintes à la vie privée, dépendance aux infrastructures numériques. L’IA ne doit pas supplanter la décision humaine, mais l’éclairer, la soutenir et la sécuriser.
Les recommandations sont nombreuses : garantir l’interopérabilité des données entre acteurs, encadrer l’usage de l’IA par un cadre réglementaire renforcé, instaurer un comité d’éthique des secours, former les cadres à l’interaction homme-machine, favoriser la résilience par la simulation et la pratique. La gouvernance de l’IA doit être partagée, transparente et centrée sur l’humain.
En conclusion, cette note propose une vision équilibrée d’un futur où l’IA joue un rôle essentiel dans la sécurité civile, à condition qu’elle soit maîtrisée, encadrée, et au service de la mission première des sapeurs-pompiers : protéger les vies humaines.
Sommaire :
INTRODUCTIONÉTAT DES LIEUX
L’intelligence artificielle de l’origine à l’omniprésence dans notre société
- Des mythes à la science
- Prémisses de l’IA et premiers doutes
- Renaissance
- Le machine learning et le deep learning
- L’essor des LLM et de l’IA générative
- La prochaine étape : l’IA générale
État de l’art dans le monde de la sécurité civile et projets IA
- Prédiction et anticipation des interventions
- Simulation de l’allocation des ressources
- Formation et entraînement immersifs
- Assistance à la décision
- Détection précoce et surveillance des feux de forêt
SCÉNARIO n°1 : Approche raisonnée de l’utilisation de l’IA générative en gestion de crise
- Une journée ordinaire dans la capitale, Paris, 15 juillet 2035
- Analyse du scénario
- Applications de la technologie et cas d’usage
- Impacts positifs
- Points de fragilité et limites
- Recommandations et bonnes pratiques
SCÉNARIO n°2 : exploitation massive des llm mais toujours sous contrôle humain
-Feu dans la ville machine, Marseille, 2035
- Analyse du scénario
- Applications de la technologie et cas d’usage
- Impacts positifs
- Points de fragilité et limites
- Recommandations et bonnes pratiques
- Synthèse des scénarii
- CONCLUSION
- ANNEXES.
+
Livre
La révolution technologique au service des acteurs du continuum de sécurité et de justice
Elle apporte une vision nouvelle du sujet et a suscité la volonté de proposer aux pouvoirs publics de nouveaux leviers d’action pour améliorer les conditions d'exercice de ces technologies de sécurité par les forces de sécurité intérieure et de justice. C’est la première étude à grande échelle permettant de comprendre les attentes et les craintes des citoyens à l'égard des outils et des acteurs en situation d'utilisation de ces technologies innovantes. Elle a vocation à nourrir le débat public et à permettre d’aboutir à des solutions pour améliorer l'usage responsable de ces outils par l'ensemble du continuum de sécurité et de justice.
Cette photographie met au jour quatre lignes de force : l’exigence d’efficacité opérationnelle et de résultats tangibles ; la primauté du facteur humain (formation, doctrine d’emploi, supervision) ; la demande d’un cadre éthique et juridique lisible (finalités précises, proportionnalité, traçabilité et contrôle indépendant) et la nécessité d’une transparence active pour entretenir la confiance.
Ainsi, le Continuum Lab reste fidèle à sa ligne stratégique : armer durablement les acteurs du continuum de sécurité et de justice face aux menaces contempo- raines, connues ou à venir.
- La connaissance des technologies de sécurité
- Les cas d’usage et les utilisateurs
- Les politiques publiques de sécurité
- Paroles d’expert de la sécurité civile
- Parole d’experts de la sécurité publique
- Conclusion
.
Résumé de l'éditeur:
Le Continuum Lab est le premier think tank des représentants des métiers de la sécurité et de la justice, cofondé en 2021 à l’initiative de la mutuelle INTÉRIALE et de six autres membres fondateurs. Il publie, en partenariat avec le Centre de recherches politiques de Sciences Po (Cevipof), une étude inédite consacrée à la perception et à l’acceptabilité des technologies de sécurité innovantes par les Français. Cette étude, réalisée par l’institut OpinionWay, sur un échantillon de 3 438 personnes représentatif de la population française âgée de 18 à 75 ans du 18 au 26 juin 2024, explore l’adhésion des Français, leurs attentes et les conditions de confiance à l’égard de dispositifs tels que la vidéoprotection (et ses usages dits « intelligents »), l’intelligence artificielle, la biométrie, les drones, les capteurs et l’analyse de données au service de la sécurité intérieure et de la justice.Elle apporte une vision nouvelle du sujet et a suscité la volonté de proposer aux pouvoirs publics de nouveaux leviers d’action pour améliorer les conditions d'exercice de ces technologies de sécurité par les forces de sécurité intérieure et de justice. C’est la première étude à grande échelle permettant de comprendre les attentes et les craintes des citoyens à l'égard des outils et des acteurs en situation d'utilisation de ces technologies innovantes. Elle a vocation à nourrir le débat public et à permettre d’aboutir à des solutions pour améliorer l'usage responsable de ces outils par l'ensemble du continuum de sécurité et de justice.
Cette photographie met au jour quatre lignes de force : l’exigence d’efficacité opérationnelle et de résultats tangibles ; la primauté du facteur humain (formation, doctrine d’emploi, supervision) ; la demande d’un cadre éthique et juridique lisible (finalités précises, proportionnalité, traçabilité et contrôle indépendant) et la nécessité d’une transparence active pour entretenir la confiance.
Ainsi, le Continuum Lab reste fidèle à sa ligne stratégique : armer durablement les acteurs du continuum de sécurité et de justice face aux menaces contempo- raines, connues ou à venir.
Sommaire :
- Introduction- La connaissance des technologies de sécurité
- Les cas d’usage et les utilisateurs
- Les politiques publiques de sécurité
- Paroles d’expert de la sécurité civile
- Parole d’experts de la sécurité publique
- Conclusion
.
+
Mémoire
Mémoire
Ensemble de protection incendie et secours technique. De la stratégie de dotation à l'équation de déploiement et de maintenance. Simple évolution ou transition vers un nouvel équilibre ?
Analyse du contexte des enjeux :
- Santé et sécurité des pompiers
- Normes et réglementation
- Objectifs stratégiques
Méthodologie
- L'analyse des résultats de l'enquête quantitative menée auprès des services d'incendie et de secours
- La synthèse des éléments recueillis dans le cadre de l'enquête qualitative
- Les essais des nouvelles tenues à l'École départementale du SDIS 95
Propositions :
- Stratégie de dotation
- Déploiement des EPI
- Maintenance et cycle de vie .
Sommaire :
Analyse du contexte des enjeux :
- Santé et sécurité des pompiers
- Normes et réglementation
- Objectifs stratégiques
Méthodologie
- L'analyse des résultats de l'enquête quantitative menée auprès des services d'incendie et de secours
- La synthèse des éléments recueillis dans le cadre de l'enquête qualitative
- Les essais des nouvelles tenues à l'École départementale du SDIS 95
Propositions :
- Stratégie de dotation
- Déploiement des EPI
- Maintenance et cycle de vie .
+
Mémoire
Mémoire
Le comportement humain, force et faiblesse face à la cybersécurité : comment accompagner les services d'incendie et de secours au quotidien ?
États des lieux :
- Fondamentaux de la cybersécurité
- Cybersécurité dans les SIS : contexte et défis spécifiques
- Piliers d'une stratégie de cybersécurité proactive
- Impact des facteurs humains sur la sécurité des SIS
Méthodologie :
- Élaboration des questionnaires pour l'étude
- Évaluation des connaissances en cybersécurité des agents des SIS selon leurs missions et fonctions
- Obstacles au développement de la culture de cybersécurité au sein des SIS selon leurs missions et fonctions
- Du risque individuel à l'enjeu collectif, vers une culture partagée de la cybersécurité dans les SIS
- Formation à la cybersécurité dans les SIS selon les missions et fonctions
Préconisations :
- Développement d'une culture de cybersécurité au sein des SIS
- Renforcement de la sensibilisation des agents à la cybersécurité.
Sommaire :
États des lieux :
- Fondamentaux de la cybersécurité
- Cybersécurité dans les SIS : contexte et défis spécifiques
- Piliers d'une stratégie de cybersécurité proactive
- Impact des facteurs humains sur la sécurité des SIS
Méthodologie :
- Élaboration des questionnaires pour l'étude
- Évaluation des connaissances en cybersécurité des agents des SIS selon leurs missions et fonctions
- Obstacles au développement de la culture de cybersécurité au sein des SIS selon leurs missions et fonctions
- Du risque individuel à l'enjeu collectif, vers une culture partagée de la cybersécurité dans les SIS
- Formation à la cybersécurité dans les SIS selon les missions et fonctions
Préconisations :
- Développement d'une culture de cybersécurité au sein des SIS
- Renforcement de la sensibilisation des agents à la cybersécurité.