Dans son métier, le sapeur-pompier doit exploiter au mieux ses capacités cognitives. Lorsque celui-ci est en position de commandement, ses choix reposent sur une ambivalence toute particulière. D'un côté, le commandement requiert réflexion, analyse et déduction des données visuelles, auditives, olfactives, mais il dépend tout autant des réflexes et des intuitions acquises de manière empirique : c'est ce que l'on appelle l'expérience.
Mais le sapeur-pompier doit combattre les biais, notamment les biais cognitifs, qui pourraient altérer son appréciation de la situation. Ces biais sont nombreux, en voici une liste non exhaustive :
Ces biais sont si naturels, si humains, qu'à la lecture de cette liste, nous nous voyons en tant que commandant des opérations de secours ayant déjà été influencé par eux lors d'une intervention.
Or, nous avons vu dans les articles précédents que l’intelligence artificielle souffre aussi de biais qui l’entraînent à produire des hallucinations. Dans cet article, nous allons essayer de comprendre ce que signifie IA cognitive et si elle sera vraiment un meilleur COS que nous.
Commençons par la base : l'IA classique repose souvent sur des règles prédéfinies et des algorithmes fixes, alors que l’IA cognitive essaie de simuler un raisonnement humain, avec une certaine capacité d’autonomie et d’adaptation.
L'IA cognitive désigne donc une branche de l'intelligence artificielle qui cherche à imiter le processus de la pensée humaine, la manière dont nous apprenons et prenons des décisions. Elle s’inspire des sciences cognitives (psychologie, neurosciences, linguistique, etc.) et utilise des algorithmes avancés pour traiter l’information de façon similaire au cerveau humain. Si vous avez lu mon dernier article ICI, c'est donc une IA forte que l'on peut même qualifier d'Ultime.
Apprentissage automatique (Machine Learning)
Permet à l’IA d’analyser des données, d’en tirer des modèles et de s’améliorer avec l’expérience.
Technologies utilisées :
Apprentissage profond (Deep Learning)
Est une ne sous-branche du Machine Learning utilisant des réseaux de neurones multicouches pour traiter des données complexes.
Technologies utilisées :
Traitement du langage naturel (NLP - Natural Language Processing)
Permet à l’IA de comprendre, analyser et générer du langage humain.
Technologies utilisées :
Pour aller plus loin l'article sur l'IA générative : https://pnrs.ensosp.fr/Plateformes/Operationnel/Innovations-operationnelles/L-IA-generative-un-atout-pour-la-Securite-Civile/
Vision par ordinateur (Computer Vision) (voir l'article 1 : https://pnrs.ensosp.fr/Plateformes/Operationnel/Innovations-operationnelles/La-computer-vision-au-service-de-la-securite-civile-introduction-et-application-concretes)
Indispensable pour analyser et d’interpréter des images et vidéos.
Technologies utilisées :
Reconnaissance et synthèse vocale
Convertit la parole en texte et inversement pour permettre des interactions vocales naturelles.
Technologies utilisées :
Raisonnement automatique et prise de décision
Pour résoudre des problèmes et d’établir des stratégies (Voir le billet numéro 2 sur l'IA prédictive et analytique : https://pnrs.ensosp.fr/Plateformes/Operationnel/Innovations-operationnelles/IA-predictive-et-analytique-au-service-de-la-securite-civile/).
Technologies utilisées :
Interfaces homme-machine avancées
Améliorent l’interaction entre l’IA et les utilisateurs via des interfaces intuitives.
Technologies utilisées :
Bases de données et Big Data
L’IA cognitive exploite d’énormes volumes de données pour apprendre et améliorer ses prédictions.
Technologies utilisées :
Cloud computing et Edge computing
Fournit la puissance de calcul nécessaire aux modèles d’IA cognitive.
Technologies utilisées :
Une fois que les bases techniques sont posées, nous voyons l'immense complexité de mise en œuvre. L'IA cognitive n'est donc pas d'actualité. Il s'ouvre alors une dimension éthique de la réflexion, mais surtout philosophique.
La question est : une IA cognitive sera-t-elle forcément un meilleur commandant des opérations de secours que moi ? Cette introspection suppose d'avoir des définitions claires de ce que signifie commander et du potentiel de l'IA dans le futur.
Grâce à Clausewitz, nous en avons une idée assez claire sur la première :
L’art du commandement repose sur le génie militaire
Le commandant face à la "friction" et à l'incertitude
L'importance du moral et du caractère
La nécessité de prendre des risques calculés
Maintenant que nous savons qu'est un "bon" commandant, comparons-le aux potentiels de l'IA :
L’art du commandement repose sur le génie militaire ? Non, l'IA ne peut pas, par essence même, disposer d’intuition, ce qui est le propre de l'homme car il est doué de conscience.
Le commandant face à la "friction" et à l'incertitude ? Non, l'IA ne sera pas omnisciente et ne sera pas en mesure de contrecarrer la "friction". Elle pourra éventuellement s'adapter si l'on lui définit des marges d’erreur suffisantes pour décider en fonction des probabilités.
L’importance du moral et du caractère : Imaginez-vous un jour une IA disposant du charisme, l'audace et l’aura d’Alexandre le Grand, Marc-Antoine ou Napoléon ? Moi, non et le contraire me fait froid dans le dos.
La nécessité de prendre des risques calculés ? Oui, tout est une question de paramétrage et de puissance de calcul.
Je vous laisse donc vous faire votre propre idée de ce que serait une IA en position de COS, et de savoir si, oui ou non, vous suivriez aveuglément ce commandant.
Pour conclure, je vous partage une réflexion toute personnelle sur une qualité qu’un commandant doit posséder et que l'IA n'aura probablement jamais.
Commander, c'est être prudent tout en étant disruptif. Prudent, certes, mais pas dans le sens de ceux qui font légion parmi les prudents, c'est-à-dire les pusillanimes. Commander, c'est faire preuve d'une audace mesurée.
Ltn Ernest Werenfrid
https://www.linkedin.com/in/ernest-werenfrid-6014b7158/
.