Incendie et tempête - Le changement climatique, un risque "invisible" pour l'économie américaine - Etat des lieux

Ceci est une mise à jour de l'article du 17 septembre 2018 analysant les coûts économiques du changement climatique sur l'économie américaine en 2018. Cette mise à jour intègre les conséquences, et surtout les coûts, du super-ouragan "Michael", qui a frappé la Floride, puis la Géorgie, la Caroline du Nord et la Virginie, entre le 10 et le 14 octobre 2018 (Camilla Domonoske, "Michael coûtera des milliards aux assureurs, mais ne submergera pas l'industrie, selon les analystes", NPRle 14 octobre 2018).

"Michael" a pris la relève de "Florence", la monstrueuse tempête qui a frappé et battu la côte Est des Etats-Unis le 12 septembre 2018. Il semble qu'il s'agisse d'un nouveau "pic" de catastrophe liée au climat. Il pourrait annoncer une transition vers un scénario plus grave, compte tenu des 12 derniers mois de conditions climatiques infernales.

Une question majeure se pose donc : le changement climatique devient-il un risque majeur pour l'économie américaine ? Si oui, comment les acteurs économiques devraient-ils réagir (Jean-Michel Valantin, "Le changement climatique : Le long bombardement planétaire”, The Red Team Analysis Societyle 18 septembre 2017) ? Continuer la lecture « Of Fire and Storm – Climate Change, the “Unseen” Risk for the U.S. Economy – State of Play »

Les bouleversements à venir de l'informatique quantique, de l'intelligence artificielle et de la géopolitique (1)

Le 12 octobre, la société chinoise Huawei a lancé sa nouvelle plateforme de services de simulation de nuages de haute qualité en informatique quantique (Communiqué de presse). Le 13 septembre 2018, la Chambre des représentants des États-Unis approuvé le "H.R. 6227 : Loi sur l'initiative quantique nationale" avec un budget de $1,275 milliards de dollars de 2019 à 2023 pour la recherche quantique. L'investissement annuel du gouvernement chinois dans la science quantique est estimé à $ 244 millions (CRS, "Federal Quantum Information Science : Une vue d'ensemble2 juillet 2018). L'UE Le navire amiral Quantum prévoit jusqu'à présent d'investir 100 millions d'euros par an, auxquels il faut ajouter les investissements nationaux. Les plus grandes entreprises technologiques, qu'elles soient américaines, européennes ou asiatiques, et plus particulièrement chinoises, financent la R&D quantique. Cela annonce le début d'une nouvelle course aux technologies quantiques.

En effet, les innovations scientifiques et technologiques en cours liées à l'univers quantique ont le potentiel de modifier fondamentalement le monde tel que nous le connaissons, tout en accélérant et même en perturbant plus spécifiquement le domaine de l'intelligence artificielle (IA). Les progrès des technologies quantiques ont été surnommés la "deuxième révolution quantique" (Jonathan P. Dowling, Gerard J. Milburn, "Quantum Technology : The Second Quantum Revolution", 13 juin 2002, arXiv:quant-ph/0206091v1).

Dans ce premier article, nous expliquerons ce qu'est cette révolution quantique, puis nous la réduirons à l'endroit où elle interagit avec l'IA, en fait, elle pourrait accélérer et perturber la dynamique actuelle. Cet article s'adresse aux physiciens non quantiques, des analystes aux décideurs et aux responsables politiques, en passant par les lecteurs intéressés et concernés, qui ont besoin de comprendre les technologies quantiques. En effet, ces dernières vont révolutionner le monde en général, l'IA en particulier, ainsi que la gouvernance, la gestion, la politique et la géopolitique, notamment lorsqu'elles sont combinées à l'IA. Nous utiliserons autant que possible des exemples réels pour illustrer notre texte.

Nous allons d'abord expliquer où se situent les technologies quantiques, c'est-à-dire la mécanique quantique. Nous nous concentrerons ensuite sur ces technologies quantiques - appelées Science de l'Information Quantique (SQI) - en nous concentrant notamment sur l'informatique et la simulation quantiques, mais aussi en passant brièvement en revue la communication quantique ainsi que la détection et la métrologie quantiques. Nous chercherons à comprendre ce qui se passe, comment la dynamique se déroule et l'état actuel des choses, tout en abordant la question du timing, c'est-à-dire quand l'informatique quantique commencera-t-elle à avoir un impact sur le monde.

Liens connexes

Intelligence artificielle - Forces, moteurs et enjeux

Le champ de bataille de l'informatique quantique et l'avenir - Quantum, IA et géopolitique (2)

Cartographier la course à l'informatique quantique - Quantum, IA et géopolitique (3)

Enfin, nous nous pencherons sur l'intersection entre les technologies quantiques et l'IA - en fait le sous-domaine émergent de l'apprentissage par machine quantique ou même l'IA quantique - en soulignant les accélérations et les perturbations possibles. Nous mettrons donc en évidence pourquoi et comment les technologies quantiques sont un moteur et un enjeu pour l'IA.

Sur la base de la compréhension acquise ici, les prochains articles approfondiront les impacts potentiels futurs sur le monde politique et géopolitique.

De la mécanique quantique aux nouvelles technologies quantiques

Actuellement, les principes de la mécanique quantique sont nouvellement appliqués à toute une série de domaines, ce qui ouvre de nouvelles possibilités dans de nombreux domaines.

Réservé aux membres

Télécharger l'article en pdf (anglais uniquement)- La perturbation quantique à venir Intelligence artificielle et géopolitique - partie 1.pdf - 22 pages

Adhérez et devenez membre de la société d'analyse The Red (Team).

La mécanique quantique ou physique quantique est une discipline scientifique qui a débuté au tout début du 20ème siècle, avec, dans un premier temps, les travaux de Max Planck sur le spectre des couleurs (pour un résumé rapide et clair de l'évolution du domaine, lire, par exemple, Robert Coolman, "Qu'est-ce que la mécanique quantique ?“, LiveScience26 septembre 2014).

La mécanique quantique est "l'expression générale des lois de la nature dans un monde fait de particules omniprésentes et presque imperceptibles" (Roland Omnes, Philosophie quantique : Comprendre et interpréter la science contemporaine, 1999, p.82). C'est le règne de l'infiniment petit. La mécanique quantique a contribué à une série de changements scientifiques qui touchent au cœur même de notre compréhension. Comme l'a dit Omnes,

"Nous perdons la représentation spontanée du monde... le bon sens est vaincu" (ibid.).

Même si le bon sens a été remis en question, les scientifiques n'ont pas abandonné le projet scientifique et ont poursuivi leurs travaux. Aujourd'hui, les propriétés mêmes qui ont choqué la communauté scientifique et la nouvelle compréhension du monde qui a émergé avec la mécanique quantique sont utilisées pour développer de nouvelles technologies.

En bref, au niveau du monde quantique, on observe une "nature ondulatoire de la lumière et de la matière" (Biercuk et Fontaine, "Le saut dans la technologie quantique...“, La guerre sur les rochers, novembre 2017). Deux propriétés résultantes des systèmes quantiques sont alors fondamentales pour l'effort technologique actuel, à savoir la superposition et l'enchevêtrement.

Superposition signifie que "les systèmes quantiques peuvent être (vaguement) décrits comme existant simultanément en plus d'un endroit jusqu'à ce que le système soit observé" (Ibid.). Une fois que le système est observé, il se fixe à un endroit, et on dit que "la superposition s'effondre" (Ibid.).

Enchevêtrement signifie que "les particules liées peuvent être "contrôlées à distance", quelle que soit la distance qui les sépare. Manipulez le partenaire local d'une paire enchevêtrée et vous manipulez instantanément son partenaire enchevêtré également" (Ibid.).

S'appuyant notamment sur ces propriétés, les scientifiques développent le domaine technologique appelé Science de l'Information Quantique (SQI), composé de la détection et de la métrologie quantiques, de la communication quantique et de l'informatique et de la simulation quantiques, auxquelles s'ajoutent des recherches sur les matériaux quantiques. Nous nous concentrerons plus particulièrement ici sur l'informatique quantique.

Comprendre la science de l'information quantique

Calcul et simulation quantiques

Le calcul quantique consiste à exploiter les propriétés quantiques, notamment la superposition et l'intrication, "pour effectuer un certain calcul" (CRS, juillet 2018) d'une manière incroyablement plus rapide que ce qui est réalisé aujourd'hui par les plus puissantes capacités de calcul haute performance (HPC), même les ordinateurs à l'échelle de l'espace, qui sont actuellement en cours de construction (voir Gagner la course à l'informatique à grande échelle).

L'utilisation de l'informatique quantique devrait être particulièrement prometteuse pour les simulations quantiques, c'est-à-dire "l'utilisation d'un système quantique contrôlable [l'ordinateur quantique] pour étudier un autre système quantique moins contrôlable ou accessible" (Georgescu, et al, "Simulation quantique". 2013). En d'autres termes, l'informatique quantique est la meilleure approche pour étudier et simuler des systèmes situés au niveau quantique et ainsi afficher des propriétés quantiques.

L'informatique quantique, un développement initié par le souci de la sécurité

L'idée d'un ordinateur quantique a été développée en 1981 (publiée en 1982) par le physicien américain Richard P. Feynman, qui pensait utiliser les propriétés quantiques pour simuler la physique et même la mécanique quantique ("Simuler la physique avec des ordinateurs“, Journal international de physique théorique, VoL 21, n° 6/7, 1982). Au départ, elle présentait surtout un intérêt théorique (Simon Bone et Matias Castro, "Une brève histoire de l'informatique quantique".Imperial College London).

Ensuite, l'incroyable puissance de calcul d'un ordinateur quantique en fonctionnement a fait prendre conscience qu'une "cryptopocalypse" pouvait se produire. En effet, en 1994, le mathématicien Peter Shor a formulé un algorithme, "l'algorithme de Shor", montrant qu'"un ordinateur quantique ayant quelques dizaines de milliers de bits quantiques et capable d'effectuer quelques millions d'opérations de logique quantique pouvait factoriser de grands nombres et ainsi casser l'omniprésent système de cryptographie à clé publique RSA" - la méthode la plus utilisée pour chiffrer la transmission de données (Peter Shor, "Algorithmes en temps polynomial pour la factorisation primaire et les logarithmes discrets sur un ordinateur quantique1994, 1995 ; Seth Lloyd, & Dirk Englund, Orientations futures du traitement quantique de l'information, août 2016, p.6 ).

Ce sont les découvertes de Shor en 1994 qui ont suscité l'intérêt pour l'informatique quantique, à partir de laquelle ont évolué les technologies quantiques (Bone et Castro, Ibid. ; Lloyd & Englund, Ibid, Biercuk, "Construire l'avenir quantique", vidéo, 2017). La naissance du QIS découlerait donc à la fois de la crainte et de l'intérêt que suscite le développement d'un tel ordinateur quantique : L'algorithme de Shor donnerait en effet un incroyable avantage de sécurité à ceux qui bénéficient d'un ordinateur quantique, car ils pourraient casser tous les codes présents, passés et futurs de leurs "concurrents" si ces acteurs utilisent les capacités informatiques classiques actuelles ainsi que les systèmes de cryptage actuels.

Qu'est-ce que l'informatique quantique ?

L'informatique quantique est actuellement en cours de développement. Les deux principaux défis de ce domaine sont de mettre au point un ordinateur quantique utilisable. Nous n'en sommes qu'au tout début de la construction du matériel, et d'apprendre à programmer ces nouveaux ordinateurs. 

Qubits, matériel et certains des défis rencontrés

Les ordinateurs classiques stockent les informations sous forme de 0 et de 1, les bits ou les chiffres binaires.

Pour les lecteurs intéressés et à vocation scientifique, nous recommandons, parmi une multitude d'explications, de

Sam Sattel, "L'avenir de l'informatique - Quantum & Qubits", blog d'Autodesk.com.

Les ordinateurs quantiques utilisent des qubits, avec lesquels "vous pouvez avoir zéro, un, et toute combinaison possible de zéro et de un, de sorte que vous obtenez un vaste ensemble de possibilités pour stocker des données" (Rachel Harken, "Une autre première pour Quantum“, Blog de l'ORNL23 mai 2018).

La courte vidéo ci-dessous (ChercheurLe rapport de la Commission européenne sur les ordinateurs quantiques (publié le 15 juillet 2018) explique (relativement) simplement ce que sont les qubits, la superposition et l'enchevêtrement, ainsi que les défis très pratiques à relever pour construire un ordinateur quantique - c'est-à-dire le matériel, comme la réfrigération, la façon de contrôler l'état d'un qubit et enfin la durée de vie des informations à l'intérieur d'un qubit, une propriété appelée cohérence. Il passe ensuite à quelques exemples de simulations et d'utilisations possibles.

Pour une compréhension encore meilleure de l'informatique quantique, et bien que la vidéo soit un peu longue - 24:15 - nous vous recommandons de prendre le temps de regarder la vidéo très claire, vivante et fascinante de Michael J. Biercuk de l'Université de Sydney, "Construire l'avenir quantique“.

Nombre de qubits, puissance et erreur

Ainsi, pour obtenir un ordinateur quantique fonctionnel, en termes de matériel, il faut disposer d'un nombre suffisant de qubits pour procéder à votre calcul et le faire de manière à ce que les erreurs générées par les spécificités de l'informatique quantique, notamment la perte de cohérence ou de décohérence, ne soient pas trop graves pour défaire l'ensemble du système. La nécessité de prendre en compte les erreurs générées par le système quantique utilisé implique d'imaginer, de créer puis de mettre en œuvre la meilleure la correction des erreurs quantiques, tendant vers correction intégrale des erreurs quantiques. Une des difficultés est que la correction des erreurs est également fonction des qubits, ce qui multiplie donc le nombre de qubits qui doivent être opérationnels.

Par exemple, Justin Dressel de l'Institut californien d'études quantiques de l'Université Chapman a appliqué Austin G. Fowler et al.Codes de surface : Vers un calcul quantique pratique à grande échelle” (2012) à l'algorithme de Shor en utilisant comme étude de cas l'objectif de décrypter un cryptage RSA fort en utilisant une clé de 2048 bits. Il a calculé que pour qu'un ordinateur quantique atteigne cet objectif, son le nombre minimum de qubits serait de 109. Une telle machine devrait alors fonctionner pour 27 heurespour "comparer avec 6,4 quadrillions d'années pour un ordinateur de bureau classique fonctionnant avec le tamis à chiffres". Bien sûr, comme pour les ordinateurs classiques, plus de qubits réduiraient la durée d'exécution (pour le paragraphe, Justin Dressel, L'informatique quantique : État des lieuxRéunion du chapitre du CO ACM, 16 mai 2018).

En fait, nous sommes encore assez loin d'un 109 ordinateur qubit.

L'état des lieux en termes de processeurs de qubits...

Le 16 mai 2018, selon Dressel (Ibid.), deux principales implémentations concurrentes (d'autres étant en cours de développement) sont utilisées pour obtenir des qubits physiques, et ont jusqu'à présent donné les résultats suivants :

Méthode 1. Ions piégés - avec la meilleure performance

  • Université du Maryland (UMD)/Institut quantique commun (JQI)* : 53 qubits

Méthode 2. Circuits supraconducteurs - avec les meilleures performances

... et des simulateurs quantiques fonctionnant sur des ordinateurs classiques

Outre la création de matériel d'informatique quantique très réel, nous avons également la conception et le développement de simulateurs d'informatique quantique. Ceux-ci permettent aux chercheurs et aux scientifiques de commencer à expérimenter l'informatique quantique et notamment d'apprendre à programmer ces ordinateurs. En effet, les spécificités de l'informatique quantique exigent de nouvelles façons de programmer ces ordinateurs.

Par exemple, Atos a utilisé ses supercalculateurs HPC pour développer Atos Quantum Learning Machine (QLM) avec des appareils de 30 et 40 Qubits selon le niveau de puissance (Produit Atos QLM). Entre-temps, Atos a développé "un langage de programmation universel d'assemblage quantique (AQASM, Atos Quantum Assembly Language) et un langage hybride quantique de haut niveau" (Ibid.).

D'autres efforts similaires sont à l'œuvre, avec par exemple le Centre for Quantum Computation and Communication Technology de l'université de Melbourne capable de "simuler la sortie d'une machine de 60 bits", mais pour "seulement" une instance de l'algorithme de Shor (Andrew Tournson, "La simulation bat le record du monde de l'informatique quantique“, Futurité2 juillet 2018).

Comme mentionné dans le premier paragraphe, la société chinoise Huawei a annoncé le 12 octobre qu'elle lançait sa toute première plateforme de simulation d'informatique quantique par le biais de son service de cloud computing, HiQ (Communiqué de presse). "La plateforme HiQ peut simuler des circuits quantiques avec au moins 42-qubits pour des simulations en pleine amplitude" (ibid.), ce qui la rendrait légèrement plus puissante que la plateforme Atos QLM. Bien entendu, les performances doivent être testées par les scientifiques avant que de telles conclusions puissent être tirées avec certitude. Comme Atos, Huawei a également développé son cadre de programmation quantique. Contrairement au système d'Atos, HiQ "sera entièrement ouvert au public en tant que plate-forme habilitante pour la recherche et l'éducation quantiques" (Ibid.). Nous voyons ici émerger deux approches et stratégies différentes pour le développement de l'informatique quantique, qui sont et seront importantes pour les entreprises, les acteurs publics et les citoyens, ainsi que pour le domaine. Nous reviendrons sur ce point dans le prochain article.

Quand disposerons-nous d'ordinateurs quantiques fonctionnels ? Qu'est-ce que la suprématie quantique ?

En fait, nous disposons déjà d'ordinateurs quantiques en état de marche, mais leur puissance de calcul est encore faible et ils peuvent être considérés comme des prototypes.

Comme nous disposons déjà de ces prototypes ainsi que des simulateurs sur les machines classiques, la question actuelle, réelle et pertinente, doit être transformée en deux questions.

1- Quelle doit être la puissance de mon ordinateur quantique pour répondre à ma question ou résoudre mon problème ?

La première partie de notre question initiale relative au temps pourrait être formulée comme suit : quelle doit être la puissance de mon ordinateur quantique pour répondre à ma question ou résoudre mon problème ?

En d'autres termes, le type de calcul nécessaire pour résoudre un problème peut être réalisé plus facilement et plus rapidement sur un ordinateur quantique avec un petit nombre de qubits, mais de facto en utilisant des propriétés quantiques, que sur un ordinateur classique, où les caractéristiques quantiques mêmes nécessaires pour résoudre le problème en question exigeraient un énorme HPC, ou ne seraient tout simplement pas réalisables. Dans ce cas, la compréhension quantique du problème considéré et l'algorithme développé deviennent aussi importants, sinon plus, que le problème matériel quantique lui-même. En conséquence, les machines quantiques actuelles et les simulations quantiques peuvent être considérées comme déjà opérationnelles.

Par exemple, le physicien de l'université Vanderbilt Sokrates Pantelides et Jian Liu, chercheur postdoctoral en physique, ont mis au point des simulations détaillées de mécanique quantique à l'échelle atomique pour aider l'industrie pétrolière à connaître les promesses des expériences de récupération avant qu'elles ne commencent (Heidi Hall, "Les travaux de mécanique quantique permettent à l'industrie pétrolière de connaître les promesses des expériences de récupération avant qu'elles ne commencent“, Nouvelles de l'Université Vanderbilt27 septembre 2018). Ils ont utilisé des installations de calcul haute performance classiques aux États-Unis. Centre de calcul scientifique de la recherche nationale sur l'énergie du ministère de l'énergie (DOE). Il est probable que si des ordinateurs quantiques avaient été mis à leur disposition, cela aurait facilité leurs recherches. Notez que l'Oak Ridge National Laboratory (ORNL) du DOE dispose d'un groupe de travail sur les sciences de l'information quantique - de détecter, de communiquer et d'utiliser l'informatique - et utilise Atos Quantum Learning Machine (Atos QLM), un "simulateur quantique, capable de simuler jusqu'à 40 bits quantiques (Qubits)" (Communiqué de presse Atos, "Atos Quantum Learning Machine peut désormais simuler de véritables Qubits"(9 avril 2018).

Autre exemple, le 4 octobre 2018, les chercheurs espagnols U. Alvarez-Rodriguez et al. ("Vie artificielle quantique dans un ordinateur quantique IBM“, Nature,(2018) ont publié les résultats de leurs recherches, selon lesquels ils ont réussi à créer un algorithme de vie artificielle quantique. Interviewé par NewsweekLamata, un membre de l'équipe scientifique, a expliqué :

"Nous voulions savoir si les comportements émergents des systèmes biologiques macroscopiques pouvaient être reproduits au niveau quantique microscopique", a-t-il déclaré. "Ce que nous avons découvert dans cette recherche est que de très petits dispositifs quantiques avec quelques bits quantiques pouvaient déjà émuler l'auto-réplication, en combinant des propriétés biologiques standard, telles que le génotype et le phénotype, avec de véritables propriétés quantiques, telles que l'enchevêtrement et la superposition" (Hannah Osborne, "La vie artificielle quantique créée pour la première foisNewsweek, 11 octobre 2018).

La simulation de création de vie a été réalisée en utilisant "l'architecture de circuit supraconducteur de l'ordinateur quantique IBM en nuage", avec "la puce d'informatique quantique IBM ibmqx4" (Alvarez-Rodriguez, et al., Ibid.), c'est-à-dire en utilisant IBM 5 Qqui compte 5 qubits avec une connectivité maximale de 4 qubits ("Qubit Qualité“, Rapport sur l'informatique quantique) .

Cette simulation illustre parfaitement comment l'informatique quantique peut être à la fois accélératrice et perturbatrice pour l'intelligence artificielle, comme nous le synthétiserons dans la troisième partie. En effet, comme le soulignent les conclusions et les perspectives du document de recherche, l'algorithme de vie artificielle quantique qui a fait ses preuves pourrait potentiellement être combiné avec le nouveau domaine émergent de l'apprentissage par machine quantique pour poursuivre "la conception d'agents quantiques intelligents et réplicables" (Alvarez-Rodriguez, et al., Ibid.). Nous atteindrions ici potentiellement un niveau d'IA totalement nouveau.

2- Quand disposerons-nous d'ordinateurs quantiques d'une puissance telle que les ordinateurs classiques, même les plus puissants, seront hors service ?

La deuxième partie de notre question concernant le calendrier pourrait être reformulée comme suit : quand disposerons-nous d'ordinateurs quantiques d'une puissance telle que les ordinateurs classiques, même les plus puissants, seront dépassés, c'est-à-dire quand les simulations quantiques réalisées sur les ordinateurs classiques deviendront-elles inutiles ?

C'est ce que Google appelle "atteindre la suprématie quantique", ou franchir la "frontière de la suprématie quantique", c'est-à-dire trouver "la plus petite tâche de calcul qui est d'une difficulté prohibitive pour les ordinateurs classiques d'aujourd'hui" et la dépasser grâce à un ordinateur quantique (Sergio Boixo, "La question de la suprématie quantique“, Blog de Google Ai4 mai 2018). L'idée de parvenir à la suprématie quantique est mieux expliquée par la diapositive suivante de la présentation de John Martinis (Google) "L'informatique quantique et la suprématie quantique” (Forum des utilisateurs du HPC, Tuscon, 16-18 avril 2018).

Suprématie quantique. informatique quantique, perturbation quantique, informatique quantique et IA, technologies quantiques, QIS, intelligence artificielle, IA quantique, apprentissage machine quantique, risque, risque politique, risque géopolitique, la Red (Team) Analysis Society
Diapositive de la présentation de John Martinis (Google) "Quantum Computing and Quantum Supremacy" (Forum des utilisateurs de HPC, Tuscon, 16-18 avril 2018).

S'appuyant sur la diapositive de Google, M. Dressel estime que nous avons presque atteint "l'échelle qu'il n'est plus possible de simuler à l'aide des superordinateurs classiques". Le défi actuel consiste à trouver des applications "à court terme" pour les dispositifs quantiques existants" (Ibid.).

Suprématie quantique. informatique quantique, perturbation quantique, informatique quantique et IA, technologies quantiques, QIS, intelligence artificielle, IA quantique, apprentissage machine quantique, risque, risque politique, risque géopolitique, la Red (Team) Analysis Society
Figure tirée d'une diapositive de Justin Dressel, de l'informatique quantique : État des lieux, réunion de la section ACM du CO, 16 mai 2018

Toutefois, comme des améliorations en termes de moyens de construire des simulations quantiques sur des machines classiques sont également en cours, alors le calendrier ainsi que le nombre de qubits nécessaires pour atteindre la suprématie quantique pourraient changer (Phys.org, "Des chercheurs simulent avec succès un circuit de 64 bits", 26 juin 2018 ; recherche originale : Zhao-Yun Chen et al, "Simulation de circuits quantiques à 64 bits“, Bulletin scientifique, 2018).

En attendant, Dressel (Ibid.) estime également que nous pouvons nous attendre à des puces d'un milliard de qubits dans environ 10 à 15 ans.

Suprématie quantique. informatique quantique, perturbation quantique, informatique quantique et IA, technologies quantiques, QIS, intelligence artificielle, IA quantique, apprentissage machine quantique, risque, risque politique, risque géopolitique, la Red (Team) Analysis Society
Figure tirée d'une diapositive de Justin Dressel, de l'informatique quantique : État des lieux, réunion de la section ACM du CO, 16 mai 2018

La disponibilité d'une telle puissance de calcul accélérerait évidemment l'IA tout en bouleversant complètement le paysage actuel entourant la révolution de l'IA contemporaine, des microprocesseurs développés et utilisés par exemple dans la course à l'exascale, à la puissance de ceux qui ont réussi à être en tête de la course en termes de HPC classique, mais nous reviendrons sur les implications politiques et géopolitiques dans le deuxième article de la série.

Communications quantiques

Évoluant logiquement à partir de la façon dont les technologies quantiques sont nées, les communications quantiques sont principalement concernées par le développement de la "cryptographie résistante aux quanta", comme le souligne le Aperçu stratégique national des États-Unis pour les sciences de l'information quantique, septembre 2018. Si l'informatique quantique peut être utilisée pour casser les cryptages existants, alors la mécanique quantique peut également être utilisée pour protéger le cryptage, notamment avec la cryptographie quantique (voir Définition de phys.org) ou la distribution de clés quantiques (QKD).

Les communications quantiques consistent donc à "générer des clés quantiques pour le cryptage" et, plus largement, à "envoyer des communications quantiques sécurisées (toute tentative d'écoute détruit la communication et l'écoute est détectée)". (CRS, juillet 2018, Ibid.).

Détection et métrologie quantiques

"'La détection quantique' décrit l'utilisation d'un système quantique, de propriétés quantiques ou de phénomènes quantiques pour effectuer une mesure d'une quantité physique" (Degen et al, 2016). Grâce aux capteurs quantiques, nous "mesurons des quantités physiques telles que la fréquence, l'accélération, la vitesse de rotation, les champs électriques et magnétiques, ou la température avec la plus grande précision relative et absolue". (Wicht et al., 2018). Cette vidéo du National Quantum Technology Hub britannique, "Capteurs et métrologie", explique très simplement ce sous-domaine.

Les applications, y compris en termes de sécurité nationale, sont nombreuses, des systèmes de positionnement global (GPS) aux sous-marins en passant, par exemple, par l'amélioration considérable de notre compréhension du cerveau humain et de la cognition, comme l'explique la vidéo présentée dans la dernière partie de l'article.

Ne pas exagérer les limites

Comme toujours, cependant, si les catégories entre les différentes sous-disciplines sont pratiques pour définir les champs, se concentrer et expliquer les sujets, les frontières ont tendance à être poreuses. Des rétroactions avec d'autres sous-domaines peuvent avoir lieu lorsque de nouvelles découvertes sont faites. Des innovations apparaissent également à l'intersection des différents sous-domaines, comme l'illustre la production de tourbillons de lumière dans la détection quantique, qui alimentent ensuite la communication quantique - comme, par exemple, des motifs de pétales uniques et identifiables peuvent former l'alphabet pour transmettre des informations (Matthew O'Donnell, "Motifs de pétales", Groupe de détection et de métrologie quantique chez Northrop Grumman, 17 mai 2018).

Accélérer et perturber les impacts de l'IA : l'émergence de l'apprentissage par machine quantique

Relatif :

L'intelligence artificielle au service de la géopolitique - Présentation de l'IA

Intelligence artificielle et apprentissage approfondi - Le nouveau monde de l'IA en devenir

L'intersection entre le développement actuel de l'IA, qui a lieu principalement dans le domaine de l'apprentissage machine et plus spécifiquement de l'apprentissage profond, et la science de l'information quantique est potentiellement si fructueuse qu'elle donne naissance à une nouvelle sous-discipline, l'apprentissage machine quantique.

Vous trouverez ci-dessous certains des principaux domaines dans lesquels la recherche a lieu ou pourrait avoir lieu et où le développement actuel de l'IA pourrait être accéléré ou interrompu par les technologies quantiques, tandis que les possibilités de l'IA auraient également un impact positif sur l'informatique quantique.

La première accélération évidente et l'impact potentiellement perturbateur que l'informatique quantique pourrait avoir sur l'IA est qu'une fois qu'un matériel avec un nombre élevé de qubits sera disponible, alors la puissance de calcul (quantique) disponible également pour l'IA atteindra de nouveaux sommets. Il est probable que cela permettra de tester des méthodologies jusqu'ici impossibles, alors que des algorithmes trop complexes ou trop gourmands en puissance de calcul seront développés.

Ensuite, il est probable que nous assisterons à une intensification et à une multiplication du développement de la "création d'IA", comme ce qui a été fait par la combinaison d'algorithmes évolutifs et d'apprentissages de renforcement par Google Brain Team ainsi que par les scientifiques de l'Oak Ridge National Laboratory (ORNL) du ministère américain de l'énergie (voir Helene Lavoix, Quand l'IA a commencé à être créée - Intelligence artificielle et puissance de calculThe Red Team Analysis Society7 mai 2018).

En attendant, la capacité à voir naître une troisième génération d'IA sera considérablement renforcée (voir Helene Lavoix $2 Billion for Next Gen Artificial Intelligence for U.S. Defence - Signal ).

Quant aux simulations quantiques, certains scientifiques "postulent que les ordinateurs quantiques pourraient surpasser les ordinateurs classiques dans les tâches d'apprentissage des machines". Dans ce cas, l'apprentissage machine quantique est compris comme le domaine dans lequel les scientifiques se concentrent sur "la manière de concevoir et de mettre en œuvre des logiciels quantiques qui pourraient permettre un apprentissage machine plus rapide que celui des ordinateurs classiques" (Jacob Biamonte, et al., "L'apprentissage par machine quantique“, v2 arXiv:1611.09347v2, mai 2018). Des algorithmes d'apprentissage par machine quantique sont recherchés et développés (Ibid., Dawid Kopczyk, "L'apprentissage des machines quantiques pour les chercheurs de données", arXiv:1804.10068v1, 5 avr 2018).

En outre, comme prévu dans la deuxième partie de cet article, les explications ci-dessus sur le QIS, l'intersection et les rétroactions entre les systèmes quantiques et l'IA sont également plus complexes, pour autant que nous puissions comprendre et prévoir maintenant.

Les défis mêmes de l'informatique quantique, c'est-à-dire principalement la mise au point du matériel et le développement du programme et des algorithmes, pourraient être relevés par l'IA. En d'autres termes, on pourrait appliquer la compréhension actuelle de l'IA au développement de l'informatique quantique. Potentiellement, au fur et à mesure des essais et des erreurs, et en raison des spécificités de l'informatique quantique, l'IA évoluera, atteignant potentiellement de nouveaux stades de développement. En effet, par exemple, à mesure que de nouvelles capacités quantiques seront atteintes et que de nouvelles simulations seront disponibles, de nouvelles connaissances et approches de l'IA pourraient être découvertes.

Les simulations quantiques, d'une part, et la détection quantique, d'autre part, produiront une nouvelle série de données importantes, qui devront être comprises par l'IA.

Nous pouvons trouver un exemple de ce cas où l'IA a été utilisée pour ces grands ensembles de données quantiques nouvellement disponibles, qui à leur tour pourraient bénéficier à l'informatique quantique et ensuite très probablement à l'IA, dans le domaine de la physique en général, de la supraconductivité en particulier. Le 1er août 2018, Yi Zhang et al. ont publié un article expliquant leur utilisation d'une IA, un "réseau de neurones artificiels (ANN)" spécialement conçu - c'est-à-dire un apprentissage profond - sur un grand ensemble de données, "une archive d'images de matière quantique électronique (EQM) dérivée expérimentalement", qui a permis de progresser dans notre compréhension de la supraconductivité - notamment en ce qui concerne la température, un défi clé de l'informatique quantique (Yi Zhang et al., "Utilisation de l'apprentissage automatique pour la découverte scientifique dans les expériences de visualisation électronique de la matière quantique", 1er août 2018, arXiv:1808.00479v1 ; pour une explication simplifiée mais détaillée, Tristan Greene, "La nouvelle IA de la physique pourrait être la clé d'une révolution de l'informatique quantique“, TNW19 septembre 2018).

À la suite de cette expérience, l'utilisation de l'apprentissage en profondeur de l'IA va très probablement augmenter en physique et plus largement en science, tandis que de nouvelles avancées en matière de supraconductivité pourraient contribuer à la mise au point de processeurs de qubits.

Si une telle évolution se produit dans le domaine de la supraconductivité, cela signifie également que la course à l'exaltation nous précédemment détaillé pourrait être perturbée. En fonction du moment où l'exascale sera atteint et des processeurs utilisés, en comparaison avec le moment où les nouvelles avancées en matière de supraconductivité pourront être mises au point, ainsi que lorsque des processeurs quantiques concurrents seront disponibles, alors l'énorme puissance de calcul finalement obtenue avec l'exascale ainsi que le processeur développé jusqu'à présent pourraient être plus ou moins obsolètes ou sur le point de l'être. Le risque industriel devrait ici être soigneusement estimé et surveillé, probablement par le biais de scénarios comme méthodologie la plus adaptée et la plus efficace. Nous verrons dans le prochain article les impacts politiques et géopolitiques potentiels qui y sont liés.

Les nouveaux types de données recueillies par la détection quantique peuvent également enrichir notre compréhension de l'intelligence en général, comme le montre le projet de l'université de Birmingham".Détection quantique du cerveau” (11 juin 2018) décrite dans le vidéo ci-dessous.

Cette réalisation spécifique en matière de détection quantique pourrait, à son tour, modifier et enrichir trois fois les approches de l'IA : premièrement, parce que nous aurions dû créer de nouveaux systèmes d'IA pour donner un sens à ces données spécifiques, deuxièmement parce que ces agents d'apprentissage profond auraient eu accès à une compréhension nouvelle et jusqu'ici inconnue de l'intelligence, et auraient donc appris quelque chose de différent, ce qui aurait renforcé le potentiel de développement de différents résultats, et troisièmement parce que la nouvelle compréhension globale de l'intelligence qui en résulterait pourrait, à son tour, générer des types d'IA différents et meilleurs.

Dans le même domaine, le domaine émergent de la cognition quantique (voir Peter Bruza et al., "Introduction au numéro spécial sur la cognition quantique“, Journal of Mathematical Psychology (en anglais)23 septembre 2013 ; Peter Bruza et al.Cognition quantique : une nouvelle approche théorique de la psychologie“,  Tendances dans les sciences cognitives(juillet 2015), qui bénéficient désormais de simulations quantiques, pourraient déboucher sur des approches totalement nouvelles de la cognition et de l'intelligence. En retour, le statu quo actuel en termes d'IA autour de l'apprentissage profond pourrait être perturbé. Des approches totalement nouvelles de l'IA pourraient voir le jour.

Par conséquent, les technologies quantiques sont effectivement un moteur et un enjeu pour l'IA.

Bien qu'il soit encore très tôt dans le domaine de la science de l'information quantique, et notamment de l'informatique et des simulations quantiques, et plus encore dans son intersection avec l'IA, des innovations considérables ont déjà eu lieu tant dans le domaine des QIS que dans celui de l'IA quantique / apprentissage par machine quantique, et ces domaines commencent déjà à porter leurs fruits. De nombreux défis restent à relever, mais les efforts déployés pour surmonter ces mêmes obstacles pourraient également déboucher sur de nouvelles percées dans le domaine des QIS et de l'IA. Nous pourrions être à l'aube d'un véritable changement de paradigme avec toute une série de conséquences allant de celles déjà perceptibles à celles difficiles à imaginer pour les politiques et leurs acteurs. C'est vers ces impacts possibles que nous nous tournerons dans le prochain article.


Image en vedette : Image d'un deutéron, l'état lié d'un proton (rouge) et d'un neutron (bleu). Crédit image : Andy Sproles, ORNL

Notes

*Le Joint Quantum Institute (JQI) est en fait un groupe fonctionnant "grâce aux travaux d'éminents scientifiques quantiques du département de physique de l'université du Maryland (UMD), de l'Institut national des normes et de la technologie (NIST) et du Laboratoire des sciences physiques (LPS). Chaque institution apporte au JQI des programmes de recherche expérimentale et théorique majeurs qui sont dédiés aux objectifs de contrôle et d'exploitation des systèmes quantiques". (JQI - À propos). A noter que notamment par le biais du NIST, ils bénéficieront du budget américain 2019 pour le QIS.

Quelques références

Alvarez-Rodriguez, U., M. Sanz, L. Lamata & E. Solano, "Vie artificielle quantique dans un ordinateur quantique IBM“, Nature, Rapports scientifiques volume 8, Numéro d'article : 14793 (2018) - Publié le 4 octobre 2018.

Biamonte Jacob, Peter Wittek, Nicola Pancotti, Patrick Rebentrost, Nathan Wiebe & Seth Lloyd, "L'apprentissage par machine quantique“, Nature, volume 549, pages 195-202, 14 septembre 2017 ; révisé le 10 mai 2018 arXiv:1611.09347v2.

Biercuk Michael J., et Richard Fontaine, "Le saut dans la technologie quantique : Une introduction pour les professionnels de la sécurité nationale,” La guerre sur les rochersLe 17 novembre 2017.

Biercuk, Michael J., Université de SydneyConstruire l'avenir quantiqueFête de la pause, 2 mars 2017.

Bruza, Peter D., Jerome Busemeyer, Liane Gabora, "Introduction au numéro spécial sur la cognition quantique“, Journal of Mathematical Psychology (en anglais), 53, 303-305, arXiv:1309.5673v1

Bruza, Peter D., Zheng Wang, Jerome R. Busemeyer, "Cognition quantique : une nouvelle approche théorique de la psychologie“,  Tendances dans les sciences cognitivesVolume 19, numéro 7, juillet 2015, pages 383-393.

Service de recherche du Congrès, Federal Quantum Information Science : Une vue d'ensemble2 juillet 2018.

Degen, C. L., F. Reinhard, P. Cappellaro, "Détection quantique"Soumis le 8 novembre 2016 (v1), dernière révision le 6 juin 2017 (cette version, v2), arXiv:1611.02427v2 - quant-ph.

Dirjish, Mathew, "La plate-forme de détection quantique est désormais une réalité"., SensorsOnlineLe 30 juillet 2018.

Bureau exécutif du président des États-Unis, Aperçu stratégique national pour les sciences de l'information quantique, septembre 2018.

Fowler, Austin G., Matteo Mariantoni, John M. Martinis, Andrew N. Cleland, "Codes de surface : Vers un calcul quantique pratique à grande échelle"A 86, 032324 (2012), arXiv:1208.0928v2

The Red (Team) Analysis Weekly - Une évidente énigme du 21e siècle - 11 octobre 2018

Chaque semaine, notre analyse recueille des signaux faibles - et moins faibles - de risque politique et géopolitique qui intéressent les acteurs privés et publics.

Pour en savoir plus sur l'exploration de l'horizon, les signaux, leur nature et leur utilisation :

Analyse d'horizon et surveillance pour l'anticipation : Définition et pratique“.

Bienvenue dans l'énigme désormais évidente du XXIe siècle: Le changement climatique, qui a déjà un impact (nous vous l'avions dit), entraîne des coûts énormes. Pour les réduire - c'est un euphémisme - il faudrait des moyens et des dépenses immenses et croissantes. Par conséquent, les profits et l'utilisation de ce qui est au cœur de notre civilisation actuelle - les combustibles fossiles - semblent nécessaires, mais alors le changement climatique et ses coûts augmenteront... En quoi est-ce une énigme intéressante ?

La solution pour sortir de cette spirale infernale qui s'accélère pourrait être de penser et d'agir hors des sentiers battus, notamment en étant suffisamment puissant et intelligent pour inciter les élites et les acteurs du pouvoir à ne pas faire dérailler les efforts. Il faut néanmoins s'attendre à des dommages directs et collatéraux inévitables.

Lisez ci-dessous notre dernière analyse gratuite de l'horizon hebdomadaire. 
Continuer la lecture « The Red (Team) Analysis Weekly – An Obvious 21st Century Conundrum – 11 October 2018 »

L'économie américaine, entre le marteau climatique et l'enclume de la guerre commerciale - le cas du soja

Le 24 septembre 2018, le secrétaire américain au commerce a imposé de nouveaux droits de douane sur 200 milliards de dollars de marchandises chinoises, intensifiant ainsi largement la "guerre commerciale" initiée par le président Donald Trump contre la Chine en avril 2018. Pékin a immédiatement riposté en imposant des droits de douane sur 60 milliards de dollars de marchandises américaines (Will Martin, "La Chine revient en force avec des droits de douane sur $60 milliards de marchandises américaines”, Initié aux affaires18 septembre 2018). Certains analystes et commentateurs craignent que les nouveaux tarifs ne se retournent contre eux et n'aient un impact sur les prix des biens de consommation sur le marché intérieur, et donc sur le consommateur américain (Scott Lincicone, "Voici les 202 entreprises lésées par les tarifs de Trump”, Reason.com14 septembre 2018).

Cependant, ces analyses ne tiennent pas compte de l'accent "invisible" mais croissant que le changement climatique exerce sur les conditions géoéconomiques actuelles et sur la manière dont ses impacts se combinent au niveau national et mondial avec la façon dont la guerre commerciale entre les États-Unis et la Chine se déroule et déclenche des conséquences imprévues.

Continuer la lecture « The U.S. Economy, between the Climate Hammer and the Trade War Anvil – the Soybean Case »

The Red (Team) Analysis Weekly - Les tensions entre les États-Unis et la Chine s'intensifient - 4 octobre 2018

Chaque semaine, notre analyse recueille des signaux faibles - et moins faibles - de risque politique et géopolitique qui intéressent les acteurs privés et publics.

Pour en savoir plus sur l'exploration de l'horizon, les signaux, leur nature et leur utilisation :

Analyse d'horizon et surveillance pour l'anticipation : Définition et pratique“.

Lisez ci-dessous notre dernière analyse gratuite de l'horizon hebdomadaire. 

Chaque section de l'analyse se concentre sur les signaux liés à un thème spécifique : le monde (politique internationale et géopolitique) ; l'économie ; la science ; l'analyse, la stratégie et l'avenir ; l'intelligence artificielle, la technologie et les armes ; l'énergie et l'environnement. Toutefois, dans un monde complexe, les catégories ne sont qu'un moyen pratique de présenter des informations, lorsque les faits et les événements interagissent au-delà des frontières.

Lire le scan du 4 octobre 2018

The Weekly est l'analyse gratuite de The Red (Team) Analysis Society. Il se concentre sur l'incertitude politique et géopolitique, sur les questions de sécurité nationale et internationale.

Les informations recueillies (crowdsourcced) ne signifient pas une approbation, mais indiquent des problèmes et des questions nouveaux, émergents, croissants ou stabilisants.

Image en vedette : Les antennes du réseau ALMA (Atacama Large Millimeter/submillimeter Array), sur le plateau de Chajnantor dans les Andes chiliennes. Les grands et petits nuages de Magellan, deux galaxies compagnes de notre propre galaxie, la Voie lactée, sont visibles sous forme de taches brillantes dans le ciel nocturne, au centre de la photo. Ce photographie a été produit par l'Observatoire austral européen (ESO), ESO/C. Malin [CC BY 4.0], via Wikimedia Commons.

Revisiter l'idée de "temps utile" en prospective, alerte précoce et gestion des risques

[Version entièrement réécrite v3] Pour exister, les produits de risque et de prévoyance ainsi que les avertissements doivent être délivrés à ceux qui doivent agir sur eux, les clients, les utilisateurs. Ces analyses d'anticipation doivent également être exploitables, ce qui signifie qu'elles doivent inclure les bonnes informations nécessaires pour voir les mesures prises.

Pourtant, si vous livrez votre anticipation alors qu'il n'y a plus de temps pour faire quoi que ce soit, alors votre travail sera gaspillé.

Pourtant, même si vous livrez à vos clients une prévision stratégique ou une analyse des risques impeccable, ou encore un avertissement crucial et exploitable à temps pour voir une réponse mise en œuvre, mais à un moment où vos clients, les décideurs ou les responsables politiques ne peuvent vous entendre, alors votre effort d'anticipation sera à nouveau gaspillé. Permettez-moi de vous donner un exemple. Si vous regardez l'image utilisée comme image vedette, ce que vous voyez est le gouvernement Obama dans une salle de situation alors qu'il attend des mises à jour sur le Opération Neptune's Spearla mission contre Oussama Ben Laden. Imaginez maintenant que vous avez un autre avertissement à donner (et l'autorisation de le faire) sur n'importe quel autre sujet, un avertissement à fort impact mais qui doit avoir lieu dans, disons, deux ans. Croyez-vous sérieusement que quelqu'un dans cette salle vous écouterait - ou plutôt pourrait vous écouter ? Si jamais vous donniez quand même votre avertissement, vous ne seriez pas entendu. Il est évident que, par conséquent, aucune décision ne serait prise. Votre client serait contrarié, tandis que la réponse nécessaire ne serait pas mise en œuvre. Enfin, des problèmes sans fin, y compris des crises, apparaîtraient et se propageraient.

La livraison d'une analyse ou d'un produit d'anticipation doit donc obéir à une règle essentielle : elle doit être faite en temps utile. Actualité est un critère fondamental pour une bonne anticipation, une bonne gestion des risques et une bonne prévision et alerte stratégique.

Dans cet article, nous examinerons tout d'abord la rapidité comme critère permettant de coordonner la réponse. Nous l'expliquerons à l'aide de l'exemple controversé du "pic pétrolier". Deuxièmement, la rapidité signifie que les clients ou les utilisateurs auront non seulement suffisamment de temps pour décider et ensuite mettre en œuvre toute action nécessaire, comme le justifient vos prévisions et vos alertes stratégiques ou votre analyse des risques, mais aussi qu'ils pourront vous entendre. C'est le problème de la crédibilité et du dépassement d'autres préjugés. Nous expliquerons cette partie en utilisant à nouveau les exemples du pic pétrolier et en prenant comme second exemple le changement climatique. Enfin, nous indiquerons une approche synthétique pour comprendre l'opportunité et les moyens d'y parvenir.

Rapidité : permettre la coordination de la réponse

rapidité, opportunité, crédibilité, biais cognitifs, la Red (Team) Analysis Society, gestion des risques, prospective stratégique, alerte stratégique, anticipation, scénario, pic pétrolier, changement climatique

Le plus souvent, le défi de l'opportunité est compris comme découlant de la nécessité de concilier, d'une part, les dynamiques propres à la question, objet de l'anticipation, et, d'autre part, les décisions connexes et la coordination de la réponse.

Prenons l'exemple du pic pétrolier, c'est-à-dire la date à laquelle "la production mondiale de pétrole atteindra un maximum - un pic - après quoi la production diminuera" (Hirsch, 200511), ce qui implique la fin d'une disponibilité généralisée de pétrole bon marché (brut conventionnel). M. Hirsch a souligné que le problème du calendrier, c'est-à-dire la détermination du moment où le pétrole atteindra son pic, est complexe

"On ne sait pas avec certitude quand le pic pétrolier mondial aura lieu. Un problème fondamental dans la prévision du pic pétrolier est la mauvaise qualité des données sur les réserves mondiales de pétrole et les possibles biais politiques dans ces données. Certains experts pensent que le pic pourrait se produire bientôt. Cette étude indique que "bientôt" est dans les 20 ans. " (Hirsch, 2005, 5)

Ainsi, selon Hirsch, le pétrole devrait atteindre son pic avant 2025.

En 2018, l'idée du pic pétrolier peut être considérée comme dépassée ou carrément fausse, fondée sur une science erronée, comme l'illustre Michael Lynch, "Qu'est-il arrivé au pic pétrolier ?“, ForbesLe 29 juin 2018. Il est à noter que ces arguments étaient déjà utilisés avant une phase de reconnaissance relativement large du phénomène du pic pétrolier vers 2010, à partir de rapports de scientifiques, d'associations, d'institutions et de livres (voir, par exemple, la création du Association pour l'étude du pic pétrolier et gazier en 2000 , Rapport de Robert Hirsch (2005), la Institut Français du Pétrole (IFP), Thomas Homer Dixon en 2006, Michael Klare ou Jeff Rubin en 2010), à des ressources web telles que la défunte Le baril de pétrole et le Bulletin de l'énergie pour enfin Agence internationale de l'énergie (AIE - elle a reconnu le pic pétrolier en 2010, par exemple Staniford, 2010), malgré une certaine résistance de la part d'un nombre réduit d'acteurs à ce moment-là. Depuis lors, notamment, la révolution des schistes a eu lieu, tandis que le changement climatique a permis un accès plus facile aux gisements de pétrole et de gaz du nord (par exemple Jean-Michel Valantin, "Le pétrole russe de l'Arctique : un nouveau paradigme économique et stratégique ?”, The Red Team Analysis Societyle 12 octobre 2016).

Le pic pétrolier n'est donc pas très à l'ordre du jour, même si certains continuent de penser qu'il aura lieu, comme le montrent les sites Internet Le baril de pétrole de pointe ou Le pic du pétrole brutce qui suggère que le pétrole atteindra son maximum lorsque le schiste américain sera à son maximum ("Qu'est-il arrivé à la production de pétrole brut après le premier pic de 2005 ?", septembre 2018). Le pic dans les schistes américains devient ainsi un enjeu important (par exemple Robert Rapier, "Un pic pétrolier d'ici 2022 ? L'EIA pense que c'est possible, sans même tenir compte de ce risque“. Forbes, 20 février 2018 ; Tsvetana Paraskova, "Le pic du schiste américain pourrait être atteint dans 4 ans“, Prix du pétrole25 février 2018).

Si les autres partisans du pic pétrolier ont raison et si certaines des hypothèses de l'EIA sont correctes, alors le pic pétrolier pourrait avoir lieu vers 2022. Cela n'est pas si éloigné des estimations de Hirsch selon lesquelles le pic pétrolier pourrait avoir lieu d'ici 2025.

Nous devons néanmoins tenir compte des évolutions considérables qui ont eu lieu au cours des 13 dernières années, notamment en termes de technologie, y compris l'intelligence artificielle, de comportement de consommation, de consommation globale et de changement climatique. Nous devons également tenir compte des révolutions à venir, telles que les technologies quantiques, qui pourraient bouleverser complètement de nombreuses estimations. Tant que tous ces développements avec leurs rétroactions complexes n'auront pas été pris en compte, sans oublier que Hirsch a parlé de la disponibilité du pétrole bon marché et non de la disponibilité du pétrole cher, alors nous devons rester conservateurs et traiter 2025 comme une simple possibilité (une probabilité de 50%) pour le pic pétrolier.

rapidité, opportunité, crédibilité, biais cognitifs, la Red (Team) Analysis Society, gestion des risques, prospective stratégique, alerte stratégique, anticipation, scénario, pic pétrolier, changement climatique, sécurité énergétique

Nonobstant d'autres impacts, Hirsch estime que 20 ans de "programme d'atténuation des accidents avant le pic" auraient permis d'éviter "une pénurie mondiale de combustibles liquides" (Hirsch, 2005, 65).

Ainsi, en supposant que le pétrole atteigne son maximum en 2025, si nous voulons disposer d'un mélange énergétique pour remplacer le pétrole bon marché qui va bientôt disparaître, nous devrions avoir décidé de mettre en œuvre puis de coordonner une réponse... dès 2005. Il est intéressant de noter que cela correspond à l'époque où Hirsch a publié son rapport, et à celle où le monde a commencé à s'inquiéter du pic pétrolier. On peut donc se demander si, dans certains pays, ainsi que collectivement, la SF&W sur cette question n'a pas été réellement livrée.

Pour répondre plus précisément à cette question, des recherches supplémentaires, lorsque les archives seront déclassifiées, devront être effectuées. En attendant, il sera utile de suivre précisément le processus de diffusion, notamment, selon les pays et les acteurs, de savoir où exactement l'alerte a été diffusée et à qui.

Si nous supposons maintenant que les estimations de Hirsch concernant le temps nécessaire pour mettre au point des mesures d'atténuation et un nouveau bouquet énergétique sont correctes, nous pouvons considérer que Hirsch, ainsi que l'intérêt pour le "pic pétrolier" de la deuxième partie de la première décennie du XXIe siècle, ont connu un déclin opportun, en ce qui concerne le temps nécessaire pour mettre en œuvre des réponses.

Si et où les bonnes décisions ont été prises et les bonnes réponses mises en œuvre devront être évaluées au cas par cas.

Passons maintenant à d'autres critères qui conditionnent l'opportunité de la fourniture d'une analyse de risque ou de prévision ou d'un avertissement.

Opportunité, crédibilité et préjugés

Jack Davis, qui écrit sur l'alerte stratégique dans le cas de la sécurité nationale des États-Unis, fait allusion à l'importance d'un autre critère lié à l'opportunité, la crédibilité :

rapidité, opportunité, crédibilité, biais cognitifs, la société d'analyse Red (Team), gestion des risques, prospective stratégique, alerte stratégique, anticipation, scénario, pic pétrolier, changement climatique, intelligence

"Les analystes doivent émettre un avertissement stratégique suffisamment longtemps à l'avance de l'événement redouté pour que les responsables américains aient la possibilité de prendre des mesures de protection, mais avec la crédibilité pour les motiver à le faire. Ce n'est pas une mince affaire. Attendre des preuves que l'ennemi est à la porte échoue généralement le test de l'opportunité ; la prédiction de crises potentielles sans preuves tangibles peut échouer le test de la crédibilité. Lorsque les analystes sont trop prudents dans leurs jugements estimatifs sur les menaces, ils peuvent être accusés de ne pas avoir donné l'alerte. Lorsqu'ils sont trop agressifs dans l'émission d'avertissements, ils se voient reprocher de "crier au loup".

Davis, Jack, "Improving CIA Analytic Performance: Strategic Warning,” The Sherman Kent Center for Intelligence Analysis Occasional Papers: Volume 1, numéro 1, consulté le 12 septembre 2011.

Pour M. Davis, la crédibilité consiste à fournir des "preuves tangibles" pour étayer la prévision stratégique, ou en fait toute analyse d'anticipation. Bien entendu, à l'avenir, les preuves tangibles consisteront en une compréhension des processus et de leur dynamique (le modèle utilisé, de préférence un modèle explicite) ajoutée à des faits indiquant que les événements sont plus ou moins susceptibles de se dérouler selon cette compréhension. C'est pourquoi, la construction d'un excellent modèle (voir notre cours en ligne), fondée sur la science est si importante, car elle sera essentielle pour atteindre le critère de crédibilité.

Mais la crédibilité est aussi quelque chose de plus que des preuves tangibles. Pour être crédible, il faut que les gens vous croient. Il faut donc surmonter les préjugés des clients, des consommateurs ou des utilisateurs. Ainsi, quelle que soit la validité des preuves tangibles aux yeux de l'analyste, elles doivent également être perçues comme telles par les autres. Les différents biais qui peuvent faire obstacle à cette crédibilité ont commencé à être largement documentés (par exemple Heuer). En fait, expliquer le modèle utilisé et fournir des indications, ou décrire des scénarios plausibles sont des moyens de surmonter certains biais, notamment les modèles cognitifs dépassés. Cependant, s'appuyer uniquement sur cette logique scientifique est insuffisant, comme le montrent Craig Anderson, Mark Lepper et Lee Ross dans leur article "Persévérance des théories sociales : Le rôle de l'explication dans la persistance d'informations discréditées.” Il faut donc imaginer et inclure d'autres moyens de minimiser les préjugés. La possibilité de livrer le produit SF&W ou à risque sera retardée en conséquence.

La crédibilité et, plus largement, le dépassement des préjugés sont si importants que j'irais plus loin que Davis et les intégrerais dans l'idée même d'opportunité. Cela serait beaucoup plus proche de la définition de l'opportunité, selon laquelle quelque chose est "fait ou se produit à un moment favorable ou utile ; opportun" (résultat du dictionnaire Google pour opportun). En effet, il ne peut y avoir de SF&W ou de gestion des risques en temps utile si ceux qui doivent agir ne peuvent entendre l'avertissement ou l'analyse que nous cherchons à fournir.

Si le produit SF&W ou l'analyse de risque est livré au mauvais moment, il ne sera ni entendu ni pris en compte, aucune décision ne sera prise et aucune action ne sera mise en œuvre.

Plus difficile, les préjugés affectent également la capacité même des analystes à penser le monde et donc à commencer à analyser les problèmes. Nous sommes là confrontés à des cas d'aveuglement collectif partiel ou total, lorsque l'opportunité ne peut être obtenue parce que l'analyse des SF&W ou des risques ne peut même pas commencer dans les secteurs spécifiques de la société où cette analyse doit être faite.

Si nous reprenons notre exemple du pic pétrolier, l'avertissement de 2005 aurait pu perdre une partie de son actualité, en raison du débat sur sa crédibilité, qui subsiste encore aujourd'hui et qui est illustré dans l'article de Forbes mentionné ci-dessus. D'autre part, la décision du Agence internationale de l'énergie (AIE) de reconnaître enfin le pic pétrolier en 2010 (par exemple Staniford, 2010) a donné un caractère officiel au phénomène, ce qui était très probablement extrêmement important pour permettre enfin la crédibilité de l'alerte.

Nous sommes confrontés à des enjeux et des défis très similaires en matière de changement climatique, comme le montrent une fois de plus les derniers débats présidant au rapport du GIEC d'octobre 2018 (Matt McGrath, "GIEC : Les climatologues examinent le rapport sur le "changement de vie“, BBC News1er octobre 2018). Tragiquement, dans ce cas, les attaques continues sur la crédibilité des différentes alertes concernant le changement climatique au cours des années, ont finalement aussi très probablement mis en danger la possibilité de réagir à temps pour rester en dessous d'un réchauffement de 1,5C :

"Pour certains scientifiques, il ne reste pas assez de temps pour prendre les mesures qui permettraient de maintenir le monde dans la limite souhaitée.
Si vous examinez sérieusement la faisabilité, il semble qu'il sera très difficile d'atteindre le 1,5C", a déclaré le professeur Arthur Petersen, de l'University College London et ancien membre du GIEC.
Je suis relativement sceptique quant à la possibilité d'atteindre 1,5C, même en cas de dépassement. Les scientifiques peuvent imaginer que c'est faisable, mais c'est un rêve éveillé". (MacGrath, "IPCC : Climate scientists ...)

Cela montre à quel point la question de la crédibilité est absolument cruciale pour qu'un avertissement respecte le critère de rapidité.

L'actualité comme intersection de trois dynamiques

Pour résumer, l'actualité est mieux considérée comme l'intersection de trois dynamiques :

rapidité, opportunité, crédibilité, biais cognitifs, la Red (Team) Analysis Society, gestion des risques, prospective stratégique, alerte stratégique, anticipation, scénario, pic pétrolier, changement climatique
  • La dynamique et le moment de la question ou du problème en question, sachant que, surtout lorsqu'il s'agit de la nature, cette dynamique aura tendance à prévaloir (Elias, 1992)
  • La dynamique de la coordination de la réponse (y compris la décision)
  • La dynamique de la cognition (ou l'évolution des croyances et de la conscience, y compris les biais résultant des intérêts) - au niveau collectif et individuel - des acteurs impliqués.

Comprendre chaque dynamique est, en soi, un défi. Plus difficile encore, chaque dynamique agit sur les autres, ce qui rend impossible d'espérer vraiment atteindre l'actualité si l'impact d'une dynamique sur les autres est ignoré.

Par exemple, si nous continuons avec le cas du changement climatique, n'ayant pas été capables de vraiment penser collectivement à la possibilité d'un changement climatique dans sa terrible réalité et avec un calendrier plus précis avant le début du siècle - malgré de multiples efforts dans ce sens (par exemple Richard Wiles, "Cela fait 50 ans que le changement climatique a été observé pour la première fois. Aujourd'hui, le temps presse“, The Guardian15 mars 2018), a radicalement changé la dynamique actuelle possible de la réponse, tandis que le retard cognitif et l'absence de décisions et d'actions antérieures ont orienté la dynamique de la question vers certaines voies, tandis que d'autres sont définitivement fermées. Comme l'ont montré les discussions du groupe d'experts du GIEC d'octobre 2018 (Ibid.), toute évaluation des sciences, de la technologie et de l'eau ou des risques réalisée aujourd'hui sur cette question est très différente de ce qui a été réalisé précédemment.

Reconnaître la difficulté de trouver le moment opportun et l'impossibilité de pratiquer un idéal de science et de technologie dans un monde imaginaire où chacun - au niveau individuel et collectif - aurait une connaissance parfaite, n'est pas une négation de la science et de la technologie ou de la gestion des risques. Répondre au "défi de l'opportunité" par un "à quoi bon le faire maintenant car nous ne l'avons pas fait quand les choses étaient plus faciles/plus faciles" est au mieux puéril, au pire suicidaire.

Au contraire, reconnaître pleinement les obstacles, c'est avoir une attitude plus mature sur ce que nous sommes en tant qu'êtres humains, en acceptant nos défauts mais aussi en ayant confiance dans notre créativité et notre capacité à travailler pour surmonter les défis les plus difficiles. C'est ouvrir la porte à la possibilité d'élaborer des stratégies et des politiques connexes avec des outils adéquats pour améliorer l'opportunité de la gestion des SF&W et des risques, la rendant ainsi plus facile à mettre en œuvre et plus efficace :

  • Créer des produits évolutifs qui seront adaptés au moment de la livraison ;
  • Utiliser la publication de groupes, de communautés, de travaux universitaires ou autres sur les nouveaux dangers, menaces et opportunités comme signaux faibles potentiels encore impensables par la majorité ;
  • Développer et approfondir notre compréhension des dynamiques de la cognition et trouver les moyens d'agir sur elles ou, à tout le moins, de les accompagner ;
  • Garder en permanence à l'esprit cette question cruciale en prévision de rechercher et de mettre en œuvre des stratégies adéquates pour la surmonter, en fonction des idées, des humeurs, de la science et des technologies disponibles au moment de la livraison.

——–

Il s'agit de la 3ème édition de cet article, considérablement révisée par rapport à la 1ère édition, 14 septembre 2011.

Image : Salle de situationPete Souza [domaine public], via Wikimedia Commons

À propos de l'auteur: Dr Hélène LavoixM. Lond, PhD (relations internationales), est le directeur de la Red (Team) Analysis Society. Elle est spécialisée dans la prévision et l'alerte stratégiques pour les questions de sécurité nationale et internationale. Elle se concentre actuellement sur l'intelligence artificielle et la sécurité.


Références

Anderson, Craig A., Mark R. Lepper, et Lee Ross, "Persévérance des théories sociales : Le rôle de l'explication dans la persistance d'informations discréditéesJournal of Personality and Social Psychology 1980, Vol. 39, No.6, 1037-1049.

Campbell, Colin J. et Jean H. Laherrere, "La fin du pétrole bon marché,”Scientifique américain, mars 1998.

Davis, Jack, "Improving CIA Analytic Performance: Strategic Warning,” The Sherman Kent Center for Intelligence Analysis Occasional Papers: Volume 1, numéro 1, consulté le 12 septembre 2011.

Dixon, Thomas Homer, The Upside of Down: Catastrophe, Creativity and the Renewal of civilization(Knopf, 2006).

Elias, Norbert,  Le temps : un essai(Oxford : Blackwell, 1992)

Hirsch, Robert L., SAIC, Chef de projet, Roger Bezdek, MISI, Robert Wendling, MISI Le pic de la production mondiale de pétrole : Impacts, atténuation et gestion des risquesPour le DOE américain, février 2005.

Agence internationale de l'énergie (AIE), Perspectives énergétiques mondiales 2010.

Klare, Michael, Le sang et le pétrole : Les dangers et les conséquences de la dépendance croissante de l'Amérique à l'égard des importations de pétrole(New York : Metropolitan Books, 2004 ; livre de poche, Owl Books, 2005).

Klare, Michael, Pouvoirs en hausse, planète en baisse : La nouvelle géopolitique de l'énergie (Henry Holt & Company, Incorporated, 2008).

Rubin, Jeff, Pourquoi votre monde est sur le point de devenir beaucoup plus petit : Le pétrole et la fin de la mondialisationRandom House, 2009.

Staniford, Stuart, "L'AIE reconnaît le pic pétrolierPublié le 10 novembre 2010, Bulletin de l'énergie.

Gagner la course au calcul à l'échelle - IA, puissance de calcul et géopolitique (4)

Cet article se concentre sur la course à l'exascale computing et ses impacts politiques et géopolitiques multidimensionnels, une réponse cruciale que les principaux acteurs mettent en œuvre en termes de puissance de calcul haute performance (HPC), notamment pour le développement de leurs systèmes d'intelligence artificielle (IA). Il termine donc pour l'instant notre série sur le HPC comme moteur et enjeu de l'IA, parmi les cinq que nous avons identifiés dans Intelligence artificielle - Forces, moteurs et enjeux : les grandes données classiques, le HPC et la course à la suprématie quantique comme incertitude critique connexe, les algorithmes, les "capteurs et les exprimeurs", et enfin les besoins et les usages.

Liens connexes

Intelligence artificielle, puissance de calcul et géopolitique (1): le lien entre l'IA et le HPC

Intelligence artificielle, puissance informatique et géopolitique (2)ce qui pourrait arriver à des acteurs dont le HPC est insuffisant dans un monde AI, un monde où la distribution du pouvoir résulte désormais aussi de l'AI, alors qu'une menace pour l'ordre westphalien émerge

Course et puissance du calcul haute performance - Intelligence artificielle, puissance de calcul et géopolitique (3): Le cadre complexe dans lequel les réponses disponibles aux acteurs en matière de HPC, compte tenu de son importance cruciale, doivent être situées.

Cette dernière pièce s'appuie sur le première partieoù nous avons expliqué et détaillé le lien entre l'IA et le HPC, et sur le deuxième partie, où nous avons examiné les impacts politiques et géopolitiques connexes : ce qui pourrait arriver aux acteurs ayant une HPC insuffisante dans un monde AI, un monde où la distribution du pouvoir résulte désormais aussi de l'AI, tandis qu'une menace pour l'ordre westphalien émerge. Les réponses disponibles pour les acteurs en termes de HPC, compte tenu de son importance cruciale, doivent se situer dans le cadre complexe que nous avons expliqué dans troisième partie. Par conséquent, premièrement, les décisions concernant la capacité de développement du HPC doivent être prises en termes relatifs, c'est-à-dire en tenant compte du HPC et des IA des autres. Deuxièmement, chaque acteur engagé dans la course doit considérer à quelle vitesse les autres acteurs développeront des capacités de HPC plus fortes. Enfin, plus les acteurs qui investissent disposent d'un délai d'exécution plus long pour la prochaine avancée révolutionnaire dans le domaine du HPC, plus ils retardent la perte de valeur de leur investissement et plus ils peuvent créer des systèmes d'IA performants, ce qui leur donne une fenêtre d'opportunité pour tirer pleinement parti de leur IA supérieure.

Dans ce cadre dynamique, nous examinons les réponses politiques évidentes que les acteurs ont conçues : disposer d'un HPC plus nombreux et meilleur, plus tôt, que les autres. Cela se traduit par la course permanente à l'exascale computing, c'est-à-dire la mise en ligne d'un ordinateur d'une capacité de mille pétaflops ou 1018 opérations en virgule flottante par seconde, sachant que, actuellement, l'ordinateur le plus puissant du monde, Sommet américainLe rapport de la Commission européenne sur les performances des systèmes de gestion de l'information, qui présente une performance de 122,3 pétaflops (TopList 500 juin 2018). Nous commençons par un état des lieux de la "course à l'exascale" en cours, qui implique chronologiquement le Japon, les États-Unis, la France, la Chine et l'UE. Nous incluons notamment les dernières informations sur l'initiative des transformateurs européens autochtones (4-6 septembre 2018). Le tableau résumant l'état des lieux ci-dessous est en accès libre/gratuit.

Nous soulignons ensuite les liens entre cette course et les dynamiques économiques, commerciales, politiques, géopolitiques et mondiales, en nous concentrant notamment sur la disparition probable de la suprématie américaine en matière de processeurs.

Enfin, stratégiquement, si cette course signifie aller plus vite que d'autres en développant de meilleures machines, elle peut aussi impliquer, logiquement, de ralentir autant que possible, par tous les moyens, ses concurrents. Perturber la course elle-même serait un moyen idéal de ralentir les autres, tout en bouleversant complètement le domaine de l'IA et du HPC, en relativisant la course à l'exascale et en changeant ainsi tout le paysage technologique, commercial, politique et géopolitique qui y est lié. Ainsi, nous soulignons deux évolutions et facteurs perturbateurs majeurs qui pourraient avoir lieu, à savoir l'informatique quantique et une AI de troisième génération. Nous les détaillerons dans les prochains articles, car l'informatique quantique est un moteur et un enjeu pour l'IA en soi, tandis qu'une IA de troisième génération peut être considérée comme appartenant au moteur et à l'enjeu que constituent les algorithmes ("Intelligence artificielle - Forces, moteurs et enjeux", ibid).

La course à l'échelle

L'accès des non-membres est limité au tableau résumant l'état de la course à l'exascale. Le texte complet est un article premium. Pour accéder à cet article, vous devez devenir l'un de nos membres. Log in si vous êtes membre.
Une version pdf de l'article complet (EN et FR) est disponible pour les membres
ARTICLE 3951 MOTS - pdf 17 pages

État des lieux

En septembre 2018, l'état des lieux de la course à l'exascale est le suivant :

La course à l'échelle - Etat des lieux - 24 septembre 2018
  Japon ÉTATS-UNIS Chine UE France
Pré-ES et prototype   2013-2020 Juin 2018 Prototype d'ordinateur Sunway exascale
Juillet 2018 Prototype Tianhe-3
2021 2015, 2018 Tera1000
SSE de pointe et SSE soutenue 2021 Post-K 2021 Aurore - Laboratoire national d'Argonne (ANL)
2021 Frontier -Oak Ridge National Laboratory (ORNL)
2022 El Capitan - Lawrence Livermore National Laboratory (LLNL)
2022-2023 Modernisation des aurores
2020 - Tianhe-3

 

2e semestre 2020 ou premier semestre 2021 - Sunway Exascale

 2023-2024 (EPI)

 

(Initialement 2022-2023 - Officiel) 

2020-2021

 

BullSequana X

Objectif d'efficacité énergétique   20-30 MW 20-32MW 20-40 MW 20 MW d'ici 2020
Initiative Projet phare 2020 ECP 13e plan quinquennal EuroHCP CEA
Budget $0,8 à 1 milliard*** $ 1,8 milliard pour les 2 machines ORNL et LLNL ? Plus d'un milliard d'euros d'ici 2020** ?
Vendeurs Japon ÉTATS-UNIS Chinois Europe France
Processeur, accélérateur, intégrateur Japon

 

Un bras conçu par Fujitsu

ÉTATS-UNIS  Basé sur l'ARM chinois, Sugon : x86 European Processor Initiative (EPI) (Arm, RISC-V) RHEA, processeur de première génération pour le pré Exascale - CRONOS pour Exascale
Intégrateur Bull BXI
Intel, ARM, Bull Exascale Interconnect (BXI)
Coût par système   Aurore:$300 à $600 millions.
Frontière et El Capitan : $400 à 600 millions
$350 à 500 millions*** $350 millions*** ?
Recherche par la Red (Team) Analysis Society - Sources détaillées dans le texte.

Rétroactions et impacts

Pour continuer la lecture, devenir membre . Si vous êtes déjà membre, veuillez login (n'oubliez pas de rafraîchir la page).

Notes et bibliographie complémentaire

*ne fabrique pas les plaquettes de silicium, ou puces, utilisées dans ses produits ; elle sous-traite plutôt le travail à une usine de fabrication, ou fonderie. Nombre de ces fonderies sont situées à Taïwan et en Chine..." (Investopedia)

** 486 millions d'euros, auxquels s'ajoutent des contributions en nature des acteurs privés ("La Commission propose d'investir 1 milliard d'euros dans des supercalculateurs européens de classe mondiale"Commission européenne - Communiqué de presse, 11 janvier 2018)

***Hyperion Research, "Mise à jour de l'échelle", 5 septembre 2018.

CEA, Atos et le CEA placent TERA 1000, le supercalculateur le plus puissant d'Europe, dans le Top 15 mondialle 25 juin 2018

CEA, TERA 1000 : 1er défi relevé par le CEA pour l'Exascale12 novembre 2015

Collins, Jim, "Appel à propositions : Le programme Aurora Early Science s'étend pour inclure des projets de données et d'apprentissage"Laboratoire national de l'Argonne, 18 janvier 2018

e-IRG, "Interview de Philippe Notton, coordinateur de projet d'EPI chez Atos", 10 avril 2018

ECP, "LE SECRÉTAIRE D'ÉTAT À L'ÉNERGIE, RICK PERRY, ANNONCE UNE INITIATIVE DE $1,8 MILLIARD POUR DE NOUVEAUX SUPERORDINATEURS", 9 avril 2018

Lobet, Mathieu, Matthieu Haefele, Vineet Soni, Patrick Tamain, Julien Derouillat, et al. Le calcul haute performance à l'échelle industrielle : défis et avantages. 15ème congrès de la Société Française de Physique division Plasma, juin 2018, Bordeaux, France.

Thielen, Sean, "L'avantage de l'Europe dans la course à l'exascale“, La prochaine plate-forme5 septembre 2018

Valero, Mateo, Initiative pour les processeurs européens & RISC-Vle 9 mai 2018

Image en vedette: Science informatiqueLaboratoire national d'Argonne, domaine public.

Renseignement, prospective et alerte stratégiques, gestion des risques, prévision ou futurisme ?

Ce site web est axé sur l'anticipation de toutes les questions relatives aux risques et incertitudes politiques et géopolitiques, à la sécurité nationale et internationale, aux questions de sécurité traditionnelles et non traditionnelles ou, pour utiliser une approche militaire, à la sécurité conventionnelle et non conventionnelle[1]. En d'autres termes, nous traiterons de toutes les incertitudes, risques, menaces, mais aussi opportunités, qui ont un impact sur la gouvernance et les relations internationales, des pandémies à l'intelligence artificielle en passant par les technologies perturbatrices, de l'énergie au changement climatique, de l'eau aux guerres. Cette activité peut être appelée plus spécifiquement prospective et alerte stratégique (SF&W) ou gestion des risques, même s'il existe de légères différences entre les deux. La définition que nous utilisons s'appuie sur la pratique et les recherches des experts et praticiens de longue date Fingar, Davis, Grabo et Knight.

Définition de la prospective et de l'alerte stratégiques - Gestion des risques liés aux incertitudes stratégiques

"La prévision et l'alerte stratégiques (gestion des risques liés aux incertitudes stratégiques) est un processus organisé et systématique visant à réduire l'incertitude quant à l'avenir, qui a pour but de permettre aux responsables politiques et aux décideurs de prendre des décisions avec un délai suffisant pour que ces décisions soient mises en œuvre au mieux". (Fingar, Davis, Grabo et Knight)

D'une manière générale, elle s'inscrit dans le domaine de l'anticipation - ou des approches du futur, qui comprend également d'autres perspectives et pratiques centrées sur d'autres thèmes.

Le programme SF&W peut emprunter des idées et des méthodologies à ces approches, tout en les adaptant à son objectif spécifique, et c'est ce qu'il fait. Par exemple, un pays comme Singapour, avec son Évaluation des risques et analyse d'horizon - Bureau du programme RAHSqui fait partie de la Secrétariat de coordination de la sécurité nationale au Cabinet du Premier ministre, utilise un mélange de la plupart de ces perspectives, les retravaille et les combine pour ses propres besoins, tout en créant et en concevant des outils, des méthodologies et des processus originaux. En outre, divers acteurs utilisent également des noms différents pour les SF&W, ou des approches très similaires. Il est donc important de clarifier la signification des différents labels et noms, même si les frontières entre les catégories sont souvent floues.

Nous trouvons, par ordre alphabétique (le point "Système d'alerte précoce" se trouve sous la rubrique "Alerte") :

Futures études (aussi futurologie)

Les études de prospective (également la futurologie), pratiquées par les futuristes, se sont développées depuis les années 1960. Elle a, au départ, comme principal marché les organisations à but lucratif, c'est-à-dire les entreprises et les sociétés, bien qu'elle ait aussi de plus en plus tendance à fournir des services aux collectivités territoriales et aux agences de l'État, généralement dans des domaines sans rapport avec la sécurité (par exemple, l'urbanisme, l'éducation, l'avenir du travail, etc.) ). Compte tenu de la vision de ses pères fondateurs et des textes connexes, elle tend à se caractériser par une vision utopique favorable à la paix, une insistance sur l'intention humaine, une pluridisciplinarité spécifique axée sur l'économie et les affaires, la technologie, certaines parties de la sociologie et de l'anthropologie, la critique littéraire et la philosophie. Elle tend également à avoir été influencée par le post-modernisme. Il est le plus souvent enseigné dans les écoles de commerce ou dans le cadre de programmes de gestion, comme le L'école de Whartonde Turku Centre de recherche sur l'avenir de la Finlandeou le Université de HoustonCentre de recherche d'Hawaï pour les études prospectives semble être une exception à la règle puisqu'il fait partie du département des études politiques. Elle tend à être fortement ancrée dans une approche post-moderne.

Prévisions

La prévision fait généralement référence à l'utilisation de techniques quantitatives, notamment de statistiques, pour aborder l'avenir. Ce n'est cependant pas toujours le cas et, par exemple, Glenn et Gordon dans leur étude exhaustive, Méthodologie de la recherche sur l'avenir, ont tendance à utiliser indifféremment les prévisions, les méthodes de prospective et la prévoyance. Comprendre la prévision comme une technique quantitative semble néanmoins être le sens le plus généralisé et le plus clair. Il s'agit d'un outil qui est ou peut être utilisé dans n'importe quelle discipline, par exemple la démographie. Elle est aussi parfois considérée comme la seule façon appropriée d'anticiper l'avenir. Il a alors tendance à ignorer ce qui a été développé dans d'autres domaines et les raisons de cette évolution comme la complexité du monde. De nombreuses approches de la prévision sont principalement axées sur les affaires et l'économie, bien que certaines parties des sciences politiques - notamment celles qui traitent des élections - ou plus rarement certaines parties des relations internationales utilisent également la prévision. On peut notamment se référer ici aux travaux de Philip Schrodtou de la Groupe de travail sur l'instabilité politique - PITF (financé par la CIA).

Prospective

La prospective, notamment en Europe, tend à être utilisée pour des approches de l'avenir axées presque exclusivement sur la science et la technologie, les innovations et la recherche et le développement, par exemple le Plate-forme européenne de prospective qui remplace le Réseau européen de surveillance de la prospective (EFMN), mais aussi ailleurs dans le monde. Si la prospective est destinée à être utilisée pour d'autres questions, elle est alors précisée : par exemple, la prospective en matière de sécurité.

Analyse d'horizon

Le balayage horizontal est utilisé principalement au Royaume-Uni et à Singapour - voir le post "Analyse d'horizon et surveillance pour l'anticipation" pour plus de détails.

Renseignements

Pour la CIA, "Réduit à sa plus simple expression, le renseignement est la connaissance et la prescience du monde qui nous entoure - le prélude à la décision et à l'action des décideurs politiques américains". (CIA, 1999 : vii). Il est à noter que Michael Warner (2002) fait référence à dix-huit définitions différentes du "renseignement". Il est donc plus large que le SF&W et devrait idéalement l'inclure, bien que la fonction SF&W puisse ou non faire partie du système de renseignement. Une différence majeure que l'on peut souligner entre le renseignement d'une part, et les SF&W d'autre part, est que le premier commence par et dépend des exigences des décideurs ou des responsables politiques, tandis que le second ne le fait pas (voir le Cycle SF&W).

Estimation du renseignement national

Aux États-Unis, les "National Intelligence Estimates" (NIE) "représentent un effort analytique coordonné et intégré au sein de l'entreprise de renseignement [américaine] et constituent les jugements écrits de la CI [communauté du renseignement] qui font le plus autorité en matière de sécurité nationale et d'estimation du cours des événements futurs" (ODNI, 2011: 7). Les NIE sont produits par la Conseil national du renseignement (NIC). Le site NIC est l'héritier du Board of National Estimates créé en 1950, qui s'est transformé en National Intelligence Officers en 1973 et qui est finalement devenu le National Intelligence Council, dépendant du directeur de la Central Intelligence, en 1979. Il fait partie du ODNI, Mission Intégration (MI) dirigé par le directeur adjoint du renseignement national pour l'intégration des missions, Edward Gistaro. Ils sont toutefois le résultat d'un effort et d'un processus collectifs. "Les NIE sont généralement demandées par des décideurs politiques civils et militaires de haut niveau, par des dirigeants du Congrès et sont parfois initiées par le Conseil national du renseignement (NIC)" (Estimation des renseignements nationaux - Iran : Intentions et capacités nucléaires, novembre 2007 - pdf). Ils peuvent utiliser ou non des méthodologies de prospective et d'alerte stratégiques, et sont généralement concernés par un calendrier à moyen terme (jusqu'à dix ans). La plupart du temps, les NIE sont classés, mais certains sont publics et peuvent être trouvés dans le Collection NIC (publique). Pour plus de détails sur le processus des NIE, lire, par exemple, Rosenbach et Peritz, "Estimations des services de renseignement nationaux,” 2009.

Évaluation du renseignement national

Les évaluations du renseignement national ou NIA sont des produits tels que les Évaluation de la communauté du renseignement sur la sécurité mondiale de l'eau (février 2012)ou le rapport 2008 Évaluation du renseignement national sur les implications du changement climatique mondial pour la sécurité nationale à l'horizon 2030. Selon Tom Fingar, ancien président du NIC, "La différence entre une NIA et la plus connue des estimations du renseignement national ou NIE s'explique brièvement par le fait qu'une NIA traite de sujets qui sont si lointains ou sur lesquels il y a si peu de renseignements qu'ils ressemblent davantage à des documents de réflexion étendus qu'à une analyse estimative. Les NIA s'appuient davantage sur des hypothèses soigneusement formulées que sur des faits établis". (Fingar, 2009 : 8). Tant les NIE que les NIA soulignent et évaluent la confiance qu'ils ont dans leurs propres jugements et évaluations, ce qui est rarement fait ailleurs et devrait être largement adopté.

La Prospective

La Prospective est l'équivalent français, au sens large, à la fois des approches de prospective et de la prospective stratégique (ou Strategic Futures). On peut notamment se référer aux travaux réalisés par Futuriblesqui se concentre sur le futurisme pour les entreprises, ainsi que sur l'enseignement dispensé à l CNAMnotamment axée sur l'innovation.

Gestion des risques

Gestion des risques 

La gestion des risques (initialement connue sous le nom d'analyse des risques[2]) est une approche de l'avenir qui a été développée par le secteur privé dans le domaine de l'ingénierie, de l'industrie, des finances et des évaluations actuarielles. Elle a commencé à être de plus en plus à la mode dans les années 1990. L'Organisation internationale de normalisation (ISO) la codifie aujourd'hui dans la famille ISO 31000 sous le label de la gestion des risques.[3] La gestion des risques reste principalement un outil du secteur privé avec ses besoins et priorités spécifiques, mais ces approches sont maintenant largement évoquées, intégrées et utilisées au sein des gouvernements. La gestion des risques comprend le contrôle et la surveillance, comme le renseignement, l'alerte stratégique et les SF&W.

Évaluation des risques

L'évaluation des risques est, comme défini dans la gestion des risques, le processus global d'identification, d'analyse et d'évaluation des risques. Elle tend également à être utilisée dans un sens plus large, comme dans le RAHS de Singapour, ou dans le plan quinquennal de la DIA américaine, lorsque cette dernière mentionne qu'elle "fournira une alerte stratégique et une évaluation intégrée des risques" (p.3).

Le risque politique

Le risque politique est le plus souvent pratiqué par de nombreux cabinets de conseil comme une analyse "classique" des conditions politiques dans un pays sans grande méthodologie, au contraire de ce qui devrait être fait.
Les cabinets de conseil traitant du risque et du risque politique traitent en fait assez souvent des "risques pour les infrastructures" et des risques opérationnels directs. Ici, nous sommes davantage dans le domaine des risques tactiques et de la collecte quotidienne de renseignements pour prévenir, par exemple, les attaques terroristes ou criminelles contre des bureaux ou des sites d'exploitation.

Gouvernance des risques

La gouvernance du risque est le label utilisé par la L'OCDE se penche sur la gestion des risques. Bien qu'ils aient commencé par se concentrer sur les risques économiques et infrastructurels, ils abordent maintenant risque tous risques. (Voir également la section Gestion stratégique des crises ci-dessous).

Science

Bien que cela ait tendance à être oublié dans les "cercles d'anticipation" - ou refusé par une partie du monde universitaire dans le cas des sciences sociales pour diverses raisons - la première discipline à s'occuper de l'avenir est la science, car elle ne peut être qualifiée comme telle que si elle a un pouvoir descriptif, explicatif et prédictif (avec bien sûr toutes les spécifications nécessaires et évidentes qui doivent être ajoutées au mot "prédiction", compte tenu notamment de la science de la complexité et de la nécessité d'oublier la prédiction de type boule de cristal 100% pour l'approche probabiliste plus réaliste).

Analyse stratégique

L'analyse stratégique est un terme qui peut être utilisé par diverses institutions, par exemple par l Unité de sensibilisation à la situation de la police de sécurité finlandaise (SUPO)et est définie par eux comme une "évaluation générale des changements dans l'environnement opérationnel, des incidents, des phénomènes ou des menaces" pour les décideurs". On le trouve également mentionné dans le plan quinquennal de la DIA dans le cadre des responsabilités en matière d'alerte stratégique. Il peut donc être considéré comme faisant partie des SF&W.

Anticipation stratégique 

L'anticipation stratégique est un terme vague qui peut être utilisé pour couvrir toutes les activités stratégiques liées à l'avenir.

Prospective stratégique

La prospective stratégique couvre l'anticipation stratégique pour les questions stratégiques conventionnelles et non conventionnelles comme nous le faisons, mais sans la composante d'alerte. Un exemple est le Institut Clingendaelun important groupe de réflexion sur les relations internationales et la sécurité utilise le terme Prospective stratégique pour son département et sa recherche correspondants.

Gestion stratégique des crises

La gestion stratégique des crises est l'étiquette utilisée par un département de la section de la gouvernance des risques de l'OCDE. Il cherche à traiter la gestion des crises au fur et à mesure qu'elles se produisent, mais pas seulement. Il couvre également exactement le même processus et les mêmes questions que celui que nous abordons ici, mais en le faisant au moment où la crise s'est produite ou pendant qu'elle se produit. Par conséquent, il tient compte de la tendance croissante des responsables politiques et des décideurs à attendre que la crise ait frappé pour commencer à penser à l'anticipation. Nous avons été fiers de prononcer l'un des deux discours principaux de leur atelier de 2015 s'est concentré plus particulièrement sur l'anticipation

Futurs stratégiques

Strategic Futures est un terme qui est utilisé dans le système de renseignement américain, par exemple avec le groupe Strategic Futures du NIC. Avant 2011, le Strategic Futures Group était appelé Long Range Analysis unit. Il contribue, outre les bureaux nationaux de renseignement, au processus global qui produit le Série Tendances mondiales du NIC (dernières tendances mondiales : Le paradoxe du progrès). Global Trends utilise toutes les méthodologies disponibles en fonction des besoins.

Renseignement, avertissement,

Strategic Futures peut être considéré comme synonyme de prospective stratégique, dans sa dimension exploratoire. Il peut également intégrer une dimension d'alerte, et dans ce cas, serait équivalent à la SF&W. En effet, il est intéressant de noter que le National Intelligence Council avait l'habitude d'avoir parmi ses agents de renseignement nationaux un agent de renseignement national pour l'alerte (comme le montre ici la version en cache de son site web public du 22 août 2010 - Ce bureau avait été créé par le Directeur du renseignement central Directive NO. 1/5, en vigueur le 23 mai 1979). Cet Office a ensuite disparu (comparer par exemple avec version en cache pour le 10 avril 2011), tandis que l'unité d'analyse à long terme a été rebaptisée en groupe de prospective stratégique.

Alerte stratégique

Si le National Office for Warning a disparu du NIC, l'alerte stratégique (également appelée Indications et Alerte), qui vise à éviter les surprises, reste néanmoins cruciale au sein du système de renseignement américain, comme le réaffirme notamment la DIA dans le Plan 2012-2017 (lire également Pellerin, DoD News, juillet 2012). La mission d'alerte stratégique de la DIA a été réaffirmée en juin 2018 dans "L'Agence de renseignement de la défense : un avertissement pour le 21e siècle” (Nouvelles du DoD). L'alerte stratégique couvre notamment "les méthodes et techniques de collecte et d'analyse prospective nécessaires, ... pour garantir que l'alerte est transmise avec précision et en temps utile". (p. 6). Il est très similaire, voire identique, à l'alerte stratégique, mais met l'accent sur l'aspect de l'alerte.

Dans la rubrique "Avertissement", on trouve également l'appellation qui est promue notamment par l'Union européenne, comme Systèmes d'alerte précoce (voir Conclusions du Conseil de 2011 sur la prévention des conflits dans le cadre du traité de Lisbonne - Article 21c), et qui tend à se concentrer essentiellement sur la prévention des conflits. Il convient de noter que les quatre étapes du processus (1/ analyse des situations à haut risque et des situations qui se détériorent, 2/ identification des pays "à risque" qui nécessitent une analyse et une action plus poussées de l'UE, 3/analyse comprenant la fixation d'objectifs explicites en vue d'actions préventives ou de consolidation de la paix à un stade précoce, 4/suivi des actions qui en résultent en termes d'impact sur les conflits (voir Fiche d'information de l'UE sur les SAP), au contraire de ce qui est promu dans le renseignement notamment pour des raisons éthiques y compris celles relatives au mandat démocratique détenu uniquement par les décideurs politiques (par exemple Fingar, Lecture 3, pp. 1-2, 6-7) intègre assez largement les réponses précoces dans son système. en attendant, les types d'actions disponibles sont prédéterminés et consistent en des actions "préventives ou de construction de la paix", bien que l'appellation large puisse laisser une certaine marge de manœuvre en termes d'établissement d'une stratégie efficace puis d'opérationnalisation de la réponse. Contrairement à d'autres approches, les SAP traitent exclusivement les conflits comme des problèmes.

Les spécificités mêmes de l'Union européenne en ce qui concerne l'évolution de ses institutions, la manière dont les décisions sont prises et les compétences (voir Compétences de l'UE) et les prérogatives de chacune de ses institutions selon les domaines, a de fortes influences sur l'approche promue pour les systèmes d'alerte précoce. Notamment la spécificité de la politique étrangère et de sécurité commune - PESC (voir Compétences spéciales de l'UE) est très contraignante pour la conception puis la pratique de l'alerte précoce. Enfin, la possibilité de voir la PESC évoluer vers une défense plus commune, compte tenu notamment des changements intervenus dans le contexte européen et international - après Brexit, élection du président américain Trump, élection du président français Macron, fervent partisan de l'UE - (par exemple Paul Taylor, "Le coup de foudre de Merkel pour la défense européenne", 30 mai 2017, Politico), est très susceptible d'entraîner des changements dans l'approche de l'UE en matière d'"alerte précoce".
Le document de novembre 2017 sur le SAP de l'UE sur les conflits explique l'objectif et le processus : Système européen d'alerte précoce en cas de conflit : Objectifs, processus et orientations pour la mise en œuvre - 2017

Intelligence stratégique

L'intelligence stratégique est un terme largement utilisé mais rarement défini que Heidenrich (2007) décrit comme "l'intelligence nécessaire pour créer et mettre en œuvre une stratégie, généralement une grande stratégie, ce que l'administration appelle une stratégie nationale. Une stratégie n'est pas vraiment un plan, mais la logique qui anime un plan". Selon la façon dont on comprend le renseignement et la sécurité, le renseignement stratégique et la prospective stratégique, ou plutôt dans ce cas-ci la prospective stratégique et l'alerte, se recoupent plus ou moins largement ; c'est le moins qu'on puisse dire, ils auront besoin l'un de l'autre.


1] "Non conventionnel", du point de vue du ministère de la défense, désigne les conditions et les contingences de sécurité nationale qui sont pertinentes pour la défense mais pas nécessairement spécifiques à la défense. Les défis de sécurité non conventionnels se situent en grande partie en dehors du domaine des combats de guerre traditionnels. Ils sont couramment d'origine et de caractère non militaire". Nathan Freier, Connues Inconnues : Les "chocs stratégiques" non conventionnels dans le développement de la stratégie de défense (Carlisle, PA : Peacekeeping and Stability Operations Institute and Strategic Studies Institute, U.S. Army War College, 2008), p.3.

[2] Il convient de noter que le Société pour l'analyse des risques considère l'évaluation et la gestion des risques comme faisant partie de l'analyse des risques.

La norme ISO31000 a été publiée pour la première fois en novembre 2009. Le site Guide ISO 73:2009 définit les termes et le vocabulaire utilisés dans la gestion des risques. Une nouvelle version des lignes directrices, ISO 31000:2018, Management du risque - Lignes directricesa été publié en février 2018. Les autres documents de l'ISO relatifs à la gestion des risques restent inchangés.


Bibliographie sélectionnée

Central Intelligence Agency (Office of Public Affairs), A Consumer's Guide to Intelligence, (Washington, DC : Central Intelligence Agency, 1999).

Davis, Jack "Alerte stratégique : Si la surprise est inévitable, quel rôle pour l'analyse ? Sherman Kent Center for Intelligence Analysis, Occasional Papers, Vol.2, Number 1 https://www.cia.gov/library/kent-center-occasional-papers/vol2no1.htm;

Fingar, Thomas, "Myths, Fears, and Expectations," Payne Distinguished Lecture Series 2009 Reducing Uncertainty : Intelligence and National Security, Lecture 1, FSI Stanford, série de conférences de la CISAC, 21 octobre 2009 et 11 mars 2009. 

Fingar, Thomas, "Anticiper les opportunités : Using Intelligence to Shape the Future," Payne Distinguished Lecture Series 2009 Reducing Uncertainty : Intelligence and National Security, Lecture 3, FSI Stanford, série de conférences de la CISAC, 21 octobre 2009.

Grabo, Cynthia M. Anticipating Surprise: Analysis for Strategic Warningsous la direction de Jan Goldman (Lanham MD : University Press of America, mai 2004).

Glenn Jerome C. et Theodore J. Gordon, Ed ; Le Projet du Millénaire : Futures Méthodologie de recherche, Version 3.0, 2009.

Heidenrich, John G. "L'état du renseignement stratégique", Etudes dans le domaine du renseignement, vol51 no2, 2007.

Chevalier, Kenneth Centré sur la prévoyance : Un entretien avec l'officier de renseignement national américain pour l'alerteSeptembre 2009, McKinsey Quarterly.

Pellerin, Cheryl, DIA Five-Year Plan Updates Strategic Warning Mission, American Forces Press Service, WASHINGTON, 18 juillet 2012.

Rosenbach, Eric et Aki J. Peritz, "National Intelligence Estimates", Mémo dans le rapport Confrontation or Collaboration ? Congress and the Intelligence Community, Belfer Center for Science and International Affairs, Harvard Kennedy School, juillet 2009.

Schrodt, Philip A., "Prévisions et éventualités : De la méthodologie à la politiqueDocument présenté lors du panel thématique "Utilité politique et recherche fondamentale" : Le problème du quadrant de Pasteur" à la Réunions de l'Association américaine de science politiqueBoston, 29 août - 1er septembre 2002.

Warner, Michael, "Wanted : A Definition of "Intelligence", Studies in Intelligence, Vol. 46, No. 3, 2002.

Image en vedette : Morris (Sgt), No 5 Army Film & Photographic UnitPost-Work : Utilisateur : W.wolny / Domaine public

$2 Billion for Next Gen Artificial Intelligence for U.S. Defence - Signal

Impact sur les enjeux et les incertitudes

Image de crédit : Mike MacKenzie sur Flickr
Image via www.vpnsrus.com - (CC BY 2.0).

Incertitude critique ➚➚➚ Perturbation de la course actuelle à la puissance de l'AI pour les acteurs privés et publics - Les États-Unis prennent une très sérieuse avance dans la course.
➚➚  Accélérer l'expansion de l'IA
➚➚  Accélérer l'émergence du monde AI
➚➚ Augmentation des chances de voir les États-Unis consolider leur avance dans la course à la puissance de l'IA.
➚➚ L'escalade de la course à la puissance IA, notamment entre les États-Unis et la Chine.
➚➚ Un défi croissant pour le reste du monde
Potentiel d'escalade des tensions entre les États-Unis et la Chine, y compris entre les acteurs de l'AI

Faits et analyses

Liens connexes

Série en cours : Portail sur l'IA - Comprendre l'IA et prévoir le futur monde alimenté par l'IA
★ Intelligence artificielle - Forces, moteurs et enjeux
Militarisation de l'intelligence artificielle - Chine (1)
★ Militarisation de l'intelligence artificielle - Chine (2)

Les articles commençant par un ★ sont des articles de qualité, réservé aux membres. L'introduction reste néanmoins en accès libre.

Le 7 septembre 2018, l'Agence des projets de recherche avancée de la Défense américaine (DARPA) du Département de la Défense (DoD) a lancé un investissement pluriannuel de plus de $2 milliards dans des programmes nouveaux et existants pour favoriser et laisser émerger "la troisième vague" d'Intelligence Artificielle (IA). Selon le DARPA, cette nouvelle génération d'IA devrait notamment améliorer et se concentrer sur "l'adaptation contextuelle", c'est-à-dire "des machines qui comprennent et raisonnent dans le contexte".

L'objectif est de permettre la création de machines qui "fonctionnent plus comme des collègues que comme des outils" et donc de permettre de "s'associer avec des machines". En conséquence, la DARPA veut créer "de puissantes capacités pour le DoD", c'est-à-dire

"Les systèmes militaires qui collaborent avec les combattants
- faciliter la prise de meilleures décisions dans des environnements complexes, où le temps est un facteur critique, sur le champ de bataille ;
- permettre une compréhension commune des informations massives, incomplètes et contradictoires ;
- et permettre aux systèmes sans pilote d'exécuter des missions critiques en toute sécurité et avec un haut degré d'autonomie".

Ce dernier point est susceptible d'inclure notamment les fameux systèmes d'armes autonomes létales (LAWS), alias robots tueurs.

Même si l'annonce de 2 milliards de dollars comprend des programmes existants, la nouvelle campagne de la DARPA indique l'importance de l'IA pour la défense américaine. Les États-Unis montrent ici encore leur volonté de rester en tête de la course à la puissance de l'IA, en innovant en termes d'"algorithmes" ainsi que de "besoins et d'utilisation", pour reprendre la terminologie de nos cinq pilotes et enjeux. Elle adopte également une stratégie particulièrement perturbatrice, car elle entend aller au-delà de la vague actuelle d'apprentissage en profondeur.

La perturbation aurait un impact sur les acteurs publics et privés, les États et les entreprises.

En termes de lutte de pouvoir, on peut également voir dans le lancement de la campagne DARPA une réponse à l'appel lancé par Alphabet (Google), Tesla et 116 experts internationaux en faveur de l'interdiction des armes autonomes. Avec un tel montant de financement disponible, il est probable que plus d'un expert et d'un laboratoire verront leur réticence initiale contournée.

Si les États-Unis réussissaient, ils prendraient alors une très sérieuse avance dans la course actuelle à la puissance de l'IA, notamment avec la Chine, car cela déterminerait profondément la voie même sur laquelle la course se déroule.

Sources et signaux

Darpa : Prochaine campagne d'AI

La DARPA annonce une campagne de $2 milliards pour développer la prochaine vague de technologies d'IA

Au cours de ses 60 ans d'existence, la DARPA a joué un rôle de premier plan dans la création et le développement de technologies d'intelligence artificielle (IA) qui ont permis au ministère de la Défense de modifier les règles du jeu. À partir des années 1960, les recherches du DARPA ont façonné la première vague de technologies d'IA, qui se sont concentrées sur des connaissances artisanales, ou des systèmes basés sur des règles capables de tâches étroitement définies.

Elon Musk à la tête de 116 experts appelant à l'interdiction totale des robots tueurs

Certains des plus grands pionniers de la robotique et de l'intelligence artificielle dans le monde demandent aux Nations unies d'interdire le développement et l'utilisation de robots tueurs. Elon Musk de Tesla et Mustafa Suleyman de Alphabet sont à la tête d'un groupe de 116 spécialistes de 26 pays qui demandent l'interdiction des armes autonomes.

Impacts du nouvel outil chinois Baidu pour construire des programmes d'IA - Signal

Impact sur les enjeux et les incertitudes

➚➚ Accélérer l'expansion de l'IA

➚➚ Accélérer l'émergence du monde AI

➚ Redessiner la carte du pouvoir dans le monde en fonction de l'état du pouvoir de l'AI

➚ L'escalade de la course à la puissance IA, notamment entre les États-Unis et la Chine.
➚ Un défi croissant pour le reste du monde

L'influence et les capacités de la Chine en termes d'intelligence artificielle.
les États-Unis se sentent menacés, ce qui est peut-être un facteur d'instabilité mondiale

 Potentiel d'escalade des tensions entre les États-Unis et la Chine, y compris entre les acteurs de l'AI

Faits et analyses

Liens connexes

Notre série en cours : L'intelligence artificielle du futur - Un monde en puissance

Intelligence artificielle - Forces, moteurs et enjeux

L'un des moteurs que nous avons identifiés comme étant à l'origine de l'IA, de son développement et de sa diffusion est "les besoins et l'utilisation". Nous avons ensuite constaté que ce moteur était particulièrement actif dans le cas de la Chine.

Le déploiement d'une version bêta de Baidu EZDL est une preuve de plus dans ce sens. En résumé, Baidu EZDL est une plateforme d'apprentissage automatique, qui peut être utilisée par tout le monde et notamment les petites et moyennes entreprises sans capacités d'IA (nous n'avons pas encore testé sa facilité d'utilisation ni ses prétentions). Elle est actuellement limitée à la reconnaissance d'objets, d'images et de sons. Il est néanmoins probable que l'utilisation de l'IA se répande largement, d'abord parmi les petites et moyennes entreprises chinoises, puis dans le monde entier.

Cela renforce la position de la Chine - et de Baidu - dans le monde de l'IA en construction, tout en favorisant l'expansion de l'IA au niveau mondial. Cela intensifie également la concurrence en termes d'IA entre la Chine et les États-Unis, alors que les tensions entre les deux pays sont élevées en raison de la guerre commerciale déclarée par les États-Unis.

Source et signal

Site web de Baidu EZDL

Michael Feldman, Baidu lance un outil "sans code" pour la création de modèles d'apprentissage automatique, Top500, 4 septembre 2018 :

Baidu lance un outil "sans code" pour la création de modèles d'apprentissage automatique

Baidu lance un outil "sans code" pour la création de modèles d'apprentissage automatique Le géant de la recherche Baidu a lancé EZDL, une plateforme de développement logiciel destinée aux non-programmeurs qui souhaitent créer des modèles d'apprentissage automatique de niveau production.

 

FR