Cet article se concentre sur les conséquences politiques et géopolitiques de la relation de rétroaction liant l'intelligence artificielle (IA) dans sa composante Deep Learning et la puissance de calcul - le matériel - ou plutôt la puissance de calcul haute performance (HPC). Il s'appuie sur un première partie où nous avons expliqué et détaillé ce lien.

Liens connexes

Intelligence artificielle, puissance de calcul et géopolitique (1): le lien entre l'IA et le HPC

Course et puissance du calcul haute performance - Intelligence artificielle, puissance de calcul et géopolitique (3): Le cadre complexe dans lequel il faut situer les réponses disponibles aux acteurs en matière de HPC, compte tenu de son importance cruciale.

Gagner la course à l'informatique à l'échelle industrielle - Intelligence artificielle, puissance de calcul et géopolitique (4) : La course à l'exascale informatique, état des lieux, et impacts sur le pouvoir et le (dés)ordre politique et géopolitique ; perturbations possibles de la course.

Nous y avons notamment souligné trois phases typiques où le calcul est nécessaire : la création du programme d'IA, l'entraînement et l'inférence ou la production (utilisation). Nous avons montré qu'une quête d'amélioration à travers les phases, et l'importance écrasante et déterminante de la conception de l'architecture - qui a lieu pendant la phase de création - génère un besoin crucial de puissance de calcul toujours plus grande. Parallèlement, nous avons identifié une spirale de rétroaction entre l'IA-DL et la puissance de calcul, où plus de puissance de calcul permet des avancées en termes d'IA et où la nouvelle IA et la nécessité de l'optimiser exigent plus de puissance de calcul. Sur la base de ces résultats, nous envisageons ici comment la spirale de rétroaction entre la puissance de calcul et les systèmes d'IA-DL est de plus en plus susceptible d'avoir un impact sur la politique et la géopolitique.

Considérant ainsi l'importance cruciale et croissante de la puissance de calcul, nous aborderons dans le prochain article comment la course à la puissance de calcul pourrait se dérouler et a probablement déjà commencé. Nous y examinerons notamment une incertitude supplémentaire que nous avons identifiée précédemment, l'évolution et même la mutation du domaine de la puissance de calcul et du matériel informatique tel qu'il est touché par l'AI-DL.

Réservé aux membres

Télécharger l'article en pdf - Intelligence artificielle, puissance de calcul et géopolitique part-2.pdf- 12 pages

Adhérez et devenez membre de la société d'analyse The Red (Team).

Ici, nous imaginons d'abord les impacts politiques et géopolitiques auxquels sont confrontés les acteurs dont la puissance de calcul est insuffisante. Nous examinons ces conséquences potentielles en fonction des choix que font les acteurs. Nous nous concentrons sur la création même des systèmes d'IA et parlons plus brièvement de la phase de formation. Nous examinons ensuite la répartition de la puissance dans le monde émergent de l'IA en fonction de la puissance de calcul et soulignons une menace possible pour notre ordre international moderne actuel.

Vivre sans puissance de calcul haute performance à l'ère de l'intelligence artificielle : dépendance et perte de souveraineté

Comprendre et imaginer pour l'avenir les impacts politiques et géopolitiques de la relation de rétroaction entre la puissance de calcul et l'intelligence artificielle-apprentissage profond peut être plus facilement appréhendé en regardant d'abord ce que l'absence de puissance de calcul ou plutôt de calcul à haute performance pourrait entraîner.

Comme nous avons commencé à le souligner dans l'article précédent, le fait de ne pas disposer de la puissance de calcul nécessaire pour la phase de création des systèmes d'IA (phase 0 dans notre article précédent) de facto rendre les différents acteurs dépendants de ceux qui disposent de la puissance de calcul.

Nous sommes confrontés à une situation comparable à une fuite des cerveaux d'une nouvelle ère, ou plutôt à une déficience initiale des cerveaux, qui interdit ou, à tout le moins, rend très difficile l'évolution. Comme le montre l'exemple détaillé de l'AutoML de Google (cf. Quand l'AI a commencé à créer l'AI), si les réseaux neuronaux profonds créés par l'IA sont toujours ou la plupart du temps plus efficaces que ceux créés par les humains, alors les acteurs qui ne peuvent pas être les plus performants pendant cette phase initiale, lorsque les IA sont conçues, auront des IA moins efficaces, aucune IA, dépendra de la puissance de calcul externe pour créer leurs IA ou, pire, d'autres pour le programme de base même de l'AI-DL qu'ils utiliseront. Si ces systèmes d'IA sont essentiels pour leur gouvernance ou leur gestion, les impacts négatifs potentiels peuvent se répercuter sur l'ensemble du système. En conséquence, leur statut de puissance IA dans la distribution relative internationale de la puissance sera affecté trois fois : une fois en raison d'une gouvernance ou d'une gestion potentiellement sous-efficace de l'IA, une fois parce qu'ils ne peuvent pas exercer d'influence grâce à leurs systèmes IA optimaux et une fois parce qu'ils ne disposent pas de la puissance de calcul utile et nécessaire. L'impact sur l'influence internationale générale et le statut de puissance internationale suivra et découlera de tous les domaines où la gouvernance et la gestion de l'IA sont de plus en plus utilisées de manière positive, alors que seuls ceux qui disposent d'une puissance de calcul pourront en tirer pleinement parti. Nous examinerons plus en détail chacun des choix qui s'offrent aux acteurs qui ne disposent pas d'une puissance de calcul suffisante.

Nous supposons ici - et il s'agit en effet d'une hypothèse très forte - que les effets négatifs potentiels et les conséquences involontaires de l'utilisation des systèmes d'IA pour la gouvernance et la gestion sont atténués. Il convient de noter que des scénarios détaillés seraient nécessaires pour passer de l'hypothèse à une meilleure compréhension de l'avenir dans toute la gamme des possibilités.

Par exemple, nous pouvons envisager une possibilité totalement opposée, selon laquelle les acteurs qui utilisent abondamment les systèmes d'IA ont complètement sous-estimé et mal géré les impacts négatifs et où, finalement, les acteurs qui n'avaient pas de puissance informatique et qui ont décidé de ne pas utiliser l'IA dans la gouvernance ou la gestion finissent par s'en sortir beaucoup mieux que leurs homologues qui utilisent l'IA.

Choix 1 : Pas de systèmes d'IA et acteurs non IA

En particulier, si l'on considère le domaine encore émergent et très changeant de l'IA, ainsi que le coût qu'il implique, notamment en termes de puissance de calcul, on peut imaginer un scénario en termes d'interactions internationales où, par décision politique consciente ou par pure nécessité et contrainte, certains acteurs sans IA finissent par développer des avantages stratégiques, opérationnels et tactiques en matière de gouvernance ou de gestion, qui leur permettent de mieux s'en sortir que les acteurs dotés d'IA. Nous devrions ici nous souvenir de la célèbre simulation de guerre Millenium Challenge 2002 - un exercice de simulation de guerre sponsorisé par le défunt U.S. Joint Forces Command - où une équipe rouge a-doctrinale (jouant "l'ennemi") a initialement gagné sur l'équipe bleue (les États-Unis), notamment en n'utilisant pas la technologie attendue (Micah Zenko, "Le défi du millénaire : la véritable histoire d'un exercice militaire corrompu et son héritage", War On The Rocks, 5 nov. 2015 ; Malcolm Gladwell, Clignez des yeux : Le pouvoir de penser sans penser(2005 : pp. 47-68).

Si les autorités politiques, confrontées à un important déficit de puissance de calcul, font le choix conscient et volontaire de décider d'exclure l'IA, alors, en plus de la possibilité de développer des avantages inattendus - qui n'est cependant en aucun cas acquise - évoquée ci-dessus, elles peuvent tenter de capitaliser sur cette stratégie. Par analogie, toutes choses égales par ailleurs, nous pouvons penser à ce que le Bhoutan a décidé en termes de politique nationale. Le pays - il est vrai, jusqu'à présent, largement " guidé " par l'Inde en termes de relations extérieures, avec une révision du traité d'amitié indo-bhoutanais en 2007, et par un système international où la paix a plutôt prévalu comme norme depuis la fin de la Seconde Guerre mondiale, malgré une réalité plus sombre - a choisi une spécificité culturelle " soulignant officiellement la spécificité bhoutanaise " pour son développement, renonçant à une quête folle de modernité, et érigeant cette spécificité en fierté, politique et atout nationaux (Syed Aziz-al Ahsan et Bhumitra Chakma, "La politique étrangère du Bhoutan : Une auto-affirmation prudente ?“, Enquête sur l'Asie, vol. 33, n° 11 (novembre 1993), p. 1043-1054.

En l'absence d'une telle approche réfléchie et planifiée, qui, en outre, pourrait ne pas rester viable à moyen terme et même à plus court terme dans un ordre international en mutation, ni être adaptable à chaque acteur, gouverner sans IA pourrait rapidement devenir complexe. En effet, si de nombreux domaines de la gouvernance font de plus en plus appel à des systèmes d'IA dans la plupart des pays, un "pays non IA", lorsqu'il interagit avec d'autres pays sur une multitude de questions, peut rapidement être confronté à des défis, allant de la vitesse de réaction et de la capacité à traiter les données à l'incapacité de communiquer et à l'incompréhension en raison des différentes manières de traiter les problèmes (avec ou sans IA). Les entreprises non IA seront très probablement confrontées à des difficultés similaires, d'autant plus si elles sont situées dans des pays où l'IA est encouragée par les autorités politiques. Dans ce cas, ces entreprises non IA devront très probablement s'orienter vers l'IA, à supposer qu'elles le puissent, ou disparaître.

Choix 2 : systèmes d'IA sous-optimaux

Des problèmes similaires, avec des obstacles encore plus importants, peuvent survenir si l'absence ou l'insuffisance de la puissance de calcul conduit à l'utilisation d'une IA sous-optimale.

Tous les domaines de la gouvernance ou de la gestion où une IA moins efficace est utilisée peuvent être touchés.

Par moins efficace, nous couvrons un champ très large de problèmes allant de l'inefficacité énergétique à la diminution de la précision en passant par la vitesse, c'est-à-dire tous les éléments pour lesquels une quête d'optimisation et d'amélioration est en cours, comme nous l'avons vu précédemment (voir "Intelligence artificielle, puissance de calcul et géopolitique (1)", partie 3).

Imaginez, par exemple, que des drones, capables de porter des armes et de tirer, utilisent des systèmes d'intelligence artificielle pour la détection d'objets (pour un exemple avec le réseau NASNet, créé par Google, voir "Quand l'IA a commencé à créer de l'IA"). Si votre système de détection d'objets est moins efficace que celui utilisé par l'adversaire, votre drone peut être détruit avant même d'avoir commencé à faire quoi que ce soit. Il peut également être piégé par toute une série de leurres.

intelligence artificielle, ville intelligente, géopolitique, IA, conducteur, scénarios, alerte stratégique, apprentissage approfondi puissance de calcul haute performance, analyse des risques, gestion des risques, prospective stratégique, société d'analyse Red Team, indicateur, drones, LOIS
"Pour prendre le dessus sur un champ de bataille qui devrait être complexe et multidimensionnel", le laboratoire de recherche de l'armée américaine, " ARL développe des armes interconnectées qui intégreront les avancées en matière de détection, de calcul et de navigation partagés." Image d'Evan Jensen, ARL - d'après le Dr Frank Fresconi, le Dr Scott Schoenfeld et Dan Rusin, lieutenant-colonel, USA (retraité), " On Target ", numéro de janvier à mars 2018 du magazine Army AL&T, domaine public.

On pourrait même imaginer que la puissance de calcul supérieure de l'ennemi, ayant permis de créer des systèmes d'IA plus performants et plus nombreux, puisse avoir la capacité d'alimenter en informations fausses ou légèrement biaisées le drone sous-optimal, conduisant ce dernier à cibler exclusivement les troupes et le matériel de sa propre armée. Dans ce cas, même avec la meilleure volonté du monde, l'acteur dépourvu de puissance de calcul ne peut pas - il n'en a vraiment pas la capacité - se protéger ni empêcher ce que la puissance de calcul supérieure et donc, de facto, les IA peuvent créer et faire. En outre, parce que les IA créent des stratégies qui leur sont propres et qui ne sont généralement pas imaginées par les humains, comme le montre la série de programmes d'IA de Google consacrés au jeu de Go (voir "Intelligence artificielle et apprentissage approfondi - Le nouveau monde de l'IA en devenir"), il est probable que, comme dans l'exemple offensif imaginé plus haut, seules des IA efficaces et optimales seront capables de contrer les IA.

Ce n'est qu'un exemple, mais il peut être décliné sur tout le spectre des objets alimentés par l'IA, comme l'Internet des objets (IoT).

Choix 3 : IA optimale mais créée sur une puissance de calcul externe

Prenons maintenant le cas d'un acteur disposant d'une puissance de calcul insuffisante, mais ayant la volonté de développer et d'optimiser ses propres systèmes d'IA - en supposant que cet acteur dispose également des autres ingrédients nécessaires pour le faire, comme des scientifiques par exemple.

Cet acteur peut n'avoir d'autre choix que d'utiliser la puissance de calcul des autres. Cet acteur devra payer pour cette utilisation, que ce soit en termes monétaires, s'il utilise des installations commerciales, ou en termes d'indépendance si, par exemple, des accords de coopération spécifiques sont imaginés. Cela peut, ou non, impliquer des responsabilités en matière de sécurité en fonction des acteurs, des fournisseurs de puissance de calcul et de l'objectif spécifique des systèmes d'IA en cours de développement.

En termes de sécurité nationale, par exemple, peut-on vraiment imaginer qu'un ministère de la défense ou un ministère de l'intérieur développe des systèmes d'IA hautement sensibles sur une installation informatique commerciale ?

En fait, oui, on peut l'imaginer puisque, déjà, l'armée américaine passe " au cloud avec l'aide de l'industrie ", avec, par exemple, le " Joint Enterprise Defense Infrastructure (JEDI) ", qui sera finalement attribué à l'automne 2018 (par exemple "L'armée se modernise et migre vers le cloud computing“, Électronique militaire et aérospatiale, 20 mars 2018 ; Frank Konkel, , "Le nuage commercial du Pentagone sera un prix unique - et l'industrie n'est pas contente“, NextGov, 7 mars 2018 ; LTC Steven Howard, armée américaine (retraité), "Le DoD attribuera le contrat de l'infrastructure de défense commune en nuage à l'automne 2018“, Cyberdéfense, 23 mai 2018). Ce cloud devrait être utilisé pour la guerre et " une société commerciale " - probablement Amazon - sera " chargée d'héberger et de distribuer des charges de travail critiques et des secrets militaires classifiés aux combattants du monde entier " (Howard, Ibid ; Frank Konkel "Comment un contrat du Pentagone a déclenché une guerre des nuages“, NextGov, 26 avril 2018). JEDI pourrait être attribué à Amazon au cours de l'automne 2018 (Ibid.). Il est vrai que nous ne savons pas si ce nuage sera utilisé comme architecture distribuée également pour créer des systèmes d'IA, mais c'est possible. L'utilisation de sociétés commerciales pour la gouvernance, encore plus si l'objectif est lié à la défense, exige que les sociétés commerciales assument une mission de sécurité qui était, jusqu'à récemment, une prérogative de l'État. Le pouvoir ainsi donné à une société commerciale rend encore plus forte la dynamique politique américaine. Notamment, le complexe militaro-industriel d'Eisenhower pourrait bien être en train de changer (par ex. "Discours du complexe militaro-industriel", Dwight D. Eisenhower, 1961, Projet Avalon, Yale).

Maintenant, il s'agit de la sécurité américaine, privatisée au profit d'entreprises américaines. Cependant, le Pentagone attribuerait-il de tels contrats à des entreprises chinoises ou européennes ?

De même, on peut se demander si la création de systèmes d'IA peut se faire sur des superordinateurs commerciaux appartenant à des sociétés étrangères, et/ou localisés à l'étranger. Cela est d'autant plus vrai si la société étrangère est déjà sous contrat avec une armée ou un ministère de la défense étranger, car, dans ce cas, l'armée étrangère dispose d'un plus grand pouvoir de coercition sur les sociétés commerciales : elle peut menacer de retenir le contrat ou de retarder le paiement si la société commerciale ne fait pas son travail, quel qu'il soit.

La possibilité de faire face aux piratages et autres vulnérabilités de sécurité augmente rapidement.

Un phénomène similaire peut également se produire pour les éléments constituant la puissance de calcul, tels que les puces fabriquées à l'étranger, comme l'ont récemment montré deux chercheurs du département d'ingénierie électrique et informatique de l'université américaine de Clemson, en mettant en évidence les vulnérabilités de la chaîne d'approvisionnement en puissance de calcul pour l'apprentissage automatique (Joseph Clements et Yingjie Lao, "Attaques de troyens matériels sur les réseaux neuronaux", arXiv:1806.05768v1 [cs.LG] 14 juin 2018).

L'utilisation de l'architecture distribuée, c'est-à-dire la puissance de calcul répartie sur diverses machines, comme dans l'exemple du JEDI ci-dessus, qui peut être envisagée jusqu'à un certain point pour compenser l'absence de super ordinateurs, non seulement multiplie la puissance nécessaire (voir Intelligence artificielle, puissance de calcul et géopolitique (1)), mais ouvre également la porte à de nouveaux dangers, car les données circulent et chaque ordinateur du réseau doit être sécurisé. Ce n'est donc peut-être pas un moyen aussi facile de se sortir d'une déficience de la superpuissance informatique.

En dehors du domaine de la cybersécurité, l'utilisation de la puissance de calcul d'autrui ouvre également la porte à des vulnérabilités très simples : une série de sanctions du type de celles privilégiées par les États-Unis, par exemple, peut soudainement interdire à tout acteur, public ou privé, l'accès à la puissance de calcul nécessaire, même si le fournisseur est une entité commerciale. L'acteur dépendant peut en fait être tellement dépendant du pays hôte de la puissance de calcul qu'il a perdu une grande partie de sa souveraineté et de son indépendance.

Cela vaut également pour les entreprises, si elles remettent leur sort entre les mains d'autres pays et concurrents - sans une politique adéquate de diversification de l'approvisionnement en puissance de calcul, à supposer que cela soit possible - comme le montre l'exemple de ZTE et des sanctions américaines, même si l'affaire comporte plus d'éléments que la puissance de calcul (voir par exemple Sijia Jiang, "L'action de ZTE à Hong Kong augmente après une clarification de l'impact du projet de loi américain.“, Reuters, 20 juin 2018 ; Erik Wasson, Jenny Leonard, et Margaret Talev "Les sanctions sont suffisantes, selon un fonctionnaire“, Bloomberg,, 20 juin 2018 ; Li Tao, Celia Chen, Bien Perez, "La ZTE est peut-être trop grande pour échouer, car elle reste le dernier maillon de la chaîne de l'ambition technologique mondiale de la Chine“, SCMP21 avril 2018 ; Koh Gui Qing, "Exclusif - Les États-Unis envisagent de resserrer l'étau sur les liens entre la Chine et les entreprises américaines“, Reuters, 27 avril 2018).

Choix 4 : Des IA optimales mais créées par d'autres

Enfin, l'utilisation de systèmes d'IA conçus et créés par d'autres peut également entraîner des vulnérabilités et une dépendance similaires, ce qui peut être acceptable pour les entreprises lorsqu'elles utilisent des produits de grande consommation, mais pas pour des acteurs tels que les pays lorsque l'intérêt national et la sécurité nationale sont en jeu, ni pour les entreprises lorsque des domaines sensibles sur le plan concurrentiel sont en jeu (notamment lorsqu'elles sont confrontées à des pratiques prédatrices, voir "Au-delà de la fin de la mondialisation - du Brexit au président américain Trump“, L'analyse rouge (équipe)le 27 février 2017).

Nous avons déjà évoqué l'influence gagnée par ceux qui peuvent vendre de tels systèmes et les risques supportés par ceux qui les achètent et les utilisent dans le cas de la Chine qui "a exporté la technologie d'identification faciale au Zimbabwe” (Global Times, 12 avril 2018), dans "Le Big Data, moteur de l'Intelligence Artificielle... mais pas dans le futur ?" (Hélène Lavoix, L'analyse rouge (équipe)16 avril 2018).

Prenons un autre exemple avec les futures villes intelligentes. Nous pouvons imaginer qu'un pays, qui n'est pas doté d'une puissance de calcul suffisante, doive compter sur la puissance de calcul ou directement sur des systèmes d'IA étrangers pour ses villes. La vidéo ci-dessous, bien que non centrée sur l'IA, donne une idée de la tendance vers des villes connectées et "intelligentes".

Or, sachant qu'en temps de guerre, les opérations urbaines sont considérées comme une composante majeure de l'avenir (par exemple, le Royaume-Uni Programme de tendances stratégiques du DCDC : Environnement opérationnel futur 2035: 2-3, 25), il est fort probable que les opérations urbaines se déroulent de plus en plus dans des villes intelligentes et dotées d'IA. Pour mieux envisager ce qui est susceptible de se produire à l'avenir, nous devrions donc juxtaposer mentalement la vidéo et les images de combat urbain ci-dessous créées par le laboratoire de recherche de l'armée américaine. En d'autres termes, au lieu d'un "monde moderne" dévasté comme arrière-plan traditionnel pour les images de l'armée, nous devrions avoir comme arrière-plan une ville intelligente et alimentée par l'IA.

intelligence artificielle, ville intelligente, géopolitique, IA, conducteur, scénarios, alerte stratégique, apprentissage approfondi puissance de calcul haute performance, analyse des risques, gestion des risques, prospective stratégique, société d'analyse Red Team, indicateur, drones, LOIS
Images de l'ARL américain - Utilisées dans l'article du Dr Alexander Kott, "The ARTIFICIAL Becomes REAL", pp. 90-95, Army-ALT janvier-mars2018.

intelligence artificielle, ville intelligente, géopolitique, IA, conducteur, scénarios, alerte stratégique, apprentissage approfondi puissance de calcul haute performance, analyse des risques, gestion des risques, prospective stratégique, société d'analyse Red Team, indicateur, drones, LOIS

Maintenant, si un acteur étranger a créé les systèmes d'IA qui gèrent la ville alimentée par l'IA, qu'est-ce qui empêche cet acteur d'inclure potentiellement des "éléments" qui joueraient en sa faveur si ses troupes devaient mener des opérations offensives à l'avenir dans cette même ville ?

Ou, autre exemple, si des autorités politiques stratégiquement sages voulaient doter leurs villes d'une défense à base d'IA, capable de contrer les attaques traditionnelles et celles à base d'IA, mais que ces mêmes autorités politiques n'avaient pas la puissance informatique nécessaire pour développer de tels systèmes, les sociétés commerciales étrangères seraient-elles autorisées par leurs propres autorités politiques à développer de tels systèmes ?

Dans un monde alimenté par l'IA, la souveraineté et l'indépendance deviennent dépendantes de la puissance de calcul.

L'absence de puissance de calcul pour la phase de formation du système d'IA correspond en quelque sorte à un pays qui n'aurait pas de système d'éducation et devrait s'en remettre entièrement à des sources extérieures et étrangères pour dispenser cette éducation. Cela est vrai pour l'apprentissage supervisé lorsqu'une formation sur de grands ensembles de données doit être dispensée et ne fait qu'accroître les obstacles déjà identifiés précédemment dans  Le Big Data, moteur de l'intelligence artificielle... Cela est également vrai, comme nous l'avons vu précédemment (partie 1), car le renforcement de l'apprentissage car la puissance de calcul est encore plus importante pour ce type d'apprentissage profond, même s'il ne nécessite pas de grosses données externes. Cela pourrait-il être vrai aussi avec les dernières L'approche de Google Deep Mind, l'apprentissage par transfert? Cette question devra être examinée plus tard, avec une plongée en profondeur dans cette dernière approche AI-DL.

Répartition de la puissance dans le monde AI, puissance de calcul à haute performance et menace pour le système westphalien ?

En conséquence, la Liste des Top500 de supercalculateurs, qui est produit tous les deux ans, et donc classé tous les six mois parmi les supercalculateurs du monde entier, devient une indication et un outil précieux pour évaluer la puissance IA présente et future des acteurs, qu'il s'agisse d'entreprises ou d'États. Il nous donne également une image assez précise de la puissance sur la scène internationale.

Par exemple, selon le Liste des Top500 de novembre 2017 (le prochain numéro a été présenté le 25 juin 2018, et rendu public après la publication de cet article - surveillez l'apparition d'un. signal sur la liste de juin 2018), et en supposant que tous les superordinateurs ont été soumis au benchmark de la liste, dans tout le Moyen-Orient, seule l'Arabie saoudite possède des superordinateurs parmi les 500 ordinateurs les plus puissants du monde. Elle en possède quatre, classés aux rangs 20, 60, 288 et 386. Les trois derniers appartiennent à la compagnie pétrolière Aramco. Le superordinateur le plus puissant d'Arabie Saoudite fournit une performance de 5,5 Petaflops, soit près de 17 fois moins que l'ordinateur le plus puissant de Chine et 36 fois moins que le nouveau Summit des Etats-Unis (voir pour plus de détails sur Summit, Quand l'AI a commencé à créer l'AI). Si l'Arabie saoudite veut être indépendante en termes d'IA, elle devra élaborer une stratégie lui permettant de surmonter un éventuel manque de capacité en termes de puissance de calcul. La situation est encore plus difficile pour un pays comme les E.A.U. qui, malgré la volonté de développer l'I.A., ne dispose d'aucun supercalculateur (Stratégie AI 2031 des E.A.U. - vidéo).

Entre-temps, autre exemple, NVIDIA a mis en ligne en 2016 le supercalculateur DGX Saturn V, qui s'est classé au 36e rang en novembre 2017 et fournit une performance de 3,3 pétaflops, mais qui est construit avec DL en tête. Ajouté à son autre supercalculateur, DGX SaturnV Volta, cela signifie que NVIDIA dispose d'une puissance de calcul égale à 4,37 Petaflops donc supérieure à la Russie, dont les trois supercalculateurs sont classés 63, 227, 412 et affichent respectivement des performances de 2,1 ; 0,9 et 0,7 petaflops. Notez que le dernier accélérateur GPU de NVIDIA, NVIDIA DGX-2 et ses 2-petaFLOPS ne peuvent que renforcer la puissance de l'entreprise (voir partie 1). En termes de puissance internationale, bien sûr, la Russie bénéficie des attributs et des capacités d'un État, notamment de son monopole de la violence, que NVIDIA ne possède pas. Cependant, en imaginant, comme cela semble être le cas, que le nouveau monde émergent de l'IA en construction intègre de plus en plus l'IA dans les fonctions et la gouvernance de l'État, la Russie serait alors confrontée à une nouvelle dépendance ainsi qu'à de nouveaux défis de sécurité découlant de sa puissance de calcul relativement plus faible. De son côté, NVIDIA - ou d'autres entreprises - pourrait progressivement prendre en charge des fonctions étatiques, comme le montre l'exemple ci-dessus de la défense américaine JEDI. Si l'on se souvient de la Compagnie britannique des Indes orientales, ce ne serait pas la première fois dans l'histoire qu'une entreprise se comporte comme un acteur dirigeant.

Voici les principes mêmes de notre monde westphalien moderne qui pourraient potentiellement changer.

Toutefois, les choses sont encore plus complexes que le tableau que nous venons de décrire, car le domaine matériel même est également touché par la révolution AI, comme le montre le première partie. Si l'on considère ces évolutions et changements matériels, où est la puissance de calcul nécessaire et, plus difficile, où sera-t-elle ? 

En outre, si la puissance de calcul haute performance est si importante, alors, que peuvent décider les acteurs pour y remédier ? Ils peuvent construire et renforcer leur puissance de calcul, refuser la puissance de calcul des autres ou trouver des stratégies alternatives ? C'est ce que nous verrons ensuite, parallèlement aux changements dans le domaine du matériel.

À propos de l'auteur: Dr Hélène LavoixM. Lond, PhD (relations internationales), est le directeur de la Red (Team) Analysis Society. Elle est spécialisée dans la prévision et l'alerte stratégiques pour les questions de sécurité nationale et internationale.

Image en vedette : Illustration de l'armée américaine, "Army research explores individualized, adaptive technologies focused on enhancing teamwork within heterogeneous human-intelligent agent teams", dans U.S. Army Research Laboratory (ARL), "Des chercheurs de l'armée font progresser l'association d'agents humains et intelligents", Domaine public.

Publié par Dr Helene Lavoix (MSc PhD Lond)

Dr Hélène Lavoix, PhD Lond (relations internationales), est la présidente de The Red Team Analysis Society. Elle est spécialisée dans la prospective stratégique et l'alerte précoce pour les relations internationales et les questions de sécurité nationale et internationale. Elle s'intéresse actuellement notamment à la guerre en Ukraine, à l'ordre international et à la place de la Chine en son sein, au dépassement des frontières planétaires et aux relations internationales, à la méthodologie de la prospective stratégique et de l'alerte précoce, à la radicalisation ainsi qu'aux nouvelles technologies et à leurs impacts sécuritaires.

Rejoindre la conversation

2 commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

FR