Les "robots tueurs" inquiètent la communauté internationale. Du 13 au 17 novembre 2017, le groupe d'experts gouvernementaux sur les systèmes d'armes autonomes meurtriers (LAWS), également connus sous le nom de "robots tueurs", s'est réuni pour la première fois à Genève (Office des Nations unies à Genève). Les LOIS sont, en gros, des systèmes autonomes (robots) animés par une intelligence artificielle, qui peuvent tuer sans décision humaine. Comme indiqué dans un document préliminaire, la création du groupe montre une préoccupation internationale "avec les implications pour la guerre d'une nouvelle série de technologies comprenant l'intelligence artificielle et l'apprentissage machine profond" (UNODA Occasional Papers No. 30, "Perspectives sur les systèmes d'armes autonomes meurtrières” Novembre 2017 : 1).

Sommes-nous toutefois certains que l'IA n'aura d'impact que sur les LOIS ? Ou, plutôt, l'IA pourrait-elle avoir un impact bien plus important, en fait, sur tout ce qui touche à la politique et à la géopolitique ?


Résumé

Pour introduire cette nouvelle section de la Red (Team) Analysis Society sur l'avenir, l'IA, la politique et la géopolitique, nous commençons par donner des exemples de domaines et d'activités humaines qui impliquent déjà l'IA. Nous soulignons ensuite certaines des questions politiques et géopolitiques connexes qui se posent et que nous aborderons dans une analyse approfondie à venir. Comme la compréhension de l'IA est un pré-requis, cet article se concentre sur la présentation du domaine de l'IA, tandis que le prochain sera consacré à l'apprentissage approfondi.

Ici, nous considérons d'abord l'IA comme une capacité. Nous révisons la définition technique pour introduire l'agence, ce qui nous permet de mettre en évidence les peurs intrinsèques générées par l'IA. Nous utilisons des vidéos pour les illustrer. Nous identifions ainsi une première zone d'intersection entre le développement de l'IA et la politique, liée à la "gouvernance de l'IA".

Nous expliquons ensuite que l'IA est également un domaine scientifique. Cette approche nous permettra notamment de trouver les scientifiques et les laboratoires qui travaillent sur l'IA, et donc de suivre les progrès et les évolutions en cours, et parfois d'anticiper les percées.

Enfin, à l'intersection des deux, capacité et domaine scientifique, nous présentons les différents types de capacités d'IA que les scientifiques cherchent à atteindre et la manière dont ils abordent leurs recherches. Ceci est crucial pour comprendre où nous nous situons, ce à quoi nous devons nous attendre et identifier les questions politiques et géopolitiques émergentes. Nous expliquons d'abord la différence entre l'intelligence générale artificielle (AGI) et l'IA étroite, en nous concentrant davantage sur la première, car les dernières avancées en termes d'IA étroite, c'est-à-dire l'apprentissage profond, seront abordées dans le prochain article. Ici encore, nous utilisons des vidéos, cette fois-ci issues du monde de la science-fiction, pour illustrer ce qu'est l'AGI et certaines des questions connexes imaginées pour un monde où l'AGI existe. En synthétisant les sondages d'experts existants, on estime que le moment où l'AGI se produit se situe au milieu du siècle. Nous terminons par une brève présentation des types de méthodologie utilisés, l'IA symbolique, l'IA émergente et l'IA hybride, en soulignant la prédominance de l'approche émergente actuelle.

ARTICLE COMPLET 3065 MOTS - ENV. 12 PAGES


L'intelligence artificielle (IA) est devenue un mot à la mode dans le monde entier, suscitant l'attention des médias, des débats animés entre les magnats de l'informatique et les scientifiques, et une ruée des entreprises pour se doter des dernières avancées en matière d'IA, tout en captant l'imagination populaire par le biais des émissions de télévision. Les conférences et sommets mondiaux sur l'IA abondent : par exemple, Pékin AI World 2017世界人工智能大会 (8 novembre 2017), Conférence mondiale sur la technologie de Beijing Baidu "Donner vie à l'IA” (16 novembre 2017), Boston Conférence et exposition mondiales sur l'IA (11-13 décembre 2017), Toronto Forum mondial d'AI (27 – 28 novembre 2017), Londres Congrès d'AI (30-31 janvier 2018), le Série de sommets sur l'IAà Hong Kong (26 juillet 2017),  Singapour (3-4 octobre 2017), Londres (13-14 juin 2018), New York (5-6 décembre 2017), San Francisco (18-20 septembre 2018).

Il semblerait que l'IA révolutionne presque tout. La vie urbaine avec des villes intelligentes, la conduite de voitures intelligentes et souvent autosuffisantes, ou le shopping avec l'utilisation de l'IA par des géants du commerce électronique comme Amazon ou le chinois Alibaba, qui a réalisé la plus grosse vente jamais réalisée avec un montant stupéfiant de 163,8 milliards RMB ou $25,3 milliards en une journée avec son Single's Day ont déjà commencé à changer (par exemple, Jean-Michel Valantin, "La révolution chinoise de l'intelligence artificielle", The Red (Team) Analysis Society, 13 novembre 2017 ; Jon Russell, "Alibaba pulvérise une fois de plus son record du Single's Day en franchissant le cap des $25 milliards“, TechCrunch,11 novembre 2017). L'industrie et le travail continuent d'évoluer et la crainte du chômage et des licenciements est primordiale (par exemple, Daniel Boffey, "Les robots pourraient déstabiliser le monde par la guerre et le chômage, selon l'ONU“, The GuardianLe 27 septembre 2017 ; Centre d'intelligence artificielle et de robotique de l'UNICRI, “Les risques et les avantages de l'intelligence artificielle et de la robotique"(Atelier sur les procédures à Cambridge, 6-7 février 2017). De l'entreprise criminelle et son corollaire, la lutte contre la criminalité ainsi que la prévention du crime, à la sécurité et à la défense nationales plus largement, l'IA est de plus en plus présente, évoquant des images de cyberpoliciers derrière des écrans permettant l'arrestation de criminels du "réseau noir", et de "robots tueurs", comme dans les LOIS et les drones de combat autonomes (par exemple Centre de lutte contre la cybercriminalité d'Europol - EC3 ; Yuan Yang, Yingzhi Yang et Sherry Fei Ju, "La Chine veut avoir un aperçu de l'avenir de ses citoyens grâce à l'AI qui prédit la criminalité“, Financial Times23 juillet 2017 ; Chelle Ann Fuertes, "L'IA est la future arme cybernétique des criminels de l'Internet“; EdgyLabs, septembre 2017).

Si la révolution est si profonde et si large, alors elle aura forcément un impact qui va au-delà de la compréhension pertinente mais encore segmentée de ses conséquences, qui commence à se développer. Dans cette nouvelle section de la Red (Team) Analysis Society, nous nous concentrerons sur l'avenir de ce monde alimenté par l'IA et sur ce que cela signifie en termes de politique et de géopolitique.

Imaginons que le très probable futur leadership de la Chine en matière d'intelligence artificielle (IA) commence à être perçu comme une menace par une Amérique qui se sent en déclin et qui devrait rester la seule superpuissance (Hélène Lavoix, "Les signaux : La Chine domine le monde des supercalculateurs et devient le leader de l'intelligence artificielle“,La société d'analyse Red (Team), 14 novembre 2017). Que signifierait une escalade des tensions entre la Chine et les États-Unis impliquant l'IA et comment se dérouleraient-elles ? Comment des IA différemment "formées" interagiront-elles - si elles le sont - en cas de conflit ?

Quels sont donc les risques, dangers et opportunités émergents, ainsi que les incertitudes cruciales résultant des luttes de pouvoir, de la politique et de la géopolitique liées à l'IA ? De nouveaux dangers totalement imprévus et jusqu'ici inconnus pourraient-ils surgir, au-delà des LOIS ? Y a-t-il un élément de vérité dans les avertissements de la science-fiction ? À quoi pourrait ressembler le monde futur ? L'ordre international pourrait-il être fondamentalement redessiné entre les nantis et les démunis de l'IA ? Qu'est-ce que le pouvoir dans un monde où l'IA est de plus en plus présente ?

Ce sont là quelques-unes des questions que nous allons explorer, tandis que d'autres, plus précises, émergeront de nos recherches.

Pour commencer, nous devons d'abord mieux comprendre et définir ce qu'est l'IA et quelles sont les conditions de sa progression et de son développement. Cela nous donnera la base fondamentale de cette section, ainsi que la capacité de suivre et de balayer l'horizon pour les évolutions et les percées. L'un des objectifs sera également d'éviter les surprises, car l'accent mis actuellement sur la réussite d'un type d'IA - l'apprentissage profond - ne doit pas nous faire perdre de vue les progrès potentiels dans d'autres sous-domaines.

Ce premier article présente donc le domaine de l'IA et commence ainsi à identifier les zones où l'IA croise la politique et la géopolitique. Le prochain article approfondira l'étude approfondie, c'est-à-dire le sous-domaine de l'IA qui connaît depuis 2015 les développements les plus rapides et les plus vastes et qui est très susceptible d'avoir un impact sur le monde politique et géopolitique futur.

Ici, en présentant le champ de l'IA et en utilisant des vidéos autant que possible pour rendre la présentation plus réelle, nous considérons d'abord l'IA comme une capacité. Nous révisons la définition technique pour introduire l'agence, ce qui nous permet de mettre en évidence les peurs intrinsèques générées par l'IA. Nous identifions ainsi une première zone d'intersection entre le développement de l'IA et la politique, liée à la "gouvernance de l'IA". Nous expliquons ensuite que l'IA est aussi un domaine scientifique et pourquoi cette approche est utile à notre prospective stratégique. Enfin, à l'intersection des deux, capacité et domaine scientifique, nous présentons les différents types de capacités d'IA que les scientifiques cherchent à atteindre et la manière dont ils abordent leur recherche.

L'IA en tant que capacité

L'Encyclopaedia Britannica donne la définition technique suivante de l'IA :

"L'intelligence artificielle (IA) est la capacité d'un ordinateur numérique ou d'un robot contrôlé par ordinateur à effectuer des tâches généralement associées à des êtres intelligents. (B.J. Copeland, "Intelligence artificielle (IA)", mis à jour le 12 janvier 2017).

En nous basant sur cette définition, nous y ajouterons l'agence et la dynamique et nous arriverons à la définition suivante :

L'intelligence artificielle (IA) est d'abord une capacité dont est doté un objet initialement inanimé, au départ de la conception de l'être humain, et qui lui permet de se comporter partiellement ou totalement comme un être intelligent. 

La façon dont nous définissons ici l'IA met en évidence deux caractéristiques fondamentales qui effraient les êtres humains et que nous aurions manquées, si nous nous étions arrêtés à la définition technique initiale.

Premièrement, les êtres humains, lorsqu'ils construisent l'IA, se comportent fondamentalement comme des dieux ou modifient la conception de la nature (selon leur système de croyances et leur religion) en rendant animé un objet qui se comporte (plus ou moins) comme eux-mêmes, ou comme un être naturel intelligent. Dans ce cadre, l'être humain commet ainsi un sacrilège. Ils brisent un tabou, ce qui ne peut donc qu'entraîner leur punition. De cette croyance profonde émerge une peur déraisonnable.

Deuxièmement, comme les nouvelles entités ainsi créées peuvent fondamentalement se comporter comme des êtres intelligents, elles pourront également agir de manière autonome - jusqu'à un certain point - et même se reproduire. La peur de voir sa création se retourner contre soi-même ou, de manière moins tragique, devenir meilleure que soi-même, ce que les sociétés égoïstes et anthropocentriques peuvent néanmoins avoir du mal à accepter, est ici enracinée.

De même, lorsque les nouvelles entités dotées de l'IA sont de type animal, alors d'anciennes peurs ataviques et autrefois oubliées liées aux prédateurs peuvent émerger, d'autant plus si vous imaginez ces robots équipés de différents types de dispositifs létaux. C'est ce qu'illustre cette vidéo du laboratoire de Boston Dynamics de Google démontrant les capacités de "Spot".

Ces craintes très profondes sont cruciales et doivent être prises en compte car elles risquent fort de biaiser toute analyse effectuée et tout jugement porté sur l'IA. Elles ne doivent être ni niées, par exemple en mettant trop l'accent sur l'image positive que l'on donnerait de l'IA, ni, au contraire, hypothéquées. Comme pour tout, il faut tenir compte des éléments positifs et négatifs, en essayant autant que possible de tirer profit des avantages tout en atténuant les dangers éventuels. Ne pas le faire ne peut que se retourner contre nous. Nous devons également garder à l'esprit ces craintes profondes, car elles pourraient bien devenir un facteur déterminant du comportement des acteurs à l'avenir, car l'IA est susceptible de se répandre.

Par exemple, rendre l'IA acceptable pour les citoyens et surmonter les craintes peuvent faire partie de la "gouvernance avec l'IA". La Chine, qui s'efforce de devenir une puissance de premier plan, voire la première puissance en matière d'IA, ainsi que d'utiliser l'IA dans tous les domaines (Lavoix, "Les signaux : La domination mondiale de la Chine..." ; Jean-Michel Valantin, "La révolution chinoise de l'intelligence artificielle".Le 13 novembre 2017, The Red Team Analysis Society), a fait un effort particulier pour expliquer l'IA à sa population avec un documentaire en 10 épisodes "À la recherche de l'intelligence artificielle" - 《探寻人工智能》- (Sun Media Group, diffusion en mai 2017) visant les profanes et soulignant comment l'IA peut aider à résoudre des problèmes, tout en interviewant des scientifiques du monde entier. Regardez le premier épisode ci-dessous, 《探寻人工智能》第1集 机器的逆袭 , Machine counter-attack (mélange de mandarin et d'anglais).

Les enjeux peuvent même être plus importants si, d'un simple "apaisement des craintes", on passe à la mobilisation de toute une société pour l'IA, comme cela semble être le cas en Chine. En effet, comme l'a indiqué le fonctionnaire Beijing ReviewIl [le documentaire] n'est pas seulement attrayant pour les scientifiques et les amateurs, mais il motive également la société à explorer l'IA", a déclaré un net-citoyen avec l'identifiant de l'utilisateur Jiuwuhou Xiaoqing. (Li Fangfang, "L'homme et la machine“, Beijing Review, NO. 25 22 JUIN 2017).

L'IA en tant que domaine scientifique

L'IA est également un domaine scientifique, qui est défini comme suit :

"L'intelligence artificielle (IA) est la partie de l'informatique qui s'occupe de concevoir des systèmes informatiques intelligents, c'est-à-dire des systèmes qui présentent des caractéristiques que nous associons à l'intelligence dans le comportement humain - comprendre le langage, apprendre, raisonner, résoudre des problèmes, etc. (Barr & Feigenbaum, Le manuel de l'intelligence artificielleStanford, Californie : HeurisTech Press ; Los Altos, Californie : William Kaufmann, 1981 : 3).

Penser à l'IA en ces termes nous permettra de trouver les scientifiques et les laboratoires qui travaillent sur l'IA, et donc de suivre les progrès et les évolutions en cours, et parfois d'anticiper les percées.

De plus, en examinant les différentes sous-disciplines constituant le domaine de l'IA, nous serons en mesure de localiser où nous trouverons les composants de l'IA (en tant que capacité cette fois-ci), et donc quels domaines de la politique sont susceptibles d'être transformés par l'IA, sachant que des combinaisons d'éléments alimentés par l'IA seront souvent opérationnelles.

Selon une étude de JASON (groupe indépendant de scientifiques d'élite conseillant le gouvernement américain) parrainée par le secrétaire adjoint à la défense pour la recherche et l'ingénierie (ASD R&E) au sein du bureau du secrétaire à la défense (OSD), département de la défense (DoD) ("Perspectives sur la recherche en matière d'intelligence artificielle et d'intelligence générale artificielle en rapport avec le ministère de la défense"(janvier 2017), les sous-disciplines de l'IA sont

  • Vision par ordinateur ;
  • Traitement du langage naturel (NLP) ;
  • Robotique (y compris les interactions homme-robot) ;
  • Recherche et planification ;
  • Systèmes multi-agents ;
  • Analyse des médias sociaux (y compris le crowdsourcing) ;
  • Représentation des connaissances et raisonnement (KRR)
  • L'apprentissage machine "entretient une relation particulière avec l'IA" et est considéré comme la base des dernières avancées en matière d'IA.

Le type de capacité(s) d'IA dont est doté notre objet inanimé, ainsi que les objets concernés, varient en fonction de la ou des sous-disciplines d'IA, car la plupart du temps, différents types de sous-disciplines et d'IA connexes sont mélangés pour un même objet.

Si nous restons dans le sous-domaine des robots, nous pouvons voir dans la vidéo ci-dessous une série d'animaux-robots dotés d'une intelligence artificielle, qui pourraient être utilisés pour un large éventail de tâches, des applications les plus bénignes aux applications létales, s'ils étaient équipés d'un dispositif létal. Notez que pour la vidéo fascinante (regarder sur Youtube) de Techzone, l'image de couverture - bien qu'aucun cheval-robot ne soit présenté - joue sur les peurs intrinsèques des observateurs en choisissant un cheval noir aux yeux rouges. Ce dernier ne peut que rappeler aux observateurs le destrier Nazgul de Tolkien Le Seigneur des Anneaux, tel qu'adapté au cinéma par Peter Jackson.

Types de capacités et de recherches en matière d'IA

Intelligence générale artificielle (AGI) contre IA étroite

Le domaine est d'abord divisé entre deux types de capacités que l'on cherche à atteindre par la recherche scientifique : L'intelligence générale artificielle (AGI), l'IA générale ou forte d'une part, l'IA étroite, l'IA appliquée ou l'IA faible d'autre part.

Intelligence Générale Artificielle (AGI)

JASON donne pour Strong AI la définition suivante :

"L'intelligence générale artificielle (AGI) est un domaine de recherche au sein de l'IA, petit par le nombre de chercheurs ou le financement total, qui cherche à construire des machines capables de réaliser avec succès toute tâche que pourrait accomplir un être humain". (Perspectives...janvier 2017)

L'AGI fait partie du sous-domaine de la représentation des connaissances et du raisonnement, selon JASON (p.5).

C'est ce type d'IA qui a le plus captivé l'imagination humaine et qui suscite les pires craintes. Elle est parfaitement illustrée dans la série télévisée (excellente, fascinante et plusieurs fois récompensée) Westworld (HBO)co-créé par Jonathan Nolan et Lisa Joy, où les robots sont pratiquement impossibles à distinguer des êtres humains.

Des thèmes similaires liés à l'IA, bien que sans incarnation, ont été en quelque sorte préfigurés dans la série télévisée 5 saisons forte Personne d'intérêt (CBS), également créée par Jonathan Nolan, avec la guerre entre "La Machine" et "Samaritan".

Nous rappelons également un thème similaire développé dans les anciennes séries de films et de séries télévisées, Terminator (1984), avec un monde pris d'assaut par le système informatique alimenté par l'IA "Skynet", qui avait décidé d'éradiquer l'humanité. Plus récemment (2015), Les vengeurs : L'ère d'Ultron a utilisé un récit similaire : le programme de maintien de la paix de l'AI, "Ultron", en est venu à croire qu'il devait détruire l'humanité pour sauver la Terre. Ultron a non seulement pris le contrôle des robots, mais a également créé son propre avatar. Dans Terminator comme dans Ultron, les incarnations viennent en second lieu et sont le résultat et la création de l'IA initialement non incarnée. Nous sommes ici dans le cas encore plus effrayant où l'IA se "reproduit" et crée de nouvelles entités.

Il est intéressant de noter que l'énoncé des travaux du DoD/OSD/ASD (R&E) pour l'étude de JASON comprend des questions spécifiques concernant le développement d'une IA ou AGI forte, et que l'objectif de l'étude était de découvrir ce qui manquait à l'AGI pour que le domaine tienne ses promesses (Annexe A p 57). Il en ressort qu'au début de 2017, le DoD américain était loin d'avoir renoncé à développer l'AGI et qu'il aurait pu, au contraire, envisager de renforcer ses efforts dans ce domaine. Pourtant, les recommandations de JASON sont les suivantes : "Le portefeuille du DoD en matière d'AGI devrait être modeste et reconnaître qu'il ne s'agit pas actuellement d'un domaine de l'AI qui progresse rapidement. Le domaine de l'augmentation humaine par l'IA est beaucoup plus prometteur et mérite un soutien important du DoD" (p.56).

Quand ?

Dans une enquête de 2010 et un sondage de 2014, les chercheurs sur les AGI ont estimé que "l'AGI au niveau humain est susceptible d'apparaître avant 2050, et certains étaient beaucoup plus optimistes" et que "les systèmes AGI atteindront probablement la capacité humaine globale (définie comme "la capacité à exercer la plupart des professions humaines au moins aussi bien qu'un humain typique") vers le milieu du 21ème siècle" (Ben Goertzel, 2015, Scholarpedia, 10(11):31847en utilisant Baum et al, 2011 et ).

D'une manière qui n'est pas contradictoire avec les estimations précédentes, mais qui semble plus négative car la période d'études s'arrête en 2030, un panel de 2015 à l'université de Stanford travaillant sur le programme Étude centenaire sur l'intelligence artificielle (AI100) a estimé que

"Contrairement aux prédictions les plus fantastiques sur l'IA dans la presse populaire, le groupe d'étude n'a trouvé aucune raison de s'inquiéter du fait que l'IA est une menace imminente pour l'humanité. Aucune machine ayant des objectifs et des intentions autonomes à long terme n'a été développée, et il est peu probable qu'elle le soit dans un avenir proche [2030]..." (Rapport du groupe d'étude de 2015, "L'intelligence artificielle et la vie en 2030", juin 2016 : 4).

AI étroite, AI appliquée ou AI faible

À l'opposé, on trouve l'IA étroite, l'IA appliquée ou l'IA faible, qui se concentre "sur la poursuite de capacités discrètes ou de tâches pratiques spécifiques" (Goertzel 2015 ; Goertzel et Pennachin, 2005). En d'autres termes, l'objectif est de "réaliser des tâches spécifiques aussi bien, voire mieux, que nous, les humains, pouvons le faire" (Michael Copeland, "Quelle est la différence entre l'intelligence artificielle, l'apprentissage automatique et l'apprentissage approfondi ?“, NVDIAle 29 juillet 2016). La reconnaissance des visages sur Facebook, Google ou dans divers programmes Apple est un exemple d'IA étroite. Iphone d'Apple Siri est un autre exemple d'IA étroite.

Cette approche domine désormais largement le domaine de l'IA (Goertzel 2015). En effet, en l'opposant à l'AGI, l'AI100 se poursuit :

"Au lieu de cela, des applications de plus en plus utiles de l'IA, avec des impacts positifs potentiellement profonds sur notre société et notre économie, sont susceptibles d'émerger d'ici 2030, la période considérée dans ce rapport". (L'intelligence artificielle et la vie en 2030").

C'est ici que l'on trouve Deep Learning, qui mène actuellement la phase actuelle du développement exponentiel de l'IA, et sur lequel nous nous concentrerons dans le prochain article.

L'IA symbolique, l'IA émergente et l'IA hybride

Ensuite, le domaine est également divisé selon le type de méthodologie utilisée pour obtenir des résultats.

L'approche descendante, également appelée approche symbolique, a été la principale méthode utilisée jusqu'à la fin des années 1980. Elle cherche à appréhender la cognition d'une manière indépendante de la structure organique du cerveau et est toujours utilisée (Copeland, 2017). Ses principales réalisations ont été les systèmes experts (Ibid.). Les travaux les plus récents portent sur le développement d'"architectures cognitives sophistiquées", utilisant notamment la "mémoire de travail" en s'appuyant sur la "mémoire à long terme" (Goertzel, 2015).

L'approche ascendante ou connexionniste ou encore urgentiste a été utilisée dans les années 1950 et 1960, puis est tombée dans l'oubli avant de reprendre de l'importance dans les années 1980 (Copeland, 2017 ; Goertzel, 2015). Elle est aujourd'hui principalement axée sur la création de réseaux de neurones et c'est la méthodologie qui a apporté les dernières avancées et l'essor de l'IA.

Le Deep Learning, par exemple, est notamment composé de "réseaux multicouches de neurones formels", comme nous le verrons dans le prochain article. La robotique développementale utilise également l'approche émergente. Ici, on essaie de contrôler les robots en leur permettant "d'apprendre (et d'apprendre comment apprendre, etc.) par leur engagement dans le monde" (Goertzel, 2015). On explore notamment la "motivation intrinsèque", c'est-à-dire que les robots apprennent à développer "des objectifs internes comme la nouveauté ou la curiosité, en formant un modèle du monde au fur et à mesure, sur la base des exigences de modélisation qu'impliquent ses objectifs" (Ibid.). "Les travaux de Juergen Schmidhuber dans les années 1990" sont considérés comme fondamentaux dans ce domaine (Goertzel, 2015 se référant à Schmidhuber, 1991).

Les travaux sur les systèmes hybrides, mélangeant les deux approches, ont commencé à émerger dans la première décennie du 21e siècle, y compris pour l'AGI (Goertzel, 2015).

Dans le prochain article, nous nous concentrerons sur la révolution de l'"apprentissage profond", en explorant ses composantes et en commençant à examiner ses applications et ses utilisations.

—-

Image : Titanun système Cray XK7 à architecture hybride dont la performance théorique de pointe dépasse 27 000 billions de calculs par seconde (27 pétaflops). Il contient à la fois des unités centrales de traitement (CPU) AMD Opteron à 16 cœurs et des unités de traitement graphique (GPU) NVIDIA Kepler. Il est installé au Oak Ridge National Laboratory du ministère de l'énergie (DOE), et reste le plus grand système des États-Unis, mais se glisse au cinquième rang dans le Top500 pour le mois de novembre 2017. Tiré de Galerie de presse du Laboratoire national d'Oak RidgeDomaine public, recolorisé.

Publié par Dr Helene Lavoix (MSc PhD Lond)

Dr Hélène Lavoix is President and Founder of The Red Team Analysis Society. She holds a doctorate in political studies and a MSc in international politics of Asia (distinction) from the School of Oriental and African Studies (SOAS), University of London, as well as a Master in finance (valedictorian, Grande École, France). An expert in strategic foresight and early warning, especially for national and international security issues, she combines more than 25 years of experience in international relations and 15 years in strategic foresight and warning. Dr. Lavoix has lived and worked in five countries, conducted missions in 15 others, and trained high-level officers around the world, for example in Singapore and as part of European programs in Tunisia. She teaches the methodology and practice of strategic foresight and early warning, working in prestigious institutions such as the RSIS in Singapore, SciencesPo-PSIA, or the ESFSI in Tunisia. She regularly publishes on geopolitical issues, uranium security, artificial intelligence, the international order, China’s rise and other international security topics. Committed to the continuous improvement of foresight and warning methodologies, Dr. Lavoix combines academic expertise and field experience to anticipate the global challenges of tomorrow.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

FR