" Les robots tueurs " inquiètent la communauté internationale. Du 13 au 17 novembre 2017, le Groupe d'experts gouvernementaux sur les systèmes d'armes autonomes létaux (LAWS), aussi familièrement conçus comme des " robots tueurs " s'est réuni pour la première fois à Genève (Office des Nations unies à Genève). Les LAWS sont, au sens large, des systèmes autonomes (robots) animés par une intelligence artificielle, qui peuvent tuer sans décision humaine. Comme indiqué dans un document préliminaire, la création du groupe témoigne d'une préoccupation internationale "concernant les implications pour la guerre d'une nouvelle série de technologies, notamment l'intelligence artificielle et l'apprentissage profond par machine" (UNODA Occasional Papers No. 30, "Perspectives sur les systèmes d'armes autonomes meurtrières" Novembre 2017 : 1).
Sommes-nous toutefois certains que l'IA n'aura d'impact que sur les LOIS ? Ou, plutôt, l'IA pourrait-elle avoir un impact bien plus important, en fait, sur tout ce qui touche à la politique et à la géopolitique ?
Résumé
Pour introduire cette nouvelle section de la Red (Team) Analysis Society sur l'avenir, l'IA, la politique et la géopolitique, nous commençons par donner des exemples de domaines et d'activités humaines qui impliquent déjà l'IA. Nous soulignons ensuite certaines des questions politiques et géopolitiques connexes qui se posent et que nous aborderons dans une analyse approfondie à venir. Comme la compréhension de l'IA est un pré-requis, cet article se concentre sur la présentation du domaine de l'IA, tandis que le prochain sera consacré à l'apprentissage approfondi.
Ici, nous examinons d'abord l'IA en tant que capacité. Nous révisons la définition technique pour introduire l'agence, ce qui nous permet de mettre en évidence les craintes intrinsèques générées par l'IA. Nous utilisons des vidéos pour les illustrer. Nous identifions ainsi une première zone d'intersection entre le développement de l'IA et la politique, liée à la "gouvernance de l'IA".
Nous expliquons ensuite que l'IA est également un domaine scientifique. Cette approche nous permettra notamment de trouver les scientifiques et les laboratoires qui travaillent sur l'IA, et donc de suivre les progrès et les évolutions en cours, et parfois d'anticiper les percées.
Enfin, à l'intersection des deux, capacité et domaine scientifique, nous présentons les différents types de capacités d'IA que les scientifiques cherchent à atteindre et la manière dont ils abordent leurs recherches. Ceci est crucial pour comprendre où nous nous situons, ce à quoi nous devons nous attendre et identifier les questions politiques et géopolitiques émergentes. Nous expliquons d'abord la différence entre l'intelligence générale artificielle (AGI) et l'IA étroite, en nous concentrant davantage sur la première, car les dernières avancées en termes d'IA étroite, c'est-à-dire l'apprentissage profond, seront abordées dans le prochain article. Ici encore, nous utilisons des vidéos, cette fois-ci issues du monde de la science-fiction, pour illustrer ce qu'est l'AGI et certaines des questions connexes imaginées pour un monde où l'AGI existe. En synthétisant les sondages d'experts existants, on estime que le moment où l'AGI se produit se situe au milieu du siècle. Nous terminons par une brève présentation des types de méthodologie utilisés, l'IA symbolique, l'IA émergente et l'IA hybride, en soulignant la prédominance de l'approche émergente actuelle.
Article complet 3065 mots - environ 12 PAGES
L'intelligence artificielle (IA) est devenue un mot à la mode dans le monde entier, suscitant l'attention des médias, des débats animés entre les magnats de l'informatique et les scientifiques, et une ruée des entreprises pour se doter des dernières avancées en matière d'IA, tout en captant l'imagination populaire par le biais des émissions de télévision. Les conférences et sommets mondiaux sur l'IA abondent : par exemple, Pékin AI World 2017世界人工智能大会 (8 novembre 2017), Conférence technologique mondiale de Beijing Baidu "Donner vie à l'IA" (16 novembre 2017), Boston Conférence et exposition mondiales sur l'IA (11-13 décembre 2017), Toronto Forum mondial d'AI (27 - 28 novembre 2017), Londres Congrès d'AI (30-31 janvier 2018), le Série de sommets sur l'IAà Hong Kong (26 juillet 2017), Singapour (3-4 octobre 2017), Londres (13-14 juin 2018), New York (5-6 décembre 2017), San Francisco (18-20 septembre 2018).
Il semblerait que l'IA révolutionne presque tout. La vie urbaine avec les villes intelligentes, la conduite avec des voitures intelligentes et souvent autopilotées, ou le shopping avec l'utilisation de l'IA par les géants du commerce électronique comme Amazon ou le chinois Alibaba, qui a réalisé la plus grande vente jamais réalisée avec un montant stupéfiant de 163,8 milliards de RMB ou $25,3 milliards en une journée avec sa fête des célibataires. ont déjà commencé à changer (par exemple, Jean-Michel Valantin, "La révolution chinoise de l'intelligence artificielle", La société d'analyse (équipe) rouge, 13 nov 2017 ; Jon Russell, "Alibaba pulvérise une fois de plus son record du Single's Day en franchissant le cap des $25 milliards“, TechCrunch,11 novembre 2017). L'industrie et la main-d'œuvre continuent d'évoluer et la peur du chômage et des licenciements humains est primordiale (par exemple, Daniel Boffey, "Les robots pourraient déstabiliser le monde par la guerre et le chômage, selon l'ONU“, The GuardianLe 27 septembre 2017 ; Centre d'intelligence artificielle et de robotique de l'UNICRI, “Les risques et les avantages de l'intelligence artificielle et de la robotique"Proceedings workshop in Cambridge, 6-7 Feb 2017). De l'activité criminelle et de son corollaire, la lutte contre la criminalité ainsi que la prévention de la criminalité, à plus largement la sécurité et la défense nationales, l'IA est de plus en plus présente, évoquant des images de cyberpoliciers derrière des écrans permettant l'arrestation de criminels depuis le "dark net", et de "robots tueurs", comme avec les LAWS et les drones de combat autonomes (par ex. Centre de lutte contre la cybercriminalité d'Europol - EC3 ; Yuan Yang, Yingzhi Yang et Sherry Fei Ju, "La Chine veut avoir un aperçu de l'avenir de ses citoyens grâce à l'AI qui prédit la criminalité“, Financial Times, 23 juillet 2017 ; Chelle Ann Fuertes, "L'IA est la future arme cybernétique des criminels de l'Internet“ ; EdgyLabs, septembre 2017).
Si la révolution est si profonde et si large, alors elle aura forcément un impact qui va au-delà de la compréhension pertinente mais encore segmentée de ses conséquences, qui commence à se développer. Dans cette nouvelle section de la Red (Team) Analysis Society, nous nous concentrerons sur l'avenir de ce monde alimenté par l'IA et sur ce que cela signifie en termes de politique et de géopolitique.
Imaginons que le très probable leadership à venir de la Chine en matière d'intelligence artificielle (IA) commence à être perçu comme une menace par une Amérique qui se sent en déclin et doit rester la seule superpuissance (Hélène Lavoix, "Les signaux : La Chine domine le monde des supercalculateurs et devient le leader de l'intelligence artificielle“,La société d'analyse Red (Team), 14 nov. 2017). Que signifierait une escalade des tensions entre la Chine et les États-Unis impliquant l'IA et comment se dérouleraient-elles ? Comment des IA différemment "entraînées" interagiraient-elles - le cas échéant - en cas de conflit ?
Quels sont donc les risques, dangers et opportunités émergents, ainsi que les incertitudes cruciales résultant des luttes de pouvoir, de la politique et de la géopolitique alimentées par l'IA ? De nouveaux dangers totalement imprévus et inconnus à ce jour pourraient-ils émerger, au-delà des LOIS ? Y a-t-il une part de vérité dans les avertissements de la science-fiction ? À quoi pourrait ressembler le monde futur ? L'ordre international pourrait-il être fondamentalement redessiné entre les nantis et les démunis de l'IA ? Qu'est-ce que le pouvoir dans un monde où l'IA est de plus en plus présente ?
Ce sont là quelques-unes des questions que nous allons explorer, tandis que d'autres, plus précises, émergeront de nos recherches.
Pour commencer, nous devons d'abord comprendre et mieux définir ce qu'est l'IA et quelles sont les conditions de son progrès et de son développement. Cela nous donnera la base fondamentale de cette section, ainsi que la capacité de surveiller et de scruter l'horizon à la recherche d'évolutions et de percées. L'un des objectifs sera également d'éviter les surprises, car l'accent mis actuellement sur le succès d'un type d'IA - l'apprentissage profond - ne doit pas nous rendre aveugles aux progrès potentiels dans d'autres sous-domaines.
Ce premier article présente donc le domaine de l'IA et commence ainsi à identifier les zones où l'IA croise la politique et la géopolitique. Le prochain article approfondira l'étude approfondie, c'est-à-dire le sous-domaine de l'IA qui connaît depuis 2015 les développements les plus rapides et les plus vastes et qui est très susceptible d'avoir un impact sur le monde politique et géopolitique futur.
Ici, en présentant le domaine de l'IA, et en utilisant autant que possible des vidéos pour rendre la présentation plus réelle, nous considérons d'abord l'IA comme une capacité. Nous révisons la définition technique pour y introduire l'agence, ce qui nous permet de pointer les craintes intrinsèques générées par l'IA. Nous identifions ainsi une première zone d'intersection entre le développement de l'IA et la politique, liée à la "gouvernance de l'IA". Nous expliquons ensuite que l'IA est aussi un domaine scientifique, et pourquoi cette approche est utile à notre prospective stratégique. Enfin, à l'intersection des deux, capacité et champ scientifique, nous présentons les différents types de capacités d'IA que les scientifiques cherchent à atteindre et les manières dont ils abordent leurs recherches.
L'IA en tant que capacité
L'Encyclopaedia Britannica définit l'IA, techniquement, comme suit :
"L'intelligence artificielle (IA) est la capacité d'un ordinateur numérique ou d'un robot contrôlé par ordinateur à effectuer des tâches communément associées à des êtres intelligents." (B.J. Copeland, "Intelligence artificielle (IA)", mis à jour le 12 janvier 2017).
En nous basant sur cette définition, nous y ajouterons l'agence et la dynamique et nous arriverons à la définition suivante :
L'intelligence artificielle (IA) est d'abord une capacité dont est doté un objet initialement inanimé, au départ de la conception de l'être humain, et qui lui permet de se comporter partiellement ou totalement comme un être intelligent.
La façon dont nous définissons ici l'IA met en évidence deux caractéristiques fondamentales qui effraient les êtres humains et que nous aurions manquées, si nous nous étions arrêtés à la définition technique initiale.
Premièrement, l'être humain, lorsqu'il construit une IA, se comporte fondamentalement comme un ou des dieux ou modifie le dessin de la nature (selon le système de croyance et la religion de chacun) en rendant un objet animé, qui se comporte (plus ou moins) comme lui-même, ou comme un être naturel intelligent. Dans ce cadre, en agissant ainsi, l'être humain commet donc un sacrilège. Il brise un tabou, qui ne peut donc qu'entraîner son châtiment. De cette croyance profonde émerge une peur irraisonnée.
Ensuite, comme les nouvelles entités ainsi créées peuvent fondamentalement se comporter comme des êtres intelligents, elles seront aussi capables d'agir de manière autonome - jusqu'à un certain point - et même de se reproduire. Il y a là la crainte que la création se retourne contre soi ou, de façon moins tragique, devienne meilleure que soi, ce que les sociétés égocentriques et anthropocentriques peuvent néanmoins avoir du mal à accepter.
De même, lorsque les nouvelles entités dotées d'IA sont de type animal, d'anciennes peurs ataviques et oubliées liées aux prédateurs peuvent émerger, d'autant plus si l'on imagine ces robots équipés de divers types de dispositifs létaux. C'est ce qu'illustre cette vidéo du laboratoire Boston Dynamics de Google démontrant les capacités de "Spot".
Ces craintes très profondes sont cruciales et doivent être prises en compte car elles risquent fort de biaiser toute analyse et tout jugement portés sur l'IA. Il ne faut ni les nier, par exemple en insistant trop sur l'image rose et positive que l'on donnerait de l'IA, ni, au contraire, les amplifier. Comme pour toute chose, les éléments positifs et négatifs doivent être pris en compte pour, autant que possible, essayer de profiter des avantages tout en atténuant les dangers éventuels. Ne pas le faire ne pourrait que se retourner contre nous. Nous devons également garder à l'esprit ces craintes profondes, car elles pourraient bien devenir opérationnelles et influencer le comportement des acteurs à l'avenir, au fur et à mesure que l'IA se répandra.
Par exemple, le fait de rendre l'IA acceptable pour les citoyens et de surmonter les craintes pourrait faire partie de la "gouvernance avec l'IA". La Chine, qui s'efforce de devenir une puissance de premier plan, sinon la première, en matière d'IA, et d'utiliser l'IA dans tous les domaines (Lavoix, "Les signaux : La domination mondiale de la Chine..." ; Jean-Michel Valantin, "La révolution chinoise de l'intelligence artificielle"Le 13 novembre 2017, The Red Team Analysis Society), a fait un effort particulier pour expliquer l'IA à sa population avec un documentaire en 10 épisodes "À la recherche de l'intelligence artificielle" - 《探寻人工智能》- (Sun Media Group, diffusion mai 2017) visant les profanes et soulignant comment l'IA peut aider à résoudre des problèmes, tout en interviewant des scientifiques du monde entier. Regardez le premier épisode ci-dessous, 《探寻人工智能》第1集 机器的逆袭 , Machine counter-attack (mélange de mandarin et d'anglais) - Les prochains épisodes sont disponibles sur la page Youtube, colonne de droite.
Les enjeux peuvent même être plus importants si, d'un simple "apaisement des craintes", on passe à la mobilisation de toute une société pour l'IA, comme cela semble être le cas en Chine. En effet, comme le rapporte le journal officiel Beijing ReviewLe documentaire est non seulement attrayant pour les scientifiques et les amateurs, mais il incite également la société à explorer l'IA", a déclaré un net-citoyen sous l'identifiant Jiuwuhou Xiaoqing. (Li Fangfang, "L'homme et la machine“, Beijing ReviewNON. 25 JUIN 22, 2017).
L'IA en tant que domaine scientifique
L'IA est également un domaine scientifique, qui est défini comme suit :
"L'intelligence artificielle (IA) est la partie de l'informatique qui s'occupe de concevoir des systèmes informatiques intelligents, c'est-à-dire des systèmes qui présentent des caractéristiques que nous associons à l'intelligence dans le comportement humain - comprendre le langage, apprendre, raisonner, résoudre des problèmes, etc. (Barr & Feigenbaum, Le manuel de l'intelligence artificielleStanford, Californie : HeurisTech Press ; Los Altos, Californie : William Kaufmann, 1981 : 3).
Penser à l'IA en ces termes nous permettra de trouver les scientifiques et les laboratoires qui travaillent sur l'IA, et donc de suivre les progrès et les évolutions en cours, et parfois d'anticiper les percées.
De plus, en examinant les différentes sous-disciplines constituant le domaine de l'IA, nous serons en mesure de localiser où nous trouverons les composants de l'IA (en tant que capacité cette fois-ci), et donc quels domaines de la politique sont susceptibles d'être transformés par l'IA, sachant que des combinaisons d'éléments alimentés par l'IA seront souvent opérationnelles.
Selon une étude JASON (groupe indépendant de scientifiques d'élite conseillant le gouvernement américain) parrainée par le secrétaire adjoint à la défense chargé de la recherche et de l'ingénierie (ASD R&E) au sein du bureau du secrétaire à la défense (OSD), ministère de la défense (DoD) ("Perspectives sur la recherche en matière d'intelligence artificielle et d'intelligence générale artificielle en rapport avec le ministère de la défense" ; janvier 2017), les sous-disciplines de l'IA sont :
- Vision par ordinateur ;
- Traitement du langage naturel (NLP) ;
- Robotique (y compris les interactions homme-robot) ;
- Recherche et planification ;
- Systèmes multi-agents ;
- Analyse des médias sociaux (y compris le crowdsourcing) ;
- Représentation des connaissances et raisonnement (KRR)
- L'apprentissage automatique "entretient une relation particulière avec l'IA" et est considéré comme la base fondamentale des dernières avancées de l'IA.
Le type de capacité(s) d'IA dont est doté notre objet inanimé, ainsi que les objets concernés, varient en fonction de la ou des sous-disciplines d'IA, car la plupart du temps, différents types de sous-disciplines et d'IA connexes sont mélangés pour un même objet.
Si nous restons dans le sous-domaine des robots, nous pouvons voir dans la vidéo ci-dessous une série d'animaux-robots dotés d'IA, qui pourraient être utilisés pour un large éventail de tâches, des plus bénignes aux applications mortelles, s'ils étaient équipés d'un dispositif létal. Notez que pour la fascinante vidéo ci-dessous, réalisée par Techzone, l'image de couverture - bien qu'aucun cheval-robot ne soit alors présenté - joue sur les peurs intrinsèques des spectateurs en choisissant un cheval noir aux yeux rouges. Ce dernier ne peut que rappeler aux observateurs le destrier nazgul de Tolkien... Le Seigneur des Anneaux, tel qu'adapté au cinéma par Peter Jackson.
Types de capacités et de recherches en matière d'IA
Intelligence générale artificielle (AGI) contre IA étroite
Le domaine est d'abord divisé entre deux types de capacités que l'on cherche à atteindre par la recherche scientifique : L'intelligence générale artificielle (AGI), l'IA générale ou forte d'une part, l'IA étroite, l'IA appliquée ou l'IA faible d'autre part.
Intelligence Générale Artificielle (AGI)
JASON donne pour Strong AI la définition suivante :
"L'intelligence artificielle générale (AGI) est un domaine de recherche au sein de l'IA, de petite taille en termes de nombre de chercheurs ou de financement total, qui cherche à construire des machines capables d'accomplir avec succès n'importe quelle tâche qu'un être humain pourrait accomplir". (Perspectives...janvier 2017)
Selon JASON (p.5), l'AGI fait partie du sous-domaine "Représentation des connaissances et raisonnement".
C'est ce type d'IA qui a le plus captivé l'imagination humaine et qui suscite les pires craintes. Elle est parfaitement illustrée dans la série télévisée (excellente, fascinante et plusieurs fois récompensée) Westworld (HBO), co-créé par Jonathan Nolan et Lisa Joy, où les robots sont pratiquement impossibles à distinguer des êtres humains.
Des thèmes similaires liés à l'IA, bien que sans incarnation, ont été en quelque sorte préfigurés dans la série télévisée 5 saisons forte Personne d'intérêt (CBS), également créée par Jonathan Nolan, avec la guerre entre "The Machine" et "Samaritan".
Nous rappelons également un thème similaire développé dans les anciennes séries de films et de séries télévisées, Terminator (1984), avec un monde pris d'assaut par le système informatique à IA "Skynet", qui avait décidé d'éradiquer l'humanité. Plus récemment (2015) , Les vengeurs : L'ère d'Ultron utilise un récit similaire : le programme de maintien de la paix de l'IA, "Ultron", en est venu à croire qu'il devait détruire l'humanité pour sauver la Terre. Ultron n'a pas seulement pris le contrôle de robots, mais a également créé son propre avatar. Dans Terminator comme dans Ultron, les incarnations viennent en second lieu et sont le résultat et la création de l'IA initialement non incarnée. Nous sommes ici dans le cas encore plus effrayant où l'IA se " reproduit " et crée de nouvelles entités.
Il est intéressant de noter que l'énoncé des travaux du DoD/OSD/ASD (R&E) pour l'étude de JASON comprend des questions spécifiques concernant le développement de l'IA forte ou AGI, et que l'objectif de l'étude était de trouver ce qui manquait à l'AGI pour voir le domaine réaliser ses promesses (Annexe A p 57). Cela souligne que, début 2017, le DoD américain était loin d'avoir abandonné le développement de l'AGI et, au contraire, aurait pu penser à renforcer ses efforts dans le domaine. Pourtant, les recommandations de JASON sont les suivantes : "Le portefeuille du DoD dans l'AGI devrait être modeste et reconnaître qu'il ne s'agit pas actuellement d'un domaine de l'IA qui progresse rapidement. Le domaine de l'augmentation humaine par l'IA est beaucoup plus prometteur et mérite un soutien important du DoD" (p.56).
Quand ?
Dans une enquête de 2010, et un sondage de 2014, les chercheurs en AGI ont estimé que "l'AGI de niveau humain était susceptible d'apparaître avant 2050, et certains étaient beaucoup plus optimistes" et que "les systèmes d'AGI atteindront probablement la capacité humaine globale (définie comme "la capacité d'effectuer la plupart des professions humaines au moins aussi bien qu'un humain typique") vers le milieu du 21e siècle" (Ben Goertzel, 2015, Scholarpedia, 10(11):31847en utilisant Baum et al, 2011 et ).
D'une manière qui n'est pas contradictoire avec les estimations précédentes, mais qui semble plus négative car la période d'études s'arrête en 2030, un panel de 2015 à l'université de Stanford travaillant sur le programme Étude centenaire sur l'intelligence artificielle (AI100) a estimé que
"Contrairement aux prédictions les plus fantastiques concernant l'IA dans la presse populaire, le groupe d'étude n'a trouvé aucune raison de s'inquiéter que l'IA constitue une menace imminente pour l'humanité. Aucune machine dotée d'objectifs et d'intentions autonomes à long terme n'a été développée, et il est peu probable qu'elle le soit dans un avenir proche [2030]... " (Rapport du groupe d'étude de 2015, "L'intelligence artificielle et la vie en 2030", juin 2016 : 4).
AI étroite, AI appliquée ou AI faible
De l'autre côté du spectre, on trouve l'IA étroite, l'IA appliquée ou l'IA faible, qui se concentre "sur la poursuite de capacités discrètes ou de tâches pratiques spécifiques" (Goertzel 2015 ; Goertzel et Pennachin, 2005). En d'autres termes, l'objectif est de "réaliser des tâches spécifiques aussi bien, voire mieux, que nous, les humains, le pouvons (Michael Copeland, "Quelle est la différence entre l'intelligence artificielle, l'apprentissage automatique et l'apprentissage approfondi ?“, NVDIAle 29 juillet 2016). La reconnaissance des visages sur Facebook, Google ou dans divers programmes Apple est un exemple d'IA étroite. Iphone d'Apple Siri est un autre exemple d'IA étroite.
Cette approche domine désormais largement le domaine de l'IA (Goertzel 2015). En effet, en l'opposant à l'AGI, l'AI100 se poursuit :
"Au contraire, des applications de plus en plus utiles de l'IA, avec des impacts positifs potentiellement profonds sur notre société et notre économie, sont susceptibles d'émerger d'ici à 2030, la période considérée par ce rapport." (L'intelligence artificielle et la vie en 2030").
C'est ici que l'on trouve l'apprentissage profond, qui est à la tête de la phase actuelle du développement exponentiel de l'IA, et sur lequel nous nous concentrerons dans le prochain article.
L'IA symbolique, l'IA émergente et l'IA hybride
Ensuite, le domaine est également divisé selon le type de méthodologie utilisée pour obtenir des résultats.
L'approche descendante, également appelée approche symbolique, a été la principale méthode utilisée jusqu'à la fin des années 1980. Elle cherche à appréhender la cognition de manière indépendante de la structure organique du cerveau et est toujours utilisée (Copeland, 2017). Ses principales réalisations ont été les systèmes experts (Ibid.). Les travaux les plus récents s'attachent à développer des " architectures cognitives sophistiquées ", utilisant notamment la " mémoire de travail " s'appuyant sur la " mémoire à long terme " (Goertzel, 2015).
L'approche ascendante ou connexionniste ou encore urgentiste a été utilisée dans les années 1950 et 1960, puis est tombée dans l'oubli avant de reprendre de l'importance dans les années 1980 (Copeland, 2017 ; Goertzel, 2015). Elle est aujourd'hui principalement axée sur la création de réseaux de neurones et c'est la méthodologie qui a apporté les dernières avancées et l'essor de l'IA.
Le Deep Learning, par exemple, est notamment composé de "réseaux multicouches de neurones formels", comme nous le verrons dans le prochain article. La robotique développementale utilise également l'approche émergentiste. Ici, on essaie de contrôler les robots en leur permettant "d'apprendre (et d'apprendre comment apprendre, etc.) via leur engagement dans le monde" (Goertzel, 2015). Notamment, la "motivation intrinsèque" est explorée, c'est-à-dire que les robots apprennent à développer "des objectifs internes comme la nouveauté ou la curiosité, formant un modèle du monde au fur et à mesure, sur la base des exigences de modélisation impliquées par ses objectifs" (Ibid.). " Les travaux de Juergen Schmidhuber dans les années 1990 " sont considérés comme fondateurs dans ce domaine (Goertzel, 2015 se référant à Schmidhuber, 1991).
Les travaux sur les systèmes hybrides, mélangeant les deux approches, ont commencé à émerger dans la première décennie du 21e siècle, y compris pour l'AGI (Goertzel, 2015).
Dans le prochain article, nous nous concentrerons sur la révolution du "deep learning", en explorant ses composantes et en commençant à examiner ses applications et ses utilisations.
--
À propos de l'auteur: Dr Hélène LavoixM. Lond, PhD (relations internationales), est le directeur de la Red (Team) Analysis Society. Elle est spécialisée dans la prévision et l'alerte stratégiques pour les questions de sécurité nationale et internationale.
Image : Titanun système Cray XK7 à architecture hybride dont la performance théorique de pointe dépasse 27 000 billions de calculs par seconde (27 pétaflops). Il contient à la fois des unités centrales de traitement (CPU) AMD Opteron à 16 cœurs et des unités de traitement graphique (GPU) NVIDIA Kepler. Il est installé au Oak Ridge National Laboratory du ministère de l'énergie (DOE), et reste le plus grand système des États-Unis, mais se glisse au cinquième rang dans le Top500 pour le mois de novembre 2017. Tiré de Galerie de presse du Laboratoire national d'Oak RidgeDomaine public, recolorisé.