"杀手机器人 "令国际社会担忧。2017年11月13日至17日,致命性自主武器系统(LAWS)(也被设计为 "杀手机器人")政府专家组首次在日内瓦举行会议(联合国日内瓦办事处).广义上讲,致命性自主武器系统是由人工智能驱动的自主系统(机器人),它可以不经人类决定而杀人。 正如一份初步文件所述,该小组的成立表明国际社会关注 "包括人工智能和深度机器学习在内的一系列新技术对战争的影响"(联合国裁军事务厅不定期文件第30号,"致命性自主武器系统")。关于致命性自主武器系统的观点"2017年11月。1).

然而,我们是否确定人工智能将只影响LAWS?或者说,人工智能影响的范围远不止这些,事实上,与政治和地缘政治有关的一切都会受到影响?


执行摘要

为了介绍红色(团队)分析协会关于未来、人工智能、政治和地缘政治的这个新部分,我们首先给出目前已经涉及人工智能的领域和人类活动的例子。然后我们指出一些相关的政治和地缘政治问题的出现,我们将通过即将到来的深入分析来解决这些问题。 由于理解什么是人工智能是一个前提条件,本文重点介绍了人工智能领域,而下一篇将专门介绍深度学习。

在这里,我们首先把人工智能看成是一种能力。我们修改了技术定义,引入了机构,这使我们能够指出人工智能产生的内在恐惧。我们用视频来说明它们。我们也因此确定了人工智能发展和政治之间的第一个交叉领域,与 "人工智能治理 "有关。

然后我们解释说,人工智能也是一个科学领域。这种方法值得注意的是,我们可以找到那些从事人工智能工作的科学家和实验室,从而监测正在发生的进展和演变,有时还可以预测到突破性进展。

最后,在能力和科学领域这两者的交叉点上,我们介绍了科学家们寻求实现的各种类型的人工智能能力以及他们的研究方式。这对于了解我们所处的位置、期待什么以及确定新出现的政治和地缘政治问题至关重要。我们首先解释了人工通用智能(AGI)和狭义人工智能之间的区别,更侧重于第一种,因为狭义人工智能方面的最新进展,即深度学习,将在下篇文章中讨论。在这里,我们再次使用视频,这次是来自科幻世界的视频,来说明什么是AGI以及为AGI存在的世界所想象的一些相关问题。综合现有的专家民意调查,AGI发生的时间估计是本世纪中叶。最后,我们简要介绍了所使用的方法论类型,即符号人工智能、新兴人工智能和混合人工智能,强调了当前新兴人工智能方法的主导地位。

FULL ARTICLE 3065 WORDS – APPROX. 12 PAGES


人工智能(AI)已经成为全世界的热门词汇和时髦话题,引起了媒体的关注,IT大亨和科学家之间的激烈辩论,以及企业急于配备最新的人工智能进展,同时通过电视节目抓住了大众的想象力。关于人工智能的全球会议和峰会比比皆是:例如,北京 2017年人工智能世界大会世界人工智能大会(2017年11月8日),北京百度世界科技大会"将人工智能带入生活"(2017年11月16日),波士顿 人工智能世界会议和博览会 (11-13 December 2017),  Toronto 人工智能世界论坛 (27 – 28 November 2017),  London AI大会 (30-31 January 2018),  the 人工智能峰会系列,在香港(2017年7月26日)。  新加坡 (2017年10月3-4日)。 伦敦 (2018年6月13-14日),纽约(2017年12月5-6日)。 旧金山 (2018年9月18日至20日)。

看来,人工智能几乎彻底改变了一切。城市生活有了智能城市,驾驶有了智能汽车,而且往往是自动驾驶汽车,或者是电子商务巨头利用人工智能进行购物,如亚马逊或中国的阿里巴巴,该公司通过其单身节在一天内实现了有史以来最大的销售,金额达到1638亿人民币或$253亿。 已经开始改变 (例如Jean-Michel Valantin, "中国的人工智能革命",《红色(团队)分析会》,2017年11月13日;Jon Russell,"阿里巴巴再次刷新其单身节记录,销售额突破$25亿“, 技术新闻网(TechCrunch), 2017年11月11日). 工业和劳工继续发展,对失业和人力冗余的恐惧是最重要的(例如Daniel Boffey,"联合国表示,机器人可能通过战争和失业破坏世界稳定“, 卫报, 2017年9月27日。 犯罪司法所人工智能和机器人技术中心, “人工智能和机器人技术的风险和好处",2017年2月6日至7日在剑桥举行的论文集研讨会)。从犯罪活动和打击犯罪以及预防犯罪的必然结果,到更广泛的国家安全和国防,人工智能越来越多地出现,让人联想到屏幕后面的网络警察,允许从 "暗网 "逮捕罪犯,以及 "杀手机器人",如LAWS和自主战斗无人机(如 欧洲刑警组织网络犯罪中心 - EC3;杨元、杨英姿和朱雪飞,"中国通过犯罪预测人工智能寻求对公民未来的一瞥“, 金融时报,2017年7月23日;Chelle Ann Fuertes,"人工智能是互联网犯罪分子的未来网络武器“; 兴发xf187在线娱乐 兴发xf187在线娱乐 兴发xf187在线娱乐,2017年9月)。

如果这场革命的范围如此之深、如此之大,那么它的影响势必比开始发展的对其后果的中肯但仍然分割的理解更进一步。在红色(团队)分析协会的这个新栏目中,我们将重点讨论这个由人工智能驱动的世界的未来,以及它在政治和地缘政治方面的意义。

让我们想象一下,中国在人工智能(AI)方面极有可能即将出现的领导地位,开始被认为是对美国的威胁,因为美国认为自己正在衰落,应该保持唯一的超级大国(Helene Lavoix,"信号。中国在超级计算机领域的世界霸主地位和在人工智能领域的领先地位“,红色(团队)分析协会。 2017年11月14日)。中国和美国之间涉及人工智能的紧张局势升级会意味着什么,它们会如何发展?不同的 "训练有素 "的人工智能将如何互动--如果有的话--在冲突的情况下?

因此,哪些是新出现的风险、危险和机会,以及由人工智能驱动的权力斗争、政治和地缘政治带来的关键不确定性?在罗辑思维之外,会不会出现新的完全无法预料的、迄今未知的危险?科幻小说的警告中是否有真理的成分?未来的世界会是什么样子?国际秩序是否会在人工智能的 "有 "和 "无 "之间进行根本性的重新划分?在一个人工智能越来越多的世界中,什么是权力?

这些是我们将探讨的一些问题,而其他更精确的问题将随着我们的研究而出现。

首先,我们需要更好地理解和定义什么是人工智能,什么是其进步和发展的条件。这将为我们提供本节的基本基础,以及监测和扫描地平线上的演变和突破的能力。目标之一也将是避免惊喜,因为目前对一种人工智能--深度学习--的成功的强调不应该使我们对其他子领域的潜在进展视而不见。

因此,这第一篇文章介绍了人工智能领域,从而开始确定人工智能与政治和地缘政治相交的领域。下一篇文章将深入挖掘深度学习,即自2015年以来知道最快和最广泛的发展的人工智能子领域,它极有可能影响未来的政治和地缘政治世界。

在这里,介绍人工智能领域,并尽可能使用视频来使介绍更加真实,我们首先将人工智能看成一种能力。我们修改了技术定义,引入了机构,这使我们能够指出人工智能产生的内在恐惧。我们也因此确定了人工智能发展和政治之间的第一个交叉领域,与 "人工智能治理 "有关。然后我们解释说,人工智能也是一个科学领域。以及为什么这种方法对我们的战略远见是有用的。最后,在能力和科学领域这两者的交叉点上,我们介绍了科学家们寻求实现的各种类型的人工智能能力以及他们的研究方式。

人工智能作为一种能力

The Encyclopaedia Britannica defines AI, technically, as follows:

“Artificial intelligence (AI) is the ability of a digital computer or computer-controlled robot to perform tasks commonly associated with intelligent beings.” (B.J. Copeland, “人工智能(AI)“, updated Jan 12, 2017).

在这个定义的基础上,我们将把代理权和动力加入其中,得出以下定义。

人工智能(AI)首先是一种能力,最初无生命的物体被赋予了这种能力,在人类设计之初,这种能力使其部分或完全表现为一种智能生物。 

我们在这里定义人工智能的方式指出了两个令人类恐惧的基本特征,如果我们停在最初的技术定义上,我们就会错过这两个特征。

首先,人类在构建人工智能时,从根本上说,通过使一个物体有生命,它的行为(或多或少)像他们自己,或像一个智能的自然生物,表现得像上帝,或改变自然的设计(根据个人的信仰系统和宗教)。在这个框架下,人类这样做是对大自然的亵渎。他们打破了一个禁忌,因此可能只会导致他们受到惩罚。从这种深刻的信念中,出现了一种不合理的恐惧。

第二,由于这样创造出来的新实体从根本上说可以作为智能生物行事,那么它们也将能够自主行动--在一定程度上--甚至是繁殖。这里根深蒂固的是害怕自己的创造物与自己作对,或者以一种不那么悲惨的方式变得比自己更好,尽管如此,以自我为中心和人类为中心的社会可能难以接受。

与此相关的是,当被赋予人工智能的新实体像动物一样时,那么古老的、曾经被遗忘的与捕食者有关的恐惧可能会出现,如果你想象这些机器人配备了各种类型的致命装置,那就更有可能了。这可以从谷歌波士顿动力实验室展示 "Spot "能力的视频中得到说明。

这些非常深刻的恐惧是至关重要的,必须加以考虑,因为它们极有可能使对人工智能进行的任何分析和判断产生偏差。它们既不能被否认,例如过度强调将被赋予人工智能的美好的积极形象,也不能相反,被夸大。所有的事情都必须考虑积极和消极的因素,尽可能地从优势中获益,同时减少可能的危险。如果不这样做,只会适得其反。我们还必须牢记这些深刻的恐惧,因为它们很可能在未来成为行动者行为的依据,因为人工智能可能会蔓延。

例如,使人工智能为公民所接受并克服恐惧可能成为 "人工智能治理 "的一部分。中国正在推动成为人工智能领域的领先大国(如果不是领先的话),并在所有领域使用人工智能(Lavoix,"信号。中国称霸世界..."; Jean-Michel Valantin, "中国的人工智能革命", 2017年11月13日。 红色(团队)分析会),特别努力向其民众解释人工智能,拍摄了10集纪录片"寻找人工智能” – 《探寻人工智能》- (Sun Media Group, broadcast May 2017) aimed at laypeople and stressing how AI can help solve problems, while also interviewing scientists worldwide. Watch the first episode below, 《探寻人工智能》第1集 机器的逆袭 , Machine counter-attack (mix Mandarin and English).

如果从相对简单的 "消除恐惧",转而动员整个社会支持人工智能,那么利害关系甚至可能更大,就像中国的情况。事实上,正如官方报道的那样 北京回顾,"它(这部纪录片)不仅对科学家和业余爱好者有吸引力,还能激励社会对人工智能的探索,"用户ID为Jiuwuhou Xiaoqing的网友说。"(Li Fangfang, "人与机器“, 北京回顾, NO. 25 JUNE 22, 2017).

人工智能作为一个科学领域

人工智能也是一个科学领域,其定义如下。

"人工智能(AI)是计算机科学中与设计智能计算机系统有关的部分,即表现出我们与人类行为中的智能有关的特征的系统--理解语言、学习、推理、解决问题等等"。(Barr & Feigenbaum, 人工智能手册》(The Handbook of Artificial Intelligence谈到这个问题时,他说:"我想说的是,如果我是一个人,那么我就不会去做这些事情。"他说:"如果我是一个人,那么我就不会去做这些事情。)

用这些术语思考人工智能,将使我们能够找到那些从事人工智能工作的科学家和实验室,从而监测哪些进展和演变正在发生,有时还能预测到突破性进展。

此外,通过观察构成人工智能领域的各个子学科,我们将能够定位我们将在哪里找到人工智能(这次是作为一种能力)的组成部分,因此,政体的哪些领域有可能被人工智能所改变,要知道人工智能驱动的元素的组合将经常发挥作用。

根据JASON(为美国政府提供咨询的独立精英科学家小组)的研究,由国防部国防部长办公室(OSD)内负责研究和工程的助理部长(ASD R&E)赞助("与国防部相关的人工智能和人工通用智能研究的视角";2017年1月),人工智能的分支学科是。

  • 计算机视觉。
  • 自然语言处理(NLP)。
  • 机器人学(包括人与机器人的互动)。
  • 搜索和规划。
  • 多Agent系统。
  • 社会媒体分析(包括众包)。
  • 知识表示和推理(KRR)
  • 机器学习 "享有与人工智能的特殊关系",并被视为人工智能最新进展的基础。

我们的无生命物体被赋予的人工智能能力的类型,以及哪些物体被关注,根据人工智能子学科或更确切地说是子学科而有所不同,因为大多数时候,不同类型的子学科和相关的人工智能混合在一个物体上。

If we remain in the sub-field of robots, we can see in the video below an array of animal-robots powered with AI, which could be used for a wide array of tasks, from the most benign to lethal applications, should they be equipped with lethal device. Note that for the fascinating video (watch on Youtube) by Techzone, the cover image – although then no robot-horse is presented – plays on the intrinsic fears of watchers by choosing a black horse with red eyes. The latter may only remind watchers of the Nazgul Steed in Tolkien 指环王》。 由彼得-杰克逊改编为电影。

人工智能的能力和研究类型

人工通用智能(AGI)与狭义人工智能的对比

该领域首先被分为两类能力,这些能力是通过科学研究寻求实现的。一方面是人工通用智能(AGI)、通用人工智能或强人工智能,另一方面是狭义人工智能、应用人工智能或弱人工智能。

人工通用智能(AGI)

JASON为强人工智能给出了以下定义。

"人工通用智能(AGI)是人工智能中的一个研究领域,以研究人员的数量或资金总额来衡量,该领域规模较小,旨在建造能够成功完成人类可能完成的任何任务的机器。"(P观点..., 2017年1月)

AGI is part of the Knowledge Representation and Reasoning subfield, according to JASON (p.5).

正是这种类型的人工智能最能抓住人类的想象力,也最能引起人们的恐惧。它在(优秀的、迷人的和多次获奖的)电视系列片中得到了最好的体现 西部世界 (HBO)由乔纳森-诺兰和丽莎-乔伊共同创作的。 在那里,机器人与人类几乎没有区别。

类似的人工智能相关的主题,虽然没有体现,但在5季强大的电视系列剧中以某种方式预设了。 利益相关者 (CBS),也是由乔纳森-诺兰创作,"机器 "和 "撒玛利亚人 "之间的战争。

我们还记得在较早的一系列电影和电视剧中发展的类似主题。 终结者 (1984年),世界被人工智能驱动的计算机系统 "天网 "所占领,它决定消灭人类。最近(2015年)。 复仇者联盟。奥创时代 使用了类似的叙述方式:人工智能维和程序 "奥创 "认为它必须摧毁人类以拯救地球。奥创不仅接管了机器人,而且还创造了自己的化身。在《终结者》中,就像在奥创中一样,化身是第二位的,是最初没有化身的AI的结果和创造。 我们在这里遇到了更可怕的情况,人工智能 "复制 "自己并创造新的实体。

值得注意的是,国防部/OSD/ASD(R&E)为JASON的研究提供的工作声明中包括有关强人工智能或AGI发展的具体问题,研究的目的是找出AGI中缺少的东西,以看到该领域实现其承诺(附录A第57页)。这指出,到2017年初,美国国防部远远没有放弃发展AGI,相反,它可以考虑加强在该领域的努力。然而,JASON的建议是这样的。"国防部在AGI方面的投资组合应该是适度的,并承认它目前不是一个快速发展的人工智能领域。通过人工智能增强人类能力的领域更有前途,值得国防部大力扶持"(第56页)。

什么时候?

在2010年的调查,以及2014年的民意调查中,AGI研究人员估计,"人类水平的AGI很可能在2050年之前出现,有些人更乐观","AGI系统很可能在21世纪中期左右达到人类的整体能力(定义为 "至少和典型人类一样完成大多数人类职业的能力")"(Ben Goertzel, 2015, 学者百科, 10(11):31847,使用Baum等人,2011和)。

以一种与之前的估计并不矛盾,但听起来更消极的方式,因为研究的时期在2030年停止,斯坦福大学2015年的一个小组工作方案 人工智能百年研究》(AI100)。 估计

"与流行媒体中对人工智能的更多梦幻般的预测相反,研究小组发现没有理由担心人工智能会对人类构成迫在眉睫的威胁。目前还没有开发出具有自我维持的长期目标和意图的机器,也不可能在不久的将来[2030年]开发出来......"(2015年研究小组报告,"人工智能与2030年的生活",2016年6月。4).

狭义人工智能、应用人工智能或弱人工智能

在光谱的另一边,人们发现窄人工智能、应用人工智能或弱人工智能,其重点是 "追求离散的能力或具体的实际任务"(Goertzel 2015; Goertzel and Pennachin, 2005)。换句话说,其目的是 "像我们人类一样或比我们人类更好地完成特定的任务"(Michael Copeland, "人工智能、机器学习和深度学习之间有什么区别?“, NVDIA, 2016年7月29日).脸部识别在Facebook、谷歌或各种苹果程序中是狭义人工智能的一个例子。苹果Iphone 爵士乐 是另一个狭义人工智能的例子。

这种方法现在基本上主导了人工智能领域(Goertzel 2015)。事实上,将其与AGI相对立,AI100仍在继续。

"相反,从现在到2030年,即本报告所考虑的时期,可能会出现越来越有用的人工智能应用,并对我们的社会和经济产生潜在的深远的积极影响。"(人工智能与2030年的生活",同上)。

正是在这里,人们发现了深度学习,它现在正引领着人工智能当前阶段的指数式发展,而我们将在下一篇文章中重点讨论它。

符号人工智能、新兴人工智能和混合人工智能

然后,该领域还根据用于实现结果的方法类型进行划分。

自上而下的方法,也叫符号法,是20世纪80年代末之前使用的主要方法。它试图以一种独立于大脑有机结构的方式来领会认知,目前仍在使用(Copeland, 2017)。它的主要成就是专家系统(同上)。最近的工作重点是开发 "复杂的认知架构",主要使用 "工作记忆 "借鉴 "长期记忆"(Goertzel,2015)。

自下而上或连接主义或也是涌现主义的方法在20世纪50年代和60年代被使用,然后陷入冷落,直到20世纪80年代再次变得重要(Copeland, 2017; Goertzel, 2015)。它现在主要集中在创建神经网络,是带来人工智能最新进展和繁荣的方法。

例如,深度学习主要由 "形式神经元的多层网络 "组成,我们将在下篇文章中看到。发展型机器人学也采用了涌现主义的方法。在这里,人们试图通过让机器人 "通过与世界的接触来学习(以及学习如何学习等)"来控制机器人(Goertzel, 2015)。值得注意的是,"内在动机 "得到了探索,即机器人学习发展 "内部目标,如新奇或好奇心,根据其目标所隐含的建模要求,边走边形成世界模型"(同上)。"Juergen Schmidhuber在20世纪90年代的工作 "被认为是这一领域的基础性工作(Goertzel,2015参考Schmidhuber,1991)。

混合系统的工作,混合这两种方法在21世纪的第一个十年开始出现,包括用于AGI(Goertzel,2015)。

通过下一篇文章,我们将重点关注 "深度学习 "革命,探索其组成部分,并开始研究其应用和用途。

—-

特色图片。 泰坦这是一个混合架构的Cray XK7系统,理论峰值性能超过每秒27000万亿次计算(27 petaflops)。它包含先进的16核AMD Opteron中央处理器(CPU)和NVIDIA Kepler图形处理单元(GPU)。它安装在能源部(DOE)的橡树岭国家实验室,仍然是美国最大的系统,但在美国的排名中滑落到第五位。 TOP500 为2017年11月。来自 橡树岭国家实验室媒体库,公共领域,经过重新包装。

发布者:Dr Helene Lavoix (MSc PhD Lond)

Helene Lavoix博士伦敦大学博士(国际关系) ,是Red Team Analysis Society的总裁/CEO。她专门研究国际关系、国家和国际安全问题的战略预见和早期预警。她目前的工作重点是乌克兰战争、国际秩序和中国的崛起、行星越轨行为和国际关系、战略预见和预警方法、激进化以及新技术和安全。

留下评论

您的电子邮箱地址不会被公开。 必填项已用*标注

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据

ZH