首页 > 科技 > 智能家电 > AI“军备竞赛”已开启 未来1万年的人类到底的是什么样

AI“军备竞赛”已开启 未来1万年的人类到底的是什么样

  研究人员、企业家和科技巨头正将人工智能(AI)带往新的前沿,并影响着健康、教育和商业的日常活动。但是,正如扣人心弦的新书《生命3.0》所描述的,关于机器智能的崛起以及它如何重新定义人类,还有更大的、甚至是哲学上的问题。

  机器、软件和网络对智慧、意识和人类观念的形成意味着什么?今天的规则和道德准则将如何塑造明天的文明?《生命3.0》这本书由Max Tegmark所著,以对话和发人深省的文风探讨了人工智能时代的人类处境,为我们这个时代最重要的对话提供了真知灼见。

  书的容量有365页,包含8个章节。被引用的书籍包括超级智能(Nick Bostrom),奇点临近(Ray Kurzweil)。这本书伴有一个在AgeOfAi平台进行的在线互动调查。

  作者Max Tegmark是麻省理工学院的物理学教授,他已撰写了200多篇关于从宇宙学到人工智能主题的技术论文。作为未来生命研究所的主席,他与Elon Musk合作,启动了首个人工智能安全研究奖助金计划。被戏称为“疯狂的麦克斯”,他的早期作品是《我们的数学宇宙》。

  进化与智慧

  Tegmark定义了生命的三个进化阶段:生命1.0(生物阶段),生命形式的硬件和软件进行自然进化;生命2.0(文化阶段),硬件进化,而生命形式设计大部分的软件;生命3.0(技术阶段),生命形式设计自身硬件和软件。

  尽管人类DNA的信息在过去5万年里并没有发生显著的变化,但人类(生命2.0)已经从基因的束缚中解放出来,并在人脑、书籍、计算机和网络的信息储存量中有显著增长。下一个升级(生命3.0)将能够设计我们的硬件:DNA、神经连接、协同矩阵等。《生活3.0》将由人工智能驱动,并将在未来一个世纪到来,甚至是在我们的有生之年。

  Tegmark通过定义一系列术语来确定这个阶段:智力(完成复杂目标的能力)、机器学习(通过经验改进算法的研究和使用)、人工智能(至少和人类一样能完成任何认知任务)、超级智能(远远超出人类水平的智力)、有益人工智能(强大并受人工智能安全研究准则的指导)、意识(主观经验)、意识(主观经验)和奇点(智能爆炸)。

  记忆力、计算能力、学习能力和智力都已独立,它们不依赖于或反映底层的物质基础。“智能不需要肉、血或碳原子,”Tegmark解释说。人类文明是通过语言、工具和复杂的相互关系进化而来的,而下一个可实现的发明很有可能是人工智能。对人类而言,大多数“软件”学习是通过突触生长的方式——但是智能机器可以采用不同的路径,因为它们不必不断地重新创造,机器可以比人类更快地改进机器。人类的DNA存储了1.6千兆字节的信息,相当于一个下载的电影(有些细菌储存了40千字节)。人类大脑的1000亿个神经元储存着大量信息。大脑中的信息是通过联想而不是地址来回忆的。

  鲁棒性、法律、战争和就业

  语音识别、翻译、机器人和游戏都是人工智能的一些显著应用,但其他影响还包括金融市场、机器人辅助制造、智能电网、外科手术和自动驾驶汽车。

  通过更好的验证、确认、安全和控制,人工智能可以帮助减少人为错误,增强系统的健壮性。

  在行为心理学的启发下,深度强化学习为DeepMind和OpenAI的突破提供了动力。DeepMind的AlphaGo在没有输掉一场比赛的情况下,已经在世界上20个顶级围棋比赛中成为冠军。在游戏中深度学习有时被认为是创造直觉(决定某事而不解释原因)和创造力(不寻常的且成功的进步)。

  Tegmark表示:“卓有成效的人机协作确实在许多领域看起来很有希望。”该研究的下一个前沿领域包括将深度递归神经网络与语义世界模型结合在一起。他补充道:“人们越来越难以辩称,人工智能完全缺乏目标、广度、直觉、创造力或语言。”

  众所周知,人工智能的黑暗面在于自主武器横行。一款由人工智能驱动的杀手无人机,其价格仅相当于一部智能手机。因此,许多人工智能研究人员和机器人专家呼吁禁止某些类型的自主武器,并阻止“全球人工智能军备竞赛”。

  “如果我们能弄清楚如何让机器人裁判变得透明和公正,人工智能可以让我们的法律系统更公平、更高效。”泰格马克解释道。法律体系中典型的人为错误是由偏见、疲劳或最新知识匮乏造成的。需要设计机器人的法律分类、责任和权利。在一场涉及无人驾驶汽车的事故中,谁应该承担责任:居住者、所有者、制造商还是汽车本身?

  Tegmark认为,毫无疑问,人工智能主导的时代将会改变就业,最好的职业将是那些涉及人、不可预测性和创造力的职业。不幸的是,研究表明,科技对教育程度更高、科技公司的所有者和少数“超级明星”有利。

  政府应该制定促进研究、教育和企业家精神的政策,确保基本收入水平,同时赋予人们一种工作与生活的使命感。

  在人工智能研究人员、科技巨头和创业者的参与下,“生命研究学院”的未来将在这方面成为“人工智能安全”的主流。它支持诸如与政策制定者对话、尊重隐私、共享利益、共同利益和人类控制等原则。这样做的目的是为了在人工智能完全起飞之前改善人类社会,在技术使其过时之前实现现代化,并让年轻人在将权力交给他们之前,让他们了解如何创造出强大的技术。

  目标

  人类的目标和动机有着复杂的相互作用,比如生存、资源获取、好奇心和同情心。有些人已经放弃了早期的生物目标,比如复制。智能行为与目标实现相关联,早期的人工智能计划围绕着编程机器来实现人类目标。目标设计涉及到子目标、伦理、学习和强化等问题。

  但随着人工智能变得越来越复杂,我们需要问人工智能是否应该保留我们已经给出的目标。我们是否应该让AI更广泛、更广泛的目标?这是谁的目标?我们能改变AI的目标吗?“意义”的含义是什么?人类在科学、宗教和哲学方面的目标是什么?有朝一日,人类的目标会像蚂蚁的目标一样令人沮丧吗?

  意识

  Tegmark提出了一种对意识实体的定义,即那些可以自由思考、记忆、计算、学习、经验、交流和行动的人,无关伤害他人。作者强调,随着人工智能变得越来越复杂,我们也需要认识到,我们对意识意义的哲学探索现在有一个紧迫的截止日期。

  一些棘手的问题产生,比如理解无意识行为是如何影响意识活动的?意识和无意识系统之间的物理属性区别是什么?以及为什么事物是有意识的?自动驾驶汽车经历着什么?人工智能有自由意志吗?人工智能会受到影响吗?AI应该有权利吗?

  人类意识研究反映了大脑理论、物理学和信息科学等领域的融合。“如果人工智能是可能的,那么与人类的经验相比,人工智能体验的空间可能是巨大的,”Tegmark解释道。人工智能可能会挑战人类中心主义的理念(认为人类是地球上最聪明的物种,因此是独一无二和优越的)。

本文来自投稿,不代表本人立场,如若转载,请注明出处:http://www.souzhinan.com/kj/a696832999.html