加入
我们
投稿
反馈
评论 返回
顶部

内容字号: 默认 大号超大号

段落设置: 段首缩进取消段首缩进

字体设置:切换到微软雅黑切换到宋体

人工智能到底有多厉害 你绝对想不到!

2019-05-24 11:47 出处:未知 人气: 评论(

  在象棋和国际象棋中,电脑软件都非常厉害,只有围棋是唯一电脑下不过人类的项目。而今年1月份有个爆炸性新闻:谷歌DeepMind开发的人工智能围棋程序AlphaGo以5:0的压倒性优势击败了欧洲围棋冠军、专业二段棋手。那么3月份AlphaGo会和韩国九段、世界冠军李世石进行对弈。如果此役AlphaGo获胜,这意味着人工智能真正里程碑式的胜利。

  阿尔法围棋的研发者、39岁的杰米斯哈萨比斯被外媒揭秘,他本身就是一个传奇人物他是游戏开发者、神经系统科学家、人工智能专家,还是一个国际象棋神童。总之,他是一个不折不扣的超级天才。

  这场胜利之前,许多人工智能砖家认为,它不可能打败顶尖人类棋手至少不会这么快。最近几个月,Facebook已经在研究自己的围棋人工智能系统,尽管它并没有像许多其他研究人员那样密切致力于围棋项目,就像DeepMind那样。上个礼拜,当我们问及LeCun,这位负责Facebook人工智能研究 工作的深度学习创建人,谷歌是否已经秘密打败了了象棋大师时,他说,这不太可能(it was unlikely)。他的回答是,不(No)。或许(Maybe)。不(No)。

人工智能到底有多厉害?

  到底什么是人工智能?

  人工智能研究的终极目标是设计一个真正能在人类所处环境中表现出像人类一样智能行为的计算机,让我们来思考一下到底什么是人工智能吧。

  要解释什么是智能恐怕要比解释什么是人工(或者什么是机器)更棘手。在一篇1950年发表的著名论文计算机器与智能(Computing Machinery and Intelligence)中,图灵详细讨论了机器能否拥有智能?的问题。有趣的是,作为公认的计算机科学与人工智能共同的先驱,图灵成功定义了什么是机器,但却不能定义什么是智能。正因如此,图灵设计了一个后人称为图灵测试的思想实验。

  在图灵测试中,一个计算机在没有直接物理接触的情况下接受人类长时间的询问,如果足够多的询问者在足够长的时间里无法以足够高的正确率辨别被询问者是机器还是人类,我们就认为这个计算机通过了图灵测试。图灵把通过图灵测试看作机器拥有智能的充分条件,同时他相信这个条件可以在2000年左右时基本实现。需要强调的是,图灵测试,作为一个充分条件,本身并没有也从未试图定义智能的范畴。但是,通过讨论图灵测试这个充分条件,却有助于进一步理解主流的人工智能研究的三个重要特征。

  关于图灵测试在这方面的争议在于人类的脑力活动(mental process)不仅包括智能,同时还具有情感、审美能力、性格缺陷、社会文化习惯等等一系列非智力特征。因为图灵测试的模仿对象是普通人,它对这些非智力特征的要求甚至可能还高过纯粹智力要求作为一个普通人,他/她完全有可能对国际象棋一窍不通,但却不大可能从照片分辨不出美女/帅哥来。

  当然,非智力特征的引入本身并不妨碍图灵测试成为一个有效的充分条件,但除非我们假设所有这些非智力特征都是拥有智能之后的必然产物,否则不得不承认图灵测试确实在机器智能这个核心问题之外加入了过多充满挑战却又显得不那么相关的因素。尽管图灵本人对在20世纪末时解决这些更难的问题相当乐观,但直到2013年,仍然没有任何机器能够通过严格的图灵测试,即使仅仅在纯粹智力层面。有趣的是,这一失败的事实反而还带来了一个我们再熟悉不过的应用图形验证码。实际上,每一次输入验证码都是一次图灵测试!

人工智能到底有多厉害?

  这是一个典型的功能主义/行为主义风格的定义,也是一个人工智能经常被指摘的地方。严格的主观思考定义要求具有自我意识。但一方面,从严格的学术角度,我们甚至并不真的确定是否真的存在意识这个东西。另一方面,可以从数学上证明任何一台图灵机都可被另一台图灵机所模拟。因此,假设我们真的制造了一台具有意识的机器A,我们总可以制造另一台机器B以查表的方式来机械地模拟A的内部运行,问题是B是否具有意识?如果每一台拥有意识的机器都能被一台B这样的机械查表式的机器所模拟,那么我们就无法通过外部行为来断定一个机器在内部上是真的在思考还是只是在模拟思考的过程。因此是否拥有意识从行为主义的角度也就成为了相对独立的另外一个问题。同时,拥有意识的机器总可以被没有意识的机器模拟也说明拥有意识并不能给机器带来任何额外的行为能力,这进一步降低了拥有意识在行为主义者眼中的重要性。

  事实上,每个学科的研究都基于一个基本的假说。支撑物理研究的基本假说是相信万物运转都受一套普适的、且不随时间空间变化的物理定律所约束,而物理研究的目的只是找出这套定律是什么。类似地,弱人工智能假说(weak AI hypothesis)相信经过良好设计的计算机可以表现出不低于人类水平的智能行为。每个AI分支的研究都默认基于针对自己的领域问题的弱人工智能假说,而支撑这些子领域研究的动力往往是其巨大的社会实用价值。相比之下,图灵测试更加激进,它是以全面模拟人类的所有智力行为为目标。

  综合模拟人类的智力活动这一基本目标正是人工智能区别于其他计算机科学分支的地方。我们通过比较人工智能软件与传统软件来说明这一点。

  首先从最广义的角度看,传统软件其实也属于人工智能的范畴。实际上很多早期的计算机科学家,比如图灵,就是以人工智能为动力展开对计算机科学的研究。一个从未接触过计算机的人也许很难说清从一个数列中找出所有素数和从一张照片中找出一只狗哪个更有资格代表智能(前者属于传统软件范畴,后者属于传统人工智能范畴)。

  但另一方面,传统软件并不代表人工智能的全部内涵。粗略讲,我们可以认为传统软件对应了这样一类计算问题,它们的共同特点是,问题本身是用一个算法(或非构造性的数学描述)来描述的,而对它们的研究主要关注在如何找到更好的算法。而我们称之为人工智能问题的问题可以理解为另一类计算问题,它们的共同特点是无法用算法或从数学上对问题进行精确定义,这些问题的正确答案从本质上取决于我们人在面对这类问题时如何反应。

  总而言之,尽管同时存在哲学意义和操作层面上的争议,图灵测试却从原则上符合主流人工智能研究的一般特征在复杂和未知环境中以模仿人类的智力行为为目标。当然,作为一个乐观的充分条件,图灵测试无疑是诸多人工智能问题中颇具难度的一个,以至于真正直接研究图灵测试的人并不多。相反,人们更多地把精力投到一些更具体的子领域。可以说这些领域里的每一个都是通过图灵测试的必要条件,而它们中的大部分还没有达到人类水平。

  拥有高度的智能也许是人类至今最引以为傲的能力。较容易增强和扩展硬件和软件能力,是机器相比于人类最大的优势之一。人工智能方面一旦产生重大突破,即使在我们有意克制地不用于制造新的物种(也就是类人机器人)的情况下,也至少会导致人类对自身智能、情感、意识等一系列概念的重新审视和理解,而这势必进而导致人类对待伦理和法律观念的变革,从而对整个社会产生深远影响。

  谷歌AlphaGo不过是惊鸿一瞥

  谷歌的人工智能系统刚刚在围棋游戏中击败人类大师,围棋是一个有着2500年悠久历史的竞赛游戏,较之国际象棋,其策略和智力复杂程度呈指数级增长。

人工智能到底有多厉害?

  Bostrom是牛津大学哲学教授,出生于瑞典,近期畅销书《Superintelligence: Paths, Dangers, Strategies》让这位教授声名鹊起,他在书中探讨了人工智能的好处,也提出这样的主张,一台真实的智能计算机能加速人类灭亡。倒不是说他低估了谷歌围棋机器的力量。他只是认为,这并不一定是一次巨大飞跃。Bostrom指出,多年来,系统背后的技术一直处于稳定提升中,其中包括有过诸多讨论的人工智能技术,比如深度学习和强化学习。谷歌击败围棋大师不过是更大弧线进程中的一部分。这一进程始于很久以前,也将延续至未来几年。

  Bostrom说,过去和现在,最先进的人工智能都取得了很多进展,(谷歌)的基础技术与过去几年中的技术发展密切相连。

  但是,如果你以另一种方式看待这个事情,它正是谷歌获胜为什么如此激动人心的原因所在或许还也有点让人害怕。Bosrom甚至认为,这是一个停下来的好理由,看一看这项技术已经走了多远并正往何处去。研究人员曾经认为,人工智能破解围棋至少还需要另一个十年。如今,它正前往曾被视为无法企及之处。或者,至少说,许多人他们可自由支配巨大权力和大量金钱决心要抵达的那些地方。

  这并不仅仅是指谷歌。也指Facebook,微软以及其他科技巨人。创造出最聪明人工智能的努力真的已经演变成一场竞赛,而且竞争者们都是这个地球上最有权力也最富有的巨人。在谷歌这场胜利当中,最生动的部分可能就是扎克伯格的反应。

  谷歌的人工智能系统,亦即AlphaGo,由DeepMind研发,谷歌早在2014年就花4亿美元收购了这家人工智能研究机构。DeepMind专门从事深度学习和强化学习研究,这些技术能让机器自己进行大量学习。以前,创始人Demis Hassabis和他的团队已经使用这些技术搭建了一些会玩经典雅达利视频游戏(比如,Pong,Breakout以及Space Invaders)的系统。在有些案例中,这些系统不仅比职业玩家还出色,它们还会以天马行空的方式玩游戏,没有人类玩家会或者可以这么玩。显然,这就是促使佩奇买下这家公司的原因。

  使用所谓的神经网络 近似大脑神经元网络的硬件和软件网络深度学习就是显著有效的图片搜索工具驱动力更不用说Facebook的面部识别服务,微软Skype的翻译工具以及推特的色情内容识别系统。如果你用数百万游戏招数训练深度网络,你就能教会它玩这款游戏。而且,当你用其他海量数据组训练它时,就能教会神经网络完成其他任务,从为谷歌搜索引擎生成结果到识别电脑病毒。(机器之心编译出品)

  强化学习将系统能做的事情向前推进一步。一旦搭建起一个很善于玩游戏的神经网络,你就能让它和自己对战。随着两个版本的神经网络彼此对阵数以千计次后,系统就能追查出哪些招数回报最高也就是说,得分最高并以这种方式学会以更高的水平玩游戏。但是,再一次,这一技术并不限于游戏。也能适用到任何类似游戏,包含策略和竞争的事情上。

  AlphaGo使用了这一切。而且还远不止此。Hassabis和他团队添加了一个二级 深度强化学习,预测每一步的长效成果。而且他们采用了过去驱动围棋游戏人工智能系统的传统人工智能技术,包括蒙特卡洛树搜索。借鉴新旧技术,他们搭建起能够击败顶级职业选手的系统。十月,AlphaGo与三次卫冕欧洲围棋冠军的选手进行了闭门对弈,比赛结果于周三早上才对外公布。比赛对弈五局,AlphaGo五局全胜。

  问题在于围棋特别复杂。国际象棋平均一回合有35种可能的下法,围棋却高达250种可能。而且每个走法之后还有另外250种走法。以此类推。这意味着,即使最大的超级计算机也不能预测出每个可能下法的结果。因为太多了。正如Hassabis说的,可能的位置比宇宙原子数量还要多。为了破解围棋,你需要一种不光会计算的人工智能。它需要多少模仿人类, 甚至是人类直觉。你需要会学习的东西。

  这就是谷歌和Facebook要解决这个难题的原因。如果他们能够解决如此复杂的问题,那么,他们也能将研究所得作为跳板,迈向处理更实际现实生活问题的人工智能。Hassabis说,这些技术和机器人学是天作之合。它们能让机器人更好地了解环境并对环境中不可预测的变化做出响应。想象一台能洗盘子的机器。但是,他也相信,这些技术能增进科学研究,提供了可以为研究人员指明下一个重大突破的人工智能助手。

  而且那也略过了一些将会改变人类日常生活的更加直接的应用。DeepMind技术能帮助智能电话识别图片、语音以及翻译,不仅如此,还能理解语言。这些技术正通往这样的机器:它能理解用普通老式英语说的话,并用这种语言回答我们。

  这一切解释了为什么扎克伯格如此渴望在谷歌披露自己已经击败一位围棋大师这一消息几小时之前,更新自己的Facebook讨论围棋。

  谷歌以在学术期刊Nature上发布研究论文的方式公布了这一结果,而且Facebook员工也在官方发布之前获得这份论文(消息发布两天前,也和一些记者方分享了这一消息,不过缔结了守秘协议)。结果,扎克伯格以及公司许多其他人就采取了某种预损失控制行动。

  谷歌宣布消息的前一晚,Facebook人工智能研究人员发布了一崭新的研究论文,介绍了他们自己的围棋研究工作就其本身水平来说,研究工作还是令人印象深刻的扎克伯格也在自己的账户上宣传了这篇论文。他说,在过去六个月中,我们已经搭建起一个能以0.1秒之速下棋的人工智能,同时也和之前那些花费数年搭建起来的系统一样出色。研究人员田渊栋,就坐在距离我20英尺的座位上。我喜欢让我们的人工智能团队坐在我旁边,这样我就能从他们的研究中学习些东西。

人工智能到底有多厉害?

  不必介意Facebook的围棋人工智能不像AlphaGo走得那么远。正如LeCun指出的,Facebook并没有在围棋问题上像DeepMind那样投入很多资源。而且也没有花费很多时间研究这方面。为什么公司在谷歌大日子前夕强调自己的研究工作,原因尚不清楚,但是现实是,Facebook特别是扎克伯格非常重视这类人工智能。然而,这种人工智能竞赛并不真的仅仅是个哪家公司系统更会玩围棋的问题。毋宁是哪家公司能够吸引到顶级人工智能人才的问题。扎克伯格和LeCun都知道,他们必须向相对小规模的人工智能社区展示,在这个问题上,公司态度是认真的。

  有多认真?哦,最明显的地方就是扎克伯格测量了自己和田渊栋的距离。在Facebook,你的重要性取决于你的座位距离扎克伯格有多近。而且,扎克伯格个人也卷入了对人工智能的需求中毫无疑问。今年元旦,扎克伯格说,2016年的个人挑战就是打造一个人工智能系统,在家庭和工作事务中,帮助自己。

  人工智能带来的威胁

  谷歌和Facbook意图搭建人工智能,它将在许多方面超越人类智能。但是,他们不是唯一的两个玩家。微软,推特和马斯克以及其他许多人都在同一方向上推进着自己的研究。对于人工智能研究来说,那是件了不起的事情。而且,对于像Nick Bostrom这样的人以及,呃,马斯克来说,它也让人感到恐惧。

  正如深度学习创业公司Skymind的CEO兼创始人Chris Nicholson指出的,围棋证实的这类人工智能几乎能用于解决任何可被视为某种游戏的难题策略会在其中扮演重要角色的任何事情。他说,这包括金融交易和战争。这两个例子都需要更多的研究工作以及更多的数据。不过,思维本身并未得到解决。Bostrom的书言之有理,人工智能会比核武器还要危险,原因不仅在于人类会滥用人工智能,还在于我们能打造出多少无法加以控制的人工智能系统。

  类似Alpha Go。这样的系统。是的,系统会己学习确实会和自己对弈,自己生成数据和策略,在围棋游戏中(我们仍然期待着对决世界最顶尖的围棋选手之一),它能胜过几乎所有人类。但是,尽管围棋很复杂,但是,它也是一个有限的宇宙并不近乎真实事情那般复杂。而且,DeepMind的研究人员已经完全掌控系统。他们能够以自己意愿改变它并关掉它。事实上,考虑将这种特殊机器视为危险,甚至是毫无意义的。

  担忧在于,随着研究人员不断改进该系统,他们会在不知不觉中跨越那道门槛,有关世界末日的焦虑确实开始变得有意义。Bostrom说,他和他的Futhre of Humanity Institute其他同仁正在关注加强学习找到突破人类控制的方式。他说,某些同样的问题会出现在今后更佳成熟的系统中,我们今天也能在系统中找到类似的问题。他解释道,有许多小的暗示表明,强化学习会产生机器拒绝被关闭的情形。

  但是,这些是非常小的暗示。Bostrom承认,如果这样的危险真的会发生,那还很遥远。谢谢他的努力,也感谢那些诸如马斯克这样有影响力的技术专家们,对于潜在危险而言,这种更为广泛的兴师动众无异于未雨绸缪,是明智的。这些担心说明了一件最重要的事情,像DeepMind的那些尚处发展中的技术,它们非常强大。

  谷歌的这次胜利说明了同一件事。但是,这场胜利仅仅是序曲。3月,AlphaGo将挑战过去十年中的世界顶级围棋选手李在石,这场比赛将更加重要。李在石比刚刚在伦敦输掉比赛的欧洲冠军樊麾更有才能。樊麾世界排名633,而李在石世界排名第五。许多专家相信,AlphaGo将会赢得这场重量级较量。如果事实果真过如此,好吧,那也只是一个序曲。

  人工智能抢千万人饭碗

  据外媒15日报道,科学家在美国科学促进会年会上警告,人工智能突飞猛进,已达到机器人几乎可以取代,甚至超越人类执行任何任务的地步,在未来30年将导致千千万万人失业,且各行各业都将受影响,男女都不能幸免。

  首当其冲的将是驾驶业。美国得克萨斯州莱斯大学肯尼迪信息技术研究所所长瓦迪估计,未来25年美国将有10%的司机因为自动驾驶兴起而失业。

  康奈尔大学电脑科学系教授塞尔曼说,未来两三年,半自主或自主系统将进入我们的社会。他列举的例子包括自动驾驶汽车和卡车、监控用途的自主无人机、全自动交易系统、家用机器人及其他可以帮助人类做决定的智能助手。

  自动化和机械化系统在过去40年彻底改变工业生产,尽管提高了生产力,但也提高失业率。

  瓦迪说,美国制造业的就业市场在1980年达到高峰后一直下滑,中产阶级的工资多年无法上升。工业机器人的数量则已超过20万台,而且数量还在攀升。

  他说:我想社会必须面对这个即将来临的问题:如果机器人可以进行几乎所有人类可以做的工作,那么人类要做什么?全球经济是否经受得起超过半数人口失业?

  塞尔曼说,自人工智能产业在50多年前开展以来,美国去年对这一领域的投资达到历史新高。大企业如谷歌、面簿、微软、特斯拉汽车(Tesla)进行大手笔投资;美国五角大楼也寻求拨款190亿美元发展智慧武器系统。

人工智能到底有多厉害?

  这些人工智能已发展到可以分析数据和执行复杂任务的阶段,塞尔曼担心,人类有朝一日无法控制人工智能。

  塞尔曼预言:我们将与机器人建立一种共生关系,我们会开始信任它们,并与它们合作。这是问题所在,因为我们不知道机器智能的增长率,机器人会变得多聪明。

  著名英国物理学家霍金早在2014年就已发出警告:随着机器人智能越来越高,总有一天它们会造反,不再听人类的指挥。

  霍金接受英国广播公司访问时说:它将会腾飞,以越来越快的速度自我重新设计。受到缓慢生物进化限制的人类将无法竞争,终将被超越。全人工智能的发展可能意味着人类的终结。

  对于人工智能终将不受人类控制的担忧,一些科学家呼吁建立一套伦理规章,管理人工智能的发展;另一些科学家则呼吁世界各国政府坐下来一起探讨解决方案,以设法解决人工智能被认为比核武器更具威胁性的问题,例如具备人工智能的自主武器系统。

分享给小伙伴们:
本文标签:

更多文章

相关文章

评论

发表评论愿您的每句评论,都能给大家的生活添色彩,带来共鸣,带来思索,带来快乐。


Copyright © 2002-2017 DEDECMS. 织梦科技 版权所有 Power by DedeCms