黑客帝国中机器人追杀人类的故事会成真吗?_最新动态_新闻资讯_程序员俱乐部

中国优秀的程序员网站程序员频道CXYCLUB技术地图
热搜:
更多>>
 
您所在的位置: 程序员俱乐部 > 新闻资讯 > 最新动态 > 黑客帝国中机器人追杀人类的故事会成真吗?

黑客帝国中机器人追杀人类的故事会成真吗?

 2015/5/12 10:48:53    程序员俱乐部  我要评论(0)
  • 摘要:在过去很多年内,人工智能更多的只是作为科幻影片中的桥段出现在我们面前,但如今这一前沿科技似乎已经逐渐成为了人们日常生活的主流元素之一。比如,包括苹果Siri、亚马逊Alexa、IBM的Watson以及GoogleBrain都拥有着理解人类语言的极高认知能力。应该说,近年来大量可联网设备的出现以及全新机器学习算法的结合使得越来越多人工智能科技的实现成为了可能。有业内人士甚至担心,科幻影片中机器自主学习、自我改善的能力恐怕也将在不久后成为现实,而那时人类的重要性则将被大大削弱。&ldquo
  • 标签:故事 机器人 黑客

<a href=黑客帝国中机器人追杀人类的故事会成真吗?" />

  在过去很多年内,人工智能更多的只是作为科幻影片中的桥段出现在我们面前,但如今这一前沿科技似乎已经逐渐成为了人们日常生活的主流元素之一。比如,包括苹果 Siri、亚马逊 Alexa、IBM 的 Watson 以及 Google Brain 都拥有着理解人类语言的极高认知能力。

  应该说,近年来大量可联网设备的出现以及全新机器学习算法结合使得越来越多人工智能科技的实现成为了可能。有业内人士甚至担心,科幻影片中机器自主学习、自我改善的能力恐怕也将在不久后成为现实,而那时人类的重要性则将被大大削弱。

  “我认为全能型人工智能科技的发展甚至有可能终结人类的延续。”英国著名物理及天文学家史蒂芬·霍金(Stephen Hawking)说道。

  对于霍金的这一观点,特斯拉 CEO 埃隆·马斯克(Elon Musk)以及微软联合创始人比尔·盖茨(Bill Gates)也都表示了赞同。

  对于这一外界非常关注的话题,美国媒体日前就邀请到了 Skype 联合创始人让·塔林(Jaan Tallinn)、IBM 沃特森研究中心副总裁古如德斯·巴维亚(Guruduth Banavar)、巴多瓦大学(University of Padua)计算机教授弗朗斯卡·罗西(Francesca Rossi)共聚一堂同我们分享他们对于人工智能科技发展的看法。

  记者:人工智能是否对人类构成了威胁?

  古如德斯·巴维亚:由于受到了科幻影片的影响,人们大多将这一问题归咎于人类和机器之间的冲突。智能机器的设计初衷是帮助人们完成人类所不善于完成的工作,就比如处理、过滤规模宏大的数据流。同样的道理,智能机器在一些人类所擅长的领域则有着诸多的不足,就比如简单的词义理解、创造性思维等。因此我们相信将人类和机器的智慧结合在一起才是这个“认知计算”概念的根基所在,并将彻底革新我们解决复杂问题的能力。

  目前,基于人工智能的系统已经在许多方面改善了我们的生活,就比如飞机的自动驾驶功能、系统的自动推荐模块以及应用于工业领域的机器人等等。而且在过去5·10 年时间内,机器自主学习算法以及先进的计算机基础设施已经帮助我们打造出了许多全新应用设备。

  但需要指出的是,我们必须明白这类“机器自主学习算法”的作用仅限于此,因为即便是如今最先进的神经科学以及认知学成就也仅仅是触及了人类智慧最表面的东西而已。

  让·塔林:如今的人工智能技术恐怕还不足以构成威胁,但当我们进入所谓的超级智能时代后,我们的问题才会真正出现。

  记者:什么是所谓的“超级智能控制问题”(superintelligence control problem)?

  让·塔林:即便是如今最智能的机器人都会拥有一个开关,以让人们对其进行最终的控制。然而,这个开关之所以能够奏效是因为它隶属于机器人的控制范围之外。举例来说,下棋电脑仅仅会专注于下棋,而却不会意识到自己的竞争对手可以随时拔掉电源来终结比赛。

  然而,如果超级智能机器可以对这个世界的状态产生认知,并预计出人们拔掉电源的后果,那么它就有可能阻止人们这样做。

  记者:那么这个问题会有多严重呢?

  让·塔林:就现阶段而言,这其实是一个纯粹的理论问题,我们相信超级智能机器极有可能会始终遵循设计者的编程语言或者某些物理定律。但就你的问题而言,我认为超级智能机器开始阻止人们对其进行“断电”的做法是一个非常严重问题,因为我们至少需要对超级智能机器保留有一定的控制权。

  弗朗斯卡·罗西:就狭义来说,人工智能已经在某些领域相比人类更为聪明了。人类暂时还没有受到来自人工智能的威胁,但却已经感受到了来自它们的影响力。因此,我们有必要评估人工智能在狭义领域对人类有可能产生的威胁,并将它们打造的更为安全、友好、且秉持同人类相同的价值观。这绝不是一个简单的工作,因为就连人类有时都不会遵循自己定下的规矩。

  记者:你认为人工智能在狭义领域会对人类产生哪些威胁?

  弗朗斯卡·罗西:比如自动交易系统以及自动驾驶汽车。尤其是后者,如果人工智能出错的话甚至将威胁到乘坐者的生命安全。

  记者:巴维亚,你是怎么看待这一威胁的?

  古如德斯·巴维亚:关于威胁的问题总是分为两个方面的。我们早就知道如今因为信息不充分、或者非专业人士而作出的错误决定会导致数亿美元的损失或者数千人的生命。而根据 IBM 沃特森在多个领域的应用情况来看,我认为人工智能在狭义领域所带来的威胁是十分有限的。

  我个人的看法是,我们经常低估了铺设人工智能科技的复杂性,因为这其中有着太多的不确定因素存在。

  记者:IBM 的超级电脑沃特森正帮助医生更好诊断病人,如果诊断有误的话沃特森应该为此负责吗?

  古如德斯·巴维亚:沃特森并不给出诊断结果,而仅仅是为医生提供数据和信息进行参考。因此在进行具体诊断的时候,人类医生可以根据沃特森给出的数据以及其他一些因素作出具体的判断。总而言之,医生才是最终作出诊断决定的一方。

  事实上,IBM 团队的目标是让沃特森可以根据病人的病史做出分析,给医生提供关键信息以及可能的诊断结果,以此来大大缩短诊断时间。

  弗朗斯卡·罗西:医生一直会作出错误的诊断,这并不是说他们不够出色,而是因为他们不可能洞悉某一疾病的方方面面。不过,诸如沃特森这样的人工智能机器则有可能降低出错的几率。

  古如德斯·巴维亚:总的来说,我相信医生能够从沃特森处获取信息是有益的。就我个人而言,我更加希望能够无时无刻获得这样的诊断服务。

发表评论
用户名: 匿名