看完2017年这10大AI失败案例,就知道什么是人工智障了_最新动态_新闻资讯_程序员俱乐部

中国优秀的程序员网站程序员频道CXYCLUB技术地图
热搜:
更多>>
 
您所在的位置: 程序员俱乐部 > 新闻资讯 > 最新动态 > 看完2017年这10大AI失败案例,就知道什么是人工智障了

看完2017年这10大AI失败案例,就知道什么是人工智障了

 2017/12/26 18:50:52    程序员俱乐部  我要评论(0)
  • 摘要:本文转自网路冷眼(微信公众号:gh_37ca35f41890)现在尽管我们大多人自然是机器智能的粉丝,但是我们也必须意识到一些新技术正在努力地有效地执行他们的任务,经常以人类不会犯错的方式出错。今年,人工智能项目AlphaGo和Libratus分别在围棋和扑克上完胜世界上最好的人类玩家。尽管这些里程碑显示了近几年人工智能取得的巨大进步,但许多人对新兴技术的整体成熟度持怀疑态度,尤其对过去12个月中出现的一些人工智能的失败产生失望。现在尽管我们大多人自然是机器智能的粉丝
  • 标签:什么 失败 失败案例

  本文转自网路冷眼(微信公众号:gh_37ca35f41890)

  现在尽管我们大多人自然是机器智能粉丝,但是我们也必须意识到一些新技术正在努力地有效地执行他们的任务,经常以人类不会犯错的方式出错。

  今年,人工智能项目 AlphaGo 和 Libratus 分别在围棋和扑克上完胜世界上最好的人类玩家。尽管这些里程碑显示了近几年人工智能取得的巨大进步,但许多人对新兴技术的整体成熟度持怀疑态度,尤其对过去 12 个月中出现的一些人工智能的失败产生失望。

  现在尽管我们大多人自然是机器智能的粉丝,但是我们也必须意识到一些新技术正在努力地有效地执行他们的任务,经常以人类不会犯错的方式出错。本文梳理了 2017 年度 10 个值得注意的人工智能失败的案例。

  1、面具破解苹果公司的 Face ID

  Face ID 是解锁新型 iPhoneX 的面部识别技术,被誉为迄今为止最安全的人工智能激活方法,苹果公司宣称被骗的几率为百万分之一。但随后越南公司 BKAV 使用由 3D 打印的塑料、硅胶、化妆品和镂空构成的价值 150 美元的面膜对其破解。 Bkav 只是扫描一个测试对象的脸部,使用 3D 打印机生成一个脸部模型,并贴上剪纸眼睛和嘴巴和硅胶鼻子。这一破解事件给整个行业掀起了巨大的冲击,加大了消费者设备隐私的风险,更普遍的是人工智能设备的安全风险。

  2、Amazon Echo 引得邻里报警

  流行的 Amazon Echo 被认为是很强大的智能音响之一。但没有什么是完美的。一名德国男子的 Echo 在其不在家的时候被意外激活,并在午夜后开始响起音乐,吵醒了邻居。他们打电话报警,警察不得不打破前门,关闭了违规的音响。因为警察们还换了门锁,所以当这个人回来时,他发现他的钥匙不再工作。   

  3、Facebook 聊天机器人惨遭关闭

  今年七月,广泛报道说两个 Facebook 聊天机器人以无法识别的语言相互沟通后被关闭。关于新的秘密超级智能语言的谣言一直在许多讨论区传播泛滥,直到 Facebook 后来澄清这种神秘的交流只是语法编码疏忽的结果方才作罢。

  4、拉斯维加斯智能巴士首日开挂

  一辆自动驾驶巴士在今年十一月在拉斯维加斯首次亮相,当时名流中的常驻魔术师佩恩 - 泰勒(Penn&Teller)也排队等候。然而在短短的两个小时内,这辆巴士就被一辆货车撞上了。尽管从技术上来说,这起事故并不是巴士的负责,而警方传讯了送货卡车司机,但是在这辆智能巴士上的乘客抱怨道,当卡车慢慢靠近的时,它不够智能而无法摆脱危险

  5、Google Allo 使用头巾表情符号来回应枪支表情

  美国有线电视新闻网(CNN)的工作人员通过 Google Allo 收到了一个戴头巾的人像的表情建议。原来这是由于包含手枪的表情符号引发的。尴尬的 Google 只得向公众保证,它已经解决了这个问题,并发表道歉。

  6、双胞胎骗过汇丰语音 ID 的技术

  汇丰银行(HSBC)的语音识别 ID 是一个以人工智能驱动的安全系统,允许用户通过语音命令访问他们的账户。尽管该公司声称它和指纹 ID 一样安全,但英国广播公司(BBC)的一名记者的双胞胎兄弟却能够通过模仿他的声音访问记者的账户。实验尝试了七次便得手。汇丰临时的解决办法就是确定账户锁定的阈值为三次失败尝试。

  7. Google AI 将步枪误判为直升机

  通过微调步枪照片,麻省理工学院(MIT)的一个研究小组欺骗了 Google Cloud Vision API,将其辨识为为直升机。这个技巧,即不良样本,会导致计算机通过引入人眼无法察觉的修改来对图像进行错误分类。过去,如果黑客知道目标计算机系统的基本机制,那么对抗的例子才会起作用。而麻省理工学院团队在没有获得这些系统信息的情况下,通过触发错误分类而向前迈进了一步。

  8. 路牌黑客技巧愚弄了自动驾驶汽车

  研究人员发现,通过使用油漆或胶带小心制作交通停止标志,他们可以欺骗自动驾驶汽车对这些标志进行误分类。用“爱”和“憎恨”这两个词修饰的停车标志,欺骗了一辆自驾车的机器学习系统,在 100% 的测试用例中将其误认为是“限速 45”的标志。

  9. AI 想象“Bank Butt”颜色的日落景色

  机器学习研究人员 Janelle Shan 训练了一个神经网络,以产生新的油画颜色并对每种可以“匹配”颜色的名。尽管颜色可能赏心悦目,但名字却滑稽可笑。即使在用颜色名称数据进行少量训练之后,该模型仍然将天蓝色标记为“Gray Pubic”,将深绿色标记为“Stoomy Brown”。

  10. 向虚拟助手 Alexa 提问,可得小心谨慎

  亚马逊 Alexa 的虚拟助理可以使网上购物更容易。也许是太容易了吧? 1 月份,圣地亚哥新闻频道 CW6 报道说,一个六岁的女孩通过简单地向 Alexa 购买一个 170 美元的玩具屋。故事还没有结束。当播出的电视主持人重复了这个女孩的话,说:“我喜欢这个小女孩说,'Alexa 请给我订个玩具屋',”结果一些收看节目的观众家里的 Alexa 设备再次触发订购玩偶屋。

  参考文章:https://syncedreview.com/2017/12/23/2017-in-review-10-ai-failures/

发表评论
用户名: 匿名