自然语言处理技术,将会使机器从更人性化的视角来解决问题_最新动态_新闻资讯_程序员俱乐部

中国优秀的程序员网站程序员频道CXYCLUB技术地图
热搜:
更多>>
 
您所在的位置: 程序员俱乐部 > 新闻资讯 > 最新动态 > 自然语言处理技术,将会使机器从更人性化的视角来解决问题

自然语言处理技术,将会使机器从更人性化的视角来解决问题

 2017/10/27 15:03:08    程序员俱乐部  我要评论(0)
  • 摘要:在解决和数学或物理相关的问题时,技术能够发挥相当大的作用。但在解决涉及到以人为中心的问题时,技术的可发挥余地就变得很小。在UltimateSoftware的高级策略总监ArmenBerjikly看来,自然语言处理(NLP)的进步会帮助技术更好的识别出人类的情感与同情心,从而来帮助人们更好地处理各种问题。文章发表在VentureBeat,由36氪编译。以目前的发展速度来看,科技似乎正承载着一项雄心勃勃的使命——解决人类最迫切的问题。在某些方面,我们取得了很大的进步
  • 标签:解决 问题 人性化 技术

  在解决和数学或物理相关的问题时,技术能够发挥相当大的作用。但在解决涉及到以人为中心的问题时,技术的可发挥余地就变得很小。在 Ultimate Software 的高级策略总监 Armen Berjikly 看来,自然语言处理(NLP)的进步会帮助技术更好的识别出人类的情感与同情心,从而来帮助人们更好地处理各种问题。文章发表在 VentureBeat,由 36 氪编译。

自然语言处理技术,将会使机器从更<a href=人性化的视角来解决问题" data-img-size-val="578,385" />

  以目前的发展速度来看,科技似乎正承载着一项雄心勃勃的使命——解决人类最迫切的问题。

  在某些方面,我们取得了很大的进步。比如可再生能源、疾病预防和灾后重建等领域,我们已经有了巨大的突破。但是,当涉及到应对以人为中心的挑战时——比如员工多样性、无意识偏见、员工和客户满意度——技术能发挥的余地就很少。

  这是因为,像喷气推进或 GPS 这样的技术问题很大程度上是数学和物理相关的,这也是计算机(和程序员)擅长的地方。但解决员工参与这样的人事问题通常需要同理心,而这是出了名的难以捉摸。人类是情绪化的动物,尤其是在做决定的时候。通常情况下,我们先有一种感觉,然后运用逻辑来帮助证明我们的情绪反应,最后,我们采取行动。因此,任何帮助人们做出更好的决定,而不考虑情感因素的尝试,几乎都注定会失败。

  然而,随着人工智能的最新进展,尤其是自然语言处理(NLP),我们终于有了能理解人类情感复杂性和利用其力量的技术工具。这种方法对于我们如何设计系统有着重要的意义,它将会从更人性化的视角来解决问题。

  为差异而编程

  语言是极其复杂的。从一个人到另一个人,某个人经历或环境中出现的细微差别,就会对他们表达自己的方式产生影响。方言,性别,地点,甚至季节都可以改变我们用来表达想法的词语。

  人们很善于发现这些细微的差别。然而,对于计算机来说,这是一个巨大的挑战。为了达到接近人类的理解水平,它们需要一套庞大而丰富的语言训练数据,涵盖了人口统计学、经历和背景等各不相同的无数个案例。

  要想知道这在现实生活中是如何运作的,只需要想象这样的一个场景:在对于一个智能手机进行评论时,加州的一个青少年使用的词语是“lit”(意思是“兴奋”),但在马萨诸塞州一个老年人的评论中可能是“屏幕亮度”的意思。

  字里行间的阅读

  这是第一次,我们能够教会计算机不仅理解人们所说的基本知识——通过识别单词或查找特定的短语,还能“读懂字里行间”,理解我们话语背后的真正意图和含义。当然,这是一项重要的技能,随着时间的推移,人们逐渐将其作为一种同理心的功能。

  常见的“满意度调查”是一个典型的例子,体现出了技术在解决人们的感觉问题时的局限性。从原则上讲,它是一种了解人们对产品或服务的感受的有力工具。但在实践中,它是笨拙的、不准确的、早就应该重新制作了。

  考虑一下在大多数商店收据上的调查提示:“请为你的体验从 1 到 10 打分,并谈谈原因。”相比之下,一个人在面对同样的情景时,可能只需问一句“你觉得体验怎么样?”然后从回答者所使用的语言和整体的语境中推断出“分数”。虽然人们不需要给出明确的评级,但机器可以做到。

  照照镜子

  除了帮助我们更好地了解彼此,NLP 还能让我们更好地了解自己。语言是了解我们思想和情感的最详尽的窗口。当技术能够开始理解我们(而不是它想要我们成为什么样子)时,它就会成为一个真正的合作伙伴,帮助我们发现如何最好地成长和改进。

  看看可怕的绩效评估和各种各样的偏见吧。当你在工作环境中询问人们是否会有偏见,他们一般会下意识极力否认。然而,对绩效评估的研究显示了普遍的、无意识的偏见。

  来自我的团队的分析表明,当男性评价其他男性时,他们压倒性地使用了被动式的语言(“他们可以更积极主动”)。然而,当这些男性对女性进行评价时,他们经常使用相互指责的语言(“你应该注意细节”)。通过数据驱动的技术,我们能够进一步了解许多人在无意识情况下隐藏的偏见。幸运的是,人工智能可以让我们走上纠正这种偏见的道路,让它们引起我们的注意。

  要解决世界上最具挑战性的“人的问题”,无论是通过开发更好的产品,还是在工作场所实现更好的理解和更公平,我们都需要技术来展现同理心。

发表评论
用户名: 匿名