你好,游客 登录
背景:
阅读新闻

机器人多用女性声音,但其实男性声线更合适

[日期:2016-11-05] 来源:腾讯科技  作者: [字体: ]

  

 

  【AI世代编者按】纽约时报日前撰文表示,在人工智能技术大热的当下,无论是 亚马逊 的Alexa, 微软 的Cortana还是Google Assistant,这些人工智能语音助手都拥有一个年轻女性声线。由于传统固有观念和偏见,用户倾向于由女性担任助手或秘书这样的角色,因此相较于男声,用户更希望个人智能助手服务拥有女性声线,但其实男性声线更可以让用户意识到自己是在与机器对话。

  以下为原文内容:

  杰森·马尔斯(Jason Mars),是一位非裔美籍计算机科学专业教授,同时还拥有一家科技初创企业。对于自家公司研发的人工智能手机应用程序说话时的声音,他表示,“听上去是一位热心的年轻白人女性。”

  马尔斯表示,每当想要推出一款成功的消费者产品时,“就会感到一种要向社会各种偏见妥协的压力”。“想想如果是黑人男性的声音,那应该会很有意思。不过,我们也不想造成不必要的摩擦。因为我们首先要做地还是销售产品。”

  马尔斯这家初创企业所专注的领域,正是当下处于快速发展阶段的对话式计算技术。当前众多热门产品都采用了这项技术,比如 苹果 的Siri个人语音助手,以及亚马逊家用人工智能设备Echo中内置的Alexa语音助手等。

  一面社会反光镜

  对话式计算技术就像是一面镜子,反射出了当前社会中关于种族和性别的诸多主流偏见。现在,聆听和对话成为了计算机最新的输入和输出装置,而其具备的社会和情感维度,也是键盘和屏幕从未有过的。

  举个例子,只要说到英国管家式声线,我们是不是立刻就会“听到”一个热心且睿智的声音,比如《钢铁侠》里的智能管家贾维斯(Jarvis)?那为什么又有那么多用户希望人工智能拥有一个标准无口音的年轻女性化声线?

  人工智能声线的选择,不仅关乎设计,还对品牌化及机器互动有影响。声音能改变或加强我们对彼此的看法,而在商业方面,这就产生了一个问题,即,应该顺应主流选择刻板化声线,还是顶着失败的风险背道而驰,选择反类型声线?

  对许多人来说,答案再明显不过。微软的人工智能语音助手Cortana就是个例子,其所采用的就是视频游戏《光晕》(Halo)中一名女性角色的声音。

  微软搜索部门高级副总裁德里克?康奈尔(Derrick Connell)表示,“在对Cortana的调查中我们发现,不论男女,用户们都更喜欢年轻的女性个人助手。” 也就是说,秘书这个职位,传统角度上看就应该由女性担任。

  10月4日, 谷歌 (微博)推出了一系列基于语音技术的产品,其中包括智能家居设备Google Home,所有这些新产品均支持Google Assistant语音助手服务,而“这位助手”也是一名年轻又有教养的女性。

  负责Google Assistant个性塑造的谷歌涂鸦(Google Doodle)设计团队负责人瑞恩?杰米克(Ryan Germick)表示,Google Assistant“是一位00后图书馆员,不仅懂得文化线索,还懂得对一些事情装聋作哑。” 他表示,“产品成功与否不在于理性的设计决策,而是在于人们的心理和感受。”

  康奈尔表示,微软内部曾就“是否应当对用户提出的与自杀的相关问题给予不同回应”进行过内部辩论。他表示,“我们倾向于提供预防自杀的信息”,而不是选择完全忽视。

  有时候,如果你想要让人们迅速意识到他们是在和一个机器对话,那么男性声线会是一个更好的选择。比如, IBM 的Watson人工智能系统。在和摇滚音乐人鲍勃·迪伦(Bob Dylan)一起拍摄的广告中,Watson以男声与其进行对话。而当美国乔治亚理工学院(Georgia Institute of Technology)计算机学院教授艾肖克·戈尔(Ashok Goel)将女声版的Watson以助教身份介绍给学生并由其向学生解答问题时,没有学生发现自己是在和一台计算机对话。

  其实,性别只是一个开始。你的人工智能技术能听懂口音吗?在回应用户时声音能够不再机械化吗?或者能更带点人情味吗?对此,曾参与Amazon Echo产品研发的亚马逊前员工邵鹏(Peng Shao,音译)表示,“你需要一个人物。这是一个非常情绪化的东西,当人工智能无法理解用户时,人们会发怒甚至会有暴力行为。一旦人工智能开始理解用户,这就像变魔术,甚至睡觉的时候,用户都将离不开人工智能。而这正是医院,疗养院和其他敏感场所的发展趋势。”

  美国第一资本金融公司(Capital One Financial Corp)就针对亚马逊Alexa语音助手开发了一款银行业务应用,并发现,要想让用户放心地和一台计算机设备谈论自己的财务信息,就必须降低计算机在对话时的正式程度。

  第一资本金融公司内容战略,文化及人工智能设计部门负责人斯蒂芬妮·海伊(Stephanie Hay)表示,“钱和情绪有着千丝万缕的联系,能够为生活带来很多东西,也会成为阻碍。”她表示,起初,Capital One设计的这款应用会向用户说“您好”,但这似乎太过正式,而修改过后的“嗨,你好”效果却更好。海伊表示,“她(Alexa)就像我的朋友,和我在厨房聊天的朋友。我希望她亲切可靠,而不是咄咄逼人。”

  卡内基梅隆大学人机交互研究所(Human-Computer Interaction Institute at Carnegie Mellon University)教授贾斯汀·卡塞尔(Justine Cassell)表示,我们需要的不仅是让那个机械化的声音满足我们的期望,我们还需要让计算机和我们相联系,在执行一项任务时不让我们操心。

  卡塞尔教授曾为五岁的孩子们设计了一个无种族及性别的语音助手形象,她表示,“女孩子们都觉得这是个女生,男孩子们则觉得是男生。白人小孩觉得是白人,有色人种孩子认为这是有色人种。”她还针对非裔美籍的孩子,设计了另一个语音助手系统,用她的话来说,这是一个说“地方话”的语音助手,而结果也证明在教授科学概念这方面,其教学效果优于使用标准英语的计算机。

  当然,在机械合成语音构建过程中,还需要注意地区问题。比如,微软的Cortana语音助手就要在不同的国家,使用不同的口音,讲不一样的语言和笑话。如果一位法国司机驾车去德国,沿途使用纽昂斯通信公司(Nuance Communications)的语音导航,那么计算机就会将德国小镇的名字以法语口音念出来。这么做是为了让司机能够以此错误地认为计算机在说法语,从而保持司机在驾驶途中的自信。

  苹果Siri语音助手拥有各种不同版本的本地化口音。比如,说美式英语的Samantha,说澳式英语的Karen,爱尔兰的Moira,南非的Tessa以及英国的Daniel等。

 

  马尔斯教授的科技初创企业Clinc,主要研发个人财务智能手机软件。他希望自己能够取得不错的成绩,这样就能够对人工智能语音服务进行反类型声线测试。他表示,“你要想解决这些问题,你自己需要先做出成绩。我认为,消费者最终将愿意接受不同的声线和声音类型,而大企业可能将依旧采取保守态度。”(编译/喻离)

收藏 推荐 打印 | 录入:admin | 阅读:
相关新闻      
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款