你好,游客 登录
背景:
阅读新闻

科学家让机器学习道德特征,发现AI比人更懂合作妥协

[日期:2018-01-27] 来源:Technews科技  作者: [字体: ]

【Technews科技新报】在去年中国乌镇 AlphoGo 与柯洁的围棋世纪大战之中,我们都见识到了人工智能(AI)在这些年来的快速进步,如今几乎可以确定的说,在绝大多数零和游戏(Zero-Sum Game)中,机器是会击败人类的。但如果是在其他情况下呢?

不论是西洋棋、围棋或扑克牌,过程经常是由两个或以上的玩家互相冲突竞争,并由一方击败对手获胜,对于 AI 发展来说,这样的游戏结果能提供明确的里程杯来衡量发展过程。但 AI 最终要应用的现实世界毕竟不是这么简单,机器必须学会与人、机器之间更复杂的长期合作关系。

New Atlas 报导指出,为了解 AI 在面对与人及其他机器“社交”时的情况,美国杨百翰大学(BYU)电脑科学教授 Jacob Crandall、Michael Goodrich 和麻省理工及其他单位同事合作创造了一种 S# 算法,试图教导机器学习合作及妥协,并在实际游戏中测试了其性能。

与过往的围棋、西洋棋等单人零和游戏不同,研究人员选择了玩家需要不同程度合作及妥协的数款游戏,其中包含了囚徒困境(Prisoner’s Dilemma)与牵涉到夏普利值(Shapley value)的内容,接着团队便在机器、人类与人机等不同合作方式情况下进行了测试。

结果显示,至少以 S# 编程机器的情况来说,在大多数情况下,机器确实比起人类更加懂得如何合作与妥协。

Crandall 表示,在这些游戏中,如果参与的两个人都能够相互诚实、忠诚,那么他们就能完成的像两台机器一样好,但实际的多数情况并非如此,Crandall 将这种情况称为“人为疏失”(human failings)。

“我们实验中的人类参与者有种不忠诚的倾向,他们会在合作关系中叛逃(defect)而且不诚实,大约有近半的参赛者在互动中会选择某种程度不遵照建议去进行。”

而从另一方面来看,被研究人员编程为“重视诚实”的机器,就确实是诚实的。Crandall 认为,这种算法正在体会到道德特征是件好事,它被编程为不去说谎,并在需要的时候持续保持合作。

在未来像是自驾车的多种 AI 应用中,机器都必须去学会与人类和其他机器分享资讯、合作或妥协,研究人员认为,这些发现将能为未来应用 AI 技术的设备奠定基础。

收藏 推荐 打印 | 录入:Cstor | 阅读:
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款