你好,游客 登录
背景:
阅读新闻

OpenAI宣布全面投入通用AI,四大原则确保人类免于毁灭

[日期:2018-04-11] 来源:新智元  作者: [字体: ]

新智元编译

来源:OpenAI、thenextweb

编译:肖琴

【新智元导读】对于 OpenAI, 我们知道它是一家非盈利的,要用开放的方法研究通用AI,为人类带来福祉的研究机构,它的初衷是马斯克一再强调的“安全的AI”。现在,它的使命发生了一点变化:OpenAI宣布要all-in AGI(通用人工智能),提出四项原则,并将减少AI研究的公开发表。

马斯克在创立OpenAI时,给OpenAI的目标是确定人工智能技术如何更好地为人类服务。近日,OpenAI发布了一份新的公司章程,根据章程,OpenAI未来的使命是开发“高度自主的系统,在大多数具有经济价值的工作上超越人类”。它想让机器比人类更聪明。

这一使命即通用人工智能(AGI),取决于你用来做什么,它可以是圣杯,也可以是潘多拉的魔盒。

OpenAI宣布all-in AGI。尽管马斯克最近退出了OpenAI董事会(官方称此举是为了避免 OpenAI 将来与特斯拉可能发生的冲突),但OpenAI仍有它的野心。

一些专家,如谷歌的Ray Kurzweil,认为我们距离奇点(机器变得比人类更聪明的时间点)只有数十年。也有人认为这永远不会发生。在有关AGI的讨论中,大多数人要么仍在试图理清语义、学术类型,要么更担心资金问题,而不是担心对人类的生存威胁。

幸亏OpenAI是一个非营利性组织。它有超过10亿美元的资金和AI领域最聪明的人才(以及大公司)的支持,它能够专注于技术而不必担心去取悦股东以免失去资助。为了达到这一目的,OpenAI致力于小心谨慎地开发AGI,并避免AI军备竞赛,这可能导致研究人员失去重点。

OpenAI新的章程写道:

我们将尝试直接构建安全、有益的AGI,但如果我们的工作帮助其他人达到这一目的,我们也认为我们完成了这一使命。

在这份文件中,OpenAI甚至表示,如果另一家公司似乎接近了AGI的边缘,它将退出并终止其研究。

多数人认为AGI是离现实很远的科幻小说里的事情,甚至AI信徒们也认为担心AGI还为时过早。但在某种程度上,我们需要一些强有力的指导方针来帮助开发人员避免意外的陷阱(比如摧毁人类)。等到机器人出现问题,再提出常识性的政策就太迟了。

OpenAI联合创始人Ilya Sutskever说:“OpenAI在创立之初就已为建立一个强大的技术实验室指定了完善的规范。但是,如何建立一个旨在使这些技术的长期影响进展顺利的组织,这并没有真正的先例。在过去两年中,我们从头开始建立了能力、安全和政策团队,每个团队都对这些规范有所贡献。我们认为这些技术影响着每个人,因此我们与其他机构合作,确保这些原则不仅对我们,而且对社区的其他人都有好处。”

OpenAI目前没有提出AGI的时间表,但它已经开始了“下一阶段的OpenAI”,包括增加对人员和设备的投资,以期“在人工智能方面取得重大突破”。

OpenAI章程全文

OpenAI的使命是确保通用人工智能( artificial general intelligence ,AGI)——我们指的是高度自主的系统,这种系统在大多数具有经济价值的工作上能够超越人类——将使全人类受益。我们将尝试直接构建安全而有益的AGI,但如果我们的工作帮助其他人实现了这一成果,我们也认为我们的使命已经完成。为此,我们承诺遵守以下原则:

广泛受益原则

  • 我们承诺利用我们通过部署AGI获得的任何影响,确保它被用于所有人的利益,并避免AI或AGI的使用伤害人性或令能力过度集中。

  • 我们主要的受托责任是人性。我们预计需要集结大量资源来完成我们的使命,但我们将始终不懈地努力,尽量减少员工和利益相关方之间的利益冲突,因为这可能会损害广泛的利益。

长期安全原则

  • 我们承诺进行必要的研究,以确保AGI安全,并推动AI社区广泛采用这些研究。

  • 我们担心后期AGI的发展会成为一场军备竞赛,缺乏足够时间实施安全预防。因此,如果一个价值观一致的、关注安全的项目在我们之前接近了AGI,我们承诺放弃竞争并协助这个项目。我们会根据具体情况制定具体的协议,但一个典型的可能性是“未来两年内出现比以往任何时候都更接近成功的机会”。

技术领导力

  • 为了使AGI的影响对社会有效,OpenAI必须要站在AI技术的前沿——单靠政策和安全宣传是不够的。

  • 我们相信AI在AGI之前会产生广泛的社会影响,我们在与我们的使命和专业知识直接相关的领域中发挥领导作用。

  • 我们将积极配合其他研究机构和政策机构;我们力求创建一个全球性的社区,共同应对AGI的全球挑战。

  • 我们致力于提供帮助社会通向AGI的公共产品。今天,这包括公开发表我们的大部分AI研究,但我们预计,由于安全性问题,未来公开发表的研究将会减少,同时增加分享安全、政策和标准研究。

收藏 推荐 打印 | 录入:Cstor | 阅读:
相关新闻      
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款