你好,游客 登录
背景:
阅读新闻

IEEE谈人工智能道德问题:当AI侵犯了人类时该怎么办?

[日期:2016-12-16] 来源:创见  作者: [字体: ]

  

 

  1940 年,著名科幻作家阿西莫夫提出了机器人三原则。在当时还没有真正意义上的机器人时,人们就已经开始讨论未来世界将为人类服务的机器,它在设计、生产和使用过程中应该遵守的三大原则。

  

 

  这三大原则是在「机器人太厉害了,必定超越人类」和「未来科技无法预测,必须将危险扼杀在摇篮里」等言论环境下的产物。而有趣的是,在许多文学作品、影视作品中,机器人一定会违背这些定律;而在我们看到现实生活中的机器人,却非常符合三个原则。

  当年的机器人讨论只是限制在机器人这个机械身上,而没有详细地去讨论为什么这个机器人可能会伤害人类,它是如何进行工作的。现在,我们需要更深入地去讨论这机器人三大原则,并且还需要更加严谨地讨论最近几年新兴的以图像识别为代表的人工智能和能在没人监管状态下工作的自动化系统。

  

 

  IEEE 发布《道德伦理对齐设计》

  《道德伦理对齐设计》(Ethically Aligned Design),是 IEEE(电气和电子工程师协会)与 12 月 13 日发布的一份针对人工智能(AI)和自动化系统(AS)创造过程中更多地对人类道德进行考虑的专项讨论报告。IEEE 通过本报告,鼓励技术人员在开发自动化系统和智能技术的时候,优先考虑人类道德,多为人类谋福祉。

  

 

  人工智能与自动化系统应遵循什么样的原则?

  按照 IEEE 的这份报告,他们提出了针对 AI 和 AS 的三项基本原则,建议开发人员在创造过程中优先考虑,并非强制。

  

 

  1. Embody the highest ideals of human rights.

  2. Prioritize the maximum benefit to humanity and the natural environment.

  3. Mitigate risks and negative impacts as AI/AS evolve as socio-technical systems.——原文

  同样也对此提出了 4 个问题:

  

 

  自动化智能系统的价值观体现

  这份报告中提出,参与 AIS(自动化智能系统)系统开发和设计的人,需要理解人类道德并且在系统中体现出人类道德伦理。对此,IEEE 给出的建议包括:

  

 

  但是也存在下列问题:

  

 

  人工智能也分派系

  IEEE 的这份报告,对人工智能进行了划分,将他们分成了两类。一类是普通人工智能(AGI),另一类是超级人工智能(ASI)。两者都必须为人类社会和人类道德进行服务。

  AGI 将来会变成对人类社会发展产生翻天覆地影响,甚至引发农业革命和工业革命,大幅度推动世界发展。

  

 

  当武器也自动化

  当自动化系统是以带来伤害为前提的时候,那他的道德就必须进行调整。因为自动化武器系统是一种武器,武器必然会对设备或人造成伤害,所以不能 100% 的实现自动化。IEEE 的专家团队建议,自动化武器系统应该接受一定程度的人类控制,前提是保护社会福祉,而且当进行审计测试的时候自动化武器系统要确保这一建议也能实现。

  另外,这份报告还深入讨论了人工智能对人类数据的获取以及人类对数据权限的控制、当人工智能和自动化系统对人类社会和道德产生挑战时的应对方法,以及相应的法律法规。

 

  如果你对人工智能、自动化系统道德话题感兴趣,也可以发表自己的看法。点击这里,查看 详细的 PDF 文件 报告。

收藏 推荐 打印 | 录入:admin | 阅读:
相关新闻      
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款