你好,游客 登录
背景:
阅读新闻

人工智能的道德水平,究竟如何才能让公众放心

[日期:2019-05-29] 来源:  作者: [字体: ]

涉及人工智能应用的法律目前还很少,这使得很多组织面临各方面的压力,而为了让公众放心,人工智能应用必须是合乎道德和公平的。

 

随着人工智能的应用越来越普遍,越来越多的IT领导者开始关注人工智能的道德含义。事实上,由SnapLogic公司赞助,由Vanson Bourne公司进行的2019年调查报告发现,在接受调查的1000名美国和英国IT决策者中, 94%的受访者认为人们应该更加关注人工智能开发中的企业责任和道德规范。

 

人们为此感到担忧是有理由的。一些著名的科技公司已经卷入相关丑闻,因为他们创建的人工智能系统没有按预期行事。例如,在2015年,很多用户抱怨谷歌公司的图像识别软件将黑人标记为“大猩猩”,虽然这家科技巨头承诺要解决这个问题,但在三年之后,谷歌公司提供的唯一解决方案就是取消人工智能识别大猩猩的能力。而微软公司的基于人工智能的Twitterbot-tay上在使用了几个小时后,就变成了种族主义者,这让微软公司不得不取消了这个业务。

 

此外据悉,旧金山日前成为美国第一个禁止市场机构使用面部识别软件的主要城市,其部分原因是该技术存在潜在的偏见。几个规模较小的城市已经通过或正在考虑类似的禁令。

 

虽然有关人工智能失误的报道屡见不鲜,但许多人担心,在没有公众知识的情况下,更普遍、更阴险的人工智能犯罪可能发生在幕后。客户可能永远不会知道他们是否因为道德上可疑的人工智能算法而被拒绝贷款或面临欺诈嫌疑。

 

纽约大学的AI Now研究所和美国南部浸礼会派这样的组织都在呼吁开发人工智能的公司让其技术变得更加透明,并同意遵守相应的道德原则。作为回应,包括谷歌公司和微软公司在内的一些企业已经发布了有关人工智能使用的内部指南。

 

然而,许多人认为这还远远不够。相反,他们希望政府机构参与并颁布法规。在Vanson Bourne公司的研究中,87%的商业IT领导者表示应该对人工智能开发进行监管。

 

IT领导者具有这种愿望的部分原因是,在缺乏相关法律的情况下,企业没有办法知道他们是否做了足够的工作来确保其开发的人工智能是合乎道德的。监管法律可能使他们有能力向客户保证人工智能的应用,因为可以表示他们遵守了所有相关法律。如果没有这些法律,获得和保持客户信任可能会更加困难。

 

但即使没有监管法律,企业也可以而且应该采取措施确保他们使用人工智能是道德的。以下提供了企业可以改善其在人工智能方面的道德立场采取的9项措施:

 

1.遵守法规

 

组织至少需要确保其人工智能应用程序符合数据隐私法规。大多数人工智能软件(尤其是机器学习)都依赖于大量的数据来进行操作,企业有责任确保他们对这些数据的处理符合相关法律。在美国,组织可能需要遵守健康保险便携性和责任法案(HIPAA)、儿童在线隐私保护法案(COPPA)或其他联邦或州法律。

 

如果组织在欧洲拥有客户或员工,他们还必须遵守欧盟的通用数据保护法规(GDPR)。除其他事项外,这项全面的立法要求组织尽可能以最短的时间存储数据,并为个人提供查看和删除其个人数据的方法。就人工智能而言,最重要的是,GDPR法规还指出,“个人不应仅仅依据自动处理(例如算法)做出决定,而且具有法律约束力或对其产生重大影响。”

 

2. 遵守数据科学最佳实践

 

除了遵守政府部门的规定外,组织还应该提供数据科学最佳实践。Forrester公司在其名为“人工智能的伦理:如何避免有害的偏见和歧视” 报告中建议,“为了防止模型中的算法偏见,组织需要坚持数据挖掘的基本原则,确保组织培训数据代表其计划使用模型的人群。”

 

还有一些人建议,数据科学家需要反复测试和验证他们的模型,并保持跟踪数据沿袭的方法。虽然很少有企业高管了解机器学习的复杂性,但他们有义务确保他们的数据科学家遵守行业最佳实践。

 

3.安全设计

 

几十年来,科幻作家一直在警告人工智能可能具有世界末日的危险。如今人工智能变得越来越普遍,重要的是不要忽视人工智能伤害人类的可能性,因为它不只是在书籍和电影中出现的事物。自动驾驶汽车和基于人工智能的武器系统等相关应用显然会影响人类的安全,设计师应确保这些系统尽可能安全。虽然其他机器学习系统可能不会直接影响人类的人身安全,但它们可能会对他们的隐私和在线安全产生重大影响。

 

4.使人工智能技术更加透明

 

企业在人工智能道德方面可以采取的最重要步骤之一是确保他们完全理解使用的任何人工智能系统的运作。人工智能供应商Kyndi公司首席执行官Ryan Welsh在一次采访中指出,“要发挥人工智能的全部潜力,信任至关重要。而信任来自人们的理解,并且能够证明系统结论和结果背后的推理。人工智能不可能是一个黑盒,因为它经常出现。要想让人工智能蓬勃发展,就必须更加透明。”

 

AI Now研究所表示,“为了实现有意义的问责制,我们需要更好地理解和跟踪人工智能系统的组成部分及其所依赖的完整供应链:这意味着要考虑培训数据、测试数据、模型的来源和使用、产品生命周期中的应用程序接口(API)和其他基础设施组件。”

 

5.清理数据

 

机器学习系统的行业与它们所依赖的数据一样好。对于许多组织而言,数据质量仍然是一个主要问题。在最坏的情况下,糟糕的数据可能导致组织做出不准确甚至道德上受到损害的决策。

 

另一方面,拥有准确、最新的数据会增加人工智能应用程序产生积极经济利益的可能性。Information Builders数据管理卓越中心的国际主管James Cotton在一次采访中表示,“当分析应用于管理良好的数据时,其回报要大得多。可以清楚地了解组织拥有什么,来自何处以及如何使用它会带来更大的回报。“

 

6.检查模型是否存在偏差迹象

 

数据科学家不仅需要确保他们的数据是干净的,而且他们还需要确保他们的数据和数据模型不包含任何偏差。这个问题可能会以几种不同的方式无意中进入到机器学习模型中。

 

首先,组织可能有不完整的训练数据。例如,如果企业只使用欧洲面孔训练其面部识别系统,那么当系统难以识别非洲或亚洲面孔时,人们不应对此感到惊讶。

 

其次,许多数据集包括历史偏差。例如,一些职业(例如护理或工程)在传统上一直是由性别主导的。如果组织根据这些历史数据训练基于人工智能的人力资源系统选择面试候选人,可能会意外地出现偏见,甚至可能触犯反歧视法规。

 

7.监控调查结果和反馈

 

而数据科学家通常表示,没有数据模型是完美的。他们所能期望最好的情况就是随着时间的推移而改进。这意味着人类需要监控系统来寻找潜在的道德问题。许多已发布人工智能指南的组织表示,所有人工智能技术都需要对人类负责。但一些人却表示,只是问责是不够的;人类监管者需要积极跟踪人工智能的行为和与人类的互动,并在必要时作出调整,以确保人工智能技术不会跨越任何道德界限。

 

8.确保可以撤消人工智能所做的任何决定

 

在相关的说明中,组织需要能够撤消人工智能所做出的任何决定。Forrester公司建议,组织开发的人工智能系统从根本上需要是健全的、可评估的、包容、可逆的,这意味需要设计可更改的人工智能系统,而且可能还需要为信贷决策等事项设立人工智能上诉委员会。

 

AI Now研究所进一步指出,““技术工作者的组织和抵制已经成为一种责任和道德决策的力量。技术公司需要保护工人的组织能力、揭发信息的能力,并在他们从事的项目上做出道德选择。这应包括明确的政策,以适应和保护有责任心的反对者,确保工作人员有权知道他们在做什么,并有能力在没有报复或惩罚的情况下放弃此类工作。”

 

9.成立人工智能道德咨询委员会

 

包括谷歌公司在内的多家科技公司已成立人工智能道德咨询委员会,以帮助指导他们使用人工智能。虽然让一群局外人监督组织的人工智能工作可能有助于建立公众信任,但也可能适得其反。一些组织因任命人工智能道德委员会成员而受到批评,有些人对此表示反对。

 

虽然成立人工智能道德委员会可能存在一些问题,但在缺乏监管法规或行业标准的情况下,它们可能是组织说服公众的最佳机会,即通过没有既得利益的人员监督人工智能的发展。

收藏 推荐 打印 | 录入:admin | 阅读:
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款