你好,游客 登录
背景:
阅读新闻

将“杀戮机器人”挂在嘴边的我们,是否在无意识的散布恐慌?

[日期:2017-11-19] 来源:雷锋网   作者: [字体: ]

可携带爆炸物的杀人微型无人机

雷锋网(公众号:雷锋网)按:本文出自 Spectrum.ieee 撰稿人 Evan Ackerman,一个有关杀戮机器人的视频引起了他的思考。关于 AI 和机器人的未来,我们是要一棒子打死,还是坐下来仔细衡量它们的优劣,找到一个更好的解决方案呢?

本周,日内瓦联合国总部举办了一场史无前例的会议,常规武器公约组织成员国的专家针对致命性自动化武器系统进行了讨论。一些组织(如“停止杀戮机器人运动”)敦促联合国在自动化武器的监管上持续推进。这次会议相当重要,因为相关问题会塑造机器人和人类社会的未来。

周末无意间看到的一个视频也让我开始关心起与自动化武器相关的讨论,这个视频的名字就叫“杀戮机器人”。值得注意的是,这个视频得到了硅谷钢铁侠马斯克旗下未来生活研究所(Future of Life Institute)的支持,而马斯克一直坚定的站在“邪恶”AI 的对立面。除了有这层背景,这个视频的基调也非常阴暗,它将时间设定在了不久的将来,不过情节却与科幻小说类似,携带爆炸物的微型无人机在全球肆意杀人。

这里就不附上视频了,因为画面相当暴力血腥,甚至包含了在课堂上的恐怖袭击。不过,如果你非要一探究竟,可以在未来生活研究所的网站上找到它。

说实话,这个视频让我非常失望,那些颇有声望的机器人和 AI 研究者居然会支持这种哗众取宠的作品它们要的只是吸引眼球,关于实际问题则根本没有传达任何有用信息。这样的视频根本不是冲着表达事实而出现的,它们就是要煽动和培养人们对 AI 和机器人的恐惧。同时,它还占据了道德制高点,好像你反对这种观点就是与恐怖分子沆瀣一气。此外,如此多专家为该视频背书更是会让公众思想混乱,他们会对所有机器人产生恐惧,而这正是机器人专家们长期警惕的。

视频中甚至虚构了一个专门造杀人微型无人机的公司

从个人角度来说,我对杀戮机器人持否定态度,更准确的来说,我反对那些“超越了人类实际控制的自动化武器”。不过,对于那些叫嚣着要彻底封杀此类机器人的人,我也不愿给予支持。因为在我看来,这是一个相当复杂,还无法完整定义的问题,全部封杀不是个有效的解决方案。

眼下,关于 AI 的话题还在讨论中,到底哪些技术应该被禁,如何禁止还有待确定。在视频最后发言的加大伯克利分校教授 Stuart Russell(也是制片人之一)称“我们有机会阻止视频中的事情发生”,但事实上他有点“too young,too simple”了。在我看来,直接封杀自动化武器并不会阻挡无人机微型化的脚步,也无法阻挡面部识别技术的进步,更无法阻碍两项先进技术合二为一,而相互融合的这两项技术就是视频中的“幕后黑手”。

有人指责这段视频是在散布恐慌,但 Russell 的一位同行并不同意。这位新南威尔士大学的 AI 教授表示:“这才不是散布恐惧。俄罗斯大使在对这次会议发表评论时指出,我们根本不需要担心自动化武器,因为我们离开发成功还远着呢。此外,这段视频另辟蹊径,它指出技术的结合会让杀人机器更早到来,一旦误用,后果不堪设想。”

其实两年前我就对一封要求禁止攻击型自动化武器的公开信做过反驳,当时我举了许多正面例子,列举了自动化武器的好处,而 Russell 和 Walsh 则联合 MIT 教授 Max Tegmark 对我的观点做了回应。

文章开篇他们非常客气,称欢迎我参与这场讨论。同时,他们还表示这是个复杂的问题,双方都有自己的观点,到底孰对孰错需要仔细衡量。

这样的观点我非常赞同,想要一个更安全的未来,这样的讨论必不可少,但通过恐怖视频搞恶意中伤就不可取了,这会让许多人加深自己对机器人的负面印象。

收藏 推荐 打印 | 录入:Cstor | 阅读:
相关新闻      
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款