豫都网 > 数码频道 > 家用电器 >

英国出台伦理标准 给机器人戴“紧箍咒”

[摘要]谈到机器人的行为准则,你肯定会想起阿西莫夫(Isaac Asimov)著名的机器人三原则:不伤害人类,服从人类指挥,保护自己。 现在,英国标准协会(简称BSI)正式发布了一个官方指南,旨在帮助设计者研发符合伦理规范的机器人,就如同给机器人用上了紧箍咒。 这份指...

  谈到机器人的行为准则,你肯定会想起阿西莫夫(Isaac Asimov)著名的“机器人三原则”:不伤害人类,服从人类指挥,保护自己。

  现在,英国标准协会(简称BSI)正式发布了一个官方指南,旨在帮助设计者研发符合伦理规范的机器人,就如同给机器人用上了“紧箍咒”。

  这份指南的名称叫《机器人和机器系统的伦理设计和应用指南》,读起来像是一本健康安全手册,但它强调的“不良行为”简直就像是从科幻小说里摘录出来的。

  指南指出,机器人欺诈问题、机器人成瘾现象,以及自学习系统越俎代庖的行为,这些都是机器人制造商应该考虑的问题。

  在英国牛津郡举办的“社会机器人和 AI ”(Social Robotics and AI)大会上,西英格兰大学机器人学教授阿兰•温菲尔德(Alan Winfield)说,这个指南代表了“把伦理价值观注入机器人和AI领域的第一步”。

  “据我所知,这是历史上发布的首个关于机器人伦理的设计标准,”温菲尔德表示。 “这比阿西莫夫的机器人三原则更加复杂一些,它规定了如何对机器人进行道德风险评估。”

  原则和问题

  这份指南一开头就提出了一些宽泛的道德原则:“机器人的主要设计用途不能是杀人或伤害人类;需要对事情负责的是人类,不是机器人;对于任何一个机器人及行为,都应该有找到背后负责人的可能。”

  接着,该指南强调了一系列更具争议的问题,比如人与机器人之间的情感纽带是否可取,特别是当一个机器人的设计用途是与儿童或老人互动的时候。

  英国谢菲尔德大学的机器人学和AI名誉教授诺埃尔•夏基(Noel Sharkey)说,这类机器人可能会在无意中欺骗我们的感情。 “最近的一项研究,调查了小型机器人在幼儿园里的使用情况,”他说。“孩子们很喜欢这些机器人,而且对它们有了依恋之情。但是在后来的询问中,孩子们显然认为机器人的认知能力比家里的宠物强。”

  该指南建议,机器人设计者要以透明性为导向,但科学家说,这一点说起来容易做起来难。“AI系统,尤其是深度学习系统的一件棘手事,就是你不可能知道它们做决定的原因,”温菲尔德说。

  在给深度学习技术编程的时候,并不是让它们以固定的方式完成某个特定任务。相反,它们会尝试了数百万次,在这个过程中进行学习 ,然后制定出一个策略来执行任务。有时候,这些策略会出乎人类创造者的预料,让他们无法理解。

  对人类的歧视

  该指南甚至还暗示会有性别歧视或种族主义倾向的机器人出现,发出了小心机器人“缺乏对文化多样性和多元化的尊重”的警告。

  “警方使用的一些技术这已经显示了这种倾向,”夏基说。这些技术的用途是突显可疑人员,方便警方在机场进行拦截。事实证明,这种技术在种族貌相上存在倾向性。

  温菲尔德说:“毫不夸张地说,深度学习系统使用了整个互联网上的数据来进行训练,但问题是,这些数据本身就是有偏差的。系统倾向于青睐白人中年男子,这显然是一场灾难。各种人类偏见都有可能被携带到系统中。”

  在未来的医疗应用中,系统可能不太擅长为女性或少数族裔做诊断。目前已经有一些语音识别软件识别女声的能力逊色于识别男声,或者是面部识别软件识别黑人比识别白人困难得多。

  “对于机器人,我们需要一个可以打开和检查的黑匣子,”夏基所述。 “如果一个机器人警察有种族主义倾向,我们可以关闭它,把它从街头移除。”

  过分依赖机器人

  该指南还提出了更加广泛的社会问题,比如“过分依赖的机器人”,但是在这些问题上应该采取怎样的做法,它没有给设计者指出清楚的方针。

  “过分依赖机器人的一种形式是自动化偏见,当你和一台机器打交道的时间比较长,它每次都为你提供了正确的答案时,你就会开始信任它,自己不再去验证答案。而在这时,机器人可能会给你提供一些十分愚蠢的答案,”夏基说。

  也许以更加长远的目光来看,这份指南提醒我们,流氓机器人“可能会制定出新的或者更改后的行动计划......可能带来无法预料的后果”。

  丹•帕尔默(Dan Palmer)是BSI制造业的主管,他说:“使用机器人及自动化技术来提高制程的效率、灵活性和适应性,这是制造业增长的重要组成部分。要让人们接受这种趋势,就必须识别和应对机器人的伦理问题和风险,比如人类变得过分依赖于机器人等等。这份指南提供为机器人和自主系统领域的设计者和用户提供了帮助。”

  对经济和就业的影响

  温菲尔德认为,机器人对经济的影响绝对是积极的,但围绕机器人和就业机会展开的争论则太过两极分化。他的看法是,简单地说“机器人一定会抢走我们的工作”,或者“新工作一定会比旧工作更多”是没有意义的,这得取决于具体情况,总之这是一个相当微妙的问题。

  在影响就业方面,温菲尔德更担心的是AI,而不是有形的机器人。他认为,知识工作者(律师、呼叫中心工作人员、翻译、数据分析师)被AI取代的风险,比体力劳动者被机器人取代的风险更大,因为机器人技术的成熟和部署远远更加困难。而且人们已经发现,在机器人可以发挥优势的地方,都需要人类和机器人并肩工作,因为现在的体力工作无法完全自动化。那些可以完全自动化的体力工作,早就已经自动化了。

  温菲尔德认为,机器人可以创造出新的岗位类型。过去20年的数字化经历提供了一个教训:你很难预测这些工作是什么。关键在于,新技术开辟了创造的新途径。我们显然需要更多的人来维护机器人,但是新技术也催生了新的创业领域。比如Open Bionics的 3D打印假肢,当初谁能想到机器人可以用这种方式来使用!随着技术的改进,可穿戴机器人将会变得普遍。不仅是残障人士,老年人也可以用它们来代替轮椅。

  关于特斯拉的自主驾驶系统

  温菲尔德认为,还需要很长一段时间,我们才会在道路上看到无人驾驶汽车和卡车,因为这项技术还没有做好上路的准备。

  一个重要的问题在于:这种车是需要人工辅助,还是应该完全自主驾驶。最近发生的特斯拉事故致死案表明,让人类参与自动驾驶任务是一个非常糟糕的做法。

  如果驾驶者在车上无事可干,那么他的注意力就很难集中在道路上,所以,如果你觉得自动驾驶系统一旦遇到问题,驾驶者就可以马上接手,恢复人工控制,这也想得太简单了一些。

  特斯拉的事故还说明机器人的感知能力仍不够好。在行驶过程中,机器人有很多时候都不太了解状况,因为它们在感和和认知上存在缺陷。

  温菲尔德表示,如果一个公司要想获得成功,他们的目标应该是获得“盖章认定”,证明他们的机器人符合相关标准。

  监管是政府给我们提供的一颗定心丸。为什么我们会相信商业客机?因为那是一个高度监管的行业,标准定得非常高。

  商用飞机的经验也应该用在机器人领域。特斯拉就是一个需要进行监管的例子。他们的自动驾驶仪没有公布正式的标准,所以不能信他们。

【 延伸阅读 】 中国机器人产业重心大迁移 找寻创新土壤国产工业机器人“钱景”看好 但仍面临挑战扫地机器人的必经之路:智能合一

《英国出台伦理标准 给机器人戴“紧箍咒”》河南新闻-豫都网提供,转载请注明出处:http://digi.yuduxx.com/jydq/578937.html,谢谢合作!

[责任编辑:admin]

我要评论

尚未注册畅言帐号,请到后台注册

豫都网版权与免责声明

1、未经豫都网(以下简称本网)许可,任何人不得非法使用本网自有版权作品。

2、本网转载其他媒体之稿件,以及由用户发表上传的作品,不代表本网赞同其观点和对其真实性负责。

3、如因作品版权和其它问题可联系本网,本网确认后将在24小时内移除相关争议内容。

详细声明请点击进入>>

返回豫都网首页
版权所有: 豫都网 Copyright(c) 2010-2015 YuDuWang Network Center. All Rights Reserved 豫ICP备13014680号
若无意侵犯了贵司版权,请来信通知,我们会及时处理和回复,谢谢!邮箱:admin@yuduxx.com
未经豫都网书面特别授权,请勿转载或建立镜像 违者依法追究相关法律责任
地图 地图 地图 地图 地图 地图 地图 地图 地图 地图 地图 地图 地图