欧盟人工智能伦理准则草案:可信任的人工智能评估清单|AI|伦理|欧盟新浪技术
2019-11-06

    近年来,欧盟宣布自己是“可信任的人工智能”的推动者。12月18日,欧盟人工智能高级专家组(AI HLEG)正式发布了人工智能道德守则草案(草案,ETHICS GUIDELINES for TruUSTWORTHY AI),该草案被视为欧洲讨论“可信任的人工智能”的起点。该草案首先为可信人工智能提供了官方解释。该草案认为,“可信任的人工智能”有两个基本组成部分:一是应尊重基本权利、法规、核心原则和价值观念,确保“道德目的”。其次,它应该在技术上健壮和可靠,因为即使有良好的意图,缺乏对技术的掌握也会造成无意的伤害。围绕这两个要素,草案给出了“可信任的人工智能”的框架。草案强调指出,其目的不是给出AI的价值和原则的另一个列表,而是为AI系统提供具体的实现和操作指南。草案由37页组成。第一章通过阐述人工智能应遵守的基本权利、原则和价值观,试图确保人工智能的道德目的。第二章根据第一章阐述的原理,给出了实现“可信人工智能”的标准和具体要求。它不仅涉及道德目的,而且涉及技术稳健性,包括技术和非技术要求。第三章给出了可信人工智能的具体但不是详尽的评估清单。草案指出,草案提出的指导方针并不打算取代任何形式的政策和法规。同时,应将其作为活文件,定期更新,以适应技术发展的需要。草案的亮点之一是它有一个关于人工智能引发的争议问题的专门章节。这些问题引起了欧盟人工智能高级专家组的热烈讨论,但尚未在该小组内达成共识。最具争议的问题是“未经知情同意的身份证明”。有迹象表明,在欧洲已经开始使用面部识别来监测公民。不久前,英国警方宣布,他们正在伦敦为圣诞节购物者进行面部识别测试。人脸识别和人工智能中的其他技术使得公共或私人组织能够有效地识别个人。草案指出“为了保障欧洲公民的自主权,AI的使用需要得到适当的控制”。具体而言,区分个体识别与个体跟踪、目标监控与大规模监控是实现“可信人工智能”的关键。专家组讨论的另一个热门话题是“隐藏AI系统”。人工智能发展的目标之一是构建类人系统,但是越来越多的类人系统会给人类带来问题。根据草案,一个人必须始终知道自己是与人还是机器通信,这也应该是人工智能开发和管理的责任。该小组认为,人们“应该牢记,人与机器之间的混淆可能产生多种后果,如依恋、影响或降低作为人的价值。”因此,仿人机器人和机器人的发展应该被仔细的伦理评价。致命的自主武器系统也是该集团的重要关切之一。草案指出,目前未知数量的国家正在发展自己的武器系统。在这些武器系统中,可以选择性地瞄准导弹,以及具有认知能力的学习机器,这些机器可以在没有人为干预的情况下确定作战目标、时间和地点。专家组认为,这将导致无法控制的军备竞赛。对于这些有争议的话题,草案提供了一个关键的指导方针。首先,人工智能的开发、应用和使用应以人为本,体现公民福利、无害、人类自主、争议性和可解释性的社会价值观和道德原则。第二是评估人工智能对人类及其共同利益的可能影响,特别关注弱势群体,如儿童、残疾人和少数民族。第三,人们需要认识到人工智能能够给个人和社会带来实质性利益以及负面影响。人们需要“在严重关切的领域保持警惕”。目前,该草案正处于征求意见阶段,征求时间将于2019年1月18日届满。据报道,草案将于2019年3月提交欧盟委员会。欧盟人工智能高级专家组由欧盟委员会于2018年4月任命,52名独立专家代表学术界、工业界和民间社会。该组织的主要职责是为人工智能编写道德准则,并向欧盟提供政策和投资建议。