不同于美国的避免过度干预原则,欧盟正在考虑更为严格的人工智能政策。
近日,彭博社披露的一份欧盟人工智能“白皮书”草案显示,欧盟计划对人工智能开发者提出具有法律约束力的新要求,以确保现代科技的开发和使用符合道德规范。
据路透社报道,这份长达18页的草案建议3至5年内禁止人脸识别技术应用于公共场所,目的是留出更多时间评估技术风险。草案指出:“基于这些现有规定,未来的监管框架可能会进一步推进,包括限时禁止公共场所使用人脸识别技术。”
欧盟委员会称,需要出台新的严格规定来支持现有的隐私和数据保护法规。
作为建议的一部分,欧盟还希望成员国任命相关部门监督人工智能政策规则的执行情况。
这份草案将于2020年2月中旬公布,最终内容可能有所改变。
近年来,欧盟一再表示希望成为道德AI的领导者。
2018年12月,欧盟人工智能高级别专家组向社会发布人工智能道德准则草案,开始讨论“可信赖人工智能”并给出官方解释。草案认为,“可信赖人工智能”有两个必要的组成部分:首先,应尊重基本权利、规章制度、核心原则及价值观,以确保“道德目的”,其次,应在技术上强健且可靠,因为即使有良好的意图,缺乏对技术的掌握也会造成无意的伤害。
2019年4月,欧盟委员会发布人工智能道德准则,准则由2018年12月公布的草案演变而来,提出实现可信赖人工智能的七个要素,要求不得使用公民个人资料做出伤害或歧视行为。
欧盟委员会当时表示,正在采取三步行动以促进可信赖人工智能健康发展:制定可信赖人工智能的关键要求;启动利益相关者的大规模试点阶段;为以人为中心的人工智能建立国际共识。
与欧盟的谨慎作风不同,美国白宫在2020年1月7日提出10条人工智能监管原则,要求避免联邦机构对人工智能应用的过度干预,强调监管的灵活性。其中,灵活性原则指出,大多数情况下,试图规定死板的人工智能应用规则是不切实际且无效的,因为人工智能将以预期的速度发展,机构需要对新的信息和证据做出反应。【责任编辑/赵康】
来源:澎湃新闻