国家人工智能标准化总体组启动人工智能与社会伦理道德标准化专题研究
时间:2018-04-15(中国人民大学为研究专题组组长单位)
2018年4月12日,国家人工智能标准化总体组专题组启动会暨第一次专题组工作会议在北京召开。三个专题组分别是《国家人工智能标准体系建设指南》编制专题组、人工智能标准化与开源研究专题组、人工智能与社会伦理道德标准化研究专题组。
会上,中国电子标准化研究院赵波院长代总体组宣布赵波院长宣布中国人民大学为人工智能与社会伦理道德标准化研究专题组组长单位,腾讯公司、北京理工大学为副组长单位。中国人民大学未来法治研究院研究员郭锐副教授领衔人工智能与社会伦理道德标准化专题组研究。郭锐副教授针对专题组的工作方案介绍了前期的主要工作、当前工作思路和下一步的工作安排。
郭锐副教授谈及前期在白皮书的写作过程中,通过多次与参与写作的人工智能专家的讨论,提出了初步的人工智能社会伦理标准化的初步框架和设想。2018年1月18日,在国家人工智能标准化总体组成立大会上,总体组颁布了《人工智能标准化白皮书(2018)》,并布置下一步成立专题组对人工智能与社会伦理道德标准化研究的工作。白皮书发布后,与社会伦理道德相关的成果引起国际关注。国际组织IEEE、OECD和牛津大学等学术机构都表达了合作探讨和研究的兴趣,牛津大学方面一位研究员翻译了伦理相关的重点章节,并且希望白皮书推出正式英译本。
郭锐副教授提到,人工智能已经上升为中国的国家战略,负责任、讲伦理的人工智能需要从人类命运共同体的层面上进行深入思考。这也是中国《人工智能标准化白皮书(2018)》关于安全、隐私和伦理内容的基本精神。实现负责任、讲伦理的人工智能需要遵循两个原则。第一个原则是人类利益原则,即人工智能应以实现人类利益为终极目标。这一原则体现对人权的尊重、对人类和自然环境利益最大化以及降低技术风险和对社会的负面影响。在此原则下,政策和法律应致力于人工智能发展的外部社会环境的构建,推动对社会个体的人工智能伦理和安全意识教育,让社会警惕人工智能技术被滥用的风险。第二个原则是责任原则,即在技术开发和应用两方面都建立明确的责任体系,以便在技术层面可以对人工智能技术开发人员或部门问责,在应用层面可以建立合理的责任和赔偿体系。在这一原则下,在技术开发方面应遵循透明度原则;在技术应用方面则应当遵循权责一致原则。
三个专题组组长报告结束后,与会专家围绕各专题组研究任务分组进行了热烈的讨论,并安排了下一步研究的具体分工。
人工智能与社会伦理道德标准化研究在国际上属于前沿领域。此次课题组的成立及研究的开展具有重大意义,是保障人工智能健康发展与合理应用的重大里程碑,受到了国内外的瞩目。在接下来的工作安排中,人工智能与社会伦理道德标准化专题组会在郭锐副教授的带领下、通过与总体组各成员与专家的密切交流与协作下,开展深入研究,并积极探索输出我国人工智能与社会伦理道德标准化的研究成果。