中经记者 曲忠芳北京报道
近日,工业和信息化部、国家发展改革委、教育部、科技部等十部门联合印发了《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),这是我国首部针对AI科技伦理审查的专项规定。尤其值得注意的是,从《办法》的文件名称及内容条款来看,监管层面采用了“审查+服务”并行的治理思路,即在强化对AI科技伦理“审查”的同时,同步推动标准制定、风险评估、咨询培训等服务能力供给。
“科技伦理”一词虽然听起来似乎很“抽象”,但却与我们日常的工作生活紧密相关。例如,在一些企业中,通过AI摄像头、工位传感器等设备和手段来监控员工的离岗时间、网页浏览、聊天内容等,甚至与绩效挂钩;在商业场景中,通过AI算法进行精准广告推送或用户画像……实际上,这些涉及把人当成机器或数据节点、模糊了隐私边界、监控采集数据被滥用、平台与个体权力不对等的现象,均是科技伦理所讨论和约束的范畴。
针对《办法》的内容解读——谁来“审查”、如何“服务”,以及包括企业在内的实施主体来说应当着重关注的责任,《中国经营报》记者采访了数位来自法律界、产业界的专家。
“两条腿走路”
《办法》全文共分6个章节、37条,将“服务与促进”单列为第二个章节,在清华大学公共管理学院教授、AI国际治理研究院副院长梁正看来,这彰显了发展与治理“两条腿走路”的整体思维。
《办法》第九条明确了“实施主体”,即“从事人工智能科技活动的高等学校、科研机构、医疗卫生机构、企业是本单位人工智能科技伦理审查管理的责任主体”,应当“设立人工智能科技伦理委员会”。从第十二条至第二十八条,《办法》系统性地构建了完整的工作程序,将流程优化为申请与受理、一般程序与简易程序、专家复核程序、应用程序四个主要部分,使之在科技活动中更具有可行性,推进科技伦理原则到治理手段落地的过渡。
北京高勤律师事务所高级合伙人、律师王源向记者指出,《办法》实际是2023年12月起施行的、全科技领域通用的《科技伦理审查办法(试行)》在人工智能领域的专门细化。需要说明的是,人工智能科技伦理所涵盖的个人信息保护、数据安全、算法治理等内容,其实已在《中华人民共和国个人信息保护法》《中华人民共和国数据安全法》及相关算法与生成式人工智能管理规定中有所体现。《办法》的出台,更多在于将这些分散的制度要求加以整合,形成更具操作性的伦理审查机制。
工业和信息化领域科技伦理专家委员会主任委员魏一鸣也撰文指出,《办法》是我国科技伦理制度链条的重要延伸与细化完善,已初步形成“以人为本、智能向善”,覆盖法律、规范、技术以及多主体的综合性、多层次相协调的人工智能伦理治理模式。
《办法》规定,人工智能科技伦理委员会或人工智能科技伦理审查与服务中心将重点关注六个方面的伦理审查,分别是人类福祉、公平公正、可控可信、透明可解释、责任可追溯、隐私保护。其中,在公平公正方面,主要涉及训练数据的选择标准,算法、模型、系统的设计是否合理;是否采取措施防止偏见歧视、算法压榨,保障资源分配、机会获取、决策过程的客观性与包容性;在隐私保护方面,数据的收集、存储、加工、使用等处理活动以及研究开发数据新技术等,是否采取充分措施确保隐私数据得到有效保护。
王源重点提到了《办法》第十一条的内容——“地方、相关主管部门可结合实际情况依托相关单位建立专业性人工智能科技伦理审查与服务中心”,“提供人工智能科技活动伦理审查、复核、培训、咨询等服务”,她指出,像一些较大规模的互联网平台或AI技术企业内部早就设立了类似技术伦理委员会功能的部门或机构,而《办法》中提出由政府力量牵头设立中心提供相关服务,这对于中小微企业来说能够降低合规门槛,加大对其AI科技伦理审查的支持和服务力度。
对企业的影响
《办法》出台后,对从事人工智能科技活动的企业来说会带来哪些影响?泰和泰(北京)律师事务所律师曲虹潭指出,人类社会已步入人工智能飞速发展的崭新阶段,《人工智能科技伦理审查与服务办法(试行)》正是这一时代背景下的重要回应,企业应对其予以高度重视。
曲虹潭提示道,《办法》系统性构建了工作程序,在一定程度上抬高了企业的合规成本,然而,这种投入对于人工智能产业的长远发展是有积极作用的。同时,《办法》的审查与服务并行,也释放了明确信号,将进一步加大对中小微企业在伦理审查方面的支持和服务力度,切实帮助企业分担合规压力。
“审查,是一个带有刚性约束力的词,《办法》并不是在倡导或建议层面的软性指引,而是内嵌了明确的程序性规范与强制性要求。基于此,伦理审查绝不是一项浮于表面的技术测试,实质是从伦理价值的立场出发,对人工智能技术的全生命周期展开的持续监督与合规校准。”曲虹潭如是说道。
早在2020年1月就设立了AI伦理与治理委员会的商汤科技表示,经过多年的实践积累,已形成了一整套平衡发展的AI伦理观和可评估的人工智能治理落地方案,将伦理原则嵌入产品设计、开发、部署的全生命周期。商汤科技发言人指出,《办法》在第二章设立“服务与促进”章节,提出标准建设、服务体系机制、鼓励创新、宣传教育、人才培养等支持性举措,释放出更为包容和积极的管理模式。尤其对于中小微企业而言,政策鼓励通过标准指引、培训咨询等形式,让创新者不再因缺乏管理能力而被排除在技术进步之外。
《办法》附件列出了三类“需要开展专家复核的人工智能科技活动”:一是对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的开发;二是具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发;三是面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发。
除此之外,值得一提的是,多名业内专家呼吁或建议,《办法》引导社会公众进行人工智能科技伦理普及宣传教育,促进公众理解科技伦理,提高公众的人工智能认知与素养,这将成为有效推进科技伦理落地、构建良性治理生态的重要基础。