2022年11月,OpenAI发布ChatGPT,目前公开信息已经迭代到GPT-4。2024年2月OpenAI发布了文生视频大模型Sora,更是引发全球AI热潮。算法技术全面步入应用阶段,但同时也引发了一系列诸如算法歧视、算法黑箱、信息茧房、算法霸权等伦理和法律问题。如何更好监管人工智能算法,监管手段和能力如何相应提升,对我国相关产业的发展和国家治理能力现代化至关重要。
现状与问题
(一)已出台的算法管理规定存在各种问题。第一,当前相关管理规定主要为部门规章、规范性文件和推荐性国家标准,法律效力较低;第二,监管客体仅限于民商事主体提供算法服务,不直接规制政府算法行为;第三,法律责任上多为框架化、倡导性原则,导致算法治理内容与违法侵权间未形成充分对应关系;第四,实践中主要通过算法备案和生成式人工智能(大模型)备案两项制度作为问责起点。但大模型备案尚在“实验期”,缺乏成熟规则指引;且受限于部门规章的效力层级,未形成算法问责完整架构;第五,在责任主体上,未对“服务提供者”等概念进行明确划分,不足以应对实践中复杂角色定位,造成监管难以问责。
(二)管理机构部门化,存在监管竞合或真空。我国尚未设立统一的算法监管机构,依据《生成式人工智能服务管理暂行办法》,网信、发改、工信、公安等均有权对其职权范围内的算法问题进行监管。部门化的监管格局对综合型算法监管时容易产生监管竞合,但对新型算法又容易出现监管真空。
(三)算法侵害的认定和维权困难。算法提供者拥有信息资源和技术优势,算法机制和决策过程不可解释或难以理解等原因,被侵害对象面临“理解难、取证难”问题,而执法者也面临“认定难”问题。
(四)生成式人工智能技术(AIGC)带来新的挑战。AIGC大模型具有基于海量数据进行自学习特性,迭代快,其在垂直类领域应用也在快速多样化,难以为现有监管体系和技术/工具所覆盖,从而产生监管真空或失焦的情况。
对策与建议
(一)尽快推进人工智能法的出台,构建人工智能算法治理体系,弥补监管体系空白。同时,可考虑通过针对性的法规予以补充规范。针对产业链上各主体,采取权责相统一原则,根据不同主体对于人工智能系统的控制力度来加诸相应的合规义务。将人工智能和算法技术按风险等级进行划分并采取不同监管措施,并设置事前、事中和事后全生命周期监管措施义务。
(二)强化和创新算法监管。强化由网信牵头,发展改革、数据、工信、公安等多部门共同参与的算法治理联席会议制度,完善“横向协同,纵向联动”算法治理格局。借助市场力量,外聘或者借调算法及人工智能领域的专家共同参与监管流程,补齐监管技术短板。引入“监管沙盒”制度,允许算法及人工智能企业在监管机构的监督下,于相对可控的环境内进行试验性的开发、测试和验证。此外,或可考虑探索将人工智能技术应用于人工智能监管,以提高监管效率。
(三)进一步保障用户权利。推进算法服务商以个人能够理解方式披露算法风险与可能产生的损害、算法运行步骤与决策结果间关系等运行规则,减少专业术语,便于用户理解和决策。要求算法服务商在个人用户决定选择拒绝使用算法服务的情况下,进一步优化用户便捷关闭算法服务的选项。
(四)拓展算法侵害行为维权路径与责任模式,增强用户维权力量。在算法侵权的诉讼中采取“过错推定”归责原则,实行“举证责任倒置”。用户仅承担受到算法损害的责任,由算法服务商对算法和损害之间无因果关系,以及无过错承担举证责任。探索人工智能算法领域的民事公益诉讼制度。此外,不宜局限于要求具体损害结果的责任模式,综合考量训练数据、科技伦理等多维度算法侵害行为的违法责任,增强源头治理,形成责任闭环。
(作者系全国政协委员、金杜律师事务所高级合伙人)