原创 李彤 上海市法学会 东方法学 收录于合集 #东方法学 275个
李彤
南京航空航天大学人文与社会科学学院副教授、法学博士
要目
一、问题的提出
二、智能技术的飞跃迭代与提供者义务区分规制的基本前提
三、精准赋能风险管控与提供者义务区分规制的正当逻辑
四、应用风险层级的评估维度与提供者义务区分规制的标准设定
五、通用人工智能技术提供者义务区分规制的优化重构
余论
合理设定通用人工智能技术提供者的义务是化解技术应用风险的重要保障。从适度容忍新技术风险的必要性出发,以保障行业发展为基本导向,对该主体的行为规制应符合国际惯例、运行要件、技术逻辑等底线要求。同时,依据区分规制的理念,应以适用场景的风险差异为固有维度,以提供者技术控制力、用户鉴别能力、外部监管能力为变量维度动态评估应用风险层级,并对应阶梯式的义务设定方向。最后,应通过具体义务内容的优化来达成技术安全与发展同向并行的双重目标。
一、问题的提出
被认为是人工智能高阶质变形态的通用人工智能技术正展现出具象曙光。人们惊讶地发现,ChatGPT-4不仅在自然语言的处理能力上无与伦比,同时具有整合多学科知识解决复杂问题的实力,这正是通用人工智能技术应用能力的初阶呈现。通用人工智能技术依赖于大模型的良性运转,具有一般场域的应用能效、通用任务的处理能力和持续学习的更新能力。通用人工智能技术的迭代速度和强大能力已引发深切担忧,作为其发展前哨的生成式人工智能技术对前线行业造成了明显冲击,引发一些反对呼声。比如好莱坞编剧和演员行业已展开了史上罕见的联合罢工,他们希望自身的
合法权益在人工智能时代能够获得基本保障。
2023年4月28日召开的中共中央政治局会议强调需重视通用人工智能的发展并关注其应用风险的防范。鉴于生成式人工智能技术是通用人工智能技术发展的初级阶段,有效应对技术风险的切入要点可从对前者的监管策略中寻求可靠思路。2023年4月11日,国家网信办发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《管理办法》),主要通过设定生成式人工智能技术提供者(以下简称“提供者”)的义务来达到规范目标,但其中包含的义务标准总体较高。2023年7月13日,国家网信办等七部门联合公布《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)。《暂行办法》对《管理办法》中的提供者义务进行了部分修正,但仍有呈现过高标准或欠缺合理性的义务设定。一是要求提供者在训练环节承担的数据审查义务过高。第7条规定,要求提供者增强训练数据的真实性、准确性、客观性、多样性。这在数据确权和流通制度并不完善的状态下存在实现障碍。二是要求提供者对网络信息承担过高义务。第9条规定,提供者应当依法承担网络信息内容的生产者责任,履行保障网络信息安全义务。这实际上要求提供者对网络信息安全承担无过错责任。三是提供者对违法内容的处置义务和用户违法使用行为的监管义务不合理。第14条第1款规定,一旦提供者发现违法内容不论轻重,不论是否出于技术原因,一律要整改和报告,可能让提供者疲于应付。第14条第2款规定,提供者发现用户的违法活动,不仅要保存记录,还要向主管部门报告。首先,用户的违法行为可能不在提供者的服务平台上发生,提供者保存记录的难度较大。其次,如发现的违法内容过多,需频繁报告的要求会使提供者不堪重负。四是对提供者的主体范围未从技术背景角度作明确限定。第22条第2款所界定的提供者是指利用生成式人工智能技术提供相关服务的组织、个人,这意味着可能完全不了解技术内容的提供者会落入需要技术能力支持的义务主体范围。
化解新技术的应用风险固然重要,但上述义务的设定方式是否适配当前所需是值得深入思考的问题。提供者处于该技术的运行前端,对其设定合理的义务框架将有助于该项技术在免受不当裹挟的状态下得到良性运转。是偏向安全还是更需效率,这是影响义务设定的价值倾向所在,需要谨慎作答。学界对人工智能的现有研究主要涉及:一是人工智能生成内容的法律定位。学界对人工智能生成内容能否落入法律保护的范围存在一定争议。比如对是否应对生成内容进行著作权或专利权保护存在不同看法。二是人工智能与法律相关的普遍议题和理论架构。三是人工智能对具体法律部门的挑战及其应对方案。学界普遍认为人工智能对传统法学理论和治理模式造成了明显冲击,需要结合技术特点进行有效的理论探讨和系统的方案回应。上述研究成果对通用人工智能技术提供者义务这一具体问题尚未作出回应。为此,本文以区分规制为视角,在对提供者义务审视的基础上,提出优化路径,以促进理论的发展,亦对实践有所裨益。