《中华人民共和国国民经济和社会发展第十五个五年规划纲要》(以下简称“十五五”规划纲要)提出,要“完善人工智能领域法律法规、政策制度、应用规范、伦理准则,健全算法备案、透明度管理、安全评估等制度,探索建立人工智能生成物权利归属和开发者经营者使用者权责认定规则”,并强调“推动平台经济创新和健康发展,加强平台企业数据、算法、流量和规则监管”“依法打击数据滥用、深度伪造、泄露隐私等行为”。为深入贯彻落实“十五五”规划纲要,中国应用法学研究所组织召开“人工智能平台获取数据和输出数据合法性边界问题”专题研讨会,邀请来自实务界和学术界的多位资深法官、学者及行业专家,围绕人工智能搜索平台的行为边界与责任范围,进行深入研讨。现将会议主要内容综述如下。
一、使用人工智能技术的搜索引擎对其获取并处理的相关数据和输出结果是否负有事先过滤或拦截义务
与会专家围绕人工智能搜索(以下简称AI搜索)的技术原理、平台控制能力及侵权识别可行性展开讨论。多数意见认为,AI搜索与传统搜索在法律性质上具有延续性,原则上仍应适用“通知—删除”规则,不宜当然课以普遍性的事先过滤或拦截义务。但也有专家指出,生成式搜索在结果呈现和内容整合方式上的变化,可能使平台责任边界面临新调整。
其一,人工智能搜索平台是否负有事先过滤、拦截义务。与会专家认为,现行法律并未对平台设定一般性的事先过滤义务,“必要措施”主要指向事后的删除、屏蔽、断开链接等处置方式。中央民族大学法学院副教授熊文聪认为,事先“过滤拦截”与事后“删除、屏蔽、断开链接”在法律性质上存在区别,现行法律并未为前者预留充分解释空间,避风港规则仍应作为责任配置的重要基础。北京大学知识产权学院常务副院长杨明认为,AI搜索的核心仍是搜索服务而非内容提供,原则上不宜要求平台承担事先过滤或拦截义务。同济大学上海国际知识产权学院长聘教授刘维认为,民法典第一千一百九十五条中的“必要措施”并不意味着平台在侵权发生前负有全面防范义务,若对搜索服务商强加普遍性的事先拦截责任,容易导致责任失衡。
其二,人工智能搜索平台事先过滤、拦截义务是否具有技术可行性。与会专家认为,AI搜索结果具有瞬时生成、非预设性等特点,平台难以通过静态审核或关键词过滤实现全面、精准的事先拦截。360集团法务总监吴佳丽认为,AI搜索多基于RAG模式(Retrieval-Augmented Generation,检索增强生成)运行,生成结果并非事先固定,强制过滤不仅缺乏现实可行性,也可能误伤合法内容。阿里巴巴千问C端事业群法务总监刘佳欣认为,搜索引擎索引库通常仅保存索引信息,对第三方内容并不具有充分掌控力,版权识别不同于涉黄涉暴信息识别,当前技术条件下难以实现全面过滤。百度法务部总经理李妍洁则强调,AI搜索与传统搜索在底层技术逻辑上具有连续性,不宜因盗版治理过度抑制新技术发展,仍应坚持“通知—删除”规则。
其三,人工智能搜索平台责任边界是否仍应维持传统规则结构。对此,与会专家未形成完全一致意见。中国社会科学院大学互联网法治研究中心主任刘晓春认为,生成式回答在一定程度上增强了平台对最终输出结果的影响力,责任配置上也应有所回应,应综合考量技术能力、误伤风险、防范成本与社会整体收益。清华大学法学院副教授蒋舸认为,在算法机制并不透明的情况下,应结合侵权发生频率、权利人配合程度及技术条件等因素,判断事先过滤是否更具合理性。杨明指出,若平台在搜索结果中已实质性提供内容,并由此获得额外商业利益,则应区分搜索服务与内容提供行为,在个案中分别评价责任。
其四,平台责任的司法认定标准。与会专家普遍认为,不宜仅因AI介入即当然扩张平台的事先过滤义务,仍应结合平台是否存在明知、应知、故意诱导或实质性控制等因素进行个案判断。杭州互联网法院跨境贸易法庭庭长肖芄指出,应防止将违反公法义务简单等同于私法过错。广州互联网法院法官李俊松认为,若搜索结果系算法自动生成,且无证据证明平台对侵权内容存在明知或差异化对待的,一般不构成帮助侵权;但在平台明知或应知侵权具有系统性且技术上可以防范的情况下,仍可能触发事先拦截义务。北京市海淀区人民法院知识产权庭副庭长李莉莎、江苏省南京市中级人民法院知识产权庭庭长徐新均认为,AI加持并未改变搜索引擎作为技术服务提供者和技术工具的基本属性,原则上仍应适用避风港规则。上海知识产权法院法官范静波认为,现行法律虽未确立平台普遍性的事前过滤义务,但若平台持续出现侵权内容反复传播、侵权比例较高,甚至呈现“盗版优先”等情形,就有必要重新审视其注意义务和责任边界。浙江省杭州市中级人民法院知识产权庭法官叶胜男也认为,AI搜索直接生成整合性答案的方式,确实对传统搜索引擎的免责逻辑提出了新的挑战。
二、使用人工智能技术的搜索引擎在用户检索过程中生成“下拉词”等功能时是否对生成内容负有事先审查义务
围绕这一问题,与会专家从算法生成机制、用户参与程度以及技术可行性等展开讨论。与会专家普遍认为,“下拉词”“相关搜索”“大家都在搜”等结果通常并非平台事先设定,而是基于用户检索行为和实时数据自动生成,具有较强动态性,搜索引擎一般难以进行全面、实时的事前审查,原则上不宜要求平台承担普遍性的事先审查义务。
其一,“下拉词”等算法功能的性质认定。与会专家认为,AI与算法介入搜索的主要目的在于提升信息匹配效率,“下拉词”等功能通常不宜简单等同于人工推荐、主动编辑或内容预设。刘维指出,“下拉词”等功能原则上不构成司法解释意义上的“推荐”。熊文聪强调,若要求平台承担主动审查义务,不仅误伤风险较高,也缺乏明确制度依据。
其二,“下拉词”等联想结果的技术可控性。与会专家指出,“下拉词”等联想结果在很大程度上受用户搜索行为、搜索热度和实时数据变化影响,平台通常难以事先预测和稳定控制。吴佳丽指出,互联网内容和版权状态实时变动,静态过滤机制难以适应AI搜索的动态更新,事先审查在法理和技术上均缺乏可行性。刘佳欣认为,用户通过复杂或诱导性搜索指令,可能促使平台生成特定联想结果,因此不宜据此要求平台承担普遍性的事先审查义务。
其三,人工智能搜索平台注意义务的把握。与会专家强调,平台是否负有更高注意义务,仍应结合个案具体判断。杨明认为,对纯自动生成内容一般不宜要求事先审查;若存在人为设计、引导或干预,则平台义务相应提高。刘晓春则认为,对内容安全或严重人格侵害等高风险情形,可期待平台适度干预;对一般情形,仍宜以权利人通知作为平台响应前提。
其四,平台责任的司法认定。与会专家普遍认为,司法认定中不宜一概要求平台承担事先审查义务,关键仍在于还原技术事实,判断平台是否存在实质介入、主观干预、诱导设计或差别对待等情形。李莉莎认为,平台未进行人为干预且在接到通知后及时履行“通知—删除”义务的,一般不宜认定其具有过错。范静波进一步指出,平台是否负有事先审查义务,不宜一概而论,仍应结合侵权的集中性、反复性、商业诱因及技术可行性综合判断,在鼓励创新与回应明显侵权风险之间保持平衡。
三、使用人工智能技术的搜索引擎对数据进行处理并输出搜索结果的展示方式是否构成直接侵权或帮助侵权
围绕这一问题,与会专家从展示方式、平台控制力、实质性替代以及技术可行性等方面展开讨论。与会专家普遍认为,AI搜索输出结果是否构成著作权侵权,不能仅因其直接生成并呈现内容即一概认定,而应区分直接侵权与帮助侵权,结合展示内容、替代程度、平台介入程度及主观过错等因素作具体判断。
其一,AI搜索结果的呈现方式是否因技术形态变化而改变其法律属性。与会专家指出,AI搜索虽在内容呈现方式上发生变化,但并未当然改变搜索引擎作为信息入口和技术工具的基本属性。刘佳欣认为,AI搜索结果具有不确定性和不可预设性,在模型控制力有限的情况下,难以将其当然等同于平台直接提供内容。李妍洁认为,直接侵权责任后果严重,不宜仅因技术形态变化而轻易扩张责任范围。刘维进一步指出,训练数据合法性的行政要求,不能当然转化为网络版权中的一般注意义务,必要措施原则上仍应针对已发生的具体侵权行为。
其二,AI搜索输出行为是否构成直接侵权。与会专家一致认为,判断是否构成直接侵权,关键在于搜索结果是否已使用户实质获取作品内容,并对原作品形成实质性替代。吴佳丽认为,只有在输出内容构成实质性替代时,才可能进入直接侵权评价范围。杨明指出,若搜索页面已使用户实质获取作品内容,可能构成直接侵权;若仅提供摘要、片段或链接,则更接近帮助侵权。熊文聪认为,搜索结果原则上仍以定位和链接功能为主,即便直接呈现部分内容,也不宜当然认定侵权,仍应结合合理使用等规则综合判断。
其三,AI搜索输出行为是否构成帮助侵权。与会专家普遍认为,帮助侵权的成立仍应以平台存在明知、应知或实质介入为重要前提。李莉莎认为,“应知”应以具体、明显的侵权事实为基础,必要措施原则上仍以删除、屏蔽、断开链接等为核心。范静波认为,AI搜索是否构成直接侵权或帮助侵权,取决于平台在生成过程中的实际介入程度;若仅作技术调用,一般不宜认定侵权,若已实质干预输出内容,则可能承担责任。
其四,AI搜索输出行为是否仍可适用传统免责逻辑。与会专家指出,AI搜索增强了平台对输出结果的组织和呈现能力,相关责任承认方式有必要重新评估。刘晓春认为,在AI与搜索结合的场景下,平台对生成结果的控制力有所增强,责任类型应作重新审视,但多数情形下仍可通过“通知—删除”规则进行调节。蒋舸认为,AI搜索输出在特定情形下确有可能进入著作权法上的受控行为范围,但不能仅凭展示方式变化作推定,而应区分行为性质与责任承担两个层次分析。与会专家强调,若搜索结果已对来源网站形成实质替代,传统免责逻辑需被重新评估。肖芄认为,AI搜索在内容呈现方式上的变化,可能削弱链接指引功能。叶胜男认为,搜索结果一旦形成实质替代,侵权认定需在个案中审慎把握。徐新指出,若输出结果仅提升浏览效率而未形成替代,仍可适用既有责任规则;若其通过存储、整合和直接呈现重构作品传播路径,则可能构成侵权。李俊松则认为,在侵权高发情形下,平台可在技术可行范围内采取算法优化、正版优先、侵权等措施,但只要已采取合理措施,原则上仍可适用“通知—删除”规则。
(作者单位:中国应用法学研究所)