今天是:

当前位置:首页 > 法治理论

共探端侧大模型隐私保护 共筑数据安全与伦理防线

时间:2025-06-11 来源:人民法院报 作者:张欣 潘泓雨

  ——“端侧大型语言模型的应用、风险与治理前瞻”研讨会发言摘编

 

  近期,对外经济贸易大学数字经济与法律创新研究中心举办“端侧大型语言模型的应用、风险与治理前瞻”研讨会,与会人员围绕AI手机应用中的数据隐私保护、安全治理及伦理边界进行深入研讨。现将与会专家发言摘编如下:

  北京大学法学院副教授戴昕表示,AI手机所涉及的数据隐私保护问题,本质上是传统数据隐私保护问题的延续和扩大。数据隐私保护的传统框架围绕前端数据收集、中间数据处理和后端救济机制展开。与传统数据隐私保护不同的是,端侧大模型治理中,前端数据收集行为规范的治理效能受限,“告知-同意”保护机制的效果减弱。端侧大模型治理的核心难题在于多数用户缺乏与“个人助理”的互动经验,从而难以形成合理的个人信息使用预期。

  北京航空航天大学法学院副教授赵精武表示,AI手机生态中数据流转涉及手机厂商、APP开发者、第三方AI服务提供者等多个主体,责任划分尚不清晰;用户数据权限获取的必要性界限模糊,随着人机交互内容可能被用作模型训练数据,将包含更多敏感个人信息等问题。目前,端侧大模型的数据处理活动仍应纳入个人信息保护法第四条规定的个人信息处理活动范畴,不宜简单归入“合理使用”范畴,仍需符合该法第十三条、第十四条关于主体真实、准确、完整的告知要求。预计未来监管中,平台规则的表达将更加显著,提示将更加到位,以确保符合个人信息保护法要求。随着最新审计管理办法的出台,手机应用的规范化审计管理将更加关注最小必要原则、业务相关性、用户知情权、禁止强制捆绑以及动态申请等要求,特别是高敏感权限、非用户主动行为弹窗和权限撤销功能将成为审计重点。

  中国社会科学院法学研究所副研究员唐林垚表示,无论是端侧AI还是云侧AI,都存在数据隐私风险,端侧AI涉及权限过度调用,云侧AI则涉及数据在终端、云端和第三方之间多次流转的安全风险。这些风险最终落脚于知情同意和数据授权机制问题,未来治理可以从法律、技术、行业三个层面展开。在法律层面,应细化权限分类和动态告知义务,出台端侧数据安全标准,明确各方责任划分。在技术层面,推广隐私计算技术,确保数据在本地处理,不离开设备,符合个人信息收集与处理的最小必要原则;开发数据溯源工具,实现数据的可追踪与可删除;引入动态风险评估和敏感信息过滤机制。在行业层面,可通过建立AI手机隐私保护协会,制定行业统一的数据分类分级标准;推动隐私计算能力认证,将授权细化至功能级,通过可视化界面向用户展示数据流向;建立人工智能伦理审查机制等。

  中国人民大学法学院教授丁晓东指出,端侧大模型在带来便利的同时,也面临隐私与数据安全的严峻挑战。端侧部署大模型为实现智能化功能,需要调用整部手机多个APP的数据,有些企业利用“信息无障碍功能”直接开通调用权限,远远超出一般用户的预期,导致用户信息过度收集和使用,且数据汇集到硬件端存在数据安全风险。为应对这些挑战,可建立双重授权与合理期待机制。在双重授权方面,未来端侧大模型的部署需要获得至少两重授权:一是获得APP平台授权,APP平台作为数据保护人,承担保护数据的信义义务,调用APP平台的数据需要获得APP平台的明确授权;二是获得用户的明确授权,且授权机制应采用“选择加入”,而非“默认同意”。

  中国信通院互联网法律研究中心主任何波指出,人工智能技术的发展已成为推动产业融合发展的关键力量,在此背景下需要统筹好以下几对关系。第一,统筹好发展与安全的关系。大模型在终端的部署应用已经成为新的发展趋势,大模型的快速发展为包括手机厂商在内的智能终端产业注入新的活力,端侧大模型作为人工智能创新和探索的产物,值得被肯定和鼓励。但数据生态改变带来安全挑战,如多主体数据责任困境、数据采集范围扩大和数据采集方式隐蔽化。第二,统筹好守正与创新的关系。当前,我国现有的法律法规已对AI手机的数据处理活动、安全问题作出了相关规定,如个人信息保护法、数据安全法、网络安全法、《网络数据安全管理条例》等,应充分利用现有法律资源解决新问题。第三,统筹好近期与中远期的关系。近期可以通过技术手段和专项整治行动解决突出的安全问题,中远期可以通过完善立法,对AI手机发展中的突出问题进行规范,不仅包括制定新法,也包括对现有法律的解释和修订。第四,统筹好国内发展与国际发展的关系。

  同济大学法学院助理教授朱悦指出,基于最新技术进展,预测端侧大模型核心发展方向为长期记忆能力强化。这种技术架构能够跨场景记忆用户行为特征,提供个性化服务。个人记忆模型虽解决了部分安全问题,但也面临新的治理挑战:个人记忆模型端侧训练存在技术安全隐患;个人记忆模型集中了用户的人格和财产利益,权益归属复杂;个人记忆模型变现诱惑大,数据安全保护与商业竞争之间带来挑战。针对这些挑战,立法需要具有前瞻性:未来监管不仅涉及公法治理,还涉及通过端侧模型进行社会交往的私法化问题。同时,分类分级需要完善,用户借助端侧模型的内容生产能力也使内容安全治理更加复杂。

  华东政法大学法律学院副教授韩旭至提出,AI手机的发展和应用带来人机交互范式由“器官延伸”到“助手伙伴”的转变。这种转变源于交互方式从器物性的指令输入发展到基于自然语言的交互模式,从而形成人机协同共生的全新模式。端侧大模型应用存在“新老交织”的多重挑战:老问题主要是数据隐私保护问题,新问题则体现在技术能力与用户感知的偏差上。另外,大模型与人类价值观对齐存在三个难点:一是对齐性质不明,二是技术治理悖论,三是对齐标准争议。对此,首先应进行理念转变,AI手机的治理应从绝对安全观转向合理成本安全观。其次,应构建对齐的治理机制,以“提取公因式”的方式确定最低道德要求,引入伦理风险评估与审计,建立责任豁免及高质量数据供给机制;最后,需提升数字素养。AI手机应用的伦理问题,本质是技术权力与人类价值观的博弈,应构建技术向善的交互生态,维护人的尊严与自主性。

  (整理人:对外经济贸易大学数字经济与法律创新研究中心 张欣;人民法院新闻传媒总社 潘泓雨)

本网概况 | 通知公告 | 投稿专区 | 人才招聘 | 对外联络 | 法律声明 | 人员查询 | 联系我们

中国法治文化网 zgfzwh.cslai.org 版权所有

中国社会主义文艺学会 主办 法治文艺专业委员会 承办

京ICP备13008251号-1

广播电视节目制作经营许可证【京】字第16518号

京公网安备 11010502052014号