今天是:

当前位置:首页 > 法治理论

出版机构应否禁止作者运用生成式人工智能

时间:2025-11-28 来源:人民法院报 作者:李泊毅

       随着DeepSeek的横空出世,生成式人工智能尤其是大语言模型逐渐被大家所熟悉并得到了广泛的运用。所谓生成式人工智能,“是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术”(国家互联网信息办公室、中华人民共和国国家发展和改革委员会、中华人民共和国教育部、中华人民共和国科学技术部、中华人民共和国工业和信息化部、中华人民共和国公安部、国家广播电视总局《生成式人工智能服务管理暂行办法》第二十二条),其可以通过学习大规模数据集中的模式和特征,生成新的、具有相似特性的内容,其目标是“创造”,而非简单决策。而人工智能生成合成内容,则“是指利用人工智能技术生成、合成的文本、图片、音频、视频、虚拟场景等信息”(国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局《人工智能生成合成内容标识办法》第三条),英文为Artificial Intelligence Generated Content,因此被简称为AIGC。以大规模文本数据为基础,训练而来的生成式人工智能模型被称作大语言模型,大语言模型中的“大”是形容其巨大的参数量,例如,我国DeepSeek的参数量为6710亿个,GPT-4(OpenAI)据推测有超过5000亿个参数。

  一、问题的提出

  笔者在参加某次出版专业技术人员继续教育时,授课老师就编辑对作者使用生成式人工智能辅助写作的态度进行了一次现场调查,结果是现场200余名编辑中的绝大多数人都对作者使用生成式人工智能应用辅助写作持不欢迎的态度。在生成式人工智能特别是大语言模型迅速发展且被广泛运用的当下,从上述调查中可以看出,编辑群体对作者使用生成式人工智能辅助写作充满担忧,这表明生成式人工智能的运用对出版工作者的心理或出版工作产生了一定的冲击,由此产生以下问题:是否所有作者运用生成式人工智能辅助写作的方式都不可被接受?如何有效规避作者不当利用生成式人工智能写作的风险?

  二、对生成式人工智能辅助写作的担忧

  总结反对作者使用生成式人工智能辅助写作的理由,可大致将其归纳为如下三类:第一类是对质量的担忧。例如,认为生成式人工智能、大语言模型存在“黑箱”“不可解释”的问题,甚至会一本正经地胡说八道,编造不存在的内容(出现“幻觉”),人工智能生成合成内容的质量得不到保障,这种担忧部分是因为不了解生成式人工智能所致。第二类是对独创性和著作权的担忧。在著作权法中,对作品的要求是应当具备独创性,所谓的独创性大体上是指作品由作者独立完成并能体现出作者独特的智力判断和选择。人工智能生成合成作品是否具备独创性,以及体现的是哪个主体的独创性,都存在争议。因此,作者使用人工智能生成合成内容可能导致著作权争议。第三类是对创作伦理的担忧。例如,认为作者提交完全由人工智能生成合成的内容而不声明,属于不诚信行为,在学术领域甚至会被定义为学术不端。一种更深刻的担忧是,生成式人工智能将会使人类失去创作的积极性,甚至丧失写作能力,例如一些本应该具备写作能力的群体,如高等院校的研究生,将因为有捷径可走而缺乏写作训练。

  对生成式人工智能的担忧并不罕见,例如国家对生成式人工智能的态度是“坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管”(《生成式人工智能服务管理暂行办法》第三条),言下之意,既充分认识到潜在的风险,也肯定其积极意义,所以有“安全”“治理”“审慎”“监管”的表述,但也强调“发展”“促进创新”“鼓励”“包容”。

  国家的态度表明,生成式人工智能本身是具有积极意义的技术手段,其最终是发挥积极作用还是产生消极影响,关键在于使用者的利用方式。所以,应当引导使用者合理利用生成式人工智能,而非不问缘由不分青红皂白地一律禁止使用。

  三、可以被允许的运用方式

  从规范运用的立场出发,我们审视上述对生成式人工智能辅助写作的担忧,就可以发现许多担忧可能被过分放大了,以下详述。

  (一)质量问题

  生成式人工智能、大语言模型确实存在“黑箱”“不可解释”的问题,以及存在会产生“幻觉”的问题——生成看似合理但实际错误的内容。但“黑箱”“不可解释”并不会导致人工智能生成合成内容质量的降低,相反“黑箱”“不可解释”恰恰是生成式人工智能、大语言模型能力强大的原因。生成式人工智能的本质是一个函数(模型),但这个函数如大语言模型可能存在上亿个参数,如上文提及的,我国DeepSeek的参数量为6710亿个,如此巨大的参数量,使得模型的内部状态和决策过程极为复杂,想要逐一分析每个参数对输出结果的影响几乎是不可能的,这使得模型的决策过程很难被解释。而且,大语言模型通常采用深度神经网络架构,包含众多层次,如Transformer架构的模型有数十至数百个解码器层,每一层都对输入信息进行复杂的变换和提取,这些变换通过大量的矩阵运算和非线性激活函数实现,这使得各个神经元(简单函数)之间的相互作用错综复杂,难以直接追踪和理解信息是如何在不同层次之间传递和处理的。输出依赖于输入的上下文和模型内部的动态计算路径,相同的输入在不同情境下可能激活不同的参数组合,即模型的输出通常是基于概率分布的,具有一定的不确定性,导致结果难以稳定复现。这种决策过程难以被人类直观理解的情况,被称为算法的“黑箱”或“不可解释性”。本质上,“黑箱”或“不可解释性”恰恰是大语言模型强大能力的代价。某种原理难以被人类直观理解,并不影响人类对相应原理下产出结果的运用,例如大部分人并不理解无线网络通信技术(Wi-Fi)的原理,但这丝毫不影响人们利用该技术接入无线网络。

  当模型遇到超出训练数据范围的输入时,由于缺乏足够的相关数据来准确生成合理的输出,就会基于已有的不完整模式进行推测,从而产生“幻觉”。所以,“黑箱”或“不可解释性”与文本质量并不直接关联。人类作者也会编造不真实的内容,但我们绝不可能因为部分人存在编造行为,就概括性地排斥写作,我们反对的只可能是编造行为,同理,单纯以“幻觉”为由反对作者使用生成式人工智能应用辅助写作,反对理由成立的前提似乎只能是作者不加甄别地采纳上述内容,而不是使用生成式人工智能本身。

  作者应当对自己作品的质量负责,编辑应当对作品的质量进行把关,作品质量不高的原因只能是作者不负责、编辑没把好关,而非使用了某种工具。因此,“黑箱”“不可解释”“幻觉”问题似乎都不足以成为断然拒绝作者使用生成式人工智能辅助写作的理由。

  (二)独创性和著作权问题

  人工智能生成合成内容是否可以被授予著作权,是存在争议的问题。目前比较主流的观点是,作品的作者必须是人类,只有人类创作者的贡献才能获得著作权,人工智能生成合成内容不能单独获得著作权保护。若某人使用人工智能辅助创作或作品中包含人工智能生成的内容,并不影响著作权保护资格,但申请人在申请著作权时须注明哪些部分由人工智能生成,并承认这些部分不受著作权保护。在大多数国家和地区,人工智能生成合成内容能否获得著作权保护,关键在于其是否含有自然人创作者的独创性智力投入,如果人工智能只是作为创作工具帮助创作者完成作品,且作品能够体现创作者的个性和审美选择,那么该作品具有获得著作权的资格,著作权归属于创作者。当然,不同国家甚至同一国家的不同机构对何谓“作者的独创性智力投入”会有不同理解,例如,美国版权局发布的《版权与人工智能报告》(Copyright and Artificial Intelli-gence,以下简称《报告》)在可版权性这一部分(Part 2:Copyrightability)同样认为,完全由人工智能生成的内容因缺乏足够的人类控制(sufficient human control)不受版权(英美法系国家将著作权称为版权)保护,但利用人工智能辅助创作可获得版权,比如,人类通过修改、编排或输入原创性表达(如上传手绘草图并指示AI修改)主导创作过程,则人类贡献部分可享有版权。《报告》列举了3种典型的运用人工智能进行创作的场景,即仅输入提示词、输入原创性表达、对人工智能生成的内容进行二次创作(如编排、修改),如上所述,对于后两者《报告》都认为可以获得版权的保护——在输入原创性表达这一场景下,输出内容中可感知的人类表达部分受保护;在对人工智能生成的内容进行二次创作这一场景下,衍生作品的人类贡献部分可受保护,但保护范围不延伸至AI生成的原始内容。但对于仅输入提示词,《报告》则认为人类对创作过程的控制程度不足,向生成式人工智能提供提示词等同于提供“创意”,“创意”本身是不受保护的(unprotectable idea),然而,对于这一点,不同的法院存在不同的法律见解。

  综上,关于独创性和著作权问题,我们可以归纳出最大公约数,即利用人工智能辅助写作,并非绝对不受著作权的保护,也就是说某些利用人工智能辅助写作的方式,是能够体现出作者的独创性的。尽管对于何谓“作者的独创性智力投入”有不同理解,但我们可以发现最没有争议的部分——对人工智能生成合成的内容进行编排、修改,输入原创性表达的部分具有独创性。所以,从独创性和著作权的角度审视,我们反对的应该只是完全由人工智能生成合成的内容以及独创性不足的内容。(如仅修改个别标点符号)

  (三)创作伦理问题

  在创作伦理方面,对生成式人工智能运用的担忧,首先集中在诚信方面,如前所述,如果作者运用生成式人工智能的方式对创作过程的控制程度不足,那么会被认为对内容的独创性智力投入不够,无法获得版权,此时如果作者将这样的内容以自己为作者提交发表,在生成式人工智能所有方未明确将产出内容的著作权授予使用者的情况下,作者和出版机构都面临著作权争议的风险,即便生成式人工智能所有方明确将著作权授予使用者(如ChatGPT),作者的行为仍存在抄袭与剽窃、未尊重他人劳动成果(未清晰界定贡献)的伦理问题,如果这种情况发生在学术出版的语境下,则涉嫌学术不端。因此,为避免诚信问题,作者应当注明哪些部分由人工智能生成,自己在创作过程中扮演了什么角色。

  一种观点是生成式人工智能将会使人类失去创作的积极性,甚至丧失写作能力。如果人们过度依赖生成式人工智能,可以预见,部分人掌握语法、组织结构、整合信息的能力都可能被削弱,这就如同计算机削弱了人类的书写能力。但从历史上看,技术的进步未曾成为过人类创造力的桎梏,以人文社科领域为例,人类的创造力突出地表现为理解与同情,这恰恰是人工智能所不擅长的,因为人工智能掌握的是文本规律,而非真正理解文本后的意涵,无理解自然不存在基于理解的同情。换言之,人工智能无法取代人类核心的创造能力。如果人工智能的表达出现同质化,有创造性的人自然将追求与众不同的表达;如果表达不再成为问题,人们的思想或许更加深刻。

  四、结论

  制度伦理学上,好的制度让人做道德上对的事情,同时也是对人有利的事情。如果禁止作者使用生成式人工智能辅助写作,无疑将使作者陷入悖论,即如果选择对自己有利的事将被谴责,一旦违反规范的成本低微,人们就容易越界。从规范有使用价值但存在一定风险物品(如酒)的实践来看,最有效率的管理方式既不是完全放开,也不是绝对禁止,而是有条件地允许使用。借用王敏远教授的话说,试图阻止现代科技在出版中的运用是徒劳的;不规范现代科技在出版中的应用是危险的。所以,与其玩猫捉老鼠的游戏,不如规范作者的使用方式,即请作者标注使用生成式人工智能的部分,并表明自己在其中扮演了何种角色,仅拒绝那些独创性智力投入不足的使用方式,这也与现行的规范保持了一致。如此,编辑人员恰可以将自己有限的精力投入到作者声明其具有原创性的部分。

本网概况 | 通知公告 | 投稿专区 | 人才招聘 | 对外联络 | 法律声明 | 人员查询 | 联系我们

中国法治文化网 zgfzwh.cslai.org 版权所有

中国社会主义文艺学会 主办 法治文艺专业委员会 承办

京ICP备13008251号-1

广播电视节目制作经营许可证【京】字第16518号

京公网安备 11010502052014号