中国新闻培训网
中国新闻培训网
定制服务项目:  新闻采访与写作培训  摄影新闻培训    发言人培训 网络新闻宣传培训 新媒体短视频培训   企业内训    新闻书籍代购    品牌传播策划
当前位置:文章首页 >> 新媒体 >> 新媒体发展 >> 论生成式人工智能使用者规范:从版权保护到伦理注意

论生成式人工智能使用者规范:从版权保护到伦理注意

2025年06月  作者:杨吉  来源:传媒评论  责任编辑:xwywck
简介:论生成式人工智能使用者规范:从版权保护到伦理注意   1   引言   在新闻业中,生成式人工智能的使用已稀松平常。它在新闻采集、生产、分发的过程中扮演着愈加主动的角色,并展露出冲击与重构传统媒介 ...
内容:

论生成式人工智能使用者规范:从版权保护到伦理注意

  1

  引言

  在新闻业中,生成式人工智能的使用已稀松平常。它在新闻采集、生产、分发的过程中扮演着愈加主动的角色,并展露出冲击与重构传统媒介场域的态势[1]。借由技术辅助,媒体业者的工作效率显著提高,新闻专业性同时也得以加强。例如,生成式人工智能以其强大的数据收集与分析能力,能通过爬梳网络上相关信息快速整理出事件的焦点、动态与全貌,帮助记者克服过去人力搜集与认知的局限,进而提升对新闻事件的感知度与判断力[2]。这固然是值得称颂的一面,但也有不少研究者敏锐地看到,生成式人工智能对新闻职业边界的模糊化[3]、对新闻生产的“祛魅”或客观性的消解[4]、对内容创作的影响因而引发的焦虑[5],如此种种不免有一丝从主体性、元问题层面反思的意味,当人工智能逐步又全面嵌入人类的经济社会生活,其催生的伦理风险危机亟须重视。

  在有关生成式人工智能应用前景与潜在隐患的一系列讨论中,绝大多数持辩证且审慎的看法,这符合当前学界的普遍共识。然而,就新闻业实践图景而言,生成式人工智能的渗透不仅带来协作模式、话语体系和传播策略的变革,还有一些新闻价值传播不当、技术使用安全等弊端[6]。其中,有两个问题表现得尤为突出和典型:一是新闻工作者利用生成式人工智能形成的作品在何种情形下具有《著作权法》意义上的可版权性?二是在前述的使用场景中,为确保新闻的品质如真实性、准确性,又有哪些需要遵循的伦理规则?本文试对其二者分别作出理论上的回应与行动上的指引。

  2

  人工智能生成内容的版权与侵权争议

  人工智能生成的内容是否构成《著作权法》所规定的“作品”、能否得到法律确认与版权保护、其权利归属怎样划分、侵权责任纠纷又如何认定……自ChatGPT、Sora、Claude、豆包、文心一言、DeepSeek等人工智能模型被大量使用后,这些成了近几年理论界特别是法律学术圈热议度较高的课题。综合有关文献和研究成果,国内主流观点认为“作者”主体是自然人或法律拟制的法人,坚持了“以人为本”的身份界定;此外,人工智能生成物是否具有可版权性,归根到底取决于其最终内容呈现有无体现人类智力贡献下的独创性[7]。但要有所区分的是,人类输入指令不能被视为创作,而仅属于思想成分。由此可推导,不论是用户的指令下达系“单次”还是“多次”,人工智能生成的内容都不能被视为作品[8][9]。除非使用者对提示词的选择和安排具有独创性,在此限定情形下,人工智能模型因仅起到辅助创作的工具作用,人的决定性、控制性和主导性依然存在,将人工智能生成物判定为作品并无不当,反倒符合人机协作时代背景的规制路径[10]。

  对于人工智能生成物究竟有无版权、可否享有版权,在事实与价值的判断上学界仍存在不小的争议与分歧。但基于人工智能输出的内容,媒体工作者进行“二次加工”包括改写、修订、增添、删减等,从而形成一个有着人为创作痕迹兼具一定独创性的智力成果。依照《著作权法》第3条“本法所称的作品,是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果”之规定,它便是“作品”。有必要重申的是,法律对独创性的要求仅限于最低限度的“有”,而不必苛求程度的强或弱、繁或简,仍以人类创作完成为前置条件[11]。

  在围绕著作权能否取得的激烈探讨外,使用生成式人工智能还可能触发两类侵权。一种是数据挖掘与机器学习过程中未经授权地收集和存储了他人的作品,以及根据自身的算法逻辑、推理模型对作品进行加工、汇编等;另一种是人工智能自动生成的内容复制或演绎了他人的作品。就著作权对应权项而言,前述行为视不同情形可能侵犯原作者的复制权、演绎权与信息网络传播权[12]。

  事实上,由于生成式人工智能模型的技术原理,其通过对海量数据信息的抓取、收集、运算和自主学习,输出具有仿照人类思维和口吻的信息,其间不可避免地会再现、包含他人享有版权保护的作品。既然如此,要确保合法地使用他人权利作品,就得符合以下三种条件中的某一项:法定许可、获得授权、合理使用。

  然而,造成眼下人工智能在使用他人作品时引发争议的根源在于现行《著作权法》并未将其纳入到“法定许可”的范畴内,而绝大多数人工智能服务提供商是通过公开渠道广泛爬取数据,即采集行为系未经授权,长期以来,版权侵犯、隐私侵扰的质疑和谴责不绝于耳,也困扰着语言模型训练的高质量发展[13]。比较来看,以“合理使用”作为规制方法似乎成为一种备受期许的治理路径。可即便如此,国内理论界对究竟能否适用该制度也存在不小的观点分歧。粗略归纳,大致有如下四种看法[14][15]。

  第一种观点认为,人工智能训练对他人作品的使用不属于作品性使用,所以合理使用无从谈起;第二种是从促进技术创新、增加公众福祉的角度,建议将大语言模型使用他人作品信息认定为合理使用,当然后者需要予以必要的扩大解释;第三种意见是否认构成合理使用,但提议借助后续立法,增设赋予人工智能训练使用作品行为的权利限制地位;第四种与前一种论点有相似性,但解决办法则寄希望于集体管理组织授权或法定许可制度给予著作权人适当补偿。总之,社会各界尚未就人工智能训练中不得已使用他人作品的行为规制达成一致意见,也未见得有任何一个学理主张占据了主导地位。

  有鉴于我国著作权相关立法在对人工智能训练中实施的数据挖掘、信息复制、机器学习等行为的定性与监管仍处于空白,所以法律并不禁止人工智能研发者或服务商在语言模型训练中使用他人作品。对此,也不乏有司法裁判认定此种行为构成合理使用。法院所持观点为,生成式人工智能在数据训练阶段使用在先作品,目的是出于学习分析原作的叙事主题、语言风格、写作策略等方面,从中整理、仿照、提炼相应元素,便于后续应用户输入的指令要求转换性创作新的文本。该种使用行为虽然有聚合既有作品的事实,但动机并非以再现、复制原作品的独创性表达,也未将在先作品不经允许地还原呈现,故不会影响原作品的正常使用并损害著作权人的合法权益[16]。

  另外,针对生成式人工智能根据用户下达提示词而输出的内容,已有审判案例会根据最终生成物构成对原作品的“实质性相似”从而判定侵权责任成立[17]。诚然该份判决结果对日后大模型训练中使用数据行为埋下了诸多不确定性和巨大法律风险,但它也为一些具有合理性和可行性的治理方案提供了思路。例如有学者就提出“豁免训练端、管住生成端”的构想。按照其说法,只要人工智能生成的内容不含有他人作品的独创性表达,那它就不构成侵权,那么,对于用来训练语言模型的种种作品使用行为也就可以容忍放任了。换言之,不在乎经过,只对结果负责。这样就可以实现人工智能训练所需与著作权人利益保护之间的平衡,且不会对著作权人带来实质性损害[18]。

  尽管这项建议真待落地时依然会产生不少法条衔接与理解适用上的难题,但它至少为模型开发商和使用者两大主体确立了三项基本的规范准则。第一,研发者应采取一些必要和适度的技术性措施,减少向用户直接输出和复制改编自他人作品的内容;第二,建立投诉反馈平台和快速处理机制,负责任地和有成效地执行“通知-删除”制度;第三,用户应当对人工智能生成物的具体使用行为负责,除非仅供个人学习、研究、欣赏或出于教学用途,否则应检视内容是否存在侵权。

  3

  生成式人工智能的使用规范

  生成式人工智能深刻影响乃至重塑人类的信息生产方式,其作用力自不待言,但伴随而来的也有一连串高风险、危害性的传播行为。例如,生成式人工智能被用于伪造不实消息和虚假视频,使得整个网络舆论生态出现偏向与错置,尤其要警惕科技平台会挟流量、技术、算法、市场支配地位等非对称优势,操纵和误导网民意见[19]。又如,生成式人工智能源于编码设计所固有的刻板印象、算法偏见,它们正在扩大而不是弥合鸿沟,加重而不是缩减偏见[20]。再比如,生成式人工智能借助爬虫工具自动抓取数据,其中就不免涉及用户隐私信息的泄露或指纹、人脸等生物性敏感数据的窃取。更为紧要的是,生成式人工智能应用的普及化、平民化和商业化特征,会使得伦理风险凸显放大、叠加的效应[21]。

  所以,如何规范地使用生成式人工智能,它不仅仅反映用户的媒介素养,也是于法有据的法定责任。使用者应尽到必要的审慎和注意义务,其形式表现涵盖合成内容须明显标识来源、内容质量审查确保真实合法、提供必要背景信息保障用户知情同意、风险管理与预防避免扩大侵权损害等多个方面[22]。需要说明的是,虽然我国尚未出台针对人工智能使用规范的特别立法,比较直接和专门的法律规范也仅限于部门规章层级的《生成式人工智能服务管理暂行办法》,该办法由国家网信办、国家发展改革委、教育部等七部委于2024年7月联合发布,目标旨在“促进生成式人工智能健康发展和规范应用”。

  我国相关立法处于探索阶段,面对实践中亟须因应的有法可据的确不失为一种缺憾,但新闻出版界出于伦理的坚守与规范的自觉,已经在许多场合和场景纷纷推出了颇具前瞻性与示范性的行为指引。例如,有杂志社明令禁止作者在撰写学术论文过程中直接使用生成式人工智能来产出论文内容、核心观点、改写文献、伪造篡改数据等;也有国内顶尖学刊明确“不接受生成式人工智能工具参与投稿署名”,但允许将工具用于语言润色、文献检索、数据整理与分析、思路开拓等辅助研究环节,同时要求作者必须出具使用人工智能工具的情况说明。中央广播电视总台也及时推出了《人工智能使用规范(试行)》,被视作我国首部媒体人工智能使用规范化标准。

  综合来看,从学术界到媒体圈对人们使用生成式人工智能辅助创作总体持有限度的包容态度。有限度意味着一条底线、一个基本、一种坚守。新闻机构或发布平台会允许作者在使用范围上仅限于文本、语法的修改以提升文章的可读性,但不得介入实质内容的生产,例如文本主体的论证、实验结果的推导、研究数据的创建等;另外,在披露方面要求明确列明哪些地方使用了生成式人工智能,否则,将被认定为违反科研诚信或学术伦理[23]。

  新华社一份调查报告显示,绝大多数受访新闻媒体对使用生成式人工智能持正向、积极的立场,并且有越来越多的组织主动拥抱变革、推广技术应用。与此同时,大部分媒体出于对新闻伦理争议的权衡、对数据安全隐私保护的考量,即使有意愿去创新求变,但多少抱有观望和谨慎的心态[24]。换言之,如何利用生成式人工智能在提升内容产出的智能化、效率化之余保留新闻品质的标准化和专业化,这是未来很长一段时间媒体单位要思考的命题,也是必须面对的挑战。而时下当务之急的一项任务,需要尽快重新拟定新闻的采编与发布细则,对其中涉及生成式人工智能的使用应该制定明确的政策框架或行为指引,包括适用范围、参与程度、限制例外、版权归属、责任风险、违规情形等。

  4

  结语

  今天,使用生成式人工智能既是一种流行,也是一种必然。当这项技术应用走进编辑室、融入创作中,它让所谓“智媒时代”显得更加具体而又充满细节。也许终有一天,科幻想象中的“奇点”会降临,届时人工智能愈加展现出类人化的特征,具备认知、感知和自我决定的能力。不过就当前应用场景与使用状况而看,人们对生成式人工智能不加节制的滥用、误用乃至恶用,已然催生了多重法律风险与伦理危机。如果说,在技术的“潘多拉魔盒”被彻底打开前,政府加大监管力度、行业加强自律已成为社会各界的共识,那么,每个使用者在版权和伦理维度加深认知、提高注意义务则是科技理性所必需的文明自觉了。

  参考文献

  [1] 徐天博,严康.新闻“边界域”:生成式人工智能对媒介场域的再造[J].传媒观察,2024(06):58-65.

  [2] 李明德,李聿哲.赋能和消解:生成式人工智能与新闻真实的碰撞[J/OL].西安交通大学学报(社会科学版),1-14[2025-04-08].http://kns.cnki.net/kcms/detail/61.1329.C.20250325.1523.002.html.

  [3] 徐敬宏,任洁,渠润泽,等.生成式人工智能如何影响新闻职业边界——基于对30位中国新闻工作者的深度访谈[J].新闻与写作,2025(03):99-109.

  [4] 强月新,胡青山.技术作为“基调”:新闻生产的专业化变迁[J].山东师范大学学报(社会科学版),2024,69(03):135-146.

  [5] 姜博.论生成式人工智能对视频生产的影响——以Sora文生视频模型为例[J].上海大学学报(社会科学版),2025,42(02):73-84.

  [6] 许唯一.AIGC时代新型主流媒体的新闻生产策略[J].视听,2025(06):100-104.

  [7] 熊琦,张文窈.人工智能生成内容著作权规制的全球趋向与本土路径[J].知识产权,2024,(11):59-76.

  [8] 段劲楠.AIGC音乐作品相关权利问题及保护策略研究——从模型训练到作品生成[J].编辑学刊,2025,(02):27-32.

  [9] 王迁.三论人工智能生成的内容在著作权法中的定位[J].法商研究,2024,41(03):182-200.

  [10] 张玲.AIGC作品定性之辩驳性分析[J].南开学报(哲学社会科学版),2025,(02):81-95.

  [11] 李扬,涂藤.论人工智能生成内容的可版权性标准[J].知识产权,2024(01):68-84.

  蒋舸.论人工智能生成内容的可版权性:以用户的独创性表达为视角[J].知识产权,2024,(01):36-67.

  [12] 王迁.再论人工智能生成的内容在著作权法中的定性[J].政法论坛,2023,41(04):16-33.

  [13]  万勇,李亚兰.因应人工智能产业发展的合理使用条款解释论研究[J].数字法治,2023(03):83-92.

  [14]  王俊、韩佳序:《爬虫受限 AI训练数据供求双方对抗白热化》,载《21世纪经济报道》2024年8月16日。

  [15] 祝建军.生成式人工智能著作权侵权问题研究[J].知识产权,2025,(02):44-60.

  [16]  参见杭州互联网法院民事判决书(2024)浙0192民初1587号、浙江省杭州市中级人民法院民事判决书(2024)浙01 民终10332号。

  [17]  参见广州互联网法院(2024)粤0192民初113号民事判决书。

  [18]  张伟君.论大模型训练中使用数据的著作权规制路径[J/OL].东方法学,1-14[2025-04-08].https://doi.org/10.19404/j.cnki.dffx.20250326.001.

  [19] 张文祥.生成式人工智能虚假信息的舆论生态挑战与治理进路[J].山东大学学报(哲学社会科学版),2025(01):155-164.

  [20]  唐铮,林子璐.生成式人工智能与新闻业:赋能、风险与前瞻[J].新闻与写作,2023(11):97-104.

  [21]  高芳,王彦雨,王艺颖.生成式人工智能所引发的社会争议及其治理[J].深圳社会科学,2025,8(02):115-127+148.DOI:10.20183/j.cnki.szshkx.2025.02.003.

  [22]  刘承韪,马瑞聪.生成式人工智能使用者注意义务的规范来源[J/OL].山东大学学报(哲学社会科学版),(2025-01-13)[2025-04-08].http://kns.cnki.net/kcms/detail/37.1100.C.20250331.0902.002.html.

  [23]  刘倩,王京山,詹洪春.关于生成式人工智能的应用规范研究与启示——基于国际学术出版界的相关规范政策视角[J].科技与出版,2024(08):27-33.

  [24]  新华社研究院.人工智能时代新闻媒体的责任与使命[EB/OL],(2024-10-14)[2025-04-08]http://www.news.cn/politics/20241014/fe72c14c8d1e4e509d68d0ff04455725/c.html.

  作者: 浙江传媒学院副教授、硕士生导师

 

 

热点 . . .

企事业单位领导媒体新闻发言人培训班的通知
招生 企事业单位领导媒体新闻发言人培训班的通知
北京燃气集团召开“新闻发言人培训班”
北京燃气集团召开“新闻发言人培训班”
本网讯:河北省公安厅交管局新闻宣传培训班圆满结束
本网讯:河北省公安厅交管局新闻宣传培训班圆满结束
盾安集团新闻发言人培训班日前结束
盾安集团新闻发言人培训班日前结束

最新 . . .

· 论生成式人工智能使用者规范:从版权保护
· 人民日报B站号这样展开年轻化叙事
· 话语破壁:“海关发布”传播“破圈”的实
· “AI做的报纸头版,读者能接受吗?”
· 网红与MCN机构,注定相爱相杀?
· 案例分析丨看看人家辽宁是怎么做的!(附
· 新媒体做得出色的主持人为什么大多会离职
· AI时代,新闻把关亟须“三昧真火”
· 移动场景下短视频新闻的叙事策略与传播效
· “AI 故事” 写作法,让你的写作突飞猛进
· 新媒体时代,调查记者如何重塑角色定位?
· AI“复活”古人,有“趣”也要有“界”

推荐 . . .

人民日报B站号这样展开年轻化叙事
人民日报B站号这样展开年轻化叙事
案例分析丨看看人家辽宁是怎么做的!(附视频)
案例分析丨看看人家辽宁是怎么做的!(附视频)
奖项申报|第八届中国网络视频学院奖报名通道正式开启!
奖项申报|第八届中国网络视频学院奖报名通道正式开启!

相关 . . .

· 深圳市发言人名单
· 九江市新闻发言人名单
· 聊城市最新新闻发言人名单公布
· 单学刚:著名网络舆论及新媒体研究专家、
· 江苏省政府系统新闻发言人名单及新闻发布
· 来向武简介
· 欧渤芊:外交部办公厅副主任、原外交部新
· 人民日报"党媒推荐"频道登陆今日头条
· 詹新惠:中国传媒大学新闻学院副教授
· 有效运用新媒体手段为乡村振兴赋能
  
  
二维码 二维码         组织机构 | 商务合作 | 版权与免责 | 声明 | 关于我们 | 友情链接申请 | 广告
本站内容属原作者所有,其原创文章除本站或作者授权不得转载、复制、建立镜像,违者必究。
        业务服务电话:010-85899333/6333     邮箱:vip@xwpx.com
京ICP备06063928号  

京公网安备 11010502041874号

网上有害信息举报专区  网络举报APP下载 
违法和不良信息/涉未成年人有害信息举报电话:010-85894419  
用户举报/涉未成年人有害信息举报邮箱:postmaster@xwpx.com
北京新民联合版权所有   法律顾问: 万方亮 律师