
如何与AI“幻觉”共舞2025年10月 作者:周睿鸣 黄志敏 吕妍 来源:传媒评论公众号 责任编辑:xwywck
简介:如何与AI“幻觉”共舞
周睿鸣/主持人 华中科技大学新闻与信息传播学院教授
黄志敏/对话嘉宾 数可视创始人,数可视教育公益基金发起人
吕 妍/对话嘉宾 澎湃新闻数据新闻部副总监兼主编
... 内容:
如何与AI“幻觉”共舞
周睿鸣/主持人 华中科技大学新闻与信息传播学院教授 黄志敏/对话嘉宾 数可视创始人,数可视教育公益基金发起人 吕 妍/对话嘉宾 澎湃新闻数据新闻部副总监兼主编
周睿鸣:数字媒介生态飞速变迁,智能技术成为新的助推器。它轻而易举改变旧秩序,又不免制造闻所未闻的新麻烦——AI幻觉就是其中之一。拥抱之余,发现大语言模型等智能应用的潜在BUG、寻求应对之道,成为行业新课题。两位老师在工作中有没有被AI幻觉干扰的经历? 吕妍:AI幻觉的影响我深有体会。印象最深的一次是我使用知识库工具进行文献泛读。一般情况下,知识库很适合对大篇幅的文本进行识别和分析,有助于我们在短时间内发现问题和规律。当时,我上传了大量数据报告和论文,但是不小心开启了联网功能。当知识库叠加了联网功能之后,AI总结信息的边界就变得模糊起来。起初,我看到它给出的结论非常系统,看上去条理清晰、逻辑完整,让人一度相信其具备超强的“文献综述能力”。然而,当我逐步去核实,甚至追问寻求出处,却发现其中存在大量错误与虚假推断。尤其是在这种工具界面里,AI很难准确标注出处,用户往往难以回溯信息源头。这让我意识到,AI在处理知识时可能会制造出一种“高大上但实则虚假”的感觉,而这正是幻觉最隐蔽、最危险之处。 类似的经验并非个例。复旦大学的同学做过一篇题为《实测数据告诉你:带引用的AI也不可靠》的稿件(注:澎湃号“复数实验室”2025年7月29日发表),测试发现:即便要求AI严格标注出处,它依然可能生成不真实的链接。这表明,幻觉问题并非单纯依靠“加引用”“给出处”等工程改进就能完全消解。模型的底层逻辑决定了它暂时还无法解决幻觉问题。因此,幻觉本质上是一种系统性风险,而不是一时的技术漏洞。 周睿鸣:幻觉是怎么来的?它能不能有效避免?对新闻媒体来说,AI幻觉带来了哪些独特的挑战? 黄志敏:AIGC浪潮带来效率革命,也引发了对其可靠性的普遍担忧。“幻觉”是其中最具挑战性的问题之一。与人类记忆的偏差或错漏相似,AI幻觉是当前技术范式下难以完全避免的副产品。不过应当说,这一现象并非绝对负面——在文学创作、艺术设计等需要想象力的领域,幻觉可被视为一种计算创造力(computational creativity)的体现,为内容生成注入了新颖与多样性。 矛盾在于,当应用场景切换至新闻报道、学术研究或医疗诊断等对事实准确性有严苛要求的领域,同样的创造力就演变成了灾难性的信息污染。当前,主流的AI服务大多采用统一的参数配置,试图在所有场景中寻求创造性与精确性的平衡。这种一刀切的模式显然无法满足用户的差异化需求,导致严肃场景中“幻觉”泛滥,引发用户不满、不信任。打个比方,某些模型在发布初期因其“风趣幽默”的语言风格而备受关注,但这背后往往是高幻觉率的体现。这种特性在日常闲聊中或许无伤大雅,但在专业工作中,一个无法提供可靠信息的“健谈者”最终会被认为是不称职的。 对于以真实性为生命线的新闻媒体行业而言,AI幻觉构成了前所未有的挑战。媒体天然具有信息放大器效应,一旦AI生成的虚假内容未经核实就发布出去,其可能带来的误导将被成倍放大,对公众认知和社会信任造成严重损害。 当前,部分媒体机构在应用AI时存在两种危险倾向:一是盲目生成与发布。直接使用AI生成新闻稿件,却缺乏严格的人工事实核查流程和清晰的AI使用声明,这实质上是将机器的不可靠性直接转嫁给了读者。二是不加甄别地转发。对来源于网络或其他渠道的信息,新闻媒体未能履行专业甄别义务便给予转发,实际上是利用自身的品牌信誉为谣言背书。这两种做法都严重背离了媒体作为社会守望者的初心,是对新闻专业性的极大伤害,也是对受众的极度不尊重。 周睿鸣:在二位嘉宾看来,AI幻觉等新问题的出现对信息生态产生了什么影响? 黄志敏:AI正在以前所未有的效率生产逻辑清晰、内容翔实的优质内容,但一个显而易见且日益严峻的问题是,它也以同样的(甚至更高的)效率制造了海量的垃圾信息。如今,这些由AI批量炮制的低质内容,已经在社交媒体、新闻门户、博客论坛甚至学术数据库等各种平台上泛滥成灾。许多文章一眼就能看出是机器生成,它们不仅毫无阅读价值,甚至提供虚假内容,严重干扰了人们获取有效信息的效率。 更严重的是,这些充斥着谬误、偏见和低劣表述的垃圾内容,将会被未来的模型开发者不加甄别地抓取,作为训练数据喂给下一代AI。这将导致一个灾难性的恶性循环,即“垃圾进,垃圾出”的怪圈。模型在充满垃圾的数据集上进行训练,其认知能力和生成能力必然会发生退化,这种现象在学术上被称为“模型崩溃”(Model Collapse)或“数据中毒”(Data Poisoning)。退化后的模型将生成更多、更隐蔽的垃圾内容,进一步污染整个信息环境。长此以往,整个大模型的生态质量都将受到严重干扰,持续下降。人类数千年积累下来的知识库,可能会被这些质量低劣的AI内容严重稀释和污染。这是一个亟待整个社会,包括技术开发者、内容平台、监管机构和每一位信息消费者共同面对并解决的严重问题。 吕妍:两重影响:一是对内容供应端的影响。按照大模型和AI工具目前实力和进化速度,AI生成内容在未来成为舆论场内容池主体的可能性极高,仅是时间早晚的问题。鉴于当前信息生态中存在大量质量偏低的内容,若将AI生成内容的平均质量水平视为60分,则其有望取代现有低于60分的内容;若其水平提升至70分,则70分以下的内容生产者也将面临竞争压力。 但是,当AI生成内容的供给量上升到一定程度后,用户审美疲劳与认知排斥随之上升,反向激发对“人味”“区分度”与“权威背书”等稀缺性内容需求,高质量内容的生产者或迎来发展契机。这种现象可类比食品供应领域:工业化生产的大棚蔬菜占据主流,而稀缺的有机蔬菜则获得溢价。精品内容生产者可通过以下路径实现差异化竞争:(1)嵌入不可算法化的经验、情感与价值观,以“有机内容”属性获得溢价;(2)将AI作为协同工具,在选题策划、数据验证与多模态呈现环节提升生产效率与可信度。 二是内容渠道方面的影响。AI技术的持续迭代将进一步强化其对内容分发渠道的影响力:AI驱动的个性化推荐与对话式交互进一步削弱了传统中介机构的把关功能,呈现出“去中介化”的显著趋势。该趋势带来双重效应:一方面,信息溯源难度上升,虚假消息与认知操纵的传播成本降低;另一方面,用户对信源的辨识需求转化为对“人设”清晰、品牌可信的供给方的偏好。比如,容易被辨别属性的(官方权威或强个人IP)的信源或许获得更高的注意力黏性,形成新一轮品牌集中。因此,内容机构需在技术层面引入可追溯机制,在叙事层面强化品牌人设与价值主张,以应对去中介化环境下的信任重构。 周睿鸣:在二位看来,新闻人怎么做才能在AI时代逐浪前行? 吕妍:未来的事情比较难预测,但在目前掌握的资料情况下,我有一种直觉——面对AI浪潮,新闻人需要在“拥抱现场”与“拥抱技术”之间找到自我定位,甚至可能需要在二者之间实现平衡。 “拥抱现场”意味着新闻人应深耕那些未来机器仍难以胜任的领域,即通过与人物和场景的直接互动,捕捉和呈现真实中最细微、最具情感温度的部分。这不仅涉及信息的采集,更包括语境的把握、情绪的体察以及社会关系的敏锐洞察。人工智能在模式识别与大规模生成方面具备优势,但在现场感、细节温度和情境判断上仍存在先天不足。新闻人可以通过强化这类人机差异化能力,维持并扩大自身在信息生态中的不可替代性。 “拥抱技术”并非单纯追随新工具,而是以新闻业务为核心,主动拆解任务、重构生产流程,发掘创作的新可能性。在技术成熟度尚未完全突破的阶段,有一个中间状态是对内容业务进行标准化的梳理,对方法论进行整理和沉淀;一旦技术成熟度突破阈值,业务环节的流程迭代和产能扩容就容易实现了。 不论哪种方式,新闻人必须坚守核心价值——真实性与公共性。这些价值都是新闻职业的基石,这些价值在新的时代可能也会演化出新的意涵。 黄志敏:首先,必须以前所未有的决心,毫不动摇地坚守新闻的核心理念:真实性。 真实是新闻业的生命线,是其一切公信力和社会价值的基石。在AI能够轻易生成以假乱真内容的时代,坚守真实比以往任何时候都更加重要。无论其语言看起来多么流畅、逻辑多么自洽、论据多么详实,在未经严格验证之前,AIGC生成的内容充其量只能被视为经过初步信息聚合的、未经证实的初稿。我们必须对其进行系统、严苛、多层次的人工审核与调整。我会要求AI在生成内容时像撰写严谨的学术论文一样,明确地标出每一处关键信息的引用来源,并提供可追溯的链接。然后,我会逐一进行人工核实,追溯到信息的原始信源,反复比对,确保信息准确无误。 更重要的是,选题的最终确定、采访对象的审慎选择、报道角度的精心切入,以及最终呈现给公众的观点、立场和结论,这些关乎新闻专业判断、伦理价值和人文关怀的核心决策权,必须也必然要牢牢掌握在人类记者的手中,绝不能以任何形式让渡给冰冷的算法。 其次,要以开放和务实的态度善用技术,将AI精准地定位为提升效率、拓展深度的强大助手,而非取代人类的创作者。AIGC可以将记者和编辑从大量重复性、机械性、低创造性的繁重劳动中解放出来。它可以帮助我们快速完成海量背景资料的收集、筛选与整理,对数小时的采访录音进行精准高效的转写和翻译,甚至还能辅助进行多轮次的全文校对,检查简单的语法、拼写和标点错误。 周睿鸣:有没有什么应对AI幻觉的妙招可以分享? 黄志敏:与其说是应对AI幻觉带来的挑战,不如说仍是应对AI的挑战。这需要建立一个由创作者、媒体和用户共同参与的责任共担体系。 对包括记者和编辑在内的内容创作者来说,要做到三点:其一,AI是辅助,不是替代。应将AI定位为研究和起草的辅助工具,例如利用其快速查找原始资料、构建文章框架或润色初稿。其二,守住人工审核这个底线。所有由AI生成(或辅助生成)的内容,发布前必须经过严格的人工编辑和事实核查。其三,遵守透明原则。在发布包含AI生成内容的作品时,应向用户明确声明,保障用户的知情权。 给媒体机构的三点建议是:一要建立严格的AI使用规范。要制定内部采编指南,明确AI在新闻生产流程中的使用边界和审核标准。二要强化转发审核机制,对所有非原创内容(尤其是涉及重大公共利益的信息)必须进行信源核实。应秉持宁缺毋滥的原则,宁可不发、绝不错发。三是承担把关责任。媒体不仅是内容的生产者,更是信息的把关人,对所发布和转发的一切内容负有最终责任。 对普通读者、受众等一般用户来说,也有三点可以把握。首先要提升AI素养。要了解AI生成内容的基本特征和潜在风险,学会批判性地审视信息。其次,掌握甄别技巧。学习识别AI生成内容的常见痕迹(如事实错误、风格不一致、信源缺失等),并养成交叉验证、追溯信息源头的习惯。最后,保持一种审慎的态度。对任何来源可疑或耸人听闻的信息保持警惕,避免成为虚假信息的消费者和传播者。
|
热点 . . .
最新 . . .
|
![]() |
![]() |
组织机构 | 商务合作 | 版权与免责 | 声明 | 关于我们 | 友情链接申请 | 广告 |
|
本站内容属原作者所有,其原创文章除本站或作者授权不得转载、复制、建立镜像,违者必究。 业务服务电话:010-85899333/6333 邮箱:vip@xwpx.com 京ICP备06063928号 ![]() 京公网安备 11010502041874号 | ||
|
|
||