
谈谈两个AI深度参与的谣言以及“恐怖谷效应”2025年07月 作者:燕志华 来源:网络舆情和危机公关公众号 责任编辑:xwywck
简介:谈谈两个AI深度参与的谣言以及“恐怖谷效应”
文章提纲如下,谢谢阅读!
一、“王一博相关谣言被DeepSeek永久撤回”也是谣言
二、“国足来指导苏超”图片是个典型谣言
三、如何应对人工 ... 内容:
谈谈两个AI深度参与的谣言以及“恐怖谷效应”
文章提纲如下,谢谢阅读! 一、“王一博相关谣言被DeepSeek永久撤回”也是谣言 二、“国足来指导苏超”图片是个典型谣言 三、如何应对人工智能时代的“AI谣言”? 四、警惕“恐怖谷”效应 人类的迷信心理是个非常复杂的文化现象。在远古时代,人们迷信各种占卜语言;到印刷时代,人们迷信白纸黑字;在网络时代,人们认识到文字会文过饰非,开始迷信“有图有真相”;到了今天的人工智能时代,人们开始迷信AI输出的文字,认为那是集合了大数据和人类知识的精华,没有理由不相信。 在今天,每天都有无数人不间断地和AI对话交流,并将其生产出的文本、视频和图片放到网络之上,其中很多信息是模棱两可、真假不辨的,介乎自然知识和想象的事实之间。这如同在原来自然的江河湖海之外,每天有无数个管道在排放尾水,也即污染不明显却不能饮用的“IV类水”。久而久之,地表水的总体情况,会彻底改变构成。 我们从当下的两个AI深度参与的谣言,再来谈谈“恐怖谷效应”,相信会给大家带来一定的启示。 一、热搜“王一博相关谣言被DeepSeek永久撤回”也是一个谣言 这两天,“王一博相关谣言被DeepSeek永久撤回”的信息上了微博热搜。但是这个热搜信息本身却也是一个谣言,只不过是人工智能深度参与制造的谣言。这使得围绕明星王一博的信息,呈现出了“谣中谣”的现象。这个现象凸显了当下人工智能的时代,网络治理和谣言治理的复杂性。 事情是这样的: 近日,北京市首创集团原董事长李爱庆因受贿、滥用职权一案一审宣判,判处死刑缓期执行。由此关于李爱庆和男星关系的问题,再次成为网络热点话题,其中被提到的男星包括王一博等人。其实早在2022年,王一博经纪公司已经通过诉讼澄清了事实,维护了权益。但是在此次李爱庆宣判了之后,有好事的粉丝就和DeepSeek进行了对话,就当年一些谣传和AI进行了交流,粉丝通过诱导等方式,成功“逼出”了DeepSeek的幻觉,也就是人工智能特有的虚假信息,类似信息如全网删除类似谣言、向王一博道歉、启动赔偿方案等。然后粉丝将此视为DeepSeek公司的道歉,然后就开始在网络大肆传播,结果众多媒体就信以为真,就纷纷下场报道,出现了如下一些媒体进行了正儿八经的新闻报道: 如果不是有人注意到DeepSeek所在的公司并未进行道歉,这个新闻还会继续传播。毕竟,在政经等主流严肃新闻之外,那些娱乐话题,常常真真假假,大众并不会充分论证,只要认为是真实的,就会进行传播交流。 二、“国足来指导苏超”图片是个典型谣言 其实眼下如火如荼进行中的苏超,已经受到过一次广泛传播的谣言的袭击,不过大家都以娱乐心理来看待它,没有深究罢了,但是它的确是个典型的AI时代的谣言。 这就是大家都记忆犹新的“国足要来指导苏超”的网络传言。在6月初,也就是苏超刚刚火爆出圈、成为全民社交话题的时候,一个AI制作的图片在网络悄然走红。 结果,这个网络图片让遨游苏超流量的网民,一时间突然出戏,但是又感觉在情理之中,于是纷纷转发和调侃,也有不少网民信以为真,不少自媒体针对这个配图还专门进行了“辟谣”。 我和两位大学新传院的老师进行了较为正式的探讨:这个AI生产的图片,算是谣言吗? 从事件看,虽然“国足来指导苏超”事件本身并未发生,因为哪怕要一点面子的国足对此想都不会想,但是不影响这个AI图片迅速出现了广泛传播,并且成功激起了群体性的情绪反应,也有辟谣的信息出现。 根据谣言最简单、最普遍的定义,是指“没有事实根据的信息或者传闻”,它甚至没有要求必须是个事件,一个信息就足够了。所以我和研究新闻传播的老师们都确认,这个AI图片导致的信息传播,是个典型的谣言。 一些谣言之所以广为传播,在于谣言往往一举击中了群体心理的痛点。比如苏超之所以如此火爆,在深层心理上是因为国足的习惯性、经常性的失败,并且爆发了腐败窝案,这让人们“怒其不争”之外,又愤怒又无奈,只能通过讽刺性的段子来宣泄这种负面情绪。在苏超身上人们终于看到一个健康纯粹的足球运动的时候,人们对于国足也不忘来个“回马枪”,这恰恰是为网民的心理需求量身定做的。所以说,大型谣言往往是群体共同生产的公共产品,是个群体的甜点。“国足要来指导苏超”完全符合这样的特征。 三、如何应对人工智能时代的“AI谣言”? 当下的人工智能时代,AI已经深度渗透进了我们生活的方方面面,但是内容生产从来不仅仅是个内容的问题,更经常涉及信息安全、意识形态和生活秩序的问题,也涉及到人工智能对于人类主体性的地位挑战问题,所以说,在今天人工智能带来极大便利的时候,或许风险挑战才刚刚开始。 大家也会注意到,DeepSeek从今年年初的横空出世的划时代产品,到今天很多人对其慢慢产生了困惑,这在于交流的时候,人们发现了DeepSeek两个问题:一是,感觉DeepSeek特别像个圆熟世故的中年人,对于一些敏感的话题或者避而不谈,或者以转圈来打太极拳;二是经常出现了幻觉现象,也就是答案里出现了不少虚假的不实信息,根据有关数据,幻觉率达到了15%上下。两个方面让人们对于DeepSeek,突然产生了疏离感。这正如人们对于屏幕上浓眉大眼的电影男主角充满了崇拜,但在线下见面的时候却发现老是忽悠大家,这对于情感是个打击。 更何况,今天人们的日常生活和生产,慢慢变成了人机结合、人机协作,这使得很多AI生产的内容变得面目可疑,模棱两可,这会透支人们的信任心理。 就以上述两个谣言来说,可以看出新的特点,就是AI深度参与了谣言的生产和传播。由于人们开始大量运用AI进行内容生产,并且网民对于AI也产生了一定的迷信心理,由此形成了信任机制和传播机制,会导致一些幻觉信息,很快进入传播空间,从而爆发为谣言。 其实谣言的爆发,本质上是个信任心理现象。由于谣言是根据网民群体心理的需求而制作出来的,精准击中了大众心理,从而获得了大众的信任,再加上人们对于人工智能也出现某种程度的迷信心理,这给人工智能生产谣言、传言、流言,就打开了便利之门。 AI谣言和传统谣言,本质上并无差别,但是由于人工智能的幻觉现象,会一本正经地添油加醋,并且会尽力地以深入思考的形式说服用户信任它,反倒给不实信息蒙上了迷惑性的外表,插上了传播的翅膀,因此风险更大。 如何应对类似的AI谣言?我觉需要从以下两个方面入手: 1、大众破除对于人工智能的迷信心理 我觉得首要一点,就是破除人工智能的迷信心理,要对所有人工智能生产的内容,抱以质疑性的、批判性的眼光和思维来看待。这应该成为今天一种人工智能时代的“信息素养”。凡是人工智能生产的内容,都值得再次确认、二次论证,而不是无条件地接受。 实际上,对于任何热传的新闻和信息都抱着独立的、批判性的眼光来看待,这本身就是国民整体素质提高的标志之一,也是公民素养之一。质疑,而非无条件地接受,这样才能启动思考的力量,这本身就会成为抵御谣言袭击的观念和思想的壁垒,防止社会出现刚性脆弱。提升无数个体的知识水平和信息素养,本身就能够建成足够弹性的心理壁垒,确保社会的安全。 2、机构媒体需要以批判性视角报道网传信息 我们会发现很多网传的不实信息引爆为大型的谣言,中间会出现一个分水岭、一个关键的信息传播拐点,那就是传统媒体或者机构媒体一旦正式报道了,那就会出现大规模的转发。因为机构媒体享有更大的公信力,一旦报道了,就相当于为网传信息提供了背书,网民就此完全放松了警惕。就以“王一博相关谣言被DeepSeek永久撤回”,机构媒体的报道起到了推波助澜、间接证实的中介作用。 所谓的机构媒体,不再仅仅指传统的媒体。在今天很多自媒体做大之后,通过办公场地的固定并雇佣一定数量的员工,也会成为一个机构媒体。机构媒体往往拥有固定的渠道和粉丝群体,从而产生影响力和公信力。 但是问题在于,媒体没有天然义务核实和甄别信息的真假。他们的天职只是及时地传播信息,却并不必然包括准确性。这出现了人们深为不满的一个现象是,传谣和辟谣,媒体常常收获了两波流量。这源于,媒体领域存在广泛而激烈的同行竞争,如果遗失了对于某个信息的及时报道,这会导致竞争的落伍和工作的问责,更会导致多米诺骨牌一样的后续负面影响,比如,粉丝一旦不能及时看到信息,会认为你不专业、不负责,更可能的情况是,会被那些经常第一时间报道的媒体吸引走,而抛弃丢失信息的媒体。因此,媒体对于报道的竞争性策略,常常是“宁报错,不错过”,先报了再说。这是由媒体的职业本能决定的,无关道德责任。 较为负责的媒体,面对一个突发的信息或者热传的信息,会尽责地进行辨析,但是这不是内在的职业要求,而是外在的社会责任压力。我所能想到的平衡策略,就是机构媒体对于突发的网传信息,最好是以质疑性的、批判性的角度来报道和传播信息。 这有利于提醒网民的独立思考,同时也能确保媒体的品格。尤其对于今天网传信息多发、又增加了人工智能幻觉现象的时候,机构媒体的质疑性、批判性报道,本身具有极大的社会价值,具有启迪社会思考的意义。 四、警惕“恐怖谷”效应 虽然我在上面提出了两个建议,但是我的担心是,它或许只在当下有用,随着人工智能的进一步发展,这些提醒会全部失效,从而可能导致更大的风险。 我们从“恐怖谷理论”,能够理解这样的风险,其实是越来越大的。 “恐怖谷理论”是由日本机器人专家森昌弘在1970年提出的理论,用来描述人类对于机器人情感的变化。森昌弘提出,人形机器人在一开始比较像人的时候,人类是抱以好感的,但是当机器人进一步更加像人的时候,人类会在某个时刻,突然产生一种恐惧感,对于机器人的好感会降到谷底,这就是“恐怖谷”。但是当机器人再进一步,完全像人的时候,由于人类已经经历过情感的刺激免疫,反倒会接受和自己越来越相像的机器人了。 我们借用机器人的“恐怖谷效应”,再来看人工智能的内容生产,会发现:在当下人工智能刚刚出现的阶段,人们对于AI生产的内容虽然比较信任,但是经过媒体的提醒,还是能够对其抱以警惕和质疑,从而形成独立性的、批判性的思考的。 也就是说,在当下人们对于AI的内容生产,正处于一个 “恐怖谷”阶段,人们会对AI内容抱以一定的警惕和质疑。 但是随着人工智能的进一步发展,它生产的内容或许会持续优化,终于在某个阶段消除了幻觉现象,或者在很多方面获得了更大的进步,人类对于AI会不会完全放松或者失去警惕,从而对其完全接受呢? 我看大有可能。很多科学家认为人类社会正在无限逼近“奇点”,也就是人类科技获得突破的质变时刻,人工智能的发展也是快速演进,终究会在接下来的某个时刻,让人类放下警惕之心,人类也跨越“恐怖谷”,从而彻底完全地信任人工智能。 一旦彻底地接受人工智能,那人类的主体性或许更加岌岌可危了,那么AI谣言或许就不再是谣言了,而是AI营造的某种真实了。我想,那个时候才是最值得警惕的。 作者简介: 燕志华 博士 高级记者/紫金传媒智库研究员/舆情管理顾问 |
热点 . . .
最新 . . .
|
![]() |
![]() |
组织机构 | 商务合作 | 版权与免责 | 声明 | 关于我们 | 友情链接申请 | 广告 |
|
本站内容属原作者所有,其原创文章除本站或作者授权不得转载、复制、建立镜像,违者必究。 业务服务电话:010-85899333/6333 邮箱:vip@xwpx.com 京ICP备06063928号 ![]() 京公网安备 11010502041874号 | ||
|
|
||