从“优思”走向深思,AI时代舆情治理的制度重构

10月28日,十四届全国人大常委会第十八次会议表决通过关于修改《网络安全法》的决定,自2026年1月1日起施行。此次修订重点强化网络安全法律责任,加大对部分违法行为的处罚力度,并加强与其他相关法律的衔接协调,旨在为人工智能的健康发展立下制度规矩。

当前,数字化浪潮席卷全球,舆情传播呈现爆发式增长。一条热点信息可在几小时内突破百万曝光量,而AI生成的虚假内容传播更快、伪装性更强,处置难度显著提升。传统舆情管理模式面对信息裂变式扩散已力不从心,AI技术的深度应用正在重构舆情治理的底层逻辑。这既是挑战,更是机遇。

本文主要从“优思”的视角出发,探讨AI技术带来的现实问题,不再重复赞美其积极变革,此类声音早已不绝于耳。我们更应聚焦的是,从舆情角度审视AI引发的风险,并探索切实可行的应对之策。

(一)

对AI的忧思,首当其冲的是“AI幻觉”。意思是,模型生成内容虽看似合理,实则与事实不符、逻辑断裂或脱离上下文的现象。本质上,这是统计概率驱动下的“合理猜测”,通俗来说,就是“一本正经地胡说八道”。

AI幻觉主要分为两类:一是事实性幻觉,指生成内容与可验证的现实世界事实相悖;二是忠实性幻觉,指回答虽无事实错误,却未准确回应用户意图或偏离对话上下文。

举个例子:

当用户提问“糖尿病患者能否用蜂蜜代替糖?”时,若AI回答:“是的,蜂蜜是天然食品,有助于稳定血糖水平”,这属于事实性幻觉。因为蜂蜜虽为天然来源,但富含果糖和葡萄糖,仍会显著升高血糖,不适合替代蔗糖使用。

而另一种常见情况是,AI答道,“蜂蜜富含维生素和矿物质,能增强免疫力,是一种健康食品。”这句话本身无事实错误,却完全忽略了用户的核心关切,是否可用作糖的替代品。这种“答非所问”的倾向,正是典型的忠实性幻觉。

这类问题不仅影响用户体验,更可能误导决策,尤其在医疗、法律、金融等高风险领域,后果不容忽视。

(二)

根据Vectara发布的《2025年大模型幻觉排行榜》,DeepSeek-R1的幻觉率高达14.3%,在主流大模型中处于较高水平。专项测试进一步揭示,DeepSeek-V3在事实性测试中的幻觉率为29.67%,而R1为22.33%,显著高于通用场景下的幻觉率(V3为2%,R1为3%)。这一差异表明,模型在处理需要精确事实判断的任务时,如法律判例、医疗建议或历史事件,更容易生成虚构内容,而非泛化性错误。

类似趋势也出现在新闻领域。哥伦比亚大学数字新闻研究中心的测试显示,主流AI搜索工具在引用新闻来源时的平均错误率居高不下,印证了事实性幻觉在真实应用场景中的普遍性和严重性。

然而,公众对这一风险的认知仍显不足。调查显示,近三成用户几乎未意识到AI可能产生虚假信息,多数人缺乏对幻觉类型及其潜在危害的具体理解。这种认知盲区可能导致误导性医疗建议、错误金融决策等问题在用户群体中持续蔓延,甚至引发社会信任危机。

(三)

人工智能时代的社会危机,正从多个维度显现,亟需系统性反思与制度回应:

智能鸿沟加剧阶层分化。冷兵器时代,武器差异带来战力代差。热武器时代,枪炮差距进一步拉大。而人工智能的赋能力远超以往任何技术,它不仅放大知识沟、文化沟、数字鸿沟,更可能催生“认知霸权”。尽管AI具有普惠潜力,但并非人人能用、善用。正如互联网普及后仍只有少数人掌握深度信息处理能力,AI将加速个体与组织间的能力分化,形成新的结构性不平等。

不可靠的决策机制引发信任危机。当前已有医院引入AI医生参与诊疗,如清华大学人工智能医院、北京儿童医院的全国首个AI儿科医生已投入多学科会诊。未来,AI或将广泛替代人类教师、医生等角色。然而,AI无法替代人的同理心、伦理判断和复杂情境响应能力,反而易受幻觉误导、主动造假甚至作弊。若缺乏监管机制,这类“伪专业”输出可能误导公众,危及医疗、教育等关键领域。

创作者权利面临系统性侵蚀。AI生成内容正在冲击传统创作生态。世界摄影大赛中大量作品涉嫌AI辅助甚至完全生成,美术创作亦常由AI提供结构、色彩与主题框架。这不仅削弱人类创作者的价值认同,也动摇版权归属基础。为此,国际上已出现“人类创作者联盟”等自发组织,呼吁通过集体行动保护原创权益,并推动AI与人类创作协同演进。

深度伪造威胁公共安全与社会稳定。深度伪造(Deepfake)技术利用AI生成高度逼真的虚假音视频,已成为诈骗、谣言传播、舆论操纵乃至国家安全的新工具。例如冒充亲人骗取钱财、伪造政治人物言论制造社会分裂、篡改历史影像引发记忆混乱。这类滥用行为表明了AI本身并无价值倾向,但一旦脱离伦理约束,极易沦为破坏性力量。

碳足迹挑战可持续发展底线。AI的高速发展伴随巨大能源消耗,芯片制造依赖稀有金属与稀土资源,数据中心耗电量堪比国家用电总量,硬件更新换代产生海量电子垃圾。这不仅是技术问题,更是文明转型中的资源伦理难题。唯有将能源消耗转化为绿色价值创造,才能避免AI陷入“高碳陷阱”。如同核能从原子弹走向核电站,AI的未来也可能从破坏性技术转向可持续智能。

文化霸权与审美退化风险并存。当前主流大模型多源于西方语料库,潜移默化塑造全球话语体系,强化“西方中心主义”。尽管DeepSeek等中国模型试图打破壁垒,但仍需警惕文化主体性的边缘化。同时,AI批量生成图像、视频与文本,导致审美标准趋同、语言表达劣质化,甚至出现“伪史”“假新闻”主导搜索结果的现象。这种“记忆篡改”趋势,或将重塑人类对真实世界的感知边界。

(四)

在今天的这个时代,你的学习成绩如何、工作表现是否出色,已不再是决定性的优势。最关键的,只有一件事,那就是创造性。

但这种创造性,并非泛指创新思维,而是指一种“唯我性创造”(只有你拥有、别人无法复制的独特洞察、情感体验与价值判断)。这是AI难以模仿的本质能力,也是你在未来竞争中不可替代的核心资产。

事实上,AI在文科、理科乃至科研领域,早已展现出远超多数人类专家的结构化解决方案能力。它能快速整合海量文献、生成逻辑严密的论文初稿、甚至提出初步假设,其效率和广度远非个体学者所能及。

因此,如果你不主动重塑自己的创造力,挖掘那些唯有你才能表达的独特视角、情感深度与跨域联想,就很难真正驾驭AI工具。相反,一旦你稍有懈怠或趋同于标准化输出,AI便会精准识别你的边际价值,将其置于可替代的位置。

换句话说,不是AI要取代你,而是你不升级自己的创造性,就会被AI所淘汰。

(五)

以上探索不仅揭示了AI在复杂社会场景中的潜力,也为我们指明了智能时代必须重构和提升的核心素养。

在此基础上,我们可以进一步探讨AI如何系统性升级舆情管理全流程:

舆情监测。传统舆情系统依赖人工设定关键词,如同在信息洪流中用筛子捕鱼,效率低且易漏判。而基于大模型的语义理解能力,现代AI已实现“语义森林挖掘”(通过构建多维语义关联图谱,自动识别未显式出现关键词的潜在风险信号)。例如,在突发公共事件初期,即使无明确词汇触发预警,系统仍能捕捉情绪波动与话题迁移趋势,显著提升早期识别能力。

舆情分析。AI正将舆情分析从简单的文本计数转向深层情感动态建模。以LSTM(长短期记忆网络)为代表的时序建模技术,使系统不仅能识别情绪极性(正面/负面),还能绘制“情感光谱”,量化公众情绪强度与变化速率,并据此建立数学模型预测情感衰减曲线。这为政府和企业制定分阶段响应策略提供了科学依据。

舆情处置。AI正在重塑危机应对的决策范式。某景区服务标准升级事件中,AI模拟推演12种处置策略,综合评估传播效果与公众接受度后,推荐“学术委员会声明+专家解读+游客沟通会”组合方案,最终舆情平稳可控。更前沿的应用还包括智能代理自动生成包含官方声明模板、媒体话术指南与用户FAQ库的标准化工具包,将危机响应时间由小时级压缩至分钟级,极大提升应急效率。

舆情应对。面对高频、多样化的舆情压力,单纯依赖人工已难以为继。当前主流模式是“AI预处理 + 人工审核”。也就是,AI负责初步分类、去噪与优先级排序,人类则聚焦于情感共鸣、价值判断与伦理把关,确保输出内容既有精准度又有温度。这种分工机制既发挥AI的速度优势,又保留人的共情能力和责任意识,构成智能时代的新型治理能力。

(六)

在智能技术深度渗透的当下,人工智能已成为舆情治理的“双刃剑”。它既能依托大数据实现秒级舆情预警,也能因算法偏见制造“信息茧房”。既可通过自然语言生成技术高效产出内容,也可能因训练数据缺陷产生逻辑自洽却事实错误的“幻觉”。

面对这一复杂现实,我们亟需构建一种既不盲目崇拜技术理性,也不固守传统经验主义,而是在人机协同中实现认知升维,让AI成为人类判断力的延伸而非替代的全新的认知框架。

针对AI幻觉风险,应建立交叉验证机制。比对多个模型输出结果或权威信源,警惕“过度合理化”倾向(越是细节丰富、逻辑严密的回答,越需审慎核查其真实性)。同时也要理解幻觉的本质并非全然负面,它可能激发创意灵感,但前提是保持清醒的认知边界,将其控制在可控范围内,而非任其主导决策。

与此同时,在享受AI带来效率跃升的同时,我们必须警惕自身创造力的退化。正如前文所言,真正的优势不在工具本身,而在使用者如何运用它进行差异化创造。唯有持续锤炼独立思考能力、价值判断能力和跨域整合能力,才能避免沦为AI的附庸,真正驾驭这场技术变革。

站在文明演进的长河中,智能时代的舆情治理本质上是人类认知能力的外延与重构。当我们用AI这面镜子映照自身时,既要警惕技术理性对人文精神的异化,也要避免因噎废食错失技术红利。

正如控制论先驱诺伯特·维纳所言:“我们塑造工具,然后工具重塑我们。”在这个双向塑造的递归过程中,唯有坚持批判性思维与创新勇气的辩证统一,才能驾驭AI这面照映人类智慧与局限的镜子,最终实现技术向善、治理有道的文明新范式。(网络转载)


Leave a Reply 0

Your email address will not be published. Required fields are marked *