
生成式AI嵌入意识形态安全治理的机遇、挑战及应对
摘 要 基于数字技术变革与意识形态安全治理的交互逻辑,生成式人工智能(以下简称生成式AI)既为意识形态安全治理带来前所未有的机遇,也给意识形态安全治理带来巨大挑战。一方面,生成式AI通过算法价值嵌入、内容生产流程重构和智能传播模式创新,有效增强了主流价值的传播效能与认同塑造能力。另一方面,生成式AI也面临着由于训练偏差与生成失序导致的技术异化风险,通过价值陷阱与认知操控使智能技术转化为意识形态斗争工具的风险,因制度迟滞、协同困境而存在的治理框架适应性危机。为有效把握生成式AI嵌入意识形态安全治理的机遇并规避风险,应构建价值引领机制,完善技术治理生态;构建技术监管系统,实施全链路价值校准;构建人机协同治理机制,打造智慧化治理新范式。
关键词 意识形态安全;生成式AI;DeepSeek
党的二十届三中全会指出,“完善意识形态工作责任制”“完善生成式人工智能发展和管理机制”。意识形态工作是为国家立心、为民族立魂的工作,事关党的前途命运,事关国家长治久安,事关民族凝聚力和向心力。当前,面对生成式人工智能(以下简称生成式AI)技术的重大突破,尤其是ChatGPT、Sora、DeepSeek等新一代生成式AI在社会生活各个领域的广泛应用,守牢生成式AI的意识形态安全底线,既是维护我国意识形态安全的重要举措,也是推动中国式现代化建设的题中应有之义。目前,学术界对于生成式AI与主流意识形态安全的研究主要集中于以下三个方面。一是围绕生成式AI的概念内涵、技术特征、基本功能等,深入剖析其意识形态属性与功能;[1-3]二是针对生成式AI对主流意识形态安全的影响表征进行多维透视,全面剖析生成式AI对意识形态安全的潜在风险;[4]三是从技术、资本与传播等维度,对生成式AI影响主流意识形态安全的内在逻辑进行学理分析。[5-6]现有研究多聚焦于美国占据生成式AI技术垄断地位的语境,将分析重心置于该技术衍生的意识形态安全隐患层面,尚未充分关注生成式AI技术对意识形态安全建设的正向驱动作用。随着以DeepSeek为代表的国产大模型迅速崛起,这种技术格局的深刻变革亟待构建新的研究范式,从防范与赋能的双重视角,分析国产大模型嵌入意识形态安全治理的机遇,透视其可能造成的意识形态安全风险,进而探究生成式AI有效嵌入意识形态安全治理的应对策略。
一、生成式AI嵌入意识形态安全治理的时代机遇
2025年1月20日,中国人工智能企业深度求索(DeepSeek)发布DeepSeek-R1推理模型,旋即在全球引发轰动。作为以自然语言处理与生成为核心功能的智能系统,意识形态渗透贯穿于生成式AI技术的研发与应用全流程。这类创新技术展现出显著提升主流意识形态影响力的潜力,通过价值嵌入、内容生成和认同塑造,在潜移默化中塑造着人们的思想与行为。
(一)实现主流意识形态价值嵌入
中国自主研发的生成式AI技术快速发展与广泛应用,为我国在人工智能领域的战略布局赢得了关键优势,有效推动技术发展沿着正确的价值轨道前进,使主流意识形态贯穿技术全生命周期的各环节。
第一,从研发团队来看,DeepSeek作为我国自主创新的人工智能成果,由本土科技企业联合高校及科研机构共同攻关打造。其研发团队坚持正确的政治方向,将社会主义核心价值体系贯穿于技术研发全过程,确保AI技术自主可控、数据安全可靠,最终实现技术发展成果惠及人民群众的国家级人工智能战略目标。
第二,在训练数据方面,此类国产AI系统主要采用经过严格筛选的中文语料库,这些数据既富含中华传统文化精髓,也符合社会主义主流价值标准,通过数据清洗技术有效排除了可能危害意识形态安全的内容,从而保障了训练素材的思想正确性和数据可靠性。
第三,在模型监管机制方面,人工智能通常会在训练后期引入多层次监督策略,包括精细化微调和基于人类反馈的强化学习。研发团队依照国家法律法规,利用专家标注的高质量数据集对基础模型进行优化,并结合人机协同的反馈机制,使生成内容符合社会主义核心价值观。此外,国产生成式AI在技术架构上更具开放性,其可解释的推理过程和部分开源的模型设计为价值导向审查提供了便利条件,有力维护了技术应用的意识形态安全性。
(二)实现主流意识形态生产方式重构
以DeepSeek为代表的国产生成式AI,在自然语言处理和内容生成方面的显著提升,推动了信息生产和分发的范式升级,为主流意识形态内容的高效生产和有效传播打造了智能化、现代化的技术支撑。
一是增加主流意识形态内容的深度,激发用户思考。生成式AI依托海量数据资源,既能基于理论体系和客观事实提升意识形态内容的信息量,又能突破资本主导的信息壁垒,帮助公众打破认知局限,以更加理性、全面的视角看待和思考意识形态议题,从而深化意识形态安全治理的层次。
二是丰富主流意识形态的内容形式,优化表达效果。作为生成式AI的核心功能,文本创作不仅能依据主题、关键词和框架自动生成小说、故事等多样化文本,更能深度理解人类情感与行为逻辑,对表达方式加以优化调整,使主流意识形态传播更具感染力。通过语言风格的灵活转换和表达方式的创新,生成式AI技术助力主流意识形态内容实现从抽象到具体、从理论到生活、从说教到共鸣的转变,从而增强思想引领力、价值认同感和情感凝聚力。
三是优化主流意识形态内容的传播方式,提升传播效能。随着国产生成式AI的快速发展,国内科技领军企业纷纷开放多模态大模型资源。如今,多模态大模型已能够高效输出文本、图像、视频、3D建模乃至数字人交互内容,极大简化了视听化内容创作流程,为抽象主流意识形态内容的视觉转化提供了强有力的技术支撑。借助此类开源多模态模型,能够快速生成高水准的主流价值传播素材,通过更具表现力和感染力的形式,使主流意识形态教育更加直观、鲜活,大幅提升了宣传教育的影响力和渗透效果。
(三)实现主流意识形态教化模式重塑
生成式AI的广泛应用促进了“人—机—人”互动模式的普及,使这种新型交往方式逐渐成为常态。生成式AI凭借其对话交互的产品特性影响着意识形态的传播方式。相较于传统的单向意识形态宣教方式,生成式AI技术更具渗透力,能够以润物无声的方式增强公众对主流价值观的认同感。
一是借助智能问答的互动机制,激发用户自主学习的积极性。依托人机对话的基本原理,在用户提问与AI反馈构成的动态交流过程中,生成式AI能够精准响应用户需求,针对涉及意识形态的疑问提供丰富的知识参考和思维引导。这种模式促使用户从单向的信息接收者转变为具备独立思考能力的主动探索者,通过双向互动深化对主流价值观的理解、认同与践行。
二是基于对自然语言的深度理解,提升主流意识形态的教化效果。生成式AI具备出色的智能交互特性,能够精准解析用户需求并以生动自然的方式作出反馈,在辅助学习与思想引导方面展现出独特优势。在交流过程中,交互系统可智能识别使用者的认知偏差与价值困惑,通过实时互动构建精准的数字化认知图谱,形成高度个性化的思想对话场域,能够借助智能化的人机交流促进主流价值认同的自主形成。
三是依托深度推理能力强化主流价值引导效能。以Kimi、DeepSeek等为代表的国产大语言模型具备独特的逻辑推演能力,能够将宏大的思想理论、价值观念等抽象概念分解为循序渐进的思维链条。这一技术特性使用户在“理解现象本质—把握内在逻辑—认识必然规律”的渐进式思考中,自然而然地深化对主流意识形态的认同与理解。
二、生成式AI嵌入意识形态安全治理的风险挑战
生成式AI重塑了意识形态的生成、传播与互动方式,彰显出高效渗透、隐蔽规训与智能教化的意识形态塑造功能,而其技术局限与滥用可能造成意识形态传播失控、意识形态斗争加剧、意识形态治理失调等风险,成为数智时代维护我国主流意识形态安全亟须攻克的难题。
(一)技术异化的内生性风险:训练偏差与生成失序
生成式AI是一种以自然语言理解与生成为核心的信息处理技术,通过抽取、整合、分类等方式,实现人机间的智能交流。语言具有意识形态属性,使得此类人工智能具备引导意识形态的潜在功能,而训练语料中可能包含错误观念和有害内容,在模型反复调用中易被放大,削弱主流意识形态的影响力。
一是生成式AI模型高度依赖大规模语料进行训练,而这些数据常存在偏差和缺陷,容易引发价值误导。训练语料通常分为原始数据和标注数据两类。但是,当前大模型主要采集网络公开内容作为训练数据,内容杂乱,常含虚假信息、极端言论与歧视偏见。已有研究表明,自然语言处理任务中普遍存在算法偏见,模型易因数据失衡而做出错误判断。
二是生成式AI的“幻觉”失控,可能导致虚假信息规模化生产与人的认知偏差。模型可能生成看似合理却事实错误的内容,源于训练阶段反复使用不准确数据,最终导致输出失真。在实际应用中,为满足用户需求,模型可能不断生成虚假信息并自我引用,扩大误导范围。这类信息不仅带来知识偏差,也因用户过度信任而成为新的信息控制源,挤压主流意识形态的传播空间。例如,DeepSeek采用的蒸馏技术虽提升效率,但也可能固化原始数据问题;思维链机制增强逻辑结构,却可能掩盖错误,放大误判风险,加深认知混乱。
(二)智能技术的工具化转向:价值陷阱与认知操控
生成式AI以算法、算力和数据为基础,对人类语言和思维进行模拟,已逐渐演变为具备价值渗透、信息伪造、议程设置与舆论操控能力的意识形态传播工具。在技术、资本与政治力量的共同推动下,其隐蔽性和影响力不断增强,成为智能时代意识形态斗争的重要载体。
一是训练阶段的隐性价值输入构成潜在的意识形态渗透。大语言模型依赖海量语料训练,而这些数据本身就承载着特定的文化与政治价值。模型在数据筛选、标注与算法对齐过程中不可避免地嵌入设计者的价值判断,形成“思想钢印”。特别是人类反馈强化学习虽旨在实现价值对齐,但其奖励机制往往反映设计者的意识形态偏向,易将某些立场反复强化,导致模型输出长期固化,潜藏价值陷阱。
二是生成式AI可能成为意识形态话语斗争中的技术“工具箱”,加剧深度伪造与认知操控的风险。凭借强大的内容生成能力,生成式AI不仅可以自动创作新闻报道、评论文章,还能合成语音、图像与视频,形成“以假乱真”的信息产品。这项能力一方面提升了人类信息处理与表达效率,另一方面也为恶意行为者制造舆论干扰提供了新手段。在国际意识形态博弈中,生成式AI正被纳入国家战略工具体系,成为信息战与认知战的重要技术武器。从长远看,随着技术进一步普及与算法持续优化,生成式AI所带来的不仅是内容层面的变化,更可能深刻重塑人类的认知结构、价值系统与社会共识,成为主流意识形态安全亟须防范的“看不见的对手”。
(三)治理框架的适应性危机:制度迟滞与协同困境
生成式AI正处于快速发展和大规模应用阶段,其技术演进速度和落地范围不断扩展,给现有治理体系带来前所未有的挑战,亟须建立与其发展相匹配的法律规范与监管机制,以保障其有序健康发展。
一是生成式AI意识形态风险的技术监管与法律规制仍显滞后。生成式AI技术迭代迅速,覆盖场景广泛,显著冲击传统意识形态安全治理模式。一方面,当前人工智能的主导开发者多为企业资本力量,受逐利动机驱使,一些企业可能急于推动模型上线,却忽视风险评估与内容安全审查,积聚潜在意识形态风险。另一方面,生成式AI兼具复杂性与通用性,使治理难度加大,对制度设计提出更高要求。2023年7月,国家网信办联合多部门联合公布了《生成式人工智能服务管理暂行办法》,为国内治理提供了基本依据,但整体内容仍偏宏观,责任细则和可操作的管理机制不够明确,难以支撑复杂现实的治理需求。
二是生成式AI意识形态风险治理在国际上尚未达成共识。一方面,当前全球治理体系呈现出碎片化特征,整体处于探索起步阶段。由于各国在国情、技术基础与产业格局上的差异,治理理念与制度设计路径不尽相同,尚未形成可协同运作的意识形态安全治理框架。同时,现有治理机制在术语定义、规范边界、法律条文等方面仍存在模糊、冲突与局限,难以有效约束生成式AI在研发与应用中的意识形态风险。另一方面,受技术民族主义及零和竞争思维影响,国际合作治理陷入“集体行动困境”与“安全发展悖论”的双重挑战。例如,DeepSeek因技术优势在全球引发关注,却以数据安全与隐私争议为理由被部分国家全面封禁,反映出各国围绕技术控制权与治理主导权的博弈加剧,全球协调治理的难度加大。
三、生成式AI嵌入意识形态安全治理的应对策略
应对生成式AI在意识形态领域的潜在影响,需采取系统化治理方略。在技术应用进程中,既要善用生成式AI涌现出的赋能潜力,又要警惕技术泛化可能引发的指数级风险。通过构建价值引导机制、完善技术研发全流程的监管体系、建立人机协同的治理机制等多维路径,将生成式AI技术在思想安全领域的双重效应转化为维护主流价值安全的创新动能。
(一)构建价值引领机制,完善技术治理生态
党的二十届三中全会明确要求“完善生成式AI发展和管理机制”。[7]要坚持党对意识形态工作的全面领导,以社会主义核心价值观为遵循,明确生成式AI应用的价值导向,逐步完善人机共生的伦理框架与法律法规。
一方面,明确价值导向,在算法开发和部署过程中嵌入价值预设,促使主流价值观与智能算法深度融合。一是构建涵盖技术研发全链条的价值引导机制,形成“价值引领—技术赋能”的良性循环。毫不动摇地坚持马克思主义在生成式AI意识形态安全治理中的指导地位,建立民生需求驱动的技术开发模式,聚焦教育、医疗、政务等民生领域的智能化转型。二是从价值观层面为生成式AI发展提供意识形态安全保障,覆盖“数据治理—模型训练—应用部署”全流程。在数据准备阶段,建立包含社会主义核心价值观的优质语料库。在模型微调环节,通过强化学习将“共同富裕”“人类命运共同体”等核心价值理念转化为奖励函数的关键参数。在应用部署阶段,建设价值偏离预警系统,实时监测算法输出的意识形态倾向。
另一方面,坚持德法共治,加快完善保障人工智能健康发展的法律法规和伦理道德框架。一是建立“法律规制—伦理约束—行业自律”三位一体的制度保障体系。坚持“技术向善”的原则理念,将数据使用、隐私保护、算法公平性和包容性等要求具化为可执行的技术标准。构建伦理审查机制,要求技术人员在模型训练中嵌入道德推理模块。二是聚焦“主体权责—行为规范—惩戒机制”三个维度开展法律体系建设。建立主体权责清单制度,制定生成式AI意识形态安全管理相关管理办法,构建分级惩戒机制,为生成式AI领域的意识形态安全治理提供法律依据与保障。
(二)构建技术监管系统,实施全链路价值校准
应对生成式AI的潜在意识形态风险,要从被动防御转向主动嵌入,需着眼数据过滤与价值标记、算法审查与价值对齐,强化技术监管,实施全链路价值校准。
一方面,以主流意识形态引领高质量数据库建设。一是从资源建构与安全过滤两个维度,筑牢数据“护城河”。整合中华经典文献、红色文化资源等核心数据库,提升传统文化元素的数字再现能力。严格遵循2024年全国信息安全标准化技术委员会发布的《生成式人工智能服务安全基本要求》,通过人工标注将“人类命运共同体”“共同富裕”等价值理念转化为多维语义向量,形成可计算的意识形态安全参数矩阵。二是构建本土数据保护与跨境数据审查机制。在预处理阶段部署多模态内容识别系统,通过关键词图谱、情感分析模型、价值倾向分类器等技术工具,自动化筛查有害信息。针对跨境数据流动,开发基于区块链技术的溯源追踪系统,建立包含政治敏感性、文化适配性、价值合规性等维度的风险评估模型。特别是在数据标注环节设置意识形态安全专家复核制度,确保训练数据的可用性。
另一方面,以主流价值逻辑驾驭技术逻辑,推动生成式AI算法的不断完善与优化。一是构建算法治理链。在技术研发端,将社会主义核心价值观解构为可操作的技术规范,通过强化学习框架将其转化为模型奖励函数的核心参数。在算法架构层面,对主流价值相关语料设置合适的加权系数,确保价值输出符合预期导向。二是构建算法监管体系。在技术层面开发逆向解析工具包,运用可解释AI技术破解算法黑箱,实现参数调整与价值输出的因果追溯。在制度层面完善算法备案制度,要求企业披露价值权重设置方案、语料筛选标准等关键信息。建立算法影响评估矩阵,从意识形态传播、文化认同塑造、价值观念引导三个维度设置量化评估指标,实施季度性算法“主流意识形态安全体检”。三是打造立体化监管网络。政府部门组建跨领域的算法审查专家委员会,实现从数据采集到内容生成的全链路监测;技术平台组建专业化的AI伦理审查团队,完善内部“红蓝对抗”测试机制;构建公众监督反馈平台,运用众包模式收集价值偏离线索,形成“监测—反馈—修正”的闭环治理机制。
(三)构建协同治理机制,打造智慧治理新范式
人工智能在数据处理与逻辑推理方面展现出卓越效能,而人类则凭借独特的情感智慧、创新思维与综合决策能力占据优势。人机协同模式正成为推动智能时代发展的关键动力。面对生成式AI技术带来的意识形态挑战,应当双管齐下,一方面,贯彻“科技为人”理念,持续提高公众的数字智能素养与实务操作能力;另一方面,践行“技术向善”原则,充分激发生成式AI在强化主流意识形态传播效力、优化社会思潮引导机制方面的积极作用。
一方面,发挥生成式AI的积极作用,关键在于激发主体自觉、提升数智素养,增强人在人机协作中的主导力量。一是着力构建高素质的智能技术人才队伍。对于技术研发及相关从业人员,在专业培养体系中深化科技伦理教育,促使从业者将职业规范转化为自觉行动准则。将思政教育有机融入专业培训各环节,帮助技术人员深刻认同社会主义核心价值观,通过开设专题讲座、组织学术论坛等多样化形式,增强其对技术可能引发的意识形态问题的敏感度,主动扛起捍卫主流意识形态安全的重任。二是全面提升用户群体的数字智能应用能力。面向社会大众,开发系统化的智能技术普及课程,邀请领域专家开展讲座,借助全媒体平台进行广泛传播,使公众准确把握生成式AI的运作原理、应用场景及潜在风险。重点培养用户甄别错误信息和价值倾向的辨析力,防范意识形态渗透的警觉性以及运用智能工具实现自我提升的数字化发展能力。
另一方面,维护主流意识形态安全,既要充分发挥生成式AI的积极作用,又要防患于未然,建立健全意识形态风险的防范与化解机制。具体而言,一是创新主流意识形态的传播教育方式,增强思想引导效能。在内容生产环节,借助生成式AI技术对主流意识形态内涵进行合理深化与扩展,将理论化的意识形态内容置于真实的历史场景、社会现实和文化氛围中呈现,采用视觉图像、动态影像等多样化叙事方式,提升主流意识形态的感染力和吸引力。在教育方法层面,巧妙运用生成式AI技术对用户个性化的思想动态和认知需求进行智能分析。通过互动交流这种潜移默化的教育形式,实现主流意识形态内容的精准触达,有效提升其价值引领效能。二是强化意识形态风险预警与应对能力,构建智慧化治理体系。依托强大的算法模型、高性能计算平台和海量数据资源,智能生成技术展现出类人化的认知能力,可在交互过程中通过解析用户提问内容、思维模式等要素,准确把握其意识形态特征,完成对使用者的“意识形态画像”。基于大数据分析和算法预测,系统把握各类社会群体的价值观演变规律,实现早期预警和快速响应,运用精准化的传播手段和辅助工具,使意识形态管理机制更加灵活高效,从而对不当言论、不良舆情和认知偏差进行及时矫正和正向引导。
参考文献:
[1]杨章文.ChatGPT类生成式人工智能的意识形态属性及其风险规制[J].内蒙古社会科学,2024(01):57-64.
[2]徐政,邱世琛,葛力铭.DeepSeek赋能拔尖创新人才培养的理论逻辑与实践路径[J/OL].重庆大学学报(社会科学版).https://link.cnki.net/urlid/50.1023.c.20250305.1737.007.
[3]王闻萱,王丹.中国生成式人工智能DeepSeek的核心特征、价值超越及未来路向[J].统一战线学研究,2025(02):94-107.
[4]蒲清平,向往.生成式人工智能——ChatGPT的变革影响、风险挑战及应对策略[J].重庆大学学报(社会科学版),2023,29(03):102-114.
[5]向继友,吴学琴.ChatGPT类生成式人工智能的意识形态风险及其防控策略[J].江汉论坛,2023(12):53-59.
[6]温晓年.ChatGPT的意识形态风险审视[J].西北民族大学学报(哲学社会科学版),2023(04):99-108.
[7]中共中央关于进一步全面深化改革 推进中国式现代化的决定[M].北京:人民出版社,2024:34.
(作者系中共无锡市委党校讲师、博士)
【责任编辑:易玉洁】