高校动态

北京大学网信视点--基于AI“情绪价值”功能风险审视的高校网络思政治理

日期:2026-04-16 来源:北京大学网络安全和信息化委员会办公室 作者:

随着以DeepSeek为代表的生成式人工智能技术及应用的爆发式增长,“人工智能+”行动已深入高校办学治校各个领域。AI凭借强大的算法能力,通过算法取悦与情感代偿机制,精准切中青年学生对“情绪价值”的迫切需求,演化为学生心理慰藉的“树洞”与人生导师。然而,AI大模型和算法本身是基于互联网上海量的未经严格验证的数据,在填补现实人际互动缺口的同时,也给高校思想政治工作带来深层挑战。高校必须夯实安全底线,坚持应用与管理并重;坚持辩证唯物主义立场,确立以人的主体性为核心的技术应用原则;构建包含发展性、功能性与人文性的复合安全观;理解中华传统文化精髓智慧,把握发展尺度,通过制定数据安全规范与建设自主可控垂直模型等治理实践,统筹技术应用与意识形态安全,引导技术向善,在人机共生中坚守育人初心。

当前,人类社会正加速迈入以人工智能为核心驱动力的信息文明新阶段。从ChatGPT的横空出世到DeepSeek等国产大模型的全面爆发,人工智能(AI)正以前所未有的速度重塑着社会生产关系与生活方式。《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》提出要全面实施“人工智能+”行动,这不仅是国家战略层面的技术布局,更是对教育领域特别是高校思想政治工作提出的时代考题。2025年以来,高校在教学、科研、管理、服务领域全面推进AI深度融合。教学上,以AI赋能课程、推动交叉专业与国际化培养;科研中,建设高性能计算平台与算力中心,聚焦前沿技术研发转化;管理上,尝试智慧校园系统与协同机制提质增效;服务方面,搭建创业孵化、校地合作平台,兼顾师生需求与社会服务,彰显顶尖高校的创新引领与责任担当。

   一、算法取悦 人工智能“情绪价值”的生成机制


1.概念的社会学演进,为算法生成情绪价值提供了需求基础。“情绪价值”本是市场营销领域的概念,“消费价值理论”将“情绪价值”定义为“通过与特定的情感或情绪状态相联系而产生的效用”,认为其是消费者选择产品的重要驱动力之一。然而,在当前的中国互联网语境与青年亚文化中,这一概念发生了显著的社会学转向。它逐渐脱离了“人与商品”的交易范畴,被借用至“人与人”的交往领域,演化为一种衡量人际关系质量的重要指标。“情绪价值”指的是一个人通过言行、态度、情感表达等方式给予他人情感上的满足和心理上的安慰的能力。这种价值并非物质上的给予,而是通过精神层面的情感支持和共鸣产生的。英国社会学家罗斯·哈克曼在其著作中进一步指出,在不确定性激增的时代,情绪劳动不再仅仅是服务业的要求,而已成为人们安身立命、维系社会关系的一种隐性刚需。对于正处于学业内卷与社会转型期的青年学生而言,“情绪价值”是抵御低安全感、不确定性,对抗孤独和内耗焦虑的必要需求。

2.算法通过模拟与即时反馈,建构出高效的情绪价值生成机制。马克思在《关于费尔巴哈的提纲》中指出,人的本质从其现实性上来说,是一切社会关系的总和。现实的社会交往必然伴随着责任、妥协、磨合乃至冲突,获取情感支持往往需要付出相应的社交成本。然而,人工智能提供了一种“去社会化”的交往模式,通过算法模拟,构建了一套低成本、高效率且极其稳定的情绪价值供给机制,填补了现实人际互动中的供需缺口。它不需要交流主体(用户)付出耐心、等待或情感回馈,只需发出指令,便能获得秒回响应和无条件接纳。这种不需要付出的即时满足,迎合了部分学生在学业与就业双重压力下寻求心理避风港的需求,但也容易使其沉溺于算法编织的舒适区,丧失面对现实复杂人际关系的勇气与能力。

3.此机制正深度介入高校场域,重塑青年思想与交往模式。作为互联网原住民的当代大学生,对新技术的接纳远不止于工具层面。他们开始将人工智能视为情感交流的对象、心理慰藉的来源,甚至是人生的导师。高校内部直接与最广泛的青年学生群体打交道的学工部门,在原有工作的各个领域也开始积极探索AI的融合应用,使用AI工具提升学生管理的效率、提高学生服务的水平,包括利用AI开展思政与心理辅导工作。AI正悄然扮演着“树洞”、朋友、心理咨询师乃至人生导师的角色。这种现象的本质,是人工智能凭借其强大的算法能力,精准切中了当前青年群体对“情绪价值”的迫切需求。这不仅重塑了学生的信息获取方式,更深刻影响着他们的思维方式、价值观念和社会交往模式。对于高校思想政治工作者而言,这既是必须面对的时代课题,更是关乎青年学生思想阵地安全的重大挑战。


  二 、风险挑战 技术依赖对育人目标的深层解构


任何一项科技的落地应用推广都是双刃剑,具有利弊共存的局面。人工智能在提供便利与慰藉的同时,也对思想政治教育的根本任务——立德树人,产生了多维度的冲击。在此之前,我们必须厘清生成式人工智能的本质。人工智能不是拥有独立价值观的“智慧实体”,而是基于海量数据进行概率计算推演的统计模型。其底层算法极度依赖于对互联网上未经审查验证的海量信息的搜集、加工和运算。这些数据天然带有市场化、大众化、碎片化的特征,甚至不乏各种错位价值预设以及前提和结论的内容,从而不可避免地夹杂着各种意识形态偏见与错误思潮。在当前的技术水平下,单靠算法自身的技术与屏蔽词,根本无法做到对这些庞杂、隐蔽信息的绝对、精准过滤。因此,大模型在应用中潜藏着巨大的结构性和原生性风险。意识形态工作是党的一项极端重要的工作,思想政治工作更是直接做人的思想、文化与价值观的工作,具有鲜明、专业的政治导向性。如果放任未经严格验证、精准过滤的数据及AI模型直接介入学生的思政与心理辅导领域,必然会给思想政治教育的正确方向埋下隐患。具体而言,使用AI开展网络思政面临以下四重深层解构风险:

1.揭开“真相的残酷”:算法、理性与取悦。人工智能并不具备真实的情感体验,AI所谓的“懂你”,本质上是基于海量数据训练的目标函数执行。它通过分析用户的语言习惯与情绪特征,精准生成用户最想听到的回应。这种以“取悦”为核心逻辑的算法机制,能够提供高度定制化的心理抚慰,甚至比真实的辅导员、家长更具耐心。但这种抚慰建立在虚拟的逻辑之上,它掩盖了问题的真实面貌,用廉价的语言泡沫填补了本应由理性思考和意志磨砺来填充的精神空间。也就是说,AI可以精准模仿,却永远无法拥有情绪本身。

2.接受“获得的虚幻”:弱化付出和代价。思想政治教育旨在培养学生自主思考的能力和适应环境的意志。然而,当学生习惯于向人工智能寻求标准答案和情感支持时,极易陷入思维惰性。情绪的满足不需要试错代价,人生交往无需历练付出,只需被投喂。在现实人际关系中,理解与陪伴需要付出沟通、妥协、等待等代价,但AI则提供了一种随时可得、几乎无代价的即时满足,这与现实的逻辑存在悖离,一旦沉溺其中,本质上就是饮鸩止渴。它让人在短期内获得心理平衡,长期看却可能导致思维能力的退化和精神世界的荒芜。学生一旦脱离了算法辅助,面对真实的困难和挑战时,往往表现出心理承受力脆弱、解决问题能力匮乏的“巨婴”特征。

3.认清“世界的颠覆”:加剧价值偏离。人工智能生成的内容看似客观理性,实则深受训练数据与算法模型的制约。所谓的道德、伦理、价值的正确与否取决于数据和算法。AI回答的“真相”的供给者和客观性仍然存疑,主流大模型的训练语料库仍然存在特定的文化偏见与价值倾向。当学生就历史虚无主义、社会敏感事件等问题咨询AI时,AI看似中立的回答可能潜藏着错误的意识形态导向。此外,算法往往倾向于迎合用户的既有观点以增强用户粘性,加剧了“信息茧房”效应,容易固化学生的偏激认知,使得主流价值观的引导变得更加困难。

4.预判“人性的解构”:冲击伦理底线。人与人的面对面交流,包含着眼神、语气、肢体语言等丰富的情感维度,是任何技术都无法完全替代的。人工智能的广泛应用使得作为社会性、社交性动物的人的本质被归化为数据性存在。当学生将大量情感寄托于冰冷的机器,现实中的师生关系、同学关系必然被淡化。这种将“人的社会性”还原为数据交互的过程,实质上是一种人性的解构。它不仅可能引发隐私泄露等数据安全问题,更可能导致学生现实情感功能的退化,使其在虚拟世界中越聊越热,在现实生活中却越活越冷,冲击作为现实的人的伦理道德底线。


三、辩证对治 构建发展与安全相统一的治理体系


面对AI带来的新挑战,高校思想政治工作者不能因噎废食,要与时俱进;但也绝不能放任自流。生成式AI当然可以使用,但大前提必须是夯实人工智能应用的安全底线。我们必须坚持党的二十届四中全会提出的关于发展的指导原则,统筹发展和安全,用辩证的眼光看待AI的“双刃剑”效应,确立以人为本的治理应用和教育发展逻辑。在这个过程中,我们绝不能只讲发展与效能,更要大张旗鼓地讲管理、讲安全、讲制度构建,坚持应用与管理并重,用制度规范为技术浪潮保驾护航。我们必须深刻认识到,意识形态工作不仅关乎政治方向,更涉及深层的思想、文化与伦理、价值观问题。当前,单靠技术防范已无法完全应对AI数据源中的复杂风险,因此,针对所有AI技术的应用,特别是在青年学生网络思政这一核心领域,必须有针对思想政治工作领域内容传播规律的专业性导向,必须出台更严、更强、更专业的制度规范,才能从根本上保证育人方向的不偏不倚,筑牢学生的“思想堤坝”。具体而言,应从以下三个维度发力。

1.坚持人的主体性,强化技术为我所用的原则。马克思主义认为,人是认知和实践的主体,工具、机器是人的劳动的延伸。技术是人的助手,必须为人服务。这是一切的出发点,也是根本的原则。无论AI发展到何种程度,它始终是工具而非目的。一切以技术为中心忽略人的主体性的发展必然站在人类和人性发展的对立面。在“全环境育人”的视域下,思想政治工作者要强化技术为我所用的原则。一方面,教育学生正确认知AI的本质——它是高效的工具,但不具备思考的能力。另一方面,着力培养学生在网络信息和数字化社会中必须具备的四项基本能力:理解力、分析力、批判力和创新力。[1]在技术不断升级、人类不断减负的过程中,人不应该放弃对自身能力提升的要求。思想政治教育要引导学生在该自己思考时绝不外包,在该自己认知时绝不懒惰,在该自己体验情感时绝不逃避,在人机协作中始终掌握价值判断的主动权,防止主体性沦陷。

2.坚持统筹发展和安全,理解安全的发展性、功能性和人文性。《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》中提出了统筹发展和安全的指导原则。传统的安全观念往往侧重于技术防范,人工智能时代需要建立的是一种更具前瞻性的综合安全观,从发展性、功能性、人文性三个维度全面理解安全。一是安全的发展性。随着信息技术发展和应用场景的拓展,对安全的需求也在不断扩展。特别是随着人工智能应用的普及和在思想政治工作中的落地,内容安全、伦理安全、政治安全、意识形态安全的风险日益凸显,未来还可能涉及更多不可预知的方面。因此,我们要密切关注AI在内容生成、情感交互等新领域的潜在风险,不能用旧有的静态标准去衡量动态的技术演进。二是安全的功能性。思想政治工作视域下的安全,不应局限于技术系统的稳定、防范攻击,更应延伸至技术效能与育人目标的契合度。我们要确保人工智能在赋能教学、管理与服务时,其功能的发挥始终服务于落实立德树人根本任务。当前,AI普遍遵循效率至上的工具理性,这与教育强调过程体验的价值理性存在天然张力。例如,在利用AI进行学业辅导时,必须设置伦理红线,防止其成为学术不端的帮凶。三是安全的人文性。这是高校作为文化教育机构的特有维度。技术迭代的速度前所未有,从人工智能的突飞猛进,到脑机接口、元宇宙等概念的兴起,硅基智能正逐渐展现出与人类生命比肩,甚至超越人类生命的潜力。面对世界“百年未有之大变局”,我们要从人类文明延续的高度去思考教育之于人的成长作用,及其发展和安全问题。例如,作为高等教育排头兵的北京大学发布了《北京大学教育与人工智能应用融合发展报告》,提出构建自主可控的垂直领域大模型,以解决通用大模型价值观不可控的问题。学校整合校内优质学术资源和思想政治教育素材,训练具有北大特色、本地化部署和本土化改造的私有化模型,如“燕云通”“小北学长”“北大问学”等,既满足了学生对智能化服务的需求,又确保了输出内容的政治安全和学术规范。

3.坚持中国古典哲学的辩证原则,把握发展的尺度与边界。“过犹不及”是中国传统哲学的智慧;这也是我们坚持“两个结合”指导原则中必须牢记的一点:要向我们的中华优秀传统文化思想和文明智慧学习,尤其是其中最核心的方法论和价值观。对发展的尺度和边界把握不好,会致使发展走向事物的反面。我们要始终牢记,AI的发展应以马克思强调的人的自由全面发展为目标。AI是人类社会进入信息文明的背景下,技术升级发展的表现形式,是人按照自己的样子制造的高级产物,是要使我们朝着更好方向发展的存在。因此无论从实践还是理论上,我们既不必排斥它,也不必神化它,而是需要找到与它相互促进、和谐共处的方式。在AI应用上,既要反对技术决定论,也要反对技术虚无主义,必须通过专业的制度建设来划定安全底线。在国家和社会层面,应推动在法律、伦理和平台规范层面建立更明确的边界,用制度防范化解技术风险、应对挑战。以近期引发广泛关注的开源AI智能体OpenClaw(“龙虾”)为例,其强大的自主执行能力伴随着极高的安全与伦理风险。对此,国家层面迅速反应,在严格落实《网络产品安全漏洞管理规定》的基础上,工信部及时发布了《关于防范OpenClaw(“龙虾”)开源智能体安全风险的“六要六不要”建议》,强调“技术创新必须与安全保障同步推进”,用制度守好安全底线。在高校的层面,应更具前瞻性和全局性,针对思想政治工作和“三观教育”的特性,提前谋划制定数据安全和人工智能安全管理办法,出台专业性、针对性的制度规范,而不能仅仅依赖技术屏蔽,在力所能及的范围内控制AI的负面影响,特别是防止AI提供“情绪价值”的功能对现实人际关系的过度侵蚀。例如,北京大学在全国高校中率先酝酿出台了《北京大学校务信息数据管理办法》《北京大学人工智能大模型安全管理暂行规定》等规章制度,明确了AI大模型在校园内使用的准入标准、数据分级分类原则以及违规责任追究机制。特别是针对涉及意识形态安全和师生隐私的数据,设定了严格的防火墙,从源头上规避了商业大模型随意抓取校园数据可能造成的安全隐患。同时,在面对突发的技术热潮时,北大也生动践行了应用与管理并重的治理智慧。同样以应对“龙虾”智能体为例,2026年3月10日,北京大学一方面鼓励学生理性探索前沿技术,专门开办了“‘手把手教你养一只自己的龙虾’——零基础玩转OpenClaw”讲座;另一方面,学校坚守安全底线,同步面向全校发布了《关于安全使用OpenClaw开源AI智能体的提醒》。这种兼顾包容探索发展与底线保障的辩证举措,将专业管理与技术应用紧密结合,有效防止了AI对现实秩序和学生思想阵地的过度侵蚀。

人工智能的诞生和升级发展是人类文明进程中的重要变量,标志着现行的教育和人文领域进入了一个新阶段;它改变了教育的形态,却改变不了育人的初心。马克思主义强调的人的自由全面发展,始终是我们衡量一切技术应用效果的根本尺度。面对汹涌而至的技术浪潮,我们必须清醒地认识到,技术手段永远无法完全替代制度管理与价值引领。高校思想政治工作者应当具备历史的眼光和战略的定力,在拥抱新技术的同时,坚守人文精神的阵地,筑牢意识形态制度堤坝。坚持以人为本、应用与管理并重,通过科学治理与人文引导,找到人工智能与思想政治教育相互促进、和谐共处的法则,努力让技术的光芒照亮育人事业的前路。