【2025年3月份意识形态学习资料】生成式人工智能大模型存在的意识形态风险及对策建议

自ChatGPT发布以来,大模型技术驱动生成式人工智能突飞猛进,形成应用层生态“百花齐放”的局面,为人类生活和工作带来重大变革的同时,其基于大数据训练实现的自动化内容生成也引发了新的风险挑战,生成有害内容、数据泄露等问题日益突出,严重威胁我国意识形态安全。

一是智能算法推荐加剧隐性价值观输出。生成式人工智能大模型是基于海量数据和文本基础进行训练而来,其数据来源本身存在的偏见与不公,直接影响到使用者对客观现实的认知。譬如,训练ChatGPT收集的数据其中大部分为英文材料,而英文世界是欧美主流国家的价值导向,产生的是契合资本主义意识形态的内容。同时,数据训练规则和训练内容、形式都是由算法开发者或数据写入者制定,携带其原有的价值观念。智能算法推荐在对信息资源进行个性化适配的同时就是在行使社会权力,“算法的社会本质就是一种权力”,这种权力更多地是隐性表达。作为意识形态的媒介渠道,一旦错误的政治观念、价值偏好等有害导向被嵌入其中,就可被作为政治宣传和舆论操纵的工具,加剧我意识形态被操纵利用的风险。

二是技术更新运用导致舆论矛盾冲突。生成式人工智能大模型利用技术优势对信息进行抓取和综合,按照技术化标准批量生产新闻报道,大幅提高新闻报道的生产效率。而信息传播环节,生成式人工智能极大缩短信息传播的层级,传播网络将从层层扩散的“洋葱式”结构转变为绝大多数节点直接与枢纽相连的“海星式”结构,大幅缩短舆情发酵链条的时间长度。生成式人工智能大模型加深用户对于舆情事件的参与程度,使其能够随时参与到对网络事件的意见建构之中,这些意见被大模型学习后形成新的“舆情事实”,导致客观性的事实被夹杂、糅合在主观性的网络表达中,而某些带有鲜明观点和极端偏好的信息,更容易被大模型抓取识别和传播,加大意见混同增加舆论极性“偏差”,公众在人工智能塑造的“信息茧房”影响下,特定价值观容易引发“群体极化”现象,导致舆论场意见偏差增大。

三是信息真伪难辨诱发意识形态撕裂风险。生成式人工智能大模型的内容生成,已经涵盖图像、声音、视频等各种元素,网络虚假信息生成路径更加真假难辨。一旦大面积推广,其高度自主化特性使得制造虚假新闻、网络谣言等恶意信息的门槛变得更低,普通人只需要使用简单的文字描述就可以生产一段逼真短视频,有可能令网上假消息错资讯泛滥更为严重,进而产生虚假“泡沫”舆情事件,成为滋生诈骗等违法犯罪行为的“温床”,甚至成为颜色革命的工具。尤其是对敏感事件进行虚假解读,煽动网民非理性情绪,扰乱舆论生态,分化公众价值,达到维护特定政治和经济利益的目的,加剧意识形态领域的撕裂风险。未来具备高度自动化和仿生形态的机器人水军,可以更加高效低成本地生产大量逼真视频内容,诱发舆论风险。

四是大模型“工具化”解构主流意识形态。人工智能的“工具化”作用凸显,因技术依赖而导致思维固化和行为异化,削弱了自主创造性,人们逐渐成为“数据囚徒”,意识形态面临解构风险。一方面,在资本和权力的裹挟下,生成式人工智能大模型呈现“去规则性”的趋势,用户可以通过恶意编写代码、创建勒索软件和钓鱼邮件破除技术壁垒等,致使计算机系统受损、数据泄露和网络瘫痪。再加上网络空间的开放性、自由性,其所带来的系列负面言论、非理性声音都会影响主流意识形态的控制力量,威胁网络意识形态安全。另一方面,在利益驱使下,用户通过避开敏感词汇的方式向大模型输入各种指令,使其按照他的思路生成方案,从而诱发各种违法犯罪问题滋生。在这种生态环境下,境内外敌对势力极有可能借机利用互联网上一些敏感舆情事件,攻击抹黑我政治体制,消解我主流意识形态,威胁国家总体安全。

面对生成式人工智能大模型给人类社会带来的巨大挑战,我们须重点关注境外新兴技术在国内落地的安全隐患,防范有害信息在境内传播引发意识形态安全问题,对相关行业产业依法加强管理,完善防范措施,有效化解风险隐患。

一是坚持马克思主义在意识形态领域指导地位。坚持以主流价值导向来驾驭智能应用的发展,强化社会主义核心价值观在智能技术发展和市场传导中的导向作用,加大对生成式人工智能大模型的自主研发和创新,构筑社会主义意识形态传播的新场域,严防生成式人工智能在话语构建和话语传播过程中制造意识形态风险。坚持用社会主义意识形态的科技伦理规制算法推荐,在程序研发、设计、运行中嵌入社会主义意识形态大数据,构建符合社会主义主流意识形态价值观的算法推荐,通过引导正向信息传播和对话反馈,有效消解算法中的意识形态偏见,谨防利益竞逐的“资本至上”逻辑对主流意识形态的蚕食,促进主流意识形态在人机交互中的主导地位。

二是坚持讲好中国故事提升中国话语权。内置于ChatGPT的西方话语权逻辑在国际意识形态交锋日趋显现,并逐渐挤压着中国的话语空间。若失去生成式人工智能赛道的话语权,我国就会被削弱意识形态话语影响力。因此,要进一步讲好中国故事,破解当前生成式人工智能领域的西方霸权。探寻能被国际社会普遍理解的世界性中国话语,是掌握意识形态话语主动的关键所在。一方面要深入认识并结合生成式AI背景下话语受众的心理特征,将中国故事以兼具中华特色又接轨国际的方式予以呈现推动中国故事在国际话语交锋中掌握主动权。另一方面,要立足技术思维,掌握生成式人工智能信息传播规律,打通智能信息处理的技术关隘,推动生成式AI结合5G、区块链等新兴技术,探索中国话语在智能传播时代的多元平台,传播好中国故事。

三是强化生成式人工智能大模型应用监管。加强对提供人工智能技术的企业、传播平台等监管,形成严格的行业管理制度。强化技术平台主体责任,在杜绝虚假信息的产出、流传与扩散方面赋予其更明确、比重更大的义务。推动平台建立、完善和迭代人工智能生成内容鉴别处置机制,不断提升人工智能技术参与内容安全监测的能力和效果。严格把控模型意识形态表达的限度,运用智能算法技术规制虚假内容的生产与传播并处置有害信息。整合国家、社会、个人层面的力量,共同应对意识形态安全问题。建立多元协同的责任矩阵应对生成式人工智能大模型的渗透和冲击,依托外部监督与内部规约的双向逻辑,推动行业自律。研发应对意识形态风险的人工智能防控技术,有效应对意识形态领域的冲突。同时,还需加强对全社会的人工智能素养教育,提升用户的信息素养和技术认知,增强对虚假信息的风险识别与抵制能力。

四是建立健全人工智能领域法律制度。加快推进人工智能法的制定和出台,以人工智能法及配套的监管工具为核心,形成完整的人工智能技术法律体系,在兼顾科技发展和规范使用界限的同时,为生成式人工智能的意识形态风险规制提供法律支撑。及时出台行业性规范,明晰诸如隐私权保护、电信诈骗等违法行为的责任界定等,制定保障通用大模型安全的标准体系及其风险等级测试评估体系,推动通用大模型开展安全评测、接入安全服务,降低通用大模型安全风险。积极探索“监管沙盒”等创新治理手段,建构“事前—事中—事后”的自治体系,提供全程监管,确保技术运行在法治轨道上。

五是加强国际合作,倡导全球治理。无论是ChatGPT等生成式人工智能抑或其他人工智能技术,都是世界性的、时代性的,因而无论是科技互惠共享还是风险治理,必须具有全球视野。通过对话与合作凝聚共识,积极弥合智能鸿沟,实现公平普惠;加强共享共建,推动务实合作;寻求价值对齐,改进全球治理。坚持以人为本,推动智能向善,致力于构建基于共同价值的人工智能伦理准则,使人工智能朝着有利于构建人类命运共同体的方向发展。借助“文化+科技”的双向赋能,提高不同文明在国际传播中的话语权和影响力,打造国际社会的“网络大外交”平台,深化文明交流互鉴,消除隔阂误解,促进民心相知相通,推动构建人工智能时代的人类命运共同体。

(作者系四川省委网信办网络新闻信息传播处副处长)

内容来源:学习强国