在从工业社会到数字社会的历史性巨变中,网络平台在资本和技术的合力下,从最初的技术企业迅速迭代为元媒介。网络平台所延伸、建构和控制的是整个人类的认知及组织系统。它不是某个媒介或者某种媒介,它不停留于媒介所谓单数、复数,媒介融合等传统媒介认知层面的讨论,而是可能将世界纳入自己的麾下,突破层级传播的传统范式,以互联网元架构为基础逻辑,“促逼”所有的“网络行动者”成为无差别的连接点,形成数字社会独有的平台生态系统;它正在解构现代社会中个体、国家、民族、血缘、宗教、地缘等组成社会秩序的基本单元,渗透、规制人们的日常生活。它改变着社会的基本结构和运行模式并终将进化为一种全新的人类社会组织形态,如同氏族、部落、国家、政党、宗教一样,成为人类发展历史进程中的里程碑。本刊在第三期和第四期以“网络平台的媒介追问”为专题,聚焦平台的元媒介性及其引发的链式反应,试图在技术哲学与现实社会的对话中,追问数字社会的元问题:当平台成为人类存在的操作系统,我们如何在“连接一切”的宿命中守护人之为人的本质?期待学界同人共同关注和参与这场媒介哲学的深层解码。摘要:在从工业社会到数字社会的历史性巨变中,网络平台在资本和技术的合力下,从最初的技术企业迅速迭代为元媒介。网络平台所延伸、建构和控制的是整个人类的认知及组织系统。它不是某个媒介或者某种媒介,它不停留于媒介所谓单数、复数,媒介融合等传统媒介认知层面的讨论,而是可能将
作者简介:
方兴东系浙江大学网络空间国际治理研究基地中心主任,乌镇数字文明研究院教授;钟祥铭系浙江传媒学院新闻与传播学院副研究员。内容摘要:
DeepSeek事件是AI(人工智能)技术与应用一次里程碑式的历史突破,是一场全球科技界的盛事,也是中国高科技发展的一次信心重树。DeepSeek掀起了AIGC(人工智能生成内容)主流化浪潮,AIGC进入新的爆发阶段,并将逐步占据主导性地位,这也预示着未来网络空间信息和内容构成将发生根本性改变。但是,欢呼和欣喜的同时,必须正视正在出现的新问题与新风险:数据隐私泄露、虚假信息盛行、意识形态风险、“AI幻觉”困境等。生成式人工智能平台的技术自主性与责任弥散化让平台主体责任和内容主体责任都面临“空心化”趋势,这是智能时代平台治理面临的重要课题。面对智能传播范式的结构性转型,如何评估智能时代平台的主体责任,如何调试动态适应性治理框架,如何构建智能时代的传播新秩序等,这一系列技术伴生风险与问题亟待通过建构有效的制度体系与创新监管方式来实现系统性治理。//目录
一、DeepSeek掀起AI主流化浪潮:数字内容生产范式的重构
二、从DeepSeek事件窥探智能时代的平台风险
(一)模型安全与数据泄露隐患
(二)舆论风险与敏感议题引导
(三)虚假信息盛行与“说谎者红利”现象
(四)新的技术伦理难题:“AI幻觉”
三、平台责任“空心化”与智能时代平台主体责任的重估
四、智能时代传播秩序的建构与治理
智能时代AI技术的发展速度和影响力正以前所未有的态势重塑全球格局。继2022年底ChatGPT引发全球关注后,DeepSeek的横空出世再次成为全球AI领域的焦点话题。此前,全球AI技术创新主要由硅谷科技巨头和风险资本驱动,以OpenAI、Google、Meta和Anthropic等为代表的美国企业在AI技术研发方面占据主导地位,形成了“闭源+高算力依赖”的闭环生态。这种生态构筑了坚固的技术壁垒,限制了全球AI技术的研发和创新,同时引发了“算力军备竞赛”。
然而,DeepSeek的出现正冲击着以美国科技巨头为中心的AI叙事与竞争规则,对全球AI生态产生了深远的影响。依托系统工程创新构建的成本优势与效能突破,DeepSeek以高效的模型训练和低廉的API定价,推动AI技术在全球范围内的规模化应用与普惠化发展,并逐渐摆脱对资本巨头的依赖。上线18天后,DeepSeek的日活跃用户已达到1,500万,而ChatGPT达到这一数字则用了244天,DeepSeek的增速是ChatGPT的13倍。这一成就不仅打破了美国企业主导的AI生态系统,还对美国人工智能领军企业的垄断地位及其构筑的技术壁垒构成了挑战。正如谷歌前首席执行官埃里克·施密特(Eric Schmidt)强调的,DeepSeek的崛起标志着全球人工智能竞赛的转折,证明中国可以用更少的资源与大型科技公司竞争。此外,DeepSeek还推动了AI技术成功跨越主流化鸿沟,全面进入主流化普及应用的高歌猛进阶段,这是DeepSeek超越ChatGPT、定义“DeepSeek时刻”的根本逻辑。DeepSeek也将成为智能时代媒体发展的转折点,引发互联网平台重塑竞争格局。
媒介环境学派第三代旗手保罗·莱文森(Paul Levinson)曾以电影为例,揭示媒介技术的发展导致文化类型的演变,提出“玩具—镜子—艺术”(Toy-Mirror-Art)的技术演化三阶段论。从这一视角观照DeepSeek的发展过程,可以发现其在进入大众视野之初,仅仅是作为一种具有娱乐功能的“玩具”而存在,用户关心的是使用DeepSeek答疑解惑的体验过程,并在自己的社交圈内分享“乐趣”。然而,随着越来越多的互联网平台接入DeepSeek,DeepSeek不再是人们满足好奇心的“玩具”,而逐渐演变为智能时代的互联网超级平台,这是治理者需要理性思考和面对的问题。在此阶段,DeepSeek可能会像其他互联网超级平台一样,经历从互联网中介到互联网平台再到生态的跃变,其属性也从过去的技术权力和信息权力,延展到市场权力和经济权力,进而延伸到社会权力和政治权力。如果缺乏有效的制度创新和治理举措,其不但可能冲击现有市场秩序,危及社会秩序和政治秩序,并且可能突破现有制度框架,挑战国家权力和治理能力。
一、DeepSeek掀起AI主流化浪潮:数字内容生产范式的重构
从埃弗雷特·M.罗杰斯(Everett M.Rogers)的“创新与扩散”(diffusion of innovations)理论视角来看,DeepSeek通过成本、效率、开源等系统性工程创新,推动AI技术成功跨越主流化鸿沟,为数字内容生产的范式重构奠定了坚实基础。这一突破不仅标志着AI技术的成熟,也预示着内容生产方式的根本性转变。
智能体(agent)的崛起,以及社交机器人(social robot)的发展,显著改变了网络空间的互动模式和内容生产模式。它们不仅延伸了人的“主体意识”、模仿人的“思维能力”,还逐渐从单纯的传播中介跃升为具有一定自主能力的传播主体,在网络空间中自主参与社交互动、内容生产,甚至操纵舆论。社交机器人在推特(X)上被广泛应用,恶意机器流量泛滥,AI生成新闻网站兴起。2012年,研究发现推特有10.5%的账户是机器人,另有36.2%是机器人辅助的人类用户。2017年,美国皮尤研究中心(Pew Research Center)发现,66%的带URL链接的推文疑似由机器人账号发布。2018年,Distil Networks公司发布的《2018恶意机器流量报告》显示,2017年42.2%的互联网流量由机器产生,其中良性机器产生的流量占20.4%,而恶意机器产生的流量占21.8%。2019年的相关研究显示,与中国相关的推文中超过1/5疑似由机器人用户发布。2020年的美国大选中,数千个机器人账户试图通过发布关于候选人的推文来操纵选举结果。2023年,已有600余家AI生成的新闻和信息网站,涉及15种语言,这些网站缺乏人工监督,其内容主要或完全由机器人撰写。
尽管AIGC在内容生产中已崭露头角,但由于模型训练的高成本以及闭源的特性,其影响力始终有限,未能实质性地改变传统内容生产范式。然而,DeepSeek-R1模型的出现可能彻底改变这一局面。自2025年1月20日DeepSeek开源其推理模型DeepSeek-R1以来,超过30家媒体机构已接入DeepSeek大模型,这些媒体机构包括第一财经、潇湘晨报、江苏广播电视台等。这些媒体机构利用DeepSeek提高内容生产效率,提供新闻事件背景溯源等增值服务。北京、广东、江苏等地的政务服务系统已接入DeepSeek系列大模型。三大电信运营商、中石油、中石化、百度、腾讯等中企巨头也纷纷宣布与DeepSeek展开合作。有专家预计,从2025年到2030年,99%以上的互联网内容将由AI生成。这一预测反映了AI技术在内容生产中的潜力和未来趋势。DeepSeek的成功不仅在于其技术突破,更在于其推动了AIGC从边缘地位向核心地位的转变,加速了数字内容生产范式的重构。在可预见的未来,以DeepSeek为典型代表的AGI(通用人工智能),将凭借其强大的技术效能加速AIGC的蓬勃兴起。随着AIGC在信息传播总量中占比的不断攀升,信息传播生态将迎来全方位的重塑。从传播主体的构成来看,“人+AGI”的新型传播格局正逐步从理论构想转化为具有现实可行性的社会图景。实际上,进入智能传播时代以来,行动者网络理论所讲的“非人类”的传播主体如算法程序(algorithmic program)、社交机器人(social robot)、视频监控(video monitoring)、计算机服务器(computer servers)等在引发、引导舆论方面已经不是偶尔为之,而是系统性的改变。“非人类”的AIGC工具参与内容生产与传播,形成多元主体协同的复杂网络生态系统将成为一种必然趋势。在内容生产流程方面,AGI系统依托深度学习(deep learning)、自然语言处理(NLP)以及知识图谱(knowledge graph)等核心技术架构,构建了一个高度集成化的智能内容生产生态系统。该系统可以通过分布式数据采集(distributed data acquisition)实现对多源异质信息的获取与清洗,运用语义理解和情感分析等技术对海量数据进行深度挖掘与结构化处理,进而实现高质量内容的自动化创作。在内容分发环节,AGI通过用户画像和推荐算法的协同优化,实现了内容与受众需求的精准匹配,可以显著提升传播效率与用户参与度。这一全流程智能化生产链路(end-to-end intelligent production pipeline)不仅突破了传统内容生产模式在效率与规模上的限制,更通过持续学习与自适应优化(adaptive optimization)机制,推动内容生产向智能化、个性化方向发展,为数字时代的信息传播提供了全新的技术范式。此外,在内容质量维度,AGI凭借其强大的数据处理能力与算法优化机制,不仅能够生成更具语义深度与认知价值的内容,还可通过深度学习与迭代优化不断提升内容生产的专业性与创新性。
DeepSeek掀起的AI主流化浪潮重新定义了信息传播的实践逻辑,也为传播学理论发展提供了新的研究视域与实证基础。人类凭借独特的创造力、情感认知与价值判断,与具备超强运算能力、海量数据处理能力和内容快速生成能力的AGI相互协作、优势互补,必将共同构建起传播效率更高、内容更加多元、互动性更强的信息传播新生态。随着AIGC的蓬勃发展,这一技术革新不仅引发了数字内容生产范式的深刻变革,更将推动信息传播生态全方位重塑,开启人类与AI协作的全新内容生产时代。
二、从DeepSeek事件窥探智能时代的平台风险
回望人类历史,技术的革新往往带来深刻的社会变革。然而,人类历史同样表明,“科技发展并不会带来确定的结果”,技术进步并不代表人类进步,人类既要充分受惠于技术的进步,又要防止和减少技术给社会带来的风险和问题。按照德国社会学家乌尔里希·贝克(Ulrich Beck)等人的观点,风险实质是一种事物发展过程中损益发生的可能性,表现为不确定性与不可估量性。循此思路,AI技术越是迅速发展,越是渗入日常生活,人们就越需要认识并正视它的各种风险。DeepSeek对于互联网平台而言并非“灵丹妙药”,其本质仍未脱离生成式人工智能的范畴。作为一款全面开放代码、数据和算法的开源模型,DeepSeek在未来将融入互联网平台的内容生产以及信息分发等各个关键层面,AI技术也将从量变走向质变,技术巨头主导的、具有垄断性质的超级平台,已经具备公共基础设施的属性。DeepSeek可能给互联网平台带来新的问题与风险。推动DeepSeek与互联网平台良性融合,应对模型安全、数据泄露、舆论风险与虚假信息盛行等问题,已成为智能时代互联网平台治理的当务之急。
(一)模型安全与数据泄露隐患
目前,DeepSeek已陆续推出DeepSeekLLM 7B、DeepSeek Coder、DeepSeek Math、DeepSeek-VL、DeepSeek-V2、DeepSeek-V3以及DeepSeek-R1等多个开源模型。开源是指发行商以源代码的形式向公众提供用于检查、运行、修改和共享的软件。对于AI技术而言,开源意味着任何用户均有机会利用成熟的基础代码开发全新的训练模型,从而创造出更多更高阶的人工智能产品。出于保障企业机密与商业利益等因素,美国AI科技巨头的AI大模型始终坚持闭源策略,DeepSeek的出现打破了闭源大模型构筑的技术壁垒。作为推动全球AI生态发展的一股重要力量,DeepSeek凭借其先进的技术和开源理念,使AI服务从“科技奢侈品”变为“日常用品”,惠及中小企业和个人开发者,不仅加速了AI的商业化进程和应用场景的大规模崛起,同时有助于纾解“算法黑箱”等人工智能监管的部分困境。但随着开源生态的持续拓展,DeepSeek必须与种类繁多的硬件、软件以及框架实现集成与兼容。市面上硬件设备在性能、架构等方面差异显著,不同软件和框架的设计理念、接口规范也各不相同,这使得DeepSeek在进行集成时需要耗费大量的时间和精力去适配,极大地增加了技术标准化的难度。企业和开发者出于自身业务需求、技术偏好等因素,会采用不同的技术标准和规范,这就导致基于DeepSeek开发的模型在不同环境中可能出现运行异常,其可移植性和互操作性受到严重影响,极大地阻碍了模型的广泛传播和应用。
此外,当越来越多的平台接入DeepSeek,海量的用户数据也将涌入DeepSeek的大数据模型,如何确保这些数据的稳定、安全和完整是其面临的一大挑战。随着互联网和人工智能等数字技术的迅猛发展,人类社会已经进入数字经济时代,数据化成为互联网平台的重要特征。维克托·迈尔-舍恩伯格(Viktor Mayer-Sch?nbenger)和肯尼思·库克耶(Kenneth Cukier)认为,“数据化”是指互联网平台将世界上许多以前从未被量化的方面转化为数据的能力,具体表现为平台以一种系统化的方式收集和分析用户数据,然后通过应用程序编程接口(API)源源不绝地将这些数据传递给第三方,再通过用户界面传递给终端用户。DeepSeek的开源生态高度依赖众多第三方组件和库,以此来拓展功能和提高开发效率。然而,这些第三方组件和库的质量参差不齐。部分开发者缺乏对数据安全和稳定的足够重视,在开发过程中引入安全漏洞,加之模型开源容易导致数据泄露,如果一些第三方组件和库由于维护人员不足或开发团队解散,无法得到及时的更新和维护,将逐渐变得不稳定。用户数据的安全性与DeepSeek开源生态的稳定性高度绑定,一旦这些第三方组件和库出现问题,将产生骨牌效应,从而影响整个DeepSeek开源生态的稳定性和安全性。美国云安全初创公司Wiz的安全研究员加尔·纳格利(Gal Nagli)透露,DeepSeek的ClickHouse数据库处于可公开访问状态,任何人都可以访问且无须身份认证。该数据库中包含聊天记录、密钥、后端详细信息及其他高度敏感信息。虽然DeepSeek在得知存在安全漏洞后立即对其进行修复,但模型开源诱发的数据泄露风险仍值得人们持续关注。
(二)舆论风险与敏感议题引导
互联网为公共舆论提供了广阔的表达平台,与此同时,其动态多变的特性对传统治理模式形成了冲击,也给国家治理带来了全新的挑战。DeepSeek作为一种具有海量参数与复杂结构的大模型(large model),拥有强大的语言处理极速响应和推理能力,能够针对用户的提问进行高效且自然的语言对话交互,为信息交互和知识探索开启了新维度。互联网平台接入大语言模型不仅能够有效提升用户的交互体验,而且可以指令大语言模型完成客服咨询、内容总结、数据分析等工作项目,这会在降低互联网平台的人工成本的同时,提升平台的运行效率。商业垄断互联网平台已经涉及社会生活的方方面面,成为日常生活的基础设施,拥有连接资源的人们可以随时调用多样化的平台来进行信息的索取和意见的表达。DeepSeek自然语言对话的交互方式具有较强仿真性,对于“颜色革命”等存在舆论风险的议题,DeepSeek的自然语言对话也能起到一定的推波助澜作用。不少用户曾尝试向DeepSeek询问一些比较敏感的政治话题,但DeepSeek或不置可否,或根据我国官方立场回答问题,这一现象引发了广泛讨论。虽然DeepSeek受到我国的信息技术管控,可以通过关键词过滤等方式识别敏感内容,但内容的权变性使得任何单一的监管方式都面临失效的风险。
互联网平台接入DeepSeek后带来的不确定性反映了平台治理研究的重要性。不同于现实社会自上而下的传播格局,互联网平台的开放协作协议以及基于智能技术建立的社会连接能力,使其具有了强大的舆论生成与社会动员功能,从而促进传播权力向“个体”回归。以往被压抑在个体层面的社会情绪得以在互联网平台释放,并自下而上地形成具有合法性和正当性的社会舆论,倒逼权力机关进行回应。治理者所忌惮的不是舆论,而是舆论背后捉摸不定的权力意志,舆论以“代表民意”的口号出现,但其代表的究竟是真实的民意,还是“少数人的大声疾呼”,甚至是利益集团的商业谋划,在舆论爆发之初,这一问题很难回答,纵使通过溯源分析澄清了舆论发端的真实属性,权力机关可能也错失了回应舆论诉求的黄金窗口期,致使社会共识的弥合陷入被动境地。由此可见,平台治理的本质并不是治理互联网平台,防止别有用心之人利用互联网平台的传播环境煽动舆论对敏感议题的讨论,维护网络意识形态安全,将是互联网平台大规模接入DeepSeek后,我国平台治理体系的主要发展方向和题中应有之义。
(三)虚假信息盛行与“说谎者红利”现象
AI的最新进展可能加剧虚假信息的多样性和病毒式传播,使内容创建过程自动化。深度伪造(deepfake)、假新闻(fake news)和虚假信息(disinformation)或许将充斥整个互联网。操纵性内容的制作成本非常低,而且很容易大规模生产。鱼龙混杂的信息充斥网络空间,导致一些政治参与者对可靠的信息也产生怀疑,由此形成了一种“说谎者红利”(liar’s dividend)现象,即政客或公众人物可以通过声称真实事件和新闻为假新闻或深度伪造来维持公众对其自身的舆论支持。在生成式人工智能技术赋能的深度伪造与多模态合成技术持续演进背景下,特朗普式政治传播所依赖的“谎言重复即真理”机制正在呈指数级增强。这种“虚假信息扩散的正向激励”(disinformation incentive spiral)正在重构数字公共领域的博弈规则。当生成式对抗网络(GAN)与强化学习结合形成自进化内容生产闭环,传统事实核查机制的响应速度已滞后于虚假信息裂变周期,导致“零日虚假信息”(zero-day disinformation)漏洞的常态化风险。更值得警惕的是,AIGC的认知战武器化趋势正在突破传统信息战边界,这种精确到个体神经反应级别的信息操控(neuro-targeted influence)正在催生新型数字威权主义。然而,当前治理框架的滞后性却形成了危险的真空期,并给社会带来潜在的风险,若不建立跨平台的实时溯源联邦学习框架(federated provenance learning)和基于区块链的内容DNA图谱,这种“合成认知污染”(synthetic cognitive pollution)的系统性风险将持续攀升,最终导致尤尔根·哈贝马斯(Jürgen Habermas)所警示的“交往理性”(communicative rationality)在数字公共空间彻底瓦解。
此外,“说谎者红利”并不局限于政治领域,当互联网平台接入DeepSeek等AI技术实现算法赋能,内容生成门槛的降低不仅提升了内容生产效率,也使得处于社会面的“说谎者”更容易生产虚假信息,进而增加维护社会秩序的成本,这一点在DeepSeek爆火之前的“西安爆炸”事件中就可见一斑。互联网是开展舆论斗争的重要场域。“过不了互联网这一关,就过不了长期执政这一关。”然而,“说谎者红利”与虚假信息盛行等技术赋权与信息异化的伴生现象,对舆论生态和话语秩序构成了严峻挑战,割裂着舆论事实的认知图景,操纵着舆论话语的公共导向,绑架着舆论价值的社会信任。在群体武器、时空脱域、数据围猎的三重作用下,舆论生态出现异化,呈现出舆论载体“武装化”、舆论主体“脱域化”、舆论客体“失控化”的特征。
(四)新的技术伦理难题:“AI幻觉”
DeepSeek掀起的AI主流化浪潮为全球信息传播格局注入了革新动力,在提升内容生产效率和传播精准度的同时,也带来“AI幻觉”(AI hallucinations)这一技术伦理难题。当前,AIGC在语义理解与内容创作过程中存在的不可控偏差现象,已引发学术界对智能传播可信度及责任边界的深度探讨。何为“AI幻觉”?目前学界并没有一个统一的清晰定义。一般而言,“AI幻觉”指的是人工智能系统在处理输入、决策或执行任务时产生无意义或与输入不一致的内容。“AI幻觉”的问题早在ChatGPT上已经显现。有学者研究ChatGPT在完全由其生成的研究提案中的“AI幻觉”频率,分析了其178个引用,其中许多引用缺少DOI(数字对象标识符),部分引用无法追踪或不正确,证明了ChatGPT在提供可靠的研究引用方面存在明显的局限性。学者认为“AI幻觉”可能对决策产生负面影响,并引发相应的伦理和法律问题。为解决这些问题,需要通过多样且准确的数据改进训练模型,但在此之前,研究人员应谨慎采用ChatGPT生成的引用。有学者也以ChatGPT为研究案例,对收集到的243条失真的AIGC信息(包括问题和答案)进行了系统分类,研究确定了ChatGPT的8种一级错误类型,即“过度拟合”“逻辑错误”“推理错误”“数学错误”“毫无根据的捏造”“事实错误”“文本输出错误”和“其他错误”,在此基础上又进一步细分为31个二级错误类型。
AI技术为学术研究注入了前所未有的效率动能,却也在全球学术界引发了一场深层次的学术信任挑战。当前AIGC平台已能够批量生成高仿真的学术参考文献——从虚构的权威作者姓名、国际期刊名称到格式规范的DOI编码,甚至可对引用数据进行统计学意义上的精准伪造。在学术生产链条中,参考文献作为学术体系的基石文献(backbone literature),其真实性直接决定研究结论的可验证性与可复现性。此类算法生成的“学术幽灵”的泛滥,可能诱发多米诺骨牌式的学术诚信崩塌,后续研究者在不知情状态下引证这些无中生有的学术文献,将导致错误知识以病毒式传播,使整个学科领域的知识图谱产生结构性偏差。为此,科技行业分析师本尼迪克特·埃文斯(Benedict Evans)在推文中将ChatGPT形容为“一个自信的扯淡的家伙,可以写出非常有说服力的废话”(ChatGPT is like a confident bullshitter:it can write very plausible-sounding nonsense)。埃文斯的评价反映了当前关于AIGC的普遍争议,他并非否定技术本身,而是强调这类模型的本质是“统计概率生成文本”,缺乏对事实或逻辑的真实理解,生成看似合理但实际错误甚至离谱的内容。
目前各类大模型在运行过程中均难以避免出现“AI幻觉”问题。独立评测平台Vectara2025年2月11日更新的“大模型幻觉率排行榜”显示,GPT-4o、DeepSeek-V2.5、Google Gemini-2.0、Amazon Nova-Micro-V1等几乎市面上所有的大模型在总结文档时都会产生“幻觉”,它们的幻觉发生率介于0.7%与29.9%之间。重要原因之一在于推理模型的多层次非线性复杂架构,让少量错误的数据标注在层层迭代下,像滚雪球一样不断放大,最终出现答非所问、信息虚假的问题。实践中,DeepSeek等AI技术的幻觉发生率也与其使用场景息息相关,在逻辑推理、代码生成、翻译润色等方面,其幻觉率通常较低,但在需要严格准确性并更多使用专业术语的领域,如法律咨询、医学处方、学术论文撰写等方面,则应谨慎使用,因为这类使用场景幻觉发生率明显更高,造成的不良后果也更加让人难以接受。此外,除了使用大量文本数据训练的大语言模型(Large Language Model,简称LLM)容易出现“AI幻觉”问题,文生视频大模型,如Sora,存在同样的问题。研究者通过对Sora官网展示的48个文本生成视频进行分析发现,有相当一部分视频出现不符合现实的“AI幻觉”现象,如东京樱花盛开和下雪同时出现的场景违背季节性规律。不仅雪降落得过于均匀,人物穿着也不符合天气情况。在当前生成式人工智能技术呈指数级跃迁的背景下,整个社会都将面临AI技术带来的“AI幻觉”困局——这种由算法黑箱与数据偏差引发的认知失真现象,已对信息传播的保真度构成系统性威胁。
更令人担忧的是,凭借其在成本效益、运行效率和开源模式上的显著创新优势,DeepSeek生成高保真的深度伪造内容的边际成本正在趋近于零。广泛普及是否会进一步加剧当前存在的“AI幻觉”现象?这一潜在风险亟待学界与行业通过长期追踪与系统性研究予以持续关注。
三、平台责任“空心化”与智能时代平台主体责任的重估
媒介思想家威廉·弗鲁塞尔(Vilém Flusser)认为,在模仿特定思维过程的意义上,所有的装置都是“计算”的机器,都是某种“人工智能”。DeepSeek等大语言模型也是一种“装置”,这种“装置”不仅改变了人与工具的关系和人与世界的关系,也改变了人类社会的权力结构:权力从物的拥有者向装置的编程者和操作者转移,从物件向符号转移。人类社会权力结构的变化让智能时代的平台责任面临“空心化”趋势。平台责任“空心化”是指互联网平台内容生产主体向AI技术转移后导致的平台责任弥散化趋势,主要表现为平台内容风险责任的不明晰与无规范。这种“空心化”趋势可以从技术、法律和伦理三个维度进行解析。从技术维度看,DeepSeek等AI大模型通过海量数据训练和深度学习,能够独立生成复杂且具有语义连贯性的内容,而不完全依赖于预先设定的规则,具有高度的技术自主性和内容生成能力。此外,模型在运行过程中可能产生开发者难以预见或控制的输出,当生成内容引发争议或造成损害时,DeepSeek的技术自主性导致责任主体模糊化,人们难以明确是开发者、使用者还是AI大模型应承担内容生产责任,责任归属变得更加复杂。从法律维度看,责任归属的复杂性加剧了平台主体责任“空心化”趋势。AI技术的运作涉及研发机构、部署平台、用户以及监管机构等多方主体,形成了一个复杂的责任网络。互联网平台的传统治理框架主要基于“平台—用户”的二元责任结构,但在DeepSeek等AI技术的使用场景中,传统的框架难以有效应对多主体参与和责任链条弥散化的挑战,使得各方主体容易规避法律义务,从而形成责任“空心化”。这种复杂性已经超越了传统法律框架的解释范畴,亟待构建适应技术特性的新型责任归属范式。从伦理维度看,AI技术的自主性以及由此导致的责任“空心化”将动摇社会大众对DeepSeek等AI技术的信任基础。一方面,技术自主性可能导致生成内容偏离社会伦理规范,而责任“空心化”则使得纠正这种偏离的机制面临失效的风险。另一方面,互联网平台和技术开发者可能利用责任“空心化”趋势,将技术风险引发的矛盾冲突向外转移,这不仅损害用户权益,还可能引发更广泛的社会伦理危机。
“空心化”趋势不仅挑战了现有的法律和伦理框架,也凸显了重构AI治理机制的必要性。未来需要通过增强技术透明性、完善责任分配机制、引入多方协同治理等方式,实现技术自主性与主体责任的动态平衡,从而遏制“空心化”趋势的蔓延。在此背景下,推动DeepSeek与互联网平台的良性融合,进而实现有效的平台风险防控和治理,已成为智能时代互联网平台治理的当务之急,“如何治理”以及“治理什么”也成为AIGC内容全面主流化之后互联网平台治理工作的“元问题”以及主要责任。
英国技术哲学家大卫·科林格里奇(David Collingridge)在《技术的社会控制》(The social Control of Technology)中提出了“科林格里奇困境”(Collingridge’s Dilemma),即一项技术如果因为担心不良后果而过早实施控制,那么技术很可能就难以快速发展。反之,如果控制过晚,技术已经成为整个经济和社会结构的一部分,就可能走向失控,再来解决不良问题就会变得昂贵、困难和耗时间。科林格里奇的观点为AIGC内容全面主流化背景下“如何治理”互联网平台提供了重要的理论支撑和方法论指导。依循科林格里奇所言,治理DeepSeek的关键在于时机的把握,应根据DeepSeek的主流化进程,探索“先发展,再治理”和“边发展,边管理”两种节奏的灵活组合。不宜操之过急、过早控制,更不能过度控制,以防止伤害新技术的正常发展和社会普及,但也不能放任自流,而需要在理论探讨和治理对策方面未雨绸缪。
此外,随着生成式人工智能技术加速向社会生产领域渗透,AIGC全面主流化已成为不可逆转的趋势。在此背景下,构建与之适配的互联网平台治理体系与责任分配机制,特别是对智能系统内容生产边界进行科学界定与动态管理,设置AIGC的“内容生成防火墙”,正成为全球数字治理领域的核心课题。目前,为确保内容生成符合伦理规范,同时避免产生争议性内容,DeepSeek无法回答涉及个人隐私、政治宗教、非法活动以及需要主观判断或个人意见的问题。这些带有约束性质的“出厂设置”划定了DeepSeek的内容生产边界,这既是确保内容生成安全可靠、符合社会价值导向的必要保障,同时可以为未来智能时代AIGC内容全面主流化之后的互联网平台治理提供重要参考——在保障技术创新活力的同时,通过可解释、可追溯、可调控的技术治理架构,实现人机协同内容生产与数字文明共建。
治理不同于管理,其核心在于通过良性引导实现有序发展,而非依赖强制性约束手段。有学者认为,权力机构以强制性的行政手段直接管理互联网平台的监管机制,有时不仅不能解决各类新问题,还容易引发新的冲突。根据何塞·范·迪克(José van Dijck)等人的观点,在平台社会,社会秩序不再局限于线下的机构和组织,而是越来越多地与互联网平台集群交织在一起。社会如果想要创建一个可以反映和构建民主秩序的平台结构,就需要努力在平台生态系统的设计中实现公共价值和集体利益,良性引导也往往建立在社会大众共同认同的价值理念和集体利益之上。在各大互联网平台全面接入DeepSeek等AI技术的智能时代,理想的互联网平台治理图景应当以互联网平台为首要责任人。平台应协同权力机构和社会组织共同构建具有前瞻性的三位一体价值坐标系:以社会公共价值为核心发展轴线,以国家数字主权为安全保障基线,以社会公序良俗和集体利益为伦理约束边界,同时市场、国家和社会组织应为实现平台社会的公共价值和集体利益共同承担责任。这一治理体系既要保障用户流畅自如地运用DeepSeek等AI技术进行日常化的内容生产,进而实现互联网平台内容生产的范式转型,也要通过大模型的多模态语义识别系统和动态知识图谱的协同运作,对非常态的人机信息交互进行分层级伦理审查,规范化地限制AI技术的内容生产范围,从而实现技术创新与价值导向的校准式平衡发展。这种双效驱动的发展模型不仅体现了技术向善的伦理自觉,更彰显了数字文明新形态下工具理性与价值理性的辩证统一。
四、智能时代传播秩序的建构与治理
克利福德·G.克里斯琴斯(Clifford G. Christians)曾言:“在技术崇拜的时代,我们所面临的危机不是对规则的违背,而是无规范的真空(the vacuum of normlessness)。”学者郑永年也认为人工智能已经显示出其强大的制度毁灭能力,但人们仍未发现其制度建设能力。在新制度确立遥遥无期的情况下,个人“原子化”的趋势正在加快和加剧。面对ChatGPT、Sora和DeepSeek等具有里程碑意义的人工智能工具带来的对原有社会秩序的巨大冲击,恰如2024年诺贝尔物理学奖得主杰弗里·辛顿(Geoffrey Hinton)所担心的,人类目前社会的组织方式(无论是国家层面,还是全球层面)很可能难以应对人工智能的挑战。
目前,私有民营性质的大公司或跨国集团(平台公司)是人工智能领域的主导力量之一,人工智能产品的私有性质与产品所天然具备的“准公共服务”属性充满矛盾和张力。就国内层面而言,平台公司通过对技术的垄断,间接地掌控了信息的生产,从而实现了“权力的转移”,拥有了某种对抗国家权力、解构主流话语的可能性。就国际政治层面而言,平台公司有意或无意地充当着国家利益代理人的角色。技术演进的不可预测性与平台公司在不同层面扮演的角色的多元性与复杂性使得平台治理一定是一个动态的规制演进。整个社会越来越趋向于何塞·范·迪克所说的“平台社会”和乌尔里希·贝克所提出的“风险社会”的融合,由此可以预见的是,未来,对DeepSeek等平台的规制是重建智能时代传播秩序的重中之重。
面对DeepSeek等AIGC平台对智能时代秩序的冲击以及它们带来的技术伴生风险与问题,应明确治理的关键在于对介入时机的把握,探索“先发展,再治理”和“边发展,边管理”两种节奏的灵活组合。治理的理念也要从“技术为王”转向“负责任治理”,通过建构有效的制度体系与监管创新来实现系统性治理。在技术治理层面,构建算法可控性基础设施,在国家层面制定算法透明性强制标准,参照欧盟《人工智能法案》高风险系统披露规则,强制要求AlGC平台(如大语言模型、文生视频模型、自动驾驶系统等)向监管机构及利益相关方披露训练数据构成,进行数据溯源审计与制定偏差控制方法,确保技术可控性与社会可解释性。同时,可以在AIGC平台内置嵌入式治理工具,在模型层植入可追溯水印如DeepSeek的生成内容标记,部署“伦理强化学习”框架,构建多模态伦理过滤引擎,对暴力、深度伪造等违规输出实施分级拦截,拒绝提供自杀方法指南等。此外,在模型开发阶段植入不可篡改的以区块链为存证的“数字指纹”,实现人工智能生成内容(文本/图像/视频)的跨平台溯源与追责。在法律规制层面,建立弹性监管体系。在2023年国家互联网信息办公室制定的《生成式人工智能服务管理办法》的基础上,针对AIGC平台实施分类分级监管,将AI应用划分为“禁止类”(如颠覆政权)、“特许类”(如医疗诊断)、“备案类”(如推荐算法)等,实施梯度准入。同时建立法律层面的溯源问责机制,明确“开发者—部署者—使用者”责任链:开发者承担基础模型缺陷责任,使用者对恶意滥用负直接法律责任。此外,大模型开发平台要保留模型训练全周期日志,司法部门可溯源追查数据缺陷的原始责任方。
党的十八大以来,以习近平同志为核心的党中央高度重视我国新一代人工智能发展。习近平总书记曾深刻指出,“人工智能是引领这一轮科技革命和产业变革的战略性技术,具有溢出带动性很强的‘头雁’效应”,“加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题”。进入智能时代以来,全球历经的数次重大技术突破,基本上都是美国企业在引领主流化进程,DeepSeek颠覆了这一基本定势。“DeepSeek时刻”及其引发的“DeepSeek效应”,打破了中国企业只善于在晚期大众化阶段后来居上的固有认知,改写了中国高科技的全球叙事。面对以DeepSeek为代表的生成式人工智能技术浪潮,应以更高维度审视其战略意涵:这不仅是单一技术赛道的竞争,更是关系到数字文明秩序重构的综合性较量。从技术主权维度,须加快构建自主可控的产业生态,围绕大模型训练框架、高性能算力集群、多模态数据集等核心要素实施攻关。从意识形态维度,要统筹数据安全与价值引导,在防范算法黑箱引发认知操纵风险的同时,推动AIGC技术与产业深度融合,打造承载主流价值的智能传播新范式。从国际规则维度,须主动参与全球人工智能治理体系建构,通过技术标准输出、跨境数据流动协议缔结、跨国技术伦理委员会共建等方式,抢占智能时代国际话语权制高点。当前,生成式人工智能技术已呈现指数级扩散态势,其引发的产业革命正在重塑全球经济版图与技术权力结构,中国应在这场技术制高点争夺战中把握主动权,避免重蹈受困于历史性技术代差的覆辙。
引用格式参考:
GB/T 7714-2015
方兴东,钟祥铭.DeepSeek与智能时代的平台治理[J].现代出版,2025(3):19-30.CY/T 121-2015
方兴东、钟祥铭:《DeepSeek与智能时代的平台治理》,《现代出版》2025年第3期,第19页至30页。MLA
方兴东,钟祥铭."DeepSeek与智能时代的平台治理." 现代出版.(3)2025: 19-30.方兴东,钟祥铭.(2025).DeepSeek与智能时代的平台治理. 现代出版,(3),19-30.来源:再建巴别塔