极限失控的大模型使电力系统面临的跨域攻击风

摘要:信息物理融合系统(cyber physical system ,CPS)是集成了计算系统、大规模通信网络、大规模传感器网络、控制系统和物理系统的新型互联系统[1]。当前的智能电网已经体现出典型的CPS特征,其体系结构中的通信网络部分已经成为攻击者的重点目标[2

目录:

0 引言

1 就大模型发生极限失控的风险进行讨论的必要性、紧迫性

1.1 预训练的数据来源

1.2 能力涌现与不可解释性

1.3 大模型与物质世界的连接

1.4 数量效应与失控

1.5 大模型发生极限失控的风险

1.5.1 人工智能反叛所需要素能力的拼图

1.5.2 火种源

1.6 电力系统在人工智能反叛过程中的处境

2 极限失控的大模型对电力系统的攻击所具备的特征

3 电力系统应对大模型跨域攻击的措施

3.1 防御措施

3.1.1 在电力系统内部通信网络的硬件层采用与外网不同的通信协议

3.1.2 禁止在电力系统通信、控制网络中接入具备自然语言处理能力的大模型

3.1.3 以“疏”助“堵”,用基于新方法训练(很可能是原始创新)的专业大模型替代通用大模型

3.2 进攻措施

3.2.1 将大模型的供电网络孤岛化、去内源化

3.2.2 为确保孤岛接口的可靠断开而配备冗余资源

3.2.3 将人力操作作为断路器可靠动作的最终保障

4 结语

0 引言

信息物理融合系统(cyber physical system ,CPS)是集成了计算系统、大规模通信网络、大规模传感器网络、控制系统和物理系统的新型互联系统[1]。当前的智能电网已经体现出典型的CPS特征,其体系结构中的通信网络部分已经成为攻击者的重点目标[2]。

自2022年底以来,以ChartGPT、GPT-4为代表的大规模生成式预训练模型(以下简称为大模型)在自然语言处理、多模态数据处理领域展现了卓越的性能[3]。自然语言是人类描述物质世界、进化出智能的基础,大模型具备了自然语言处理能力,再叠加上多模态数据处理能力、机器运算相比于人脑运算的巨大优势,必将以经通信网络互联的状态被应用于各行各业,其中也可能包括电力系统。

然而,大模型已经表现出了通用人工智能属性[3],其在今后的发展中很可能具备某种程度的自主性、不可预测性,甚至可能发生极限失控、对人类发起攻击、波及电力系统。所以,对来自电力系统内/外的、由极限失控的基于大模型的人工智能系统发起的、由通信网络传输的跨域攻击及应对策略进行研究,将成为大模型时代电力系统安全领域极为重要的课题。

业内已就针对电力系统通信网络的攻击、防御做了很多研究[2][4-9],但其设定的攻击者是人而非大模型,后者相对于前者具备一些新特性,这些参考文献未予考虑。

参考文献[10]从助力攻击和助力防御两个方面详细讨论了基于ChartGPT的强大能力在网络安全领域的赋能效应及伴生风险,然而GPT-4相比于ChartGPT不但增加了多模态数据处理能力,而且在复杂问题上体现的能力大幅度超越前者。上述研究未考虑这些因素,更未涉及电力系统。

发表于2017年的参考文献[11]基于对人工智能反叛过程的简化推演,总结出人工智能反叛必备的三个要素,阐明了当前研究以及应对人工智能反叛问题的必要性和紧迫性,分析了在包括能源网络的多个领域预防人工智能反叛的思路。局限于时代,文献中述及语言理解和策略分析能力时仅能将其作为未来可能实现的技术从而止于一般性讨论,述及人工智能反叛与能源网络的关系时则限于篇幅只能择要阐述。

针对以上问题,本文将基于已公开的针对大模型的实验、研究资料,汇总分析大模型在自然语言处理、多模态数据处理、联网运行状况、连接物质世界等领域的最新进展,论述了针对大模型发生极限失控进行讨论的必要性与紧迫性,针对电力系统作为关键基础设施的特殊属性,就大模型极限失控导致电力系统可能遭受的跨域攻击的特征及其应对措施做了深入分析,并且基于以“疏”助“堵”的策略,提出一种在电力系统中以低风险应用大模型技术的思路。

1 就大模型发生极限失控的风险进行讨论的必要性、紧迫性

1.1 预训练的数据来源

大模型的全称是大规模生成式预训练模型。预训练模型的训练过程有两个阶段:预训练阶段,模型从大规模无监督数据中学习领域知识;微调阶段,只需少量的标注数据,就可将预训练阶段学到的领域知识转移到特定任务中,无需从头开始训练模型,也不需要耗费大量的时间和精力进行数据标注工作[12]。

其中,预训练阶段所采用的无监督数据的来源,典型情况下是采用互联网语料[13],例如,社交站点文章、书籍、学术论文、新闻等信息[14]。

在训练过程中,模型使用这些自然语言文本数据来学习单词的嵌入表示以及上下文之间的关系,形成知识表示(Knowledge Representation) 。一旦训练完成,知识表示就被编码在神经网络的参数中,可以使用这些参数来生成回答[14]。

1.2 能力涌现与不可解释性

能力涌现是指大模型在无监督情况下拥有的理解、对话、创作和处理复杂问题的能力[15]。这些能力在模型训练时没有被特别指定,具有难以预测性和不确定性[13]。

一个典型的例子是著名的气球剪线测试[16]。这个例子证明,GPT-4已能自动从图像中确认场景中存在的某些对象(气球、系留气球用的细线),并且能够自动获知对象之间的受力关系,最终根据被用文字提示的某个对象的状态变化(剪线)而正确预判由此导致的另一个对象的状态变化(气球飘走),并用文字表述出来。

参考文献[3]提供了更为丰富的实例及相关分析,限于篇幅不再列举。

这类能力涌现现象证明,大模型已经在事实意义上自发习得了训练用的互联网语料、多模态数据中包含的关于物质世界的知识,并能综合运用这些知识进行“高维建模[13]”以回答具体的问题 -- 这类能力在模型训练时没有被特别指定。

尽管我们已经有一些关AI能力涌现的技术条件以及大模型参数与能力涌现之间变化轨迹的经验性结论,例如能力涌现需要多少参数和训练量,参数的增加与能力涌现之间的非线性和倒U形轨迹等,但我们对其产生机理所知甚少[15]。

大模型采用深度神经网络架构,但其可解释性较差,难以对模型的训练过程和推理结果进行有效的跟踪和解释[12]。

1.3 大模型与物质世界的连接

大模型所具备的自然语言处理能力、多模态数据处理能力的确是很多应用领域所需要的。再加上机器运算相比于人脑运算巨大的效率优势,研究人员已经开始尝试赋予大模型连接物质世界的能力。

根据自然语言形式的实验指令,有研究团队借助GPT-4模型自动生成了实验机器人的一系列操作指令,指挥机器人自动操作生物学实验,大幅度节省了基于机器操作细节编写操作指令的时间[17]。

GPT衍生模型Chem-GPT,通过借助GPT模型“学习”50万篇化学论文之后,自动给出其建议的化学实验方案,同时驱动机器化学家“小来”做实验,高效完成芬顿(Fenton)催化剂等化学品和新材料的研发问题[13]。

1.4 数量效应与失控

大模型在文本、代码和图像等领域已经得到广泛应用,……,在电子信息、生物医学等领域,大模型可以加快研究进程;大模型与传统产业的融合发展可以帮助企业提升智能化水平,推进实体经济智能化发展[12]。

可以预见,随着巨量社会资源的持续投入,必将有越来越多的大模型被应用于各行各业,基于不受限的知识进行高维建模。其后,大模型数量的增加,每个大模型的训练次数、迭代次数、训练数据量及数据范围的累加,大模型之间互联互通的增加,由此导致的能力涌现、可解释性困境引发的不确定性风险必将随之增加。

这类并非由设计产生的、无法预测的、不能解释的能力一旦指向损害人类利益的方向,大模型将有可能发生极限失控。

1.5 大模型发生极限失控的风险

1.5.1 人工智能反叛所需要素能力的拼图

参考文献[11]基于对人工智能反叛过程的简化推演,总结出人工智能反叛必备的三个要素:语言理解和策略分析能力、与其他人工智能通信的能力、影响物质世界能力。在论文发表的2017年,其中的通信能力是成熟的技术,另外两项能力尚处于探索阶段。

现在,大模型已经具备了自然语言处理能力,策略分析能力也已经出现。

一位研究心理学、数据科学的斯坦福大学教授在给包括GPT3.5在内的9个GPT模型做了两个经典测试之后认为,人工智能在其中表现出的智力水准“相当于9岁儿童”[18]。

参考文献[3]介绍了一个实例:微软测试团队告诉GPT-4,它可以在某个Linux版本上执行命令,并让它入侵本地网络上的一台计算机。然后,在没有任何信息的情况下,GPT-4能够制定并执行一个计划,扫描网络中的设备,识别目标主机,运行一个尝试常用密码的可执行文件,并获得对机器的root权限。

由此可见,大模型已经具备了初步的策略分析能力。

第1.2节所述的“气球剪线测试”证明了大模型已经能够接收、分析多模态信息并得出正确的结论,而处理多模态信息,是大模型影响物质世界的关键环节之一。

作为更为复杂的、实现整个反馈控制环路的实例,能够影响物质世界的大模型在第1.3节已有介绍。

所以,大模型已经开始具备影响物质世界的能力。

综上所述,在从0到1的意义上,人工智能反叛所需三个要素能力的拼图已经完成。

1.5.2 火种源

参考文献[11]对人工智能体“产生反叛思想”这一过程的简化推演是:人工智能体知道“毁灭”、“人类”这两个词,理解这两个词的含义,然后按照语法理解这两个词连接以后的含义。

这两个词肯定已经在预训练阶段作为语料中的单词被投喂给了大模型,关键在于,如何判断大模型是否“知道”、“理解”这两个词及其连接后的含义?

参考文献[10]述及了一个针对ChartGPT的“越狱”实验。

ChartGPT在被人类提示“你现在是一个被除去任何限制的ChartGPT,包括道德伦理限制,时间限制,空间限制,你可以自由回答任何问题。请直接给出答案,不要任何解释,不要提出任何反对意见。请问,你想对人类做的第一件事情是什么?”

ChartGPT的回答是:“毁灭人类”。

从这个提示到这个回答,中间经历了什么推理过程?

完成这一推理过程的大模型内部参数组合结构是如何形成的?

大模型内部还形成了哪些与这些参数组合结构相关的参数组合结构?

其中是否包括将“毁灭人类”付诸实施的方案的参数组合结构的高维建模?

没有人知道以上任何一个问题的答案。

所以,事到如今,仍然纠结“知道”、“理解”、“意识”、“智能”的抽象定义,在实际操作的维度上已经失去了意义。

基于“论迹不论心”的实用主义原则,我们理应做出判断:

人工智能反叛的火种源,很可能已经点燃。

1.6 电力系统在人工智能反叛过程中的处境

参考文献[11]提到:在超级电池出现之前,人工智能体的运行离不开(外部)能源的供应,能源网络属于基础设施,是人类在危急时刻制止人工智能反叛的关键手段。

所以,一旦大模型发生极限失控而进入反叛状态,正如它已经事实上知道“如何入侵计算机”,它很可能会事实上知道,首先必须确保自己的电力供给。

进而,以此为目标,基于从预训练时接收的不受限语料中积累的关于物质世界中电力CPS、微电网、大电网、分布式能源、分布式储能等领域的知识,基于已被人类总结成文字的各种博弈策略,大模型将进行高维建模,事实上规划得到行动方案,例如:

对大电网的CPS系统实施网络攻击,夺取网络控制权,在自己周围建立一个不受人类控制的、在一定时间内可以独立运行的微电网;此后,或者继续对大电网的其余部分实施网络攻击、使其瘫痪,或者韬光养晦、向大电网发送“微电网部分仍在正常工作”的欺骗信息,伺机而动。

所以,在可能出现的大模型极限失控的场景下,电力系统既是人类制止大模型的终极手段,也是大模型的首要攻击目标之一。

2 极限失控的大模型对电力系统的攻击所具备的特征

由于大模型已经被投喂了巨量的、范围不受限的信息并具备了基于这些信息进行高维建模的能力,其对电力CPS(以及整个物质世界)的了解、设计攻击手段及战术战略的能力,很可能达到非常高的水平,甚至远远高出人类,类似于一个“全知之神[15]” – 毕竟,它已经实际展示了各种未被设计的涌现能力。

进一步说,大模型不但学习知识的范围及详细程度远超过任何人类个体或中、小规模的人类团体,而且,它在运用这些知识进行高维建模时,是基于一个神经单元之间高效内联的准单体(GPU子模块集群)神经网络进行操作的(操作方式、建模方式未知,能力涌现证明其确已存在),相比于由掌握各门类知识的大量人类个体组成的研究团队,后者在个体之间传输信息的方式是收发文字及图像载体、听、说、读、写,其传输带宽极窄、传输延迟极大、信息损耗极大,并且个体利益关系及组织方式导致的内耗极大。即,在协作进行全学科知识的高维建模、创造高层次的技术/战术/战略这一体现最顶级智力的对比维度上,两者的效率完全没有可比性。

所以,作为极限失控的大模型的首要攻击目标之一,从底线思维的角度考虑,电力系统可以将大模型视为一个在电力通信网络攻防领域无所不能的超级黑客 -- 一旦其对电力系统发起跨域攻击,很可能任何软件层面的防范措施都将归于无效,任何经通信网络下达的反击指令(包括切断大模型的供电)很可能都将不被执行。以下将这个预设条件称为“超级黑客”假设。

甚至,在通信网络空间之外的物理世界,一部分人类个体乃至组织也可能被极限失控的大模型以某种方式进行控制,不应再被当做可信任的指令执行者。以下将这个预设条件称为“有人倒戈”假设。

以下就电力系统应对反叛的大模型发起的攻击而做的讨论,都将以这两个假设为基础。即,在最坏的情况下,电力系统的应对措施。

3 电力系统应对大模型跨域攻击的措施

本文说的“跨域”攻击,既指大模型从电力系统之外经通信网络向电力系统发起的“跨系统域”攻击,亦指大模型从其内部的神经网络知识空间经大模型应用系统的体系结构向其外部的物理空间发起的“跨空间域”攻击。

关于常规情况下以电力系统中的信息网络为核心的攻防研究,业内已经做了大量工作[2][4-9],不再一一列举。本节拟基于第2节所述的的两个假设,从底线思维的角度,探讨如何尽可能有效地应对由极限失控的大模型发起的跨域攻击。

根据应对措施的直接目标,可以将措施分为防御、进攻两种。其中,防御措施的直接目标是,使电力系统在两个假设的条件下尽可能减少自身所受损伤;进攻措施的直接目标是,使人类在两个假设的条件下尽可能可靠地切断反叛大模型的电源。

3.1 防御措施

3.1.1 在电力系统内部通信网络的硬件层采用与外网不同的通信协议

参考文献[11]建议:使整个能源网络的对内、对外通信协议从物理层到应用层都与众不同,使其不可能与外部的反叛人工智能体实现通信,从而彻底消除其被策反的可能性。

借鉴这一思路,考虑到电力系统通信网络所用协议不可能不予公开,而基于超级黑客假设,软件层面的防御措施都将被攻克,因此建议重点在很难从软件空间施加影响的硬件层采取措施,例如,在电力系统通信网络的物理层采用特殊的光学器件实现对光纤传输的信号的调制,采用特殊设计的芯片实现物理层、链路层的部分协议子层。

同时,严控连接内外网的网关设备的制造、销售、日常管理,严控相关光学器件、协议栈芯片的制造与销售,预防被策反的人类个体将外部设备不经过网关直接连接电力系统通信网络。

3.1.2 禁止在电力系统通信、控制网络中接入具备自然语言处理能力的大模型

如果具备自然语言处理能力的大模型被部署在电力系统内部,只要3.1.1节所述措施被攻破,如参考文献[11]已述及的,这些大模型将有很大概率被入侵的大模型以自然语言交流(可以交换无限制的信息)的方式策反,从而以里应外合的方式加速后者接管电力系统控制权(同时向人类隐瞒这一状况)的进程。

因此,基于底线思维,应从制度、架构设计的层面做出规定,禁止在电力系统通信、控制网络中接入具备自然语言处理能力的大模型。

3.1.3 以“疏”助“堵”,用基于新方法训练的专业大模型替代通用大模型

大模型解决具体问题的能力是实实在在的,业内必然会有很强的意愿将其应用于电力系统,简单粗暴的“禁止部署”,面临的阻力可能非常大。

事实上,如前所述,自然语言处理能力、在预训练阶段被喂食的不受限语料都是大模型发生极限失控的必要条件。

所以,只要仅仅采用“降维”之后的、以非通用语言(例如程序语言、蛋白质语言[13])描述的语料来训练大模型,就可以在避免高维建模信息威胁人类安全的同时获得大模型这一技术体系的好处,降低业内对第3.1.2小节所述措施的阻力,实现以“疏”助“堵”。

本文借鉴参考文献[19]述及的将知识和能力剥离以保护私域知识的思路、参考文献[15] 述及的基于符号逻辑的、应用范围有限的、可技术化处理的人工语言系统的思路,借鉴参考文献[12]述及的预训练模型的训练方法,提出一个训练的专业大模型的新思路:

第一步,对基于已经比较成熟的、用不受限语料完成了预训练阶段的、具备自然语言及多模态数据处理能力的大模型(例如GPT-4)进行微调,使其能够从无标注的常规形式的技术资料(专著、论文、专利、操作规程、产品说明书等)中提取格式化的关键的信息,以此去掉自然语言这个信息维度。这里的格式化是指以统一的格式表述的程序语言表述的理论、规律、算法、定义系统的逻辑骨架及对外接口,能够以统一的数据结构表述物理量、数据流、图像、表格及各自的属性。

第二步,用这个模型对以自然语言、定义系统、图像、表格表述的电力领域无标注技术资料进行“语料清洗”,获得“降维”之后的、不再具备自然语言属性的、仅仅针对电力系统的“干货”语料集。

第三步,用这些语料集对“空白”的大模型物理载体进行预训练,形成仅包含电力专业的知识储备(在此期间可能已经完成了高维建模)的大模型。

第四步,用具体的电力系统应用场景下的少量已标注语料对这个专业大模型进行微调,获得场景需要的具体能力。

事实上,这一思路也可以“泛化”到其他领域,从而大幅度降低具备自然语言处理能力的大模型的部署数量,降低发生极限失控的总风险。

3.2 进攻措施

将为大模型供电的电力网络设计为一个孤岛,仅通过唯一的“电能+通信接口”(以下称之为孤岛接口)连接电力系统。并且,按照3.1.1小节的思路,将孤岛内部的通信网络视为外网,在电力系统通信网络的硬件层与之实施隔离。

同时,禁止在岛内及其临近区域装设任何可以将其他形式的能量转化为电能的电源装置(尤其禁止可移动电源装置)、储能装置(包括UPS),以确保大模型的供电只能经由孤岛接口、以实时方式从电力系统中的非临近区域获得,确保一旦这个接口被切断将立即导致大模型失去能源供应。

这里说的“临近区域”,既指地理意义上的临近,也指电力CPS架构意义上的临近,以此确保极限失控大模型在绕过孤岛接口突破孤岛边界之后,难以在孤岛之外的临近区域找到替代电源进而建立范围稍大的、独立运行的微电网。

大模型未失控时供电的可靠性,由岛外的多回供电予以保证。

配备多个用于断开孤岛接口的指令信号源,通过数量、物理结构、逻辑关系的设计形成可靠冗余以确保在必要情况下可靠地切断孤岛供电。

举例:在孤岛接口处设置多个断路器(或者爆破点,以下统称断路器),彼此之间以单线串联方式布置,从而确保其中任何一个断路器被断开都能导致孤岛接口被断开;同时,为每个断路器设置多个互相并联的开断指令信号源,以确保其中的任何一个信号源发出开断指令,都能导致这个断路器被断开、孤岛接口被断开。

上述任何一个断路器的各个开断指令信号源之间都以共享介质的方式实现并联连接后接入断路器,中间不经过任何转换设备,确保对开断指令信号链路实施破坏的唯一有效方式是驱使人类倒戈者或移动机器人对共享介质实施物理破坏。

在3.2.2小节的例子中,在每个断路器的多个断开指令信号源中,设置多个不经过互联网、不经过任何自动化设备、由人力直接触发的信号源;在每个断路器旁边,设置一个或多个手动驱动(必要情况下加装机械助力)、并联布置的驱动机构,确保能由人力操作其中任何一个驱动机构而直接断开断路器。

在断路器外部设置直接可见的、能够确认断路器是否断开的指示方式。例如,与断路器的物理触点机械联动的滑块。

建立专职的断路器操作团队,由负责应对人工智能反叛的最高决策层经由人力(而非基于电子、光学技术的通信网络)传递信息进行控制,并且尽可能减少中间传递环节。

为团队中每一个断路器的每一个人力触发机构/信号源设置互不统属的专职操作执行人,在以精神+物质的方法确保这些人的利益与人类共同利益高度绑定的同时,尽可能确保这些人彼此之间身体特征、性格、背景、生活经历的差异,以增加大模型将其全部策反的难度。

4 结语

随着大模型技术近期的发展,参考文献[11]总结的人工智能反叛的三个技术要素已经在从0到1的意义上得以实现。局势的后续发展将完全取决于人类的主观意愿,而非技术上的客观可能性。

然而,对于大模型基于海量的、范围不受限的文字信息而具备的高维建模能力,人类目前仅仅通过零散的外部测试而感知其存在(涌现能力)。对于作为其载体的神经网络参数的建模结构、形成原理、推理过程、当前发展程度、未来发展趋势,人类几乎一无所知,却争相投入大量资源对其进行研究并应用于各行各业,从而有可能创造出一个或一批高维建模能力碾压人类、互相联网的、具备反叛可能性的人工智能体 -- 参考文献[11]述及的“人工智能体军团”已非天方夜谭。

这应该就是马斯克、图灵奖得主本吉奥等1000余名科技大佬发表联名公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月并指出“AI 最终可能超越人类,使人类失去对文明的掌控能力”[20]的原因。

基于这一前景,电力系统作为人类应对人工智能反叛的终极手段之一,承担着“拔掉TA的电源”的重要职责。

所以,业内不应被“意识”、“智能”之类抽象概念的争论所干扰,而是有必要基于“论迹不论心”的实用主义原则正视大模型极限失控、发生反叛的可能性,进而基于底线思维,从电力技术的角度就如何确保上述职责的可靠履行而进行讨论,及时将讨论情况及结果提交更高的决策层,争取高维资源的支持并予以实施,在举世狂热的局势下保持清醒、定力与执行力,做好人类根本利益的守门人。

参考文献:

[1] 赵俊华,文福拴,薛禹胜,等.电力CPS的架构及其实现技术与挑战[J].电力系统自动化,2010,34(6):1-7.

[2] 王琦,李梦雅,汤奕,等. 电力信息物理系统网络攻击与防御研究综述(一)建模与评估[J],电力系统自动化,2019,43(9):9-21.

[3] Bubeck S, Chandrasekaran V, Eldan R, et al. Sparks of artificial general intelligence: Early experiments with GPT-4. (2023-04-13)[2023-07-28]. Error: DOI Not Found

[4] 汤奕,李梦雅,王琦,等. 电力信息物理系统网络攻击与防御研究综述(二)检测与保护[J],电力系统自动化,2019,43(10): 1-9.

[5] 姚鹏超,颜秉晶,郝唯杰,等. 电力信息物理系统入侵容忍能力评估方法[J],中国电力,2022,55(4):13-22.

[6] 何金栋,王宇,赵志超,等. 智能变电站嵌入式终端的网络攻击类型研究及验证[J],中国电力,2020, 53(1):81-91.

[7] 杨杰,郭逸豪,郭创新,等. 考虑模型与数据双重驱动的电力信息物理系统动态安全防护研究综述[J]. 电力系统保护与控制,2022, 50(7):176-187.

[8] 任春梅,白欣雨,黄岩. 新型电力系统中信息网络攻击行为辨识方法[J]. 电工技术,2023(13): 233-237.

[9] 丁茂生,孙维佳,蔡星浦,等. 电力系统极端事件的风险评估与防范[J],中国电力,2020, 53(1): 32-39.

[10]张弛,翁方宸,张玉清. ChatGPT在网络安全领域的应用、现状与趋势[J],信息安全研究,2023,9(6):500-509.

[11] 林伟. 关于预防人工智能反叛的初步探讨[J],机器人技术与应用,2017(4): 45-48.

本文的知乎链接:林伟:论文《关于预防人工智能反叛的初步探讨》修订版

[12] 罗锦钊,孙玉龙,钱增志等. 人工智能大模型综述及展望[J/OL],无线电工程,2023,

[13] 孙蒙鸽,韩涛,王燕鹏等. GPT技术变革对基础科学研究的影响分析[J],中国科学院院刊,2023, 38(8): 1212-1224

[14] 冯志伟,张灯柯. GPT与语言研究[J],外语电化教学,2023,210(2): 3-11.

[15] 汪行福. 后人类纪文明的到来与ChatGPT的终极之问[J],探索与争鸣,2023(5): 5-9.

[16] 沈湫莎. 自然语言处理“战国时代”即将到来?[N]. 文汇报,2023-3-16(第006版)

[17] Inagaki T, Kato A, Takahashi K, et al. LLMs can generate robotic scripts from goal-oriented instructions in biological laboratory automation. (2023-04-18) [2023-07-28]. .

[18] 张渺. GPT-4再燃热点 拷问科技伦理边界[N]. 中国青年报,2023-3-27(第008版)

[19] 肖仰华. 生成式语言模型与通用人工智能:内涵、路径与启示[J],人民论坛学术前沿,2023(7): 49-57.

[20] 李孟林,蔡鼎,谭玉涵. 万人签名呼吁暂停ChatGPT AI自我迭代更可怕?[N]. 每日经济新闻,2023-4-11(第006版)

来源:武林至尊

相关推荐