摘要:人工智能(AI)是继互联网之后最伟大的技术变革。然而,许多创业者在试图拥抱这一变革时,却常常陷入各种专业术语和流行词汇的泥沼中。今天,我们就来聊聊创业者需要了解的30个最重要的AI术语,帮你轻松避开这些“坑”。
人工智能(AI)是继互联网之后最伟大的技术变革。然而,许多创业者在试图拥抱这一变革时,却常常陷入各种专业术语和流行词汇的泥沼中。今天,我们就来聊聊创业者需要了解的30个最重要的AI术语,帮你轻松避开这些“坑”。
大语言模型是当今大多数AI创新和应用背后的技术。像ChatGPT、Claude、Gemini这些工具,都是基于LLM构建的。简单来说,LLM可以通过自然语言执行各种任务,比如写文章、回答问题、生成代码等。它们就像是一个超级智能的“助手”,只要你用自然语言告诉它需求,它就能尽力完成。
提示是传递给LLM的请求。与传统软件不同,LLM的提示非常灵活,你可以用无数种方式让模型完成同一个任务。比如,你想让LLM帮你总结一篇报告,你可以直接说“总结一下这篇报告”,也可以更详细地说“提取这篇报告的关键观点,用简洁的语言写出来”,甚至可以问“这篇报告的核心内容是什么?”不同的提示方式可能会得到不同的结果。
提示工程就是精心设计你的提示,以优化任务的执行效果。虽然LLM本身就很强大,但通过一些技巧,可以让输出结果更适合特定任务。比如,给出详细指令、提供背景信息、使用结构化文本、让LLM帮助优化提示,或者直接给出例子。这些方法都能让LLM更好地理解你的需求,从而给出更精准的结果。
这是提示工程中的一种技巧,即在提示中包含任务的例子。比如,你想让LLM帮你总结论文,你可以先给它几个总结好的论文例子,这样它就能更好地理解你的需求,生成更符合你期望的结果。这种方法特别适合那些难以用详细指令描述的任务。
上下文窗口是LLM能够处理的最大文本量。虽然更多的指令和上下文通常能让LLM表现得更好,但它的处理能力是有限的。对于现代LLM来说,这个上限大约是10万字(相当于一本普通书的长度)。不过,像Gemini 1.5 Pro这样的模型可以处理100万字以上。
令牌是LLM理解的文本单位。我们看到的是单词和字符,但LLM看到的是所谓的令牌,即作为单个实体处理的字符序列。不同的模型对文本的分割方式可能不同,你可以通过一些工具来探索不同模型是如何处理文本的。
推理就是使用LLM生成文本的过程。LLM生成长文本时,是一次生成一个令牌,就像你手机上的自动补全功能一样。不过,LLM会不断选择下一个最合适的令牌,直到生成完整的回答。从成本角度看,这意味着每次生成回答时,LLM都需要运行多次,每次生成一个令牌,这可能会导致成本很高。
参数是决定LLM根据输入生成什么输出的数字。LLM的输入和输出之间的关系由这些参数定义。小的LLM可能有大约10亿个参数,而大的LLM可能有超过1000亿个参数。一般来说,参数越多,模型越“聪明”,但同时成本也越高,因为每个参数都对应计算机需要执行的操作。
温度是控制LLM回答随机性的参数。LLM在生成回答时,会预测所有可能的下一个令牌的概率(通常有5万到20万个可能的令牌)。通过调整温度参数,我们可以改变这些概率,让输出更随机(降低高概率令牌的概率,增加低概率令牌的概率)。
提示注入是指有人通过恶意提示让LLM违反规则。LLM的灵活性是一把双刃剑,恶意用户可能会发送奇怪的提示,导致LLM的行为不可预测甚至产生不良后果。比如,可能会泄露敏感数据、生成有害或冒犯性的输出,或者通过API执行未经授权的操作。
护栏是应用于LLM输入和输出的规则,用来降低提示注入的风险。你可以通过简单的基于规则的过滤器来阻止恶意提示,或者使用专门的LLM来评估最终回答,确保它符合要求。
幻觉是指LLM编造事实和引用的行为。虽然在创意写作中这可能很有用,但在许多商业场景中却会带来风险。我们可以通过良好的提示(比如要求它不要编造内容)和护栏(比如验证回答的真实性)来减少幻觉。最有效的方法之一是给模型提供完成特定任务所需的事实,这就是检索增强生成(RAG)的作用。
13. 检索增强生成(Retrieval-Augmented Generation,RAG)RAG是一种重要的AI工程技术,它可以帮助LLM根据现实情况生成回答,并为它们提供一个专门且易于更新的知识库。在RAG的工作流程中,首先会根据用户的输入,从知识库中检索相关的上下文,然后LLM结合这些上下文生成回答。
语义搜索是基于查询的含义而不是关键词进行搜索。在RAG工作流程中,确定与用户输入相关的上下文非常重要,但用户的请求通常并不是为关键词搜索优化的。因此,开发者通常会使用语义搜索,将用户的输入和知识库中的每个项目转换为数值表示(即向量),然后通过数学计算来确定它们之间的相似性。
嵌入是用于语义搜索的向量,它是一组数字,用来表示文本的含义。我们可以将它们视为定义文本在概念空间中的位置的坐标,相似的概念会聚集在一起,而不同的概念则会相隔较远。这些数字是由嵌入模型生成的,嵌入模型以文本为输入,输出嵌入向量。
文本块是文本的一个片段。虽然嵌入对于分析文本非常强大,但它们也有局限性。首先,许多嵌入模型的上下文窗口较小(例如512到8192个令牌)。其次,它们表示整个文本输入的含义,对于长序列来说可能会变得模糊。因此,通常会将源文档分解为文本块,并在这些文本块上进行检索。
向量数据库是文本块及其对应嵌入的集合。为了提高检索效率,每个文本块的嵌入会提前计算并存储在向量数据库中。在生产环境中,只有用户的查询需要转换为向量。如今,有许多向量数据库解决方案,如LlamaIndex、Cohere、Qdrant、Supabase等,这些解决方案通常会处理搜索功能,因此你不需要从头开始构建。
2025年被认为是AI代理的元年。虽然人们对“代理”的定义存在争议,但所有现代定义都有两个共同点:首先,AI代理通常是指基于LLM的系统;其次,该系统被赋予了可以执行操作的工具。这种能力非常重要,因为它允许LLM系统不仅为我们处理信息,还可以为我们解决现实世界的问题。
为了避免“AI代理”的争论,大多数开发者更倾向于讨论主动智能系统。也就是说,不要把智能看作是非黑即白的事情(有或没有),而是看作是一个连续的谱系。换句话说,LLM系统可以拥有从无(即基于规则的系统)到人类水平的智能。
由于LLM只能处理令牌,它们通过函数调用来与外部世界交互。通过函数调用可以执行一些操作,比如从天气API获取数据、搜索谷歌、发送电子邮件和运行Python代码。如今,大多数流行的模型都可以直接调用函数。例如,如果你使用OpenAI的Responses API,你可以将自定义工具的详细信息传递给模型,它会在需要使用该工具时返回函数参数。
21. 模型上下文协议(Model Context Protocol,MCP)MCP是一种将工具和上下文连接到LLM的通用方法。LLM的价值越来越依赖于它们获取正确的上下文和使用正确的工具的能力。然而,为LLM应用添加更多的集成会使系统更难构建和维护。MCP通过为所有开发者创建一个开放标准来减轻这种负担。例如,你不需要为知识库代理实现一套Google Drive功能,而是可以使用预先构建的并将其连接到你的LLM应用。
微调是通过额外的训练将模型适应特定用例的过程。到目前为止,我们讨论的构建LLM系统的方法是在LLM周围编写软件,而不改变其内部机制。虽然这涵盖了大多数AI工程,但有时还需要额外的定制。微调的关键好处是,经过微调的小型模型通常可以胜过大型模型。
蒸馏是一种特殊的微调方法。这种方法是GPT-4o-mini和Gemini 2.5 Flash等模型背后的技术。它通过从较大的教师模型(例如GPT-4o)生成数据,并对较小的学生模型(例如GPT-4o-mini)进行微调来实现。
24. 强化学习(Reinforcement Learning,RL)强化学习是模型通过试错学习的能力。在微调模型时,你通常会使用人类或LLM(或两者)创建的任务示例来训练LLM。然而,这并不是计算机学习的唯一方式。另一种方法是让模型生成输出,并对好的输出给予奖励(对坏的输出则不给予奖励)。
25. 基于人类反馈的强化学习(Reinforcement Learning from Human Feedback,RLHF)RLHF是一种通过强化学习将LLM的响应与人类偏好对齐的方法。一个著名的应用是创建InstructGPT,这是ChatGPT的前身。在这个过程中,如果模型生成的响应符合人类偏好,就会得到奖励。这使得模型成为一个“有帮助且无害”的助手,能够回答用户的各种问题。
推理模型是一种在响应之前可以“思考”的LLM。另一种强化学习的应用是创建第一个推理模型,如OpenAI的o1和DeepSeek R1。对于这些模型,与其奖励人类标注者偏好的生成响应,不如奖励模型正确回答数学或编程问题。推理模型(也称为思考模型)的一个关键特点是它们会生成特殊的令牌,这些令牌定义了一个内部独白,允许模型在回答之前“思考”问题。
测试时计算是指使用LLM的成本。推理模型中的“思考”过程之所以有效,是因为所谓的测试时计算扩展,简单来说就是LLM处理的令牌越多,其响应越好。这一发现是主动AI的关键驱动力之一,主动AI系统可以通过阅读和生成更多令牌来执行极其复杂的任务。
训练时计算是指训练LLM的成本。除了增加令牌外,我们还可以通过使LLM更大来提高其性能。这涉及到增加三个关键要素:模型大小、训练数据和计算能力。就像烹饪一样,这些要素必须成比例才能获得更好的结果。你不能只增加面粉来烤更多的面包,同样,你也不能只增加其中一个关键要素来获得更好的LLM。
预训练是从头开始训练模型的第一步。鉴于现代LLM所需的海量数据(约10T令牌,相当于约2000万本教科书),模型是在互联网上几乎所有有用的数据上进行训练的。这产生了一个所谓的基础模型,它是互联网的压缩版本,我们可以对其进行微调以使其有用。
后训练是指预训练之后的任何训练。与我们通常使用的LLM不同,基础模型对大多数应用来说并不实用。然而,它们包含了广泛且深入的世界知识,我们只需要高效地访问这些知识。最流行的方法是通过指令调优,这是一种微调方法,我们教基础模型如何遵循指令。这为人类友好地访问基础模型中存储的大量知识提供了一个界面。
大语言模型(LLM)为我们提供了一种全新的通过软件解决问题的方式。我们通常通过提示工程、RAG和护栏在预训练模型的基础上构建应用,有时我们还可以通过微调模型来满足特定应用的需求。今天,我们介绍了30个最常见的AI热词,希望能帮助你更好地理解这些概念。虽然还有很多内容没有涵盖,但希望这篇文章能为你提供一些关键的思路。
来源:正正杂说