摘要:目前 主流的开源模型体系 有哪些?prefix LM 和 causal LM 区别是什么?涌现能力是啥原因?大模型LLM的架构介绍?大模型(LLMs)进阶面llama 输入句子长度理论上可以无限长吗?什么是 LLMs 复读机问题?为什么会出现 LLMs 复读机
目录
目前 主流的开源模型体系 有哪些?prefix LM 和 causal LM 区别是什么?涌现能力是啥原因?大模型LLM的架构介绍?大模型(LLMs)进阶面llama 输入句子长度理论上可以无限长吗?什么是 LLMs 复读机问题?为什么会出现 LLMs 复读机问题?如何缓解 LLMs 复读机问题?LLMs 复读机问题llama 系列问题什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?各个专业领域是否需要各自的大模型来服务?如何让大模型处理更长的文本?大模型(LLMs)微调面如果想要在某个模型基础上做全参数微调,究竟需要多少显存?为什么SFT之后感觉LLM傻了?SFT 指令微调数据 如何构建?领域模型Continue PreTrain 数据选取?领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘通用能力?领域模型Continue PreTrain ,如何 让模型在预训练过程中就学习到更多的知识?进行SFT操作的时候,基座模型选用Chat还是Base?领域模型微调 指令&数据输入格式 要求?领域模型微调 领域评测集 构建?领域模型词表扩增是不是有必要的?如何训练自己的大模型?训练中文大模型有啥经验?指令微调的好处?预训练和微调哪个阶段注入知识的?想让模型学习某个领域或行业的知识,是应该预训练还是应该微调?多轮对话任务如何微调模型?微调后的模型出现能力劣化,灾难性遗忘是怎么回事?微调模型需要多大显存?大模型LLM进行SFT操作的时候在学习什么?预训练和SFT操作有什么不同样本量规模增大,训练出现OOM错大模型LLM进行SFT 如何对样本进行优化?模型参数迭代实验 大模型(LLMs)langchain面基于LLM+向量库的文档对话 基础面基于LLM+向量库的文档对话 优化面基于LLM+向量库的文档对话 工程示例面LLMs 存在模型幻觉问题,请问如何处理?基于LLM+向量库的文档对话 思路是怎么样?基于LLM+向量库的文档对话 核心技术是什么?基于LLM+向量库的文档对话 prompt 模板 如何构建?痛点1:文档切分粒度不好把控,既担心噪声太多又担心语义信息丢失痛点2:在基于垂直领域 表现不佳痛点3:langchain 内置 问答分句效果不佳问题痛点4:如何 尽可能召回与query相关的Document 问题痛点5:如何让LLM基于query和context得到高质量的response避坑记录本地知识库问答系统(Langchain-chatGLM)什么是 LangChain?LangChain 包含哪些 核心概念?什么是 LangChain Agent?如何使用 LangChain ?LangChain 支持哪些功能?什么是 LangChain model?LangChain 包含哪些特点?LangChain 如何使用?LangChain 存在哪些问题及方法方案?LoRA权重是否可以合入原模型?ChatGLM-6B LoRA后的权重多大?LoRA 微调优点是什么?LoRA微调方法为啥能加速训练?如何在已有LoRA模型上继续训练?如何在已有LoRA模型上继续训练?Peft 和 全量微调区别?多种不同的高效微调方法对比当前高效微调技术存在的一些问题高效微调技术最佳实践PEFT 存在问题?能不能总结一下各种参数高效微调方法?【《2025最新大模型高频面试真题》hou台扣1直接拿】来源:AI大模型agent
免责声明:本站系转载,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容!