摘要:DeepSeek-R1模型特性:支持FP16 计算和CUDA 加速,提供 1.5B 至 671B 参数量级版本,适用于本地部署的逻辑推理、文本生成、数据分析等场景。优势:开源免费、响应速度快(本地低延迟),支持中文复杂任务处理。Ollama核心功能:简化大语言
如果您对源码&技术感兴趣,请点赞+收藏+转发+关注,大家的支持是我分享最大的动力!!!
DeepSeek-R1模型特性:支持 FP16 计算 和 CUDA 加速,提供 1.5B 至 671B 参数量级版本,适用于本地部署的逻辑推理、文本生成、数据分析等场景。优势:开源免费、响应速度快(本地低延迟),支持中文复杂任务处理。Ollama核心功能:简化大语言模型本地部署流程,支持一键下载、运行和管理模型(如 DeepSeek-R1),提供命令行界面和灵活的环境变量配置。特性:支持自定义安装路径(需修改系统变量)、多模型切换、离线运行。AnythingLLM定位:全栈 AI 应用,集成本地大模型(通过 Ollama)与知识库,支持文档/音视频/网页内容转换为上下文数据,供 LLM 调用。功能:私有化知识库构建、多工作区管理、模型与数据关联式问答。1、安装 CUDA Toolkit 步骤如下:HTTPS://developer.nvidia.com/cuda-downloads?target_os=Windows&target_arch=x86_64不用显卡跳过此步骤访问指定链接下载 CUDA Toolkit。请务必留意针对 Windows 系统的版本选项,如 Windows 10、Windows 11 等,并选择 “local” 本地安装类型,以获取最佳安装体验。下载过程需登录 NVIDIA 账号。若您尚无账号,请提前完成注册流程,确保下载顺利进行。完成 CUDA Toolkit 安装后,请重启计算机,以使所有配置更改生效,从而确保 CUDA Toolkit 能够正常运行。下载与安装:前往 Ollama 官方网站,获取 Ollama 安装程序。整个下载与安装流程十分简易,按照系统提示逐步操作即可轻松完成,在此便不展开详述。后台运行检查:安装完成并启动 Ollama 后,该程序将在后台持续运行。您可通过查看电脑右下角的系统托盘区域,确认是否出现 Ollama 的 Logo 图标,以此判断 Ollama 是否已成功在后台启动并正常运行 。Powershell 的终端中直接运行了,但是存在诸多不便之处。比如,难以对对话记录进行保存、搜索与管理,无法读取附件,并且无法集成本地知识库来实现检索增强生成等功能,极大地影响了用户体验。因此,强烈推荐大家安装一款本地 AI 应用用户界面,本文以 AnythingLLM 为例进行示范。
4、AnythingLLM 安装与配置:https://anythingllm.com/desktop下载与安装:前往 AnythingLLM 官方网站获取安装程序并进行安装。启动与设置:安装完成并启动 AnythingLLM 后,在设置中选择 “Ollama”(注意不是 “DeepSeek”)。在设置中选择 “Ollama”(注意不是 “DeepSeek”)作为 LLM Provider。此时,AnythingLLM 会自动检测本地部署的大语言模型,从中选择 “deepseek - r1:14b”。然后一直点击右键。创建工作区并开始对话:完成上述步骤后,创建一个 Workspace,随后即可开启与模型的对话之旅。进行设置保存设置
5、下载 embedding 模型步骤一:下载模型打开命令行工具。在命令行中输入指令 ollama pull nomic-embed-text,然后回车执行,等待模型下载完成。
步骤二:切换并保存模型设置找到系统左下角的相关操作入口(扳手)。
切换到新下载的 nomic-embed-text embedding 模型。
切换完成后,点击 “保存更改” 按钮,确保设置生效。
注意事项
开放 0.0.0.0 会暴露服务至公网,建议内网使用时结合 IP 白名单或 VPN 提升安全性 。若修改了模型存储路径(OLLAMA_MODELS),需确保目录权限允许网络访问 。内网穿透需谨慎暴露公网端口,建议配置 HTTPS 加密和 IP 白名单。定期清理 AnythingLLM 的无效文档,避免存储空间占用过高。来源:IT技术资源爱好者
免责声明:本站系转载,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容!