摘要:基于本地的deepseek搭建个人知识库。 使用本地服务,安装嵌入模型,用于将文本数据转换为向量标识的模型。
今天分享下deepseek +本地知识库的部署。
先画个数据流程流程。
基于本地的deepseek搭建个人知识库。 使用本地服务,安装嵌入模型,用于将文本数据转换为向量标识的模型。
#命令行窗口执行拉取下即可。ollama pull bge-m3pulling manifestpulling daec91ffb5dd... 100% ▕████████████████████████████████████████████████████████▏ 1.2 GBpulling a406579cd136... 100% ▕████████████████████████████████████████████████████████▏ 1.1 KBpulling 0c4c9c2a325f... 100% ▕████████████████████████████████████████████████████████▏ 337 Bverifying sha256 digestwriting manifestsuccess根据自己的环境下载cherry studio
安装的时候,注意安装到其他磁盘,不要在c盘安装。
配置本地ollama
操作步骤:
找到左下角设置图标选择模型服务选择ollama点击管理点击模型后面的加号(会自动查找到本地安装的模型)减号表示已经选择了知识库配置
选择知识库选择添加选择嵌入模型填写知识库名称添加知识文档
cherry可以添加文档,也可以添加目录(这个极其方便),添加完以后出现绿色的对号,表示向量化完成。
搜索验证
点击搜索知识库输入搜索顺序点击搜索 大家可以看下我搜索的内容和并没有完全匹配,不过已经和意境关联上了。大模型处理
点击左上角的聊天图标点击助手点击默认助手(你也可以添加助手)选择大模型选择本地deepseek,也可以选择自己已经开通的在线服务设置知识库(不设置不会参考)输入提问内容发问大家可以看到deepseek已经把结果整理了,并告诉了我们参考了哪些资料。
满血版
差别就是大模型的选择,在模型服务里配置下在线的deepseek服务即可。
如果你的知识库有隐私数据,不要联网!不要联网!不要联网!
下载AnythingLLM Desktop
下载以后,安装的时候,注意安装到其他磁盘,不要在c盘安装。
AnythingLLM 配置
1. 点击 LLM首选项
2. 选择ollama作为模型提供商
3. 选择已安装的deepsek 模型
4. 注意下地址
5. 保存
1. 向量数据库不用动即可,使用自带的(ps:如果没有选择安装目录,默认在c盘,如果后续有需要可以挪走)
2. 嵌入模型配置
3. 可以使用自带的,也可以使用ollama安装好的
4. 配置完点击左下角的返回即可
配置工作区
新建的工作区默认会话上传知识库文档将文档拖拽到上传框。ps: 只需要拖拽一次就行了,它在聊天框能看到。不知道为什么,我这拖拽以后,没看到上传成功,然后又拖拽了几次。然后聊天框就好多份。
当然你可以配置远程文档,confluence、github都可以。
ps: 需要注意的是文档在工作区间内是共用的。
api功能
AnythingLLM 可以提供api访问的功能,这个可以作为公共知识库使用。
总结整个操作下来,AnythingLLM 的体验没有cherry好。AnythingLLM就像一个包壳的web应用(后来查了下,确实是)。AnythingLLM 得具备一定的程序思维,给技术人员用的。非技术人员还是使用cherry吧。作为喜欢折腾的开发人员,我们可以结合dify使用。
最后本文,完。觉得本篇文章不错的,记得随手点个赞、收藏和转发三连,大家感兴趣的可以关注下,后续我再研究点新东西分享给大家⭐~
来源:AIGC研究社