用Trae 帮我实现Langchain 搭建本地向量数据库功能

360影视 国产动漫 2025-04-05 19:59 1

摘要:首先,我们得有一点点了解怎么搭建本地知识库。简单说就是:我们加载本地文档,然后分割,向量化,保存到向量数据库。

首先,我们得有一点点了解怎么搭建本地知识库。简单说就是:我们加载本地文档,然后分割,向量化,保存到向量数据库。

它是怎么运作的呢,就是客户端提问了,我们根据提问的内容到本地向量数据库找一下内容匹配度高的几段出来,作为上下文一起丢给大模型,让大模型整合一个答案给我们。于是

第一步:我们要有一个搭建本地知识库的类

我新建了一个叫lc_localFile.py。然后在需求文档写下初级的需求

第二步:把需求丢给Trae AI。让它给我写代码。

引用了一大堆包,也不知道我安装没有,简单看了下代码,他向量化用到的大模型是我们本地Ollama部署的模型,果断先点击应用,然后换成“nomic-embed-text:latest”。

然后又看了一下代码,竟然没有暴露我要分片长度和重叠长度的设置,另外加载word和PDF文档,根据经验,应该也搞不定扫描版,不过先不管这些,搭基础框架先!

按照AI的提示,还需要安装包,竟然没有直接帮我弄好,让我点击运行,有点失落。于是我决定还是让它来干这些活。。。

还是喜欢这种只用点“应用”和“运行”的感觉。

等装完,再到test01.py里面测试一下效果:

把我上传的小说分片成了87份,然后根据我给的内容,找到了其中三个。先不管准不准吧,至少流程上是走通了啦!

下一步就是把这些整合到上下文里面,让大模型回答了。这儿其实又复杂了,因为它又涉及到用户和每一个对话了。明天再看吧~

未完待续

码字截图不易,各位大佬的点赞关注是小编持续学习的动力[比心][比心][比心]

来源:宅男娱乐

相关推荐