一款开源版企业IM + 在线客服 + 知识库 + 工单系统 + AI问答

360影视 动漫周边 2025-03-20 01:01 4

摘要:一飞开源,介绍创意、新奇、有趣、实用的开源应用、系统、软件、硬件及技术,一个探索、发现、分享、使用与互动交流的开源技术社区平台。致力于打造活力开源社区,共建开源新生态!

一飞开源,介绍创意、新奇、有趣、实用的开源应用、系统、软件、硬件及技术,一个探索、发现、分享、使用与互动交流的开源技术社区平台。致力于打造活力开源社区,共建开源新生态!

开源版企业IM + 在线客服 + 知识库 + 工单系统 + AI问答。开源版飞书/钉钉/企业微信。

企业级多租户即时通讯解决方案,免费开源8件套:企业IM、在线客服、企业知识库/帮助文档、客户之声、工单系统、AI对话、工作流、项目管理。

:::tip 微语仍处于早期的快速迭代阶段,文档可能落后于开发,导致功能描述可能不符,以最新发布的软件版本为准 :::

使用AGPL-3.0开源协议

多渠道接入人工客服客服Agent智能体,对接自有数据,自动执行操作...方法一:克隆项目并启动docker compose容器,需要另行安装ollama,默认使用 qwen2.5:1.5b 模型git clone weiyu && cd weiyu/deploy/docker && docker compose -p weiyu -f docker-compose.yaml up -d因项目默认使用ollama qwen2.5:1.5b模型,所以需要提前拉取模型。配置文件中可以配置其他模型,如deepseek-r1等ollama pull deepseek-r1:1.5bollama pull qwen2.5:1.5b方法二:使用 docker compose ollama,默认安装ollama,默认使用 qwen2.5:1.5b 模型git clone weiyu && cd weiyu/deploy/docker && docker compose -p weiyu -f docker-compose-ollama.yaml up -ddocker 拉取ollama模型。配置文件中可以配置其他模型,如deepseek-r1等docker exec ollama-bytedesk ollama pull deepseek-r1docker exec ollama-BYTEdesk ollama pull qwen2.5:1.5b如果不需要知识库AI问答功能,可以修改docker-compose.yaml或docker-compose-ollama.yaml关闭ollama对话和嵌入功能,以节省资源# 关闭ollama对话SPRING_AI_OLLAMA_CHAT_ENABLED: false# 关闭ollama嵌入SPRING_AI_OLLAMA_EMBEDDING_ENABLED: falsedocker compose -p weiyu -f docker-compose.yaml stop

来源:一飞开源

相关推荐