摘要:MCP 服务可以让 AI操作各种应用,再次强化自动化工作流,释放双手!DeepSeek R1小版本升级再出圈,性能超Claude 4,AI 再次火爆!
MCP 服务可以让 AI操作各种应用,再次强化自动化工作流,释放双手!DeepSeek R1小版本升级再出圈,性能超Claude 4,AI 再次火爆!
大家好,这里是Cherry,喜爱折腾、玩数码,热衷于分享数码玩耍经验~
如果说目前 AI 圈子里最火的东西是什么,那一定是各种各样的 MCP(Model Context Protocol)服务,通过 AI + MCP的组合,可以将 AI 直接操作各种各样的应用程序,帮助我们更方便的进行工作。
而MCP hub,则是将MCP 服务整合在一起的一个工具,引用比较直观的图片,就是类似集线器的功能。
作为 7×24小时开机的NAS,天然和 AI 工作流有着高契合度,之前我也分享过 AI + N8N工作流解决日报的玩法。那么今天,我们来分享一下 NAS + MCP hub,实现MCP服务集成和代理的玩法。
项目地址:https://github.com/samanhappy/mcphub
项目特征:
广泛的 MCP 服务器支持:无缝集成任何 MCP 服务器,配置简单。集中式管理控制台:在一个简洁的 Web UI 中实时监控所有服务器的状态和性能指标。灵活的协议兼容:完全支持 stdio 和 SSE 两种 MCP 协议。热插拔式配置:在运行时动态添加、移除或更新服务器配置,无需停机。基于分组的访问控制:自定义分组并管理服务器访问权限。安全认证机制:内置用户管理,基于 JWT 和 bcrypt,实现角色权限控制。Docker 就绪:提供容器化镜像,快速部署。一、项目部署
本次项目使用铁威马F6-424 Max部署,铁威马F6-424 Max搭载 i5-1235U处理器,拥有10核12线程的强大处理能力,最大睿频可达4.4 Ghz,内存最大支持到64 GB DDR5,有6+2的硬盘配置,妥妥的性能怪兽。
因此在极客用户、小型团队、企业场景上,铁威马不仅能发挥出优秀的存储能力,更能凭借着超强的性能,为用户提供虚拟机、docker等生产力功能,也为 AI 时代的企业级服务提供本地化支撑。
部署MCP hub,我们直接使用官方提供的docker compose文件即可,如果遇到容器镜像无法下载的问题,可以铁威马控制面板的网络模块下添加代理连接,并且在添加以后重启Docker Manager和Docker Engine两个套件以获取代理地址。
首先打开铁威马的文件管理,创建一个空文件夹mcphub,然后在下面创建一个新文件,重命名为mcp_settings.json。
接着,我们复制下面的官方compose代码备用。
services:
mcphub:
image: samanhappy/mcphub:latest-full
restart: always
ports:
- "3000:3000"
volumes:
- ./mcp_settings.json:/app/mcp_settings.json
回到Docker Manager应用内,新创建一个项目,取名为mcphub,选择刚才创建好的mcphub文件夹;然后配置文件来源选择创建YAML文件,将yaml代码复制进去,选择验证YAML并应用。
二、MCPhub 与 AI 工具结合
1、配置MCP hub
打开ip:3000,使用默认账号密码admin/admin123登录系统。
选择左下角admin–Settings–Language切换到中文界面。
接着我们点开安装配置来添加python和npm的国内镜像地址,解决网络访问问题。当然,如果自己有科技的,也可以在创建容器的时候添加环境变量HTTP_PROXY和HTTPS_PRXOY。
# python阿里的镜像
# npm的阿里镜像
将上面两个地址复制到对应的位置保存即可。注意这里,必须黏贴一个保存一个,系统不支持批量保存。
接着打开上方的智能路由功能,这里需要添加嵌入式模型,我们可以使用硅基流动免费提供的BBAI/bge-m3嵌入式模型。
2、安装MCP
系统左侧的市场里,有各式各样的MCP 服务,我们可以根据自己的需求进行安装。
这里以爬虫firecrawl为例,首先我们登录firecrawl官网注册一个账号,官方会赠送一个免费的api key供我们使用,我们复制备用。
然后回到MCP hub页面,选择Web Services里的firecrawl,点击安装。
在安装页面,最下面有一个环境变量,在红框内填入我们的 api key就行了,这个类似授权。
安装完成以后,回到服务器列表,可以看到MCP 是在线状态,代表可用。
3、与AI 工具联合使用
PC的话,我目前用的比较多的是Trae和Cherry Studio。这里用Cherry Studio抛砖引玉,简单介绍一下。
打开Cherry Studio以后,点击左下角的设置,选择MCP 服务器里添加,新建一个MCP 服务器,将下面的类型修改为SSE,然后在URL里填入我们部署在铁威马上的MCP hub服务,地址为http://铁威马IP:3000/sse。
保存以后,选择工具一栏,如果看到可用工具里有MCP的指令,那就说明安装完成了。
下面,我们测试一个效果。
首先在和Cherry Studio 智能体对话的时候,选择最下方的MCP 服务器。
然后我输入指令调用Firecrawl中的工具,提炼出XXX网站的内容。可以看到DS-R1在思考过程中,已经调取了MCP hub中的工具指令,并且根据会根据当前工作选择会合适的指令,这一点其实之前我写n8n的时候也介绍过。
在指令爬虫指令过程中,可能会数次遇到失败,这是因为AI对MCP指令调用的不合理导致,但是好在AI会自动修复指令,并且尝试不同的方法,下图就是使用firecrawl中另外的工具来获取站点内容。
除了Cherry Studio中,在MCP hub中,我们也可以查看实时日志了解MCP的运行情况,比如这里就展示了AI 顺利使用firecrawl获取站点内容的信息。
总结
这个项目其实挺有意思的,它通过集成MCP 服务,实现了类似一个 MCP 代理的服务,不仅可以让我们快速查找、下载、安装各类MCP工具,还能以本地代理的方式实现集中调用。
不过缺点也有,那就是不能安装如modelscope等社区的MCP服务,对纯国内用户来说,效果不如调用社区型MCP服务好。
但是不管怎么样,利用NAS 7×24小时开机的性质,整合存储和 AI 服务能力,已经变成越来越多极客玩家的核心玩法,而如F6-424 Max这样更强的NAS ,则能带来更多的性能体现和服务支撑!
来源:可爱的小cherry