用NAS白嫖8个AI平台 !含通义千问、智谱、讯飞星火、Kimi等

摘要:今天,cherry为大家一次性带来9款AI平台的逆向API接口,主打的一个就是白嫖免费、次抛、兼容性强!相比较于直接使用网页版的AI系统,AI API可以让我们对不同AI模型进行集中管理,也可以使用到不同的开发环境中,

本内容来源于@什么值得买APP,观点仅代表作者本人 |作者:可爱的小Cherry

大家好,这里是Cherry,喜爱折腾、捡垃圾、玩数码,热衷于分享数码玩耍经验~

如今,各行各业的AI平台层出不穷,模型和应用场景也越来越丰富,但是依旧有很多人没体验过LLMs AI服务,或者说没有体验过AI API的整合。

今天,cherry为大家一次性带来9款AI平台的逆向API接口,主打的一个就是白嫖免费、次抛、兼容性强!相比较于直接使用网页版的AI系统,AI API可以让我们对不同AI模型进行集中管理,也可以使用到不同的开发环境中,

该9款AI平台逆向API接口,均为LLM Red Team开发而成,LLM Red Team 意为 LLM大模型红队,为了突出大模型应用发展表象下是日益严重的安全风险,针对不同平台研发出不同的逆向方法。

包含的AI平台列表如下,聆心智能已经不能用了,所以我从列表中删除了。

Moonshot AI(Kimi.ai)接口转API find-free-api

阶跃星辰 (跃问StepChat) 接口转API step-free-api

讯飞星火(Spark)接口转API spark-free-api

阿里通义 (Qwen) 接口转API qwen-free-api

智谱AI (智谱清言) 接口转API glm-free-api

秘塔AI (metaso) 接口转API metaso-free-api

MiniMax(海螺AI)接口转API hailuo-free-api

深度求索(DeepSeek)接口转API deepseek-free-api

温馨提示:逆API是不稳定的,建议前往各平台AI首页选择付费使用API,避免封禁的风险。本文仅为内容分享,对自行部署使用导致的问题,概不负责。

由于本次部署项目较多,必须使用docker-compose(项目堆栈)来执行,因为我们选择绿联NAS私有云作为本次教程的部署设备,其它NAS支持compose的也可以参照执行。

目前我在用的机器是4盘位的绿联DXP 4800 Plus,该型号设置核心优势明显:一是5核6线程的Intel 8505处理器,比主流的N100处理器提升约40%;二是万兆+2.5Gbps网卡的组合拳,可以满足万兆高速局域网或设备直连,突破双千兆外网速率,大幅度提升数据传输速率;三是硬盘空间充足,包括4盘位HDD+2盘位M.2,满足高速存储、海量存储两大需求。

绿联NAS私有云在推出UGOS Pro新系统后,正一步步的对系统进行优化、提升,使用体验感越来越好。就以我们最常用的docker为例,支持compose堆栈、macvlan网络、docker代理、镜像库设置、自动配置路径/端口/权限等,几乎是将docker cli的功能都可视化了,极大的便利了docker用户使用体验。

除了软件越来越赞之外,绿联NAS私有云的DXP系列,涵盖了2盘位-8盘位的所有NAS型号,可供新手入门、老鸟、企业、资深极客的选择,这里我最推荐的3款分别是DXP2800(新手入门)、DXP4800(家庭最优)、DXP4800 Plus(升级款做优)、DXP6800 Pro(性价比之王)。

所有的项目镜像压缩包,我都上传到网盘里了,需要的朋友可以下载解压为.tar格式的文件,并上传到NAS中备用。

夸克网盘:https://pan.quark.cn/s/ec9ba0111fe1

阿里云盘:https://www.alipan.com/s/geDbXYS5dXT

整个项目的compose代码如下,一共有9各项目,对应的端口是8000-8008,大家可以根据自己的需要删减不同段落来部署指定的AI。

version: '3' services: qwen-free-api: # 通义千问 container_name: qwen-free-api image: vinlic/qwen-free-api:latest restart: always ports: - "8000:8000" environment: - TZ=Asia/Shanghai kimi-free-api: # Kimi月之暗面 container_name: kimi-free-api image: vinlic/kimi-free-api:latest restart: always ports: - "8001:8000" environment: - TZ=Asia/Shanghai step-free-api: # 跃问 container_name: step-free-api image: vinlic/step-free-api:latest restart: always ports: - "8002:8000" environment: - TZ=Asia/Shanghai glm-free-api: # 智谱清言 container_name: glm-free-api image: vinlic/glm-free-api:latest restart: always ports: - "8003:8000" environment: - TZ=Asia/Shanghai metaso-free-api: # 秘塔AI container_name: metaso-free-api image: vinlic/metaso-free-api:latest restart: always ports: - "8004:8000" environment: - TZ=Asia/Shanghai spark-free-api: # 讯飞星火 container_name: spark-free-api image: vinlic/spark-free-api:latest restart: always ports: - "8005:8000" environment: - TZ=Asia/Shanghai hailuo-free-api: # 海螺AI container_name: hailuo-free-api image: vinlic/hailuo-free-api:latest restart: always ports: - "8006:8000" environment: - TZ=Asia/Shanghai deepseek-free-api: # 深度求索 container_name: deepseek-free-api image: vinlic/deepseek-free-api:latest restart: always ports: - "8007:8000" environment: - TZ=Asia/Shanghai

打开绿联NAS私有云docker应用,项目名称输入ais,将上面的compose代码复制到配置中部署即可。

如果没有导入过镜像的,可以看到项目已经在下载了,等待部署完成即可。

由于逆向AI的原理和逻辑,我们无法长时间高频次的使用逆向AI API,因此项目提供了登录账号和非登录账号两种选择。一般建议大家选择非登录账号来使用,即游客账号,以确保我们的账号不会因为使用逆项目被封禁。

同时,在每一个项目的github都有详细的游客cookie抓取方法和教程,我这里就不赘述,直接把官方文档拿过来略作完善。

所有的token都将作为作为Authorization的Bearer Token值使用。(Authorization: Bearer TOKEN)

通义千问官网随便发起一个对话,然后F12打开开发者工具,从应用程序-Cookies中找到tongyi_sso_ticket的值。

月之暗面官网随便发起一个对话,然后F12打开开发者工具,从应用程序-本地存储中找到refresh_token的值。

3、跃问token

跃问官网随便发起一个对话,然后F12打开开发者工具,从应用程序-本地存储中找到deviceId的值。

接着从应用程序- Cookie中找到Oasis-token的值。最后将两串字符串拼接起来,形成【deviceId@Oasis-Token】这样的形式,注意最终结果不包括括号和两侧的引号。

进入智谱清言随便发起一个对话,然后F12打开开发者工具,从应用程序-本地存储中找到chatglm_refresh_token的值。

关于智能体接入

打开智能体的聊天界面,地址栏的一串ID就是智能体的ID,复制下来备用,这个值将用作调用时的 model/模型 参数值。

5、秘塔AI

秘塔AI搜索,登录账号(建议登录账号,否则可能遭遇奇怪的限制),然后F12打开开发者工具,从应用程序-Cookies中找到uid和sid的值,最终将两则使用-拼接,如:uid-sid。

6、讯飞星火

星火Spark,登录并发起一个对话,接着安装浏览器插件Cookie-Editor ,从Cookie获取 ssoSessionId值。注意,星火如果F12会直接跳到平白网站。

Cookie-Editor下载地址,

讯飞星火的模型可以从下列网站查询,其中botId就是model/模型值。

7、海螺AI

海螺AI,随便发起一个对话,然后F12打开开发者工具,从应用程序-本地存储中找到_token的值。

8、深度求索

深度求索随便发起一个对话,然后F12打开开发者工具,从应用程序-本地存储中找到userToken中的值。

最后1、关于多账号接入

由于单独的一个token存在使用限制,因此大家可以对不同AI都搜集一些token,然后通过,拼接使用,大致格式如下Authorization: Bearer TOKEN1,TOKEN2,TOKEN3

2、关于接口兼容规范

所有的AI API接口都准寻gpt的接口规范,最终的URL大致可以归类为以下三种

# 对话,文档解读

ip:port/v1/chat/completions

# 绘图

ip:port/v1/images/generations

# 视频生成

ip:port/v1/videos/generations

所有支持openai接口的前端页面都支持使用这些逆AI API,比如LobeChat、dify、ChatXXX-next等等。原作者推荐使用https://github.com/Yanyutin753/lobe-chat这个项目接入。

该项目部署的compose代码如下:

version: '3'

services:

lobe-chat:

image: yangclivia/lobe-chat:latest

container_name: lobe-chat

network_mode: host #默认端口3210

restart: always

environment:

OPENAI_API_KEY: key 密钥

OPENAI_PROXY_URL: 接口地址

ACCESS_CODE: 使用密码

进入系统以后,在如下位置设置API接口即可,API Key就是刚才获取的那些token,接口地址就是第二点提到的规范,模型的话有需要的就添加。

来源:什么值得买一点号

相关推荐