魔乐社区中的模型上传

360影视 2025-01-08 10:42 2

摘要:魔乐社区是一个一体化开源的AI平台,集成了openMind Library和openMind Hub Clinet等工具套件,携手OopenMind共同构建了一套开放的合作模式,在推动国内开源社区发展和前沿技术国产化的道路上更进一步。

handy

关于魔乐社区

魔乐社区是一个一体化开源的AI平台,集成了openMind Library和openMind Hub Clinet等工具套件,携手OopenMind共同构建了一套开放的合作模式,在推动国内开源社区发展和前沿技术国产化的道路上更进一步。

社区包括模型库、数据集和体验空间等核心组件,覆盖了自然语言处理、视觉、音频等领域。致力于打造开放共享的人工智能生态社区,提供首发原生模型、易用开发工具、丰富生态资源,帮助每一位开发者获取领先的人工智能技术,打造出更有竞争力和差异化的模型及应用。

我们呼吁国内的广大开发者能够为各项技术的国产化进一份力,让更多不同专业、不同领域的国内其他开发者也能够接触到最前沿的大模型、人工智能技术,能够更加便捷地复现相关论文成果,从而促进计算机、非计算机领域从业者接触人工智能,更进一步促进交叉学科的人工智能发展。响应魔乐社区的这一号召,在空闲时间上传了部分用到的模型,并书写了这篇上传教程。

在魔乐社区中上传模型

1.创建用户

输入手机号&验证码即刻注册。

2.访问令牌生成

登录魔乐社区后,按照图示方法:个人中心→访问令牌→创建令牌。

创建时需要选择“write”权限,同时在展示token字符串后立即复制并存储在本机,后续不会再次展示。如果token丢失,需要删除(可选,如果泄露的话,有安全风险就删除)原token,重新创建。

3.仓库创建

点击“创建模型”即刻,填写仓库信息并创建后,注意选择正确的许可证,以及私有/公开性质。点击“创建”即刻

4.模型上传

魔乐社区推荐使用python脚本上传,代码如下:

对环境的要求:openmind_hub仅支持python3.8-3.10版本,一般来说入过使用的是conda管理的虚拟环境,base环境就能满足,只需安装对应的库:

pip install openmind

pip install openmind_hub

在脚本中,“token”放置前面创建的WRITE权限秘钥,“folder_path”就是本地模型的文件夹路径,“repo_id”就是刚刚创建的仓库名称。

注意,对于本地文件夹的路径:如果是LinuxOS或者MacOS类UNIX系统,需要保证文件夹在“白名单目录”下,即在“~/”或“/root”下,或者“/”下的任何文件夹中。否则会报错

5.样例编写与测试

需要在模型文件夹中创建一个“examples”文件(注意是复数!)并在其中放置“requirements.txt”和“inference.py”文件,分别存入环境要求和推理示例代码。路径“examples/requirements.txt”或者“examples/inference.py”任何一个不存在或者路径有误都会报“... NOT Found”的错误。环境需求文件不存在会自动跳过,但是inference示例不存在则测试就会直接失败。

注意:对于一些多模态大模型,示例里无法从网页链接中读取图片,将对应代码注释掉即可;保留模型的加载过程 (model/tokenizer等),其余对图片的处理保存在注释中即可。

在选择测试环境时,选择对应的环境版本、显卡即可,例如下图:

6.模型可用性测试如何跑通样例测试 (DEBUG)

现在大模型下载动辄几十个G,且经常出现下载了无法使用的情况。而魔乐社区开设了一个模型可用性测试,可以保障开发者下载的模型是可用的,这里将介绍在进行模型可用性测试遇到的问题解决方案。

如果出现“测试失败”,则可以下载日志进行debug,调试可以在线进行,直接点击“文件”一栏,进入“examples”文件夹找到inference.py点击“编辑”即刻。修改完拉到最下方点击提交,使用默认的commit信息即可。提交成功后再点击“介绍”,重新测试即刻。上传的目标文件夹需要有README.md文件,同时其中需要指定许可证。上传报错可以通过这种方式解决。上传模型需要使用GIT LFS来传输大文件,根据官方仓库https://github.com/git-lfs/git-lfs即可安装,非常简单。

7.下载&上传小技巧

如果有服务器,推荐在服务器上进行下载、上传的操作。一方面降低对本地电脑的损耗;另一方面,服务器上“云到云”的文件传输会比本地上传快得多,只要对应网络带宽不低,基本上能达到30MB/s以上的速度,能后迅速完成。

另外,LinuxOS或者MacOS推荐安装“screen”工具,可以将下载、上传移至命令行后台,方便后续操作。

如何使用模型

社区的统一规范是,上传模型的开发者会在examples文件夹中放入需要安装的包:./examples/requirements.txt,以及可以直接运行的python代码文件:./examples/inference.py。在安装完成依赖的包环境后,直接运行inference.py即可,系统会自动下载所需的权重、配置文件到文件夹。

写在后面

我在魔乐社区中上传了包括SwinTransformer、LongFormer、LED、TaPex等经典架构在内的系列模型,不仅有原始的权重数据,也有分别在例如视觉问答、概要写作等下游任务数据集上微调后、压缩后的权重。欢迎大家来到魔乐社区,通过复现大模型,来感受科技的进步!

来源:DataFunTalk

相关推荐