摘要:Gemma-3n-E4B-it 是由 Google 和 Google DeepMind 于 2025 年 6 月 26 日联合开发的轻量级开源多模态 AI 模型,旨在为移动设备和边缘计算场景提供高性能、低资源消耗的本地化 AI 能力。能够处理多模态输入,包括文
Gemma-3n-E4B-it 是由 Google 和 Google DeepMind 于 2025 年 6 月 26 日联合开发的轻量级开源多模态 AI 模型,旨在为移动设备和边缘计算场景提供高性能、低资源消耗的本地化 AI 能力。能够处理多模态输入,包括文本、图像、视频和音频输入,并生成文本输出。
教程链接:https://go.openbayes.com/DlCjt
http://openbayes.com/console/signup?r=sony_0m6v
登录 OpenBayes.com,在「公共教程」页面,选择键部署 「Gemma-3n-E4B-it:先进的轻量级开放模型」教程。
页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。
在当前页面中看到的算力资源均可以在平台一键选择使用。平台会默认选配好原教程所使用的算力资源、镜像版本,不需要再进行手动选择。点击「继续执行」,等待分配资源。
待系统分配好资源,当状态变为「运行中」后,点击「API 地址」边上的跳转箭头,即可跳转至 Demo 页面。
若显示「Bad Gateway」,这表示模型正在初始化,由于模型较大,请等待约 2-3 分钟后刷新页面。上传的视频最好不超过 10 秒,PDF 和 PPT 不超过 10 页,在对话过程中,视频和图片不能同时存在。建议每完成一次对话都点击「Clear」进行清除操作。
该模型支持多模态输入,包括文本、图像、视频和音频输入,并生成文本输出。下面是各功能演示:
图片理解
上传一张图片到模型中,并针对图片对模型进行提问,按下回车键发送。
文本对话
视频理解
音频理解
来源:小顾科技观察