摘要:现在,大家用手机的时间越来越长,对隐私安全的关注也越来越高。各大厂商也在琢磨,怎么才能让大模型直接跑在手机上。这几天写文章时,发现不少小伙伴都在问:怎么在手机上部署 DeepSeek?
现在,大家用手机的时间越来越长,对隐私安全的关注也越来越高。各大厂商也在琢磨,怎么才能让大模型直接跑在手机上。这几天写文章时,发现不少小伙伴都在问:怎么在手机上部署 DeepSeek?
既然大家都感兴趣,那今天就把我之前折腾的部署步骤整理出来,分享给大家,希望能帮到你!
安装有两种方法,如果第一种能用,别浪费时间试第二种。
打开Termux GitHub Releases页面下载termux-app_v0.119.0-beta.1+apt-android-7-Github-debug_arm64-v8a.APK。安装 APK 文件。打开 Termux 后,你会看到一个看起来像 Linux 终端的界面。接下来,我们需要配置 Ollama 运行环境。
先授予存储权限:termux-setup-storage运行后,让 Termux 能够访问你的 Android 存储系统。执行后,系统会弹出“设置”应用,找到 Termux 并手动授予存储权限。
更新软件包在安装任何工具之前,先更新软件包,就像在 Linux 上做的那样:
pkg upgrade执行后,如果提示Y/N,直接输入Y并回车。
安装 Git、CMake 和 Golang这些工具是下载和构建 Ollama 所必要依赖:
clone Ollama GitHub 仓库如果你经常使用 Termux,可以先进入你想安装 Ollama 的目录;否则,直接执行以下命令:
git clone --depth 1 https://github.com/ollama/ollama.git 进入 Ollama 目录下载完成后,切换到 Ollama 目录:
cd ollama 生成 Go 代码并构建 Ollama运行以下命令,先生成 Go 代码:
go generate ./..然后编译 Ollama(这一步耗时比较久,需要一点耐心):
go build .等待构建完成后,我们成功在手机上安装 Ollama!
注意:参数超过 3B(30 亿)的模型在手机上运行太慢,甚至可能无法加载进显存,所以别折腾太大的模型。
进入Ollama模型库,寻找适合手机的小型语言模型(SLM,Small Language Models)。一旦找到合适的模型,就可以开始跑 本地模型 了!
在 Ollama 模型库 页面,你会看到一个“复制”按钮(如果用手机访问,看不到的话,切换到“桌面视图”模式)。点击复制,等会儿我们部署时可以用的上。
下载并运行模型这里以DeepSeek 1.5B模型为例,当然你可以选择其他模型,步骤都是一样的。
运行 DeepSeek 1.5B 模型:./ollama run deepseek-r1:1.5b --verbose运行你自己选择的模型(如果你是选择其他模型时请输入对应的命令):
./ 等待下载完成这个命令会开始下载模型到你的手机上,请耐心等待。下载时间取决于你的网速,如果你用的是移动数据,确保至少还有 1.5GB 流量,否则容易翻车!
下载完成后,Termux 终端里会出现交互界面,你可以像在 PC 上那样使用 LLM。不过别对性能抱太高期待,毕竟这是在手机上运行的“小型”模型,速度肯定比不上 ChatGPT。
来源:IT生涯