微信扫码
添加专属顾问
我要投稿
V2.5的时候折腾过,没成功,V2.6出来后又勾起来我的好奇心,今天终于走通了个大概吧??特此记录,端侧设备:小米10-pro。
① 首先依旧是下载模型到本地-电脑,各位可以从mdoelscope(需要注册)和HF下载(HF需要翻墙),不过也可以使用HF的镜像网站:https://hf-mirror.com/,具体下载命令如下:
pip install -U huggingface_hub
Linux: export HF_ENDPOINT=https://hf-mirror.com
Windows: $env:HF_ENDPOINT = "https://hf-mirror.com"
# huggingface中的模型较多,可以按需下载,但是mmproj-model-f16.gguf必须下载
huggingface-cli download --local-dir-use-symlinks False --resume-download OpenBMB/MiniCPM-V-2_6-gguf --local-dir OpenBMB/MiniCPM-V-2_6-gguf
# 也可以使用modelscope下载
git lfs install
git clone https://www.modelscope.cn/OpenBMB/MiniCPM-V-2_6-gguf.git
下载完成应该是下面的列表:
② 此时需要在手机上安装Termux(可以在手机上运行命令行,linux指令),我下载的是对勾这个版本:
https://github.com/termux/termux-app/releases
git clone git@github.com:OpenBMB/llama.cpp.gitcd llama.cppgit checkout minicpmv-main
④ 接下来打开手机上的Termux软件,在命令行执行下面的命令(默认的路径就是手机上的home路径):
apt update && apt upgrade -yapt install git make cmakeapt install ffmpegapt install pkg-config# 这个命令可能需要执行两次,可以将手机存储路径打开权限# 执行后会多出一个storage目录termux-setup-storage
cd storage/downloads/llama.cppmake -j 4make llama-minicpmv-cli
./llama-minicpmv-cli -m ../MiniCPM-V-2_6-gguf/ggml-model-Q4_K_M.gguf --mmproj ../MiniCPM-V-2_6-gguf/mmproj-model-f16.gguf -c 4096 --temp 0.7 --top-p 0.8 --top-k 100 --repeat-penalty 1.05 --image xx.jpg -p "What is in the image?"
参考:
1. https://github.com/OpenBMB/llama.cpp/blob/minicpmv-main/examples/llava/README-minicpmv2.6.md
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-07-08
Coze、Dify、Ragflow等AI平台对比指南
2025-07-02
基于 Ollama 多模态引擎的 Qwen 2.5 VL 模型部署及其应用
2025-07-01
Dify落地知识库场景的小思考及多模态RAG结合图像信息的几种策略评估
2025-06-30
RAG知识库构建新框架-EasyDoc小模型+多模态大模型结合的文档智能解析框架
2025-06-23
Dify v1.4.0中的Multi-Modal LLM Output:基本操作和原理
2025-06-19
搜索 ≠ 简单匹配!0代码实现语义级图文互搜
2025-06-11
AI提效99.5%!英国政府联手 Gemini,破解城市规划审批困局
2025-06-10
多模态 RAG VS 传统文本 RAG ,到底效果如何,从应用视角来测试下
2025-05-14
2025-04-27
2025-04-28
2025-05-16
2025-05-16
2025-05-25
2025-05-08
2025-05-15
2025-05-13
2025-05-12