AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


硬核升级!在Ollama中使用Llama3.2视觉模型
发布日期:2024-11-10 21:30:11 浏览次数: 1593 来源:AI未来智能宇宙



 2024年11月6日,Ollama发布了0.4版本,新增支持在本地加载和运行Llama3.2视觉模型,包括11B和90B两个大小的版本。”


01

快速入门

1. 下载安装Ollama 0.4版本

下载地址: https://ollama.com


2. 运行Llama3.2视觉模型:

ollama run llama3.2-vision


3. 如果你的电脑配置足够强大,通过以下命令运行90B模型:

ollama run llama3.2-vision:90b


4. 要将一张图片添加到提示词中,可以拖动并释放它到终端中(Windows),或在Linux上将图片的路径添加到提示词中。


注意:Llama3.2视觉模型11B需要至少8GB的VRAM,而90B模型则需要至少64GB的VRAM。

02


使用示例

1. 手写识别

2. 光学字符识别(OCR)

3. 图表和表格

4. 图片问答

03


使用方法

1. 首先拉取模型:

ollama pull llama3.2-vision


2. 调用Python库

可以通过Ollama Python库在代码中调用Llama3.2视觉模型

import ollama
response = ollama.chat(model='llama3.2-vision',messages=[{'role': 'user','content': 'What is in this image?','images': ['image.jpg']}])
print(response)


3. 调用JavaScript库

也可通过Ollama JavaScript库在代码中调用Llama3.2视觉模型

import ollama from 'ollama'
const response = await ollama.chat({model: 'llama3.2-vision',messages: [{role: 'user',content: 'What is in this image?',images: ['image.jpg']}]})
console.log(response)


4. 通过cURL调用

还可以通过cURL命令在命令行中调用

curl http://localhost:11434/api/chat -d '{"model": "llama3.2-vision","messages": [{"role": "user","content": "what is in this image?","images": ["<base64-encoded image data>"]}]}'


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询