微信扫码
与创始人交个朋友
我要投稿
Ollama 是一个开源项目,旨在简化在本地部署和运行大型语言模型(LLMs)的过程。它提供了一系列工具和功能,使得开发者和研究人员能够更容易地在自己的机器上利用这些先进的AI模型,而无需依赖云端服务。
官网:https://ollama.com
Github:https://github.com/ollama/ollama
一、运行环境准备
Docker Hub :https://hub.docker.com/r/ollama/ollama
运行 7B 模型需要至少 8GB 的 RAM,运行 13B 模型需要 16GB RAM,运行 33B 模型需要 32GB RAM。
ollama create selfModel -f ./Modelfile
ollama pull llama3
ollama rm llama3
ollama cp llama3 self-llama3
"""
包裹文本>>> """Hello,... world!... """I'm a basic program that prints the famous "Hello, world!" message to the console.多模态模型>>> What's in this image? /Users/aid/smile.pngThe image features a yellow smiley face, which is likely the central focus of the picture.
$ ollama run llama2 "Summarize this file: $(cat README.md)" Ollama is a lightweight, extensible framework for building and running language models on the local machine. It provides a simple API for creating, running, and managing models, as well as a library of pre-built models that can be easily used in a variety of applications.
ollama list
ollama serve
cmake
和 go
:brew install cmake go
go generate ./...
go build .
更详细的说明可以在开发者指南中找到。
./ollama serve
./ollama run llama2
详细信息查看文档
查看更多集成案例,可以查看github仓库文档
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-05
一文纵览DeepSeek模型家族:从LLM到R1
2025-02-05
抱抱脸24小时复刻Deep Research,一个团队完成一个OpenAI~
2025-02-05
从0-1:DeepSeek 大模型本地部署全攻略
2025-02-05
使用腾讯 HAI 5 分钟内部署一个私人定制的 DeepSeek
2025-02-05
DeepSeek的「深度思考模式」
2025-02-05
Ollama + Open WebUI 部署自己的本地大语言模型知识库, 创建自定义 Ollama 模型.
2025-02-05
【AI工作流】Ollama本地化大模型安装
2025-02-05
【AI工作流】【喂饭】Xinference后台大模型平台搭建
2025-01-01
2024-07-25
2024-05-06
2025-01-21
2024-08-13
2024-06-12
2024-09-20
2024-07-11
2024-07-20
2024-12-26
2025-01-22
2025-01-16
2024-12-24
2024-12-20
2024-12-19
2024-11-22
2024-11-19
2024-11-13