微信扫码
添加专属顾问
我要投稿
1. 安装Ollama
Ollama官网:https://ollama.com/
在Linux下,终端执行以下命令
curl -fsSL https://ollama.com/install.sh | sh
2. 运行大模型
本地运行 llama3.1:8b 模型,在终端中运行,首次运行会自动拉取模型文件,8b模型大概4G-5G,需要稍微等待一下。
ollama run llama3.1:8b
1. 首先安装Docker,此篇就不详细说明了,不懂的同学可以参考我过去的文章,里面有详细的安装方法。
2. Docker拉取AnythingLLM镜像,打开终端运行
docker pull mintplexlabs/anythingllm
3. 下面的命令将在本地挂载存储并在 Docker 中运行 AnythingLLM,可以全部一次性复制到终端中运行。
export STORAGE_LOCATION=$HOME/anythingllm && \ mkdir -p $STORAGE_LOCATION && \ touch "$STORAGE_LOCATION/.env" && \ docker run -d -p 3001:3001 \ --cap-add SYS_ADMIN \ -v ${STORAGE_LOCATION}:/app/server/storage \ -v ${STORAGE_LOCATION}/.env:/app/server/.env \ -e STORAGE_DIR="/app/server/storage" \ mintplexlabs/anythingllm
4. 运行AnythingLLM
(1)先检查 Ollama是否正常运行,只有 Ollama正常运行后,AnythingLLM才能正确配置和运行大模型。打开浏览器,地址栏输入:http://localhost:11434
可以看到 “Ollama is running” 。
(2)运行AnythingLLM,打开浏览器,地址栏输入:http://localhost:3001,如安装无误,可以看到以下页面。
docker ps
1. 打开AnythingLLM页面:http://localhost:3001 ,点击“Get started” 开始配置
2. 选择大模型类型,这里选 “Ollama”
3. Data handling & privacy , 这里列出了RAG过程中所选择的模型。
4. 输入电邮和使用原因
5. 建立工作空间,输入工作空间的名称: anything_ollama
6. 建立工作空间完成
7. 本地大模型配置
这里注意Ollama Base URL ,如果Ollama部署在本地电脑,官网提供几种地址方式:
8. 正确配置后,回到工作空间问答页,就可以正常对话了
9. 为了提升大模型回答问题的质量和准确性,我们通过RAG的方式,加入本地知识库。点击工作空间旁的上传按钮,打开文档上传页。
(1)选择本地文档上传到AnythingLLM。我们用几篇stm32单片机开发的资料,做RAG处理。
(2)选择文档加入到工作空间。
10. 测试本地知识库的效果
而没有这些知识库,llama3.1:8b大模型回答的效果如下。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-07
斯坦福团队开源!OpenVLA:小白也能搞机器人,100条数据就能微调!
2025-04-07
9000 字详细解读阿里万象 2.1(Wan2.1)最新技术报告
2025-04-07
实测Llama 4,究竟是王者归来,还是廉颇老矣?
2025-04-07
【AI启示录】2025 w14:文档集 + 规则库 + 循环迭代 = 好的氛围编程
2025-04-06
vllm近期更新的一些trick总结
2025-04-06
Meta Llama 4 全面解析:全新的原生多模态 AI
2025-04-06
字节跳动开源神器Agent TARS,AI自动化时代真来了
2025-04-06
一文读懂开源 Llama 4 模型
2025-01-01
2024-07-25
2025-01-21
2024-05-06
2024-09-20
2024-07-20
2024-06-12
2024-07-11
2024-08-13
2024-12-26
2025-04-07
2025-04-03
2025-04-03
2025-04-03
2025-04-01
2025-03-31
2025-03-25
2025-03-25