微信扫码
和创始人交个朋友
我要投稿
掌握本地AI部署的关键技术,实现高效推理与智能交互。 核心内容: 1. Ollama本地大语言模型运行工具的安装与使用 2. ChatBoxAI多功能AI聊天助手的安装与应用场景 3. DeepSeek R1开源大语言模型的特点与部署方法
Ollama 是一款本地大语言模型(LLM)运行工具,支持用户在本地设备上下载、管理和运行 AI 模型,而无需依赖云端服务。它提供简单的命令行接口,支持 DeepSeek R1、Llama 等多种开源模型,并可结合 GPU 加速,实现高效推理。Ollama 适用于 离线 AI 交互、代码补全、文本生成 等应用场景,是本地 AI 部署的理想选择。
下载安装Ollama
,到官网https://ollama.com/download/windows
下载对应的安装包,默认安装。
安装成功后,在cmd
中输入ollama --version
检查安装是否正确,提示版本号表示安装成功。
ChatBoxAI 是一款开源的多功能 AI 聊天助手,支持本地和云端大语言模型(LLM),允许用户与 AI 进行交互。它兼容 Ollama、GPT-4、Claude、Mistral 等多种模型,并提供插件扩展、消息存储、自定义指令等功能。ChatBoxAI 适用于日常聊天、编程助手、知识查询等场景,界面简洁,支持多平台使用,是本地 AI 聊天应用的理想选择。
安装ChatBoxAI
,到官网https://chatboxai.app/zh
下载对应版本软件安装。
查看本机配置,自己知道什么配置最好,如果不知道,用鲁大师,CPU-Z
,
DeepSeek R1 是 DeepSeek AI 推出的开源大语言模型,专注于增强推理、编程和数学能力。它提供 14B(140亿参数) 和 32B(320亿参数) 两种版本,支持 中英文对话、代码补全、逻辑推理 等任务,并优化了思维链(CoT)推理能力。DeepSeek R1 兼容 Ollama、vLLM、TGI 等推理框架,可在本地部署,适用于 离线 AI 交互、编程辅助 和 自然语言处理(NLP) 任务。
在Ollama
主页找到DeepSeek R1
,版本选择32b
,其实我这电脑也就跑到14b
,可以安装一下试一下每秒多少token
。
复制32b对应的安装代码,在cmd
中输入ollama run deepseek-r1:32b
,从服务器摘取模型,32b,大概20G左右需要下载一会儿:
下载LLM Stadio
:
实践证明32b跑不起来,差不多1-2个token,没法用。
再下个14b:ollama run deepseek-r1:14b
本地运行大模型(如LLaMA、ChatGLM、Stable Diffusion等)通常需要强大的计算能力,而显卡(GPU)是关键组件之一。要充分利用显卡的计算能力,通常需要 CUDA 和 cuDNN 进行加速。
CUDA(Compute Unified Device Architecture)是 NVIDIA 专有的并行计算平台,它允许开发者利用 GPU 进行通用计算(GPGPU)。深度学习框架(如 PyTorch、TensorFlow)通常基于 CUDA 进行计算加速:
cuDNN 是 专门为深度学习优化的 NVIDIA 库,它在 CUDA 之上提供了一组高效的 GPU 计算优化:
检查本机是还正确安装了cuda,在cmd下输入nvcc --version,如果正确显示版本信息,就说明正确安装。
在cmd下输入nvidia-smi
,可以显示当前的显卡适配cuda
的最高版本,可到官网下载对应版本cuda,最高支持cuda12.6,我下载的是12.3版,下载地址:
https://developer.nvidia.com/cuda-toolkit-archive
再安装cuDNN
,下载地址:
https://developer.nvidia.com/zh-cn/cudnn
cuDNN
下载时需要使用Nvidia
开发者帐号,按要求注册一个,就可以正常下载。下载成功后,解压缩到cuda安装目录。我电脑cuda位置是C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.3
把cuDNN下载的包解压缩至这个目录就可以了。安装成功后,再测nvcc -V,可以看到版本信息。
配置好cuda,ollama运行时,GPU就会占用一部分。
cpu、gpu、内存均被占用。
在chatbox设置里模型提供方选Ollama api,模型中选择deepseek r1:14b或者选8b,保存。
来个测试,2024年高考数学二最后一道大题,看他能不能解出来。
本地版不支持多模态,用gpt把它转成文字:
再让它来解答,deepseek r1有个思维链,显示思考过程。我的电脑不太行,这个思考过程让我等不到他思考结束。
思考一会,还会发现自己算错了,再去找那里错了,修改后再去计算。可能这个模型不太适合进行数学计算,我把这个题发到在线的,看它能不能解出来。
在线的不能提供服务:
把同样的题给chatgpt,似乎很快得出结果:
具体结果不做展示。
Cline 是 VS Code 上的一款插件,主要用于 代码补全 和 智能代码生成,可以通过 Claude AI 提供更强大的代码补全、解释和优化能力。
特点:
安装方式:
在 VS Code 扩展市场 搜索 Cline,安装后登录 Anthropic Claude 账号 即可使用。
当然Cline也支持本地的Ollama模型,在设置中选择API Provider选择Ollama,Model ID选择能用的模型,就可以进行代码补全操作。
使用 Deepseek r1:8b模型,回答质量很差,基本办法使用。
这个插件再试一下调用官方api试一下效果。
最近Deepseek大火,官网上不去,现在硅基流动提供DeepSeek api服务,免费送2000万token额度。注册地址:
https://cloud.siliconflow.cn/i/JPgtFsMs
或者使用我的邀请码:JPgtFsMs
。
注册好帐号,创建API密钥:
CLine设置如下:
模型提供商为OpenAU兼容,baseURL为https://api.siliconflow.cn/v1
,模型ID,复制下面的ID。
为:deepseek-ai/DeepSeek-R1
,保存。测试一下满血的R1。
可以使用,速度不快。不知道什么原因一直卡,可能是网络原因,也可能是使用的人比较多。
Continue 是一款开源的 VS Code 插件,提供 AI 辅助编程,支持多种 AI 模型(如 GPT-4、Claude、Llama 2、Mistral 等),可以用于代码补全、调试、解释和优化。
特点:
安装方式:
在 VS Code 扩展市场 搜索 Continue,安装后配置 API Key(如 OpenAI API 或本地 AI 模型)。 VS Code安装continue插件:
插件安装成功后,选择ollama,会自动填加本地的ollama模型。
在模型下拉中选上8b。
同样的问题,在continue插件上速度比较快,很快出你想要的东西,不卡。
提出修改意见,也能很快修改。
使用过程,8g显存占用7.1g,运行比较流畅,可以放在内网环境做为代码助手。
又使用了contiune的硅基流动千问32b,也比较流畅。
这2个插件推荐使用Continue,本地ollama和deepseek api均可。
本地跑r1,最好有显卡支持,没有显卡纯CPU,试试就好,用起来有点费劲。3070ti 8g版能流畅跑deepseek r1:7b或8b,再高就跑不起来。14b显存到少要12g,32b显存要24g,3090,4090,或者魔改版的2080。
在写这些文字时,跑了个14b,等一会没反应,回头再看,已经运行起来,速度也速可以,比8b慢,每秒20多token吧。
那就是上面提的配置要求可以再降一档。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-22
DeepSeek R1 全系列模型部署指南
2025-02-22
DeepSeek 满血版在 IDEA 中怎么用?手把手教程来了
2025-02-22
开源力量!轻松上手 Xinference:让DeepSeek-V3/R1满血私有化推理触手可及
2025-02-22
Cursor 如何使用本地搜索获取海量信息
2025-02-22
DeepSeek将开源每日工作代码,聊聊背后的开源精神
2025-02-22
这款流行 AI 工具被盗用挖取加密货币,这些隐患你需要知道
2025-02-22
大语言模型后门攻击指南
2025-02-22
20家平台接入,DeepSeek-R1 满血版整理(全网最全)
2025-01-01
2024-07-25
2024-05-06
2025-01-21
2024-09-20
2024-07-20
2024-08-13
2024-06-12
2024-12-26
2024-07-11
2025-02-18
2025-02-15
2025-02-15
2025-02-12
2025-02-07
2025-01-22
2025-01-16
2024-12-24