微信扫码
与创始人交个朋友
我要投稿
2024年11月28日,阿里Qwen团队了发布了一个新模型
QwQ-32B-Preview
,QwQ表示Qwen with Questions,它是一个实验性研究模型,专注于增强 AI 推理能力。作为预览版本,它展现了令人期待的分析能力。通过笔者实际机器测试,采用2*32G显存的GPU的环境配置即可部署推理该模型。下面是关于该模型的一些介绍与总结。
QwQ-32B-Preview
的模型树见下图,QwQ-32B-Preview
的基础模型(Base model)是Qwen2.5-32B
根据模型官网介绍显示,通过深入的探索和无数的试验发现,当模型有足够的时间思考、质疑和反思时,它对数学和编程的理解就会深化。就像学生通过认真地检查自己的工作并从错误中学习变得更加聪明一样,QwQ-32B-Preview
模型通过耐心和深思熟虑的分析获得了更深入的见解。这种细致的反思和自我质疑的过程使得模型能够取得解决复杂问题的突破性进展,尤其是在数学和编程领域。通过和OpenAI o1-preview
等模型在GPQA、AIME、MATH-500、LiveCodeBench等数据集上对比,展现模型当前性能。
QwQ-32B-Preview
在数学和编程领域表现出色,但在其他领域仍有提升空间。模型性能会随任务的复杂度和专业程度而波动。我们正通过持续优化,努力提升模型的综合能力。在实际部署过程中,笔者采用了腾讯云HAI GPU云服务器,环境配置为:两卡GPU进阶型 - 2*32GB+ | 30+TFlops SP CPU - 18~20 核 | 内存 - 80GB 云硬盘 - 290GB
成功运行该模型。关于模型量化,modelscope社区中给出了gguf 的模型,对应链接为?:https://www.modelscope.cn/models/AI-ModelScope/QwQ-32B-Preview-GGUF
一些经验:
实践部署记录:
官网完整示例代码:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Qwen/QwQ-32B-Preview"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "How many r in strawberry."
messages = [
{"role": "system", "content": "You are a helpful and harmless assistant. You are Qwen developed by Alibaba. You should think step-by-step."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-06
深度使用Cursor碰到的几个问题
2025-02-06
DeepSeek被质疑抄袭?别怕!在本地部署DeepSeek R1,并添加私有知识库,支持联网搜索!
2025-02-06
Cursor帮我节约了90%的时间
2025-02-05
3步,0代码!一键部署DeepSeek-V3、DeepSeek-R1
2025-02-05
别被Deepseek低成本冲昏头!本地化部署后续的“甜蜜陷阱”,你真能扛住吗?
2025-02-05
DeepSeek-llm-7B-Chat微调教程
2025-02-05
如何用CAMEL从DeepSeek-R1蒸馏数学推理数据?手把手教你实现!
2025-02-05
完整的671B MoE DeepSeek R1怎么塞进本地化部署?详尽教程大放送!
2024-09-18
2024-07-11
2024-07-11
2024-07-26
2024-07-09
2025-02-04
2024-12-29
2024-06-11
2024-10-20
2024-09-06