微信扫码
与创始人交个朋友
我要投稿
蓝心大模型(BlueLM)是vivo精心打造的一款自研通用大型语言模型矩阵,涵盖了从十亿到千亿不同参数量级的五款模型。具体来说,BlueLM家族中的7B和1B模型特别优化以支持高通和联发科两大平台,专为端侧应用场景设计;而70B、130B和175B模型则针对云端服务和需要复杂逻辑推理的应用场景进行了特别定制。这些模型的多样性和专业性,使得BlueLM能够灵活应对各种不同的技术挑战和业务需求。
蓝心大模型(BlueLM)之所以在众多大型语言模型中脱颖而出,得益于其一系列核心特点,这些特点不仅定义了BlueLM的能力范围,也为其实用价值和应用前景提供了坚实的基础。以下是BlueLM的几个关键核心特点:
1. 多参数量级覆盖
BlueLM提供了从十亿到千亿参数量级的模型选择,这种广泛的覆盖范围使得BlueLM能够灵活适应不同的应用需求和计算资源限制。无论是在资源受限的移动设备上,还是在需要处理大规模数据的云端服务中,BlueLM都能提供合适的解决方案。
2. 跨平台兼容性
BlueLM特别针对高通和联发科两大主流移动平台进行了优化,确保了在不同设备上的高性能和兼容性。这种跨平台的设计使得BlueLM能够广泛应用于各种智能设备,为用户提供一致的体验。
3. 高性能与优化
尽管拥有庞大的参数量,BlueLM在设计时就注重性能优化,通过先进的算法和技术减少了模型的推理时间和资源消耗。这使得BlueLM在保持高精度的同时,也能在实际应用中实现快速响应。
4. 安全性与隐私保护
在人工智能领域,数据安全和隐私保护至关重要。BlueLM在设计和开发过程中严格遵循安全和隐私标准,确保用户数据的安全和隐私得到充分保护。
5. 易于集成与使用
BlueLM提供了简洁的API接口和详细的文档,使得开发者可以轻松地将模型集成到自己的项目中。这种易用性大大降低了技术门槛,使得非专业的开发者也能快速上手。
6. 多语言和多模态能力
BlueLM支持多语言处理,能够理解和生成多种语言的文本,这对于全球化的应用场景尤为重要。此外,BlueLM还具备多模态处理能力,能够处理包括文本、图像在内的多种类型的数据。
为了确保模型评估的准确性和可比性,vivo AI Lab官方选择了业界广泛认可的OpenCompass评测框架,对BlueLM模型进行了一系列的标准化测试。这些测试覆盖了多个关键领域,包括C-Eval、MMLU、CMMLU、GaoKao、AGIEval、BBH、GSM8K、MATH和HumanEval等榜单,旨在全面评估BlueLM在通用语言理解、数学解题以及编程代码创作方面的能力。通过这些细致入微的测试,我们能够深入洞察BlueLM的性能表现,从而为模型的进一步优化和应用提供坚实的数据支持。
BlueLM的应用领域非常广泛,以下是一些主要的应用场景:
1. 内容创作辅助:BlueLM可以帮助用户生成创意文本、撰写文章或博客,甚至创作诗歌和故事,提高写作效率和质量。
2. 知识问答系统:在教育和研究领域,BlueLM提供准确的知识问答服务,帮助学习者和研究人员快速获取所需信息。
3. 逻辑推理与分析:在法律、金融等需要复杂逻辑推理的领域,BlueLM能够分析和解答复杂的逻辑问题,辅助决策制定。
4. 代码生成和软件开发:BlueLM协助编写和优化代码,提高开发效率,尤其在自动化测试和代码审查方面表现出色。
5. 信息提取和数据分析:从大量文本中快速提取关键信息,助力数据分析和报告制作。
6.自动化办公:BlueLM帮助撰写和编辑官方文档、报告,甚至自动生成会议纪要和邮件回复。
BlueLM的这些特点和应用领域展示了其作为大型语言模型的多功能性和实用性。随着技术的不断进步和模型的持续优化,BlueLM有望在未来的人工智能应用中发挥更加关键的作用。
首先需要下载本仓库:
git clone https://github.com/vivo-ai-lab/BlueLM
cd BlueLM
然后使用 pip 安装依赖:
pip install -r requirements.txt
使用 BlueLM-7B-Base-32K 或 BlueLM-7B-Chat-32K,请额外安装 flash_attn:
pip install flash_attn==2.3.3
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("vivo-ai/BlueLM-7B-Base", trust_remote_code=True, use_fast=False)
model = AutoModelForCausalLM.from_pretrained("vivo-ai/BlueLM-7B-Base", device_map="cuda:0", trust_remote_code=True)
model = model.eval()
inputs = tokenizer("儒林外史->吴敬梓\n隋唐演义->褚人获\n红楼梦->", return_tensors="pt")
inputs = inputs.to("cuda:0")
pred = model.generate(**inputs, max_new_tokens=64, repetition_penalty=1.1)
print(tokenizer.decode(pred.cpu()[0], skip_special_tokens=True))
想要快速体验BlueLM的强大功能吗?通过简单的命令行操作,您可以立即开始与BlueLM的交互。以下是如何在命令行中运行我们的Demo:
python cli_demo.py
这条命令将启动一个交互式的命令行界面,让您能够直接输入指令和问题,体验BlueLM的即时响应和处理能力。
除了命令行,您还可以通过一个简单的网页界面来体验BlueLM。以下是如何启动网页Demo的步骤:
streamlit run web_demo.py --server.port 8080
执行上述命令后,BlueLM的网页Demo将在本地服务器的8080端口上运行。只需打开您的网络浏览器,输入`http://localhost:8080`,即可访问一个直观的用户界面,通过图形化操作体验BlueLM的各项功能。
官方提供了 BlueLM-7B-Chat 的 4bits 版本 BlueLM-7B-Chat-4bits。如果你的 GPU 显存有限,可以尝试加载 4-bits 模型,只需要 5GB 显存。且经过测试,BlueLM 在 4-bits 量化下仍能流畅地生成文本。
模型下载:https://huggingface.co/vivo-ai/BlueLM-7B-Chat-4bits
安装依赖:
cd BlueLM/quant_cuda
python setup_cuda.py install
加载模型推理示例:
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("vivo-ai/BlueLM-7B-Chat-4bits", trust_remote_code=True, use_fast=False)
model = AutoModelForCausalLM.from_pretrained("vivo-ai/BlueLM-7B-Chat-4bits", device_map="cuda:0", trust_remote_code=True)
model = model.eval()
inputs = tokenizer("[|Human|]:三国演义的作者是谁?[|AI|]:", return_tensors="pt")
inputs = inputs.to("cuda:0")
outputs = model.generate(**inputs, max_new_tokens=128)
print(tokenizer.decode(outputs.cpu()[0], skip_special_tokens=True))
# 三国演义的作者是谁?《三国演义》是由元末明初小说家罗贯中所著,是中国古典四大名著之一,也是中国古代历史小说发展的巅峰之作。
人工智能迅猛发展,LLM 成为智能应用创新关键。vivo AI Lab 研发的 BlueLM 性能卓越且适用性强、潜力巨大。本文以实战指南详述其部署与体验过程,助读者深入了解并运用。BlueLM 具多参数量级覆盖等优势,适应技术发展趋势,应用场景广泛,兼具多功能性与实用性。未来,BlueLM 将拓展能力边界,提供更优 AI 解决方案,期待更多人参与其探索应用,共推人工智能发展。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-01-08
百度APP评论场景AI角色设计实践
2025-01-08
Anthropic发布的MCP,彻底打开了企业级 AI 的想象空间...
2025-01-08
仅需一万块钱!清华团队靠强化学习让 7B模型数学打败GPT-4o
2025-01-08
OA集成AI大模型简单实践-我把大模型集成到致远OA中系列
2025-01-08
手机「自动驾驶」大揭秘!vivo万字综述探讨大模型手机自动化
2025-01-08
不只 5090,英伟达还发布了最小的「AI 超算」与最大的世界模型
2025-01-07
OpenAI O3揭秘:特性、创新及与O1的较量
2025-01-07
大模型推理引擎国产化思考和实践
2024-05-28
2024-08-13
2024-04-26
2024-08-21
2024-06-13
2024-08-04
2024-07-09
2024-09-23
2024-04-11
2024-07-18