微信扫码
与创始人交个朋友
我要投稿
在本月25日的Meta Connect开发者大会上,Meta发布了其最新Llama 3.2模型家族。同时,Llama Stack也作为一个重磅成果被推到前台。在Meta的官方陈述中,Llama Stack是一套全面的工具,目的在于简化在各种企业计算环境中部署 AI的复杂度,可以帮助开发者更简便、更快速地为不同规模的企业开发大模型应用。
1、为什么要提出这样的架构?
2、Llama Stack是什么样的?
Llama Stack的架构层次
Agentic Apps(智能体应用层)
端应用程序:这是整个架构的最顶层,代表基于大模型构建的最终用户应用程序。这些应用包括各种AI驱动的工具和服务。
Agentic System API(智能体API层) 智能体服务协调层,包含以下组件:
PromptStore(提示词库):用于管理和存储用于与AI模型交互的各种提示词。
Assistant(助手):通用的AI助手接口或服务。
Shields(防护盾):用于实现安全措施和保护机制。
Memory(记忆):用于管理AI系统的上下文和长期记忆。
Orchestrator(协调器):负责协调各个组件的工作,确保系统平稳运行。
Model Toolchain API(模型工具链API层) 模型开发和生产工具,包括:
Batch Inference(批量推理):用于大规模数据的模型推理。
Realtime Inference(实时推理):用于需要即时响应的场景。
Quantized Inference(量化推理):通过模型量化提高推理效率。
Continual Pretraining(持续预训练):允许模型在新数据上不断学习和更新。
Evals(评估):包括Harness(测试框架)、EvalData(评估数据)和Safety(安全性评估)。
Finetuning(微调):用于在特定任务上优化模型。
Pretraining(预训练):用于从头开始训练大模型。
Reward Scoring(奖励评分):用于强化学习或对模型输出进行评分。
Synthetic Data Generation(合成数据生成):创建合成数据集以增强训练。
Data(数据层)
Pretraining(预训练数据):用于初始模型训练的大规模数据集。
Preference(偏好数据):用于个性化或调整模型行为的数据。
Post training(后训练数据):用于模型训练后的优化或评估。
Models(模型层)
Core(核心模型):基座AI模型。
Safety(安保模型):专门用于确保AI输出的安保模型。
Customized(定制模型):针对特定任务或领域优化的模型。
Hardware(硬件层)
GPUs(图形处理器):用于加速AI计算。
Accelerators(加速器):其他类型的AI专用硬件加速器。
Storage(存储):用于存储大规模数据集和模型。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-05-28
2024-04-26
2024-08-21
2024-04-11
2024-07-09
2024-08-13
2024-07-18
2024-10-25
2024-07-01
2024-06-17