AI知识库 AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


Kubernetes 与 AI 共生:探索爬坑记
发布日期:2024-06-29 11:14:21 浏览次数: 1564

ZHDYA(七哥),9年互联网一线K8S从业者,专注分享K8S生态为主的实战经验,助力大家更高效、可靠地构建和管理容器!

最近更新:K8S架构、公有云、持久化存储、HELM、CICD、负载均衡、监控告警、可观察性、服务治理、架构探索等文章。


写这篇文章的主要目的呢,也是深受近期所看到的一些AI文章的渲染,自己也参加了一些公开的线下技术讨论会的启发。在这些交流与碰撞中,不难发现,AI 技术的迅猛发展正以前所未有的速度重塑着我们的技术生态,而 Kubernetes 作为现代云原生基础设施的基石,其与 AI 的融合成为了不可忽视的趋势。今年,被广泛认为是 AI 技术迈向新阶段的元年,不仅见证了众多令人兴奋的 AI 项目开源,也催生了关于如何在 Kubernetes 这一平台上更高效、安全地部署和管理 AI 应用的深入探讨。借助如上这些数据,今天我们从多个方面来聊一下,Kubernetes 在 AI 应用中面临的挑战、应对策略,以及 AI 如何反过来赋能 Kubernetes 的运维管理,同时挖掘现有技术中 AI 所带来的更多可能性与机遇。

Kubernetes 在 AI 应用中的挑战

在今年的 KubeCon 上,我们看到了很多关于 Kubernetes 如何服务于 AI,充当控制平面的实例。NVIDIA 在主题演讲中谈到了动态资源分配给 AI 工作负载,展示了 Kubernetes 如何优化 GPU 等资源的使用,以加速机器学习和深度学习任务的执行。这意味着 Kubernetes 在这里是作为支持 AI 发展的基础设施,确保高效、灵活地管理计算资源。

反之,另外一个层面考虑到了,AI 为了 Kubernetes 而存在,这可能意味着利用 AI 技术来优化 Kubernetes 本身,比如通过预测分析自动调整集群资源,或者使用 AI 驱动的监控系统来预防故障,提升系统的自我维护能力。

下面我来通过几个现有场景的真实例子来聊下 AI 应用中的挑战:

一、资源调度的智能化挑战

Kubernetes 作为一种容器编排平台,具有许多独特的优势,尤其是其弹性伸缩的能力,可以实现底层资源的超高利用率。当下的科技产业界,到处是大模型推理、微调训练的需求与 NVIDIA 专业显卡一卡难求的矛盾局面。在这种矛盾背景下,将 NVIDIA 显卡与 K8S 容器平台结合起来,组成一个高效的 GPU 算力调度平台,无疑是解决这一难题的最佳技术方案。这种结合将充分发挥每块显卡的算力,并通过 Kubernetes 的弹性伸缩特性,实现对 GPU 算力的灵活调度和管理,为大规模 AI 模型的训练和推理提供了可靠的基础支持。

那么谈到调度,咱们少不了的要提及 NVIDIA 的虚拟化方案 Time-slicing、MPS(Multi-Process Service)以及 MIG(Multi-Instance GPU),这几个技术还是比较关键的,因为这些技术直接关乎如何在 Kubernetes 环境中高效利用 GPU 资源,特别是在 AI 工作负载日益复杂和多样化的背景下。

1)NVIDIA Time-slicing(时间切片)

优点:

  • 资源共享:允许在多个容器或虚拟机之间动态分配 GPU 资源,即使资源紧张也能保证每个任务获得一定比例的 GPU 计算能力。
  • 灵活性:提高了 GPU 资源的灵活性和利用率,特别适合轻量级或间歇性使用的 AI 任务。

缺点:

  • 性能损失:由于 GPU 上下文切换,时间切片可能会导致性能下降,特别是对于需要高吞吐量和低延迟的任务。
  • 兼容性限制:并非所有 GPU 密集型应用都支持或能良好适应时间切片机制。

Kubernetes场景:适合于科研环境或开发测试阶段,其中多个用户或项目需要共享 GPU 资源进行实验和验证,但对实时性要求不高。

综评:尽管最为直接,这一方案却暴露出显著缺陷,CUDA 应用程序中频繁的上下文切换不仅引入了额外的时间消耗,还加剧了性能波动和延迟增加的问题。此外,采用时间片轮转的调度方式无法在共享 GPU 资源的进程间实现内存隔离,亦不设定内存分配上限,从而可能频繁触发内存耗尽(OOM)事件。更甚者,任何单一进程遭遇的内存短缺,都会波及同一 GPU 上运行的所有 CUDA 程序,迫使它们终止,凸显了内存管理上的脆弱性。

2)NVIDIA MPS(多进程服务)

优点:

  • 性能提升:通过允许多个进程共享 GPU 资源而不需要频繁的上下文切换,减少了开销,提高了 GPU 利用率。
  • 易于管理:对于需要共享 GPU 资源的多任务场景,MPS 简化了配置和管理过程。

缺点:

  • 限制并行度:所有进程共享 GPU 核心,可能导致某些高并行度应用无法充分利用 GPU 的全部潜能。
  • 兼容性:与部分应用不兼容,特别是那些依赖于直接访问 GPU 资源的应用。

Kubernetes场景:适用于小型团队或项目,其中多个AI模型训练任务可以容忍一定程度的资源共享,同时追求比时间切片更高的性能表现。

综评:MPS 允许多个 CUDA 上下文在一个 GPU上并行运行,通过集中调度减少了上下文切换的开销,这对于在单个GPU上运行多线程或多进程应用尤其有利。它提高了 GPU 核心的使用率,减少了因频繁切换上下文而造成的性能损失。对于开发人员而言,MPS 简化了多进程 CUDA 编程模型,因为它提供了一个统一的接口来管理 GPU 资源,使得在多进程环境中共享 GPU 变得更加直接,减轻了开发者在同步、内存管理和进程间通信上的负担。在某些场景下,尤其是当多个进程或线程频繁访问 GPU 时,MPS 可以显著减少调度延迟,提升整体应用性能,尤其是在深度学习、科学计算和图形渲染等高度依赖 GPU 计算的任务中。

3)NVIDIA MIG(多实例GPU)

优点:

  • 细粒度资源分配:将 GPU 物理资源划分为多个独立的 GPU 实例,每个实例拥有自己的 GPU 内存和计算核心,实现了真正的硬件隔离。
  • 性能保障:每个 MIG 实例都能提供接近独占 GPU 的性能体验,特别适合对性能有严格要求的应用。
  • 灵活性与安全性:提供了高度的资源隔离和安全隔离,适合多租户环境。

缺点:

  • 资源利用率:MIG 划分可能导致部分资源碎片化,未被充分利用。
  • 配置复杂度:相比其他方案,MIG 的配置和管理相对复杂,需要细致规划。

Kubernetes场景:在企业级 Kubernetes 集群中,MIG 是理想的选择,特别是在云服务提供商、大型 AI 研发机构或金融、医疗等行业,需要为不同部门或客户分配独立、安全且性能有保障的 GPU 资源时。

最后再小结一下,NVIDIA 的 Time-slicing、MPS 和 MIG 技术各有千秋,适用于不同场景下的 GPU 资源管理。在 Kubernetes 环境中,选择合适的方案需要根据具体的业务需求、性能要求以及资源管理的复杂度来决定,最后,如何能够达到资源高效利用与服务质量的最佳平衡,就需要大家根据自己的业务场景逐步的摸索。

二、存储与数据管理

上个月参加了 KCD(Kubernetes Community Days)上海站,也参加了 AI 的分会场,那么大家必不可少的就会谈到存储!这是大数据场景下必不可少的一个话题。AI 模型训练过程中会产生海量数据,如何高效管理这些数据,确保数据的一致性、安全性和快速访问是 Kubernetes 需要解决的问题。特别是对于分布式训练场景,数据的并行读写和同步策略尤为关键。

1)海量文件

场景:AI训练往往涉及数以亿计的图像、文本或其他类型的数据文件,这些海量文件的存储和管理对存储系统提出了巨大挑战。

建议

  • 分布式存储系统:采用分布式文件系统(如HDFS,JuiceFS)或对象存储(如Amazon S3)来分散存储压力,提高存储容量和扩展性。
  • 索引优化:构建高效索引机制,如使用分布式数据库(如 Cassandra)或搜索引擎(如 Elasticsearch),加速文件的检索速度。

2)小文件处理

场景:AI 训练中,除了大文件外,还会产生大量小文件,如模型参数快照、日志文件等,这些小文件易导致存储碎片化,降低存储效率。

建议

  • 文件聚合:通过文件合并策略减少小文件数量,如小文件容器聚合存储技术,将多个文件进行聚合存储。
  • 专门存储层:使用专门针对小文件优化的存储解决方案,如 Alluxio,它提供了内存级别的数据访问速度,适合频繁读取的小文件场景。

3)存算分离

场景:存算分离架构作为一种现代化的资源管理方式,确实在降低成本、提升灵活性方面展现出显著优势,尤其是在大规模数据处理和AI应用中。然而,它所带来的数据访问延迟增加,确实是不容忽视的挑战,对计算效率有着直接的影响。

建议

  • 存储优化:虽然存算分离,但选择高性能的存储设备,如SSD甚至NVMe SSD作为后端存储,可以显著降低I/O延迟。优化存储服务软件(如Ceph、JuiceFS等)的配置,利用读写缓存、预读取等技术减少延迟。同时,根据工作负载特性调整存储策略,如条带化、复制级别等,以平衡性能与可靠性。
  • 计算任务优化:在设计计算任务时,尽量考虑数据的局部性,减少跨节点的数据访问。例如,通过数据预处理,将所需数据提前拉取至计算节点。
  • 算法与模型优化:针对存算分离的特性,优化算法和模型设计,减少对远程数据的频繁访问。例如,使用批处理操作减少 I/O 次数,或者设计模型以支持数据的分块处理。
  • 资源感知调度:开发或采用资源感知的调度算法,如 Kubernetes 的自定义调度器插件,能够根据计算任务对数据的依赖程度,尽可能将任务调度到数据所在的节点或附近节点,从而减少网络传输时间。
  • 动态资源调整:结合工作负载预测和资源监控,动态调整计算资源和存储资源的分配,确保计算任务在需要数据时能够获得足够的资源支持,减少等待时间。

尽管存算分离架构带来了数据访问延迟的挑战,但通过上述技术手段和策略的综合应用,可以有效缓解这一问题,实现计算效率与成本效益的双重优化。当然我也相信,随着技术的不断发展,未来将有更多创新方案涌现,进一步推动存算分离架构的成熟与普及。

4)业务连续性

场景:AI 训练过程可能持续数小时甚至数天,期间任何中断都可能导致训练失败,影响业务连续性。

建议

  • 冗余存储:底层硬件采用多副本或RAID技术确保数据冗余,结合跨地域备份策略,防止单点故障。
  • 上层技术:纠删码技术保障数据安全和业务连续性,例如Ceph,Hadoop HDFS,MinIO,Alluxio等。

5)读多写少

场景:AI模型训练过程中,数据通常在初始化阶段写入,随后主要是读取用于训练,呈现出明显的读多写少特征。

建议

  • 缓存机制:利用高性能缓存系统(如Redis、Memcached)存储热点数据,减少对存储系统的直接读取压力。
  • 分级存储:将经常访问的数据放置在高速存储介质上(如SSD),减少读取延迟。

6)目录热点

场景:在训练过程中,某些目录因频繁访问而成为热点,可能导致存储系统局部过载。

建议

  • 直观建议:直观的想法,既然目录变成了一个热点,那就对目录进行拆分。对目录进行拆分有两种思路,一种是目录的镜像扩展,另一种是增加虚拟子目录。
  • 负载均衡:通过存储软件的智能调度功能,如ceph的CRUSH算法,自动均衡数据分布,减轻热点问题。
  • 分布式缓存:在热点目录上应用分布式缓存,减少对主存储的直接访问,提高访问效率。

针对存储,当前我只是给出了一些已知场景的解决方式,当然基于纯开源的技术调教,效果上不一定能达到目标值,现在基于AI训练模型的商业版存储是蛮多的,我就不在这儿累赘了,说多了大家以为我是推销。

三、模型和服务的生命周期管理

AI 模型的迭代速度快,版本控制和滚动更新是常态。Kubernetes 虽然提供了强大的部署管理能力,但对于模型版本管理、自动扩缩容、自动回滚等功能,需要与AI 平台的特性和工具链紧密结合,模型和服务的生命周期管理在 AI 赋能的 Kubernetes 环境中是一项核心挑战,它关乎如何高效、自动化地处理模型从训练、部署到退役的整个过程。

一定也会有小伙伴有这样一个疑问:版本管理的必要性有这么刚需?那肯定的,它不仅有助于团队成员快速定位和回溯特定模型版本,还是实现模型性能监控、质量控制、合规性审核的基础。确保模型部署的一致性和可预测性。

当然也会遇到一些挑战,包括但不限于版本混乱、资源管理复杂、模型性能评估困难、安全性与隐私保护等。这些问题若处理不当,可能导致项目延期、资源浪费,甚至损害用户体验和品牌信誉。

3.1、模型版本追踪与元数据管理

建立清晰的版本命名规则,如遵循语义化版本控制(SemVer),确保版本号能准确反映模型的重大变更、功能增强和错误修正。

SemVer 的核心思想是通过 MAJOR. MINOR. PATCH 这样的三部分版本号来传达软件的变更信息:

  • MAJOR(主版本号):当你做了不向后兼容的更改时,这个数字增加。
  • MINOR(次版本号):添加功能但保持向后兼容时,这个数字增加。
  • PATCH(补丁版本号):修复错误或漏洞,但不影响现有功能时,这个数字增加。

这种版本号的格式有助于开发者理解和预测不同版本之间的差异,从而更安全地进行升级。

定义何时创建新版本的准则,比如基于模型性能提升幅度、数据集变更、算法结构重大调整等因素。

3.2、模型验证与测试自动化

模型验证与测试自动化是确保AI模型质量、性能和可靠性的重要环节。在快速迭代的AI开发流程中,自动化测试不仅可以减少人为错误,还能加速模型的上市时间,确保模型在不同环境下的表现一致性。

主要几个方面: 单元测试与模块测试 --> 集成测试 --> 回归测试 --> 性能测试 --> 模型漂移检测

这几个方面的主要意义主要还是围绕,验证模型组件或算法模块的基本功能是否正确,确保单个函数或类的行为符合预期。测试它们之间的交互是否正常,确保整个系统作为一个整体的功能表现。尤其是每次模型更新后,确保现有功能未被破坏,性能没有退化。最后评估模型在大规模数据上的处理能力和响应时间,确保模型在实际部署环境中的性能表现。

针对单元测试可以利用测试框架如 pytest、unittest 等编写测试用例,针对模型的各个部分(如数据预处理、特征提取、模型训练逻辑)编写单元测试。搭建模型性能监控平台,实时跟踪模型预测结果,识别性能下降或异常情况,及时触发报警和采取应对措施。

四、来聊一个基于Kubernetes的PyTorch训练任务

在现代AI开发中,利用分布式计算资源进行大规模模型训练变得越来越重要。随着 Kubernetes 生态的不断壮大,Kueue、Kubeflow、Karmada 等工具为 AI 工程提供了一套强大的解决方案,以高效地在包含 GPU 节点的多云 Kubernetes 集群上执行 PyTorch 训练任务。今天先简单介绍下如何利用这些工具,实现资源优化、训练任务的自动化管理和跨集群资源调度。

Kueue:资源队列与调度

Kueue(发音为“queue”)是Kubernetes的一个扩展,专注于资源排队和调度,特别适用于多租户环境和资源紧张的场景。它允许用户定义资源队列,为不同优先级的任务分配资源,从而优化GPU等稀缺资源的使用。对于PyTorch训练任务,Kueue能够根据当前集群资源状况智能排队,当资源充足时自动启动任务。

Kubeflow:机器学习工作流管理

Kubeflow是一个开源的机器学习(ML)平台,专为Kubernetes设计,旨在简化机器学习模型的开发、部署和管理。借助Kubeflow,你可以轻松地定义、部署PyTorch训练作业,并利用其内置的Kubeflow Pipelines功能来管理复杂的训练流程,实现从数据预处理到模型训练、验证的端到端自动化。

Karmada:多云集群管理

Karmada(原名 OpenKruise)是一个多集群管理平台,能够统一管理分布在不同云服务商或地域的Kubernetes集群。通过Karmada,你可以跨越多个集群调度资源,包括GPU节点,实现资源的高效利用和地理优化。对于大规模的PyTorch训练任务,Karmada使得在多云环境中按需调度GPU资源成为可能,极大地增强了训练任务的灵活性和可扩展性。

主要实现流程:

  1. 环境准备:确保所有目标Kubernetes集群已安装并配置好Kueue、Kubeflow和Karmada。
  2. 定义资源队列:在Kueue中定义资源队列,为PyTorch训练任务分配GPU资源。可以根据项目优先级、团队需求设置队列优先级和资源限额。
  3. 构建PyTorch训练Job:使用Kubeflow Pipelines定义PyTorch训练作业,包括模型定义、数据路径、训练参数等。通过Kubeflow的DAG(有向无环图)界面,可视化工作流,实现任务的模块化和可重用性。
  4. 多云资源调度:利用Karmada的联邦部署功能,编写自定义资源定义(CRDs)或直接在Kubeflow Pipelines中指定资源需求,将PyTorch训练任务调度到最适合的集群或节点上,充分利用多云环境的资源。
  5. 监控与优化:利用Kubeflow的监控功能和Kueue的资源使用报告,监控训练任务的执行情况,根据反馈调整资源分配策略或训练参数,进一步优化训练效率。

第1步:定义资源队列(Kueue)

在Kueue中,定义资源队列来管理GPU资源的分配。创建一个Queue资源,指定GPU资源的请求和限制。

apiVersion: kueue.x-k8s.io/v1beta1
kind: Queue
metadata:
  name: pytorch-training-queue
spec:
  priority: 5 # 设置优先级
  resourceGroups:
  - name: gpu-group
    minResources:
      requests:
        nvidia.com/gpu: 1
    maxResources:
      limits:
        nvidia.com/gpu: 4

应用此YAML文件到集群:

# kubectl apply -f queue.yaml

第2步:构建PyTorch训练Job(Kubeflow Pipelines)

接下来,使用Kubeflow Pipelines构建PyTorch训练作业。首先,定义一个简单的PyTorch训练脚本train.py,然后创建一个Pipeline。

# train.py 示例
import torch
from torch import nn, optim
from torchvision import datasets, transforms

# 简化的训练逻辑
def train():
    # ...训练逻辑...

使用Kubeflow Pipelines SDK创建Pipeline:

from kfp import dsl
from kubernetes.client.models import V1EnvVar

@dsl.pipeline(name='PyTorch Training', description='A simple PyTorch training pipeline')
def pytorch_pipeline():
    train_op = dsl.ContainerOp(
        name='pytorch-train',
        image='pytorch/pytorch:latest',
        command=['python'],
        arguments=['train.py'],
        env=[V1EnvVar(name='CUDA_VISIBLE_DEVICES', value='$CUDA_VISIBLE_DEVICES')],
    )
    train_op.set_gpu_limit(1)  # 请求GPU资源

if __name__ == '__main__':
    from kfp import compiler
    compiler.Compiler().compile(pytorch_pipeline, 'pytorch_pipeline.yaml')

第3步:多云资源调度(Karmada)

若需跨集群调度资源,利用Karmada的联邦特性。在Kubeflow Pipeline中,通过标签选择器或自定义资源定义(CRDs)指定资源偏好或要求,Karmada会自动将任务调度到符合条件的集群上。

# 在Pipeline定义中添加标签选择器
train_op.node_selector = {'kubernetes.io/hostname': 'cloud1-cluster-node'} # 仅示例,根据实际集群标签调整

第4步:执行与监控

使用Kubeflow Pipelines UI或CLI提交Pipeline运行:

# kubectl apply -f pytorch_pipeline.yaml

通过 Kubeflow Dashboard 监控 Pipeline 运行状态,以及 Kueue 的报告来跟踪资源使用情况。

五、结语

在 AI 大模型如火如荼的发展趋势下,将 Kubernetes 平台与AI技术栈紧密结合,可以极大提升模型训练、部署及运维的效率与灵活性。Kubernetes 作为容器编排领域的领军者,提供了强大的资源管理与调度能力,正好弥补了 AI 大模型在资源需求巨大、环境复杂度高、部署运维挑战多等方面的不足。

在写这篇文章的时候出发点还是比较明确的,不过在通过文字转述的时候发现困难点还是蛮多的,想通过一篇文章介绍整套逻辑不现实,更多的大家可以当做一个爬坑记录来看,后续再来针对其中的细节数据按照分类一一展开介绍!


53AI,大模型落地应用首选服务商

定位:开箱即用的大模型落地应用平台

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

年轻人!来一起搞AI吗?

如果你看见AI对商业世界的变革,欢迎来和我们一起探索~

岗位:销售经理

查看详情

岗位:项目经理

查看详情

岗位:产品经理

查看详情

岗位:测试工程师

查看详情

联系我们

售前咨询
186 6662 7370
产品演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询