迁移现有应用
将现有工作负载迁移到TensorFusion GPU池
本指南将引导您将现有GPU工作负载迁移到TensorFusion的虚拟化GPU基础设施。迁移过程设计为渐进和安全,允许您在完全切换之前测试新设置。
前置条件
- 现存工作负载运行在物理GPU上,使用Device Plugin分配GPU资源
- TensorFusion集群已部署和配置
- 了解当前工作负载的GPU规格
步骤1:将当前GPU请求映射到vGPU TFlops/VRAM请求
在迁移之前,您需要了解当前GPU资源需求并将其映射到TensorFusion的vGPU规格。
1.1 识别您的GPU实例类型
首先,确定当前工作负载使用的GPU实例类型:
# 检查当前Pod的GPU请求
kubectl describe pod <your-pod-name> | grep -A 5 "Requests:"
TensorFusion 文档