在虚拟机/服务器安装(K3S)
使用K3S在虚拟机/服务器上部署TensorFusion
TensorFusion GPU资源池基于Kubernetes运行,按步骤完成轻量级Kubernetes K3S集群搭建后,将GPU服务器作为节点接入集群即可。该部署方式不会影响您现有的虚拟机/物理机环境以及非容器化服务,K3S对现有环境侵入性小,稳定性也满足生产环境需求。
手动部署前置条件
- 至少一台运行Linux的虚拟机或物理机,已安装GPU
- 访问DockerHub网络,或每台机器用以下命令提前设置容器镜像仓库的拉取地址
指南中的安装过程大约需要3-7分钟完成
执行以下命令配置中国大陆网络环境镜像加速(可选)
mkdir -p /etc/rancher/k3s/
cat > /etc/rancher/k3s/registries.yaml << 'EOF'
mirrors:
docker.io:
endpoint:
- "https://docker.m.daocloud.io"
- "https://docker.1ms.run"
gcr.io:
endpoint:
- "https://gcr.m.daocloud.io"
ghcr.io:
endpoint:
- "https://ghcr.m.daocloud.io"
k8s.gcr.io:
endpoint:
- "https://k8s-gcr.m.daocloud.io"
registry.k8s.io:
endpoint:
- "https://k8s.m.daocloud.io"
mcr.microsoft.com:
endpoint:
- "https://mcr.m.daocloud.io"
TensorFusion 文档