我们很自豪地推出 Vultr GPU 堆栈和容器注册表,这是一个全面的解决方案,旨在帮助全球企业和初创公司大规模构建、测试和运营人工智能和机器学习模型。
我们的解决方案由 Vultr GPU 堆栈和 Vultr 容器注册表组成,前者包含部署时所需的所有必要驱动程序和软件,后者提供 NVIDIA NGC 目录中的各种预打包框架和预训练 AI 模型 和更多。
两者均可在我们遍布六大洲的 32 个云数据中心组成的广泛网络中使用,彻底改变了人工智能和机器学习模型开发和部署的速度和效率。
Vultr GPU 堆栈:简化 AI 模型开发
开发和部署人工智能和机器学习基础设施可能很复杂。 我们推出了 Vultr GPU Stack,这是一个经过精心调整和集成的 Ubuntu 操作系统,配有驱动程序和软件环境来应对这些挑战。
该堆栈是一个经过微调和集成的操作系统和软件环境,可立即配置完整的 NVIDIA GPU 阵列,并预先配置了 NVIDIA CUDA 工具包、NVIDIA cuDNN 和 NVIDIA 驱动程序,以便立即部署。 该解决方案消除了配置 GPU、根据每个应用程序的特定模型要求进行校准以及将其与所选 AI 模型加速器集成的复杂性。 模型和框架可以从 NVIDIA NGC 目录、Hugging Face 或 Meta Llama 2 引入,包括 PyTorch 和 TensorFlow。 通过轻松配置这些资源,全球的数据科学和工程团队只需单击一个按钮即可开始模型开发和培训。
借助 Vultr GPU 堆栈,数据科学和工程团队只需单击一下即可启动模型开发和训练,使整个过程轻松高效。
Vultr 容器注册表:公共和私有 AI 模型配置
我们还引入了基于 Kubernetes 的 Vultr 容器注册表,以进一步增强 AI 模型开发流程。 该注册表包含公共和私有组件,提供无缝解决方案,用于从 NVIDIA NGC 目录中获取 NVIDIA ML 模型,并通过我们的全球云数据中心网络将它们配置到 Kubernetes 集群。 这使得数据科学、开发人员和工程团队能够在全球任何地方访问预先训练的人工智能模型,无论其物理位置如何。
此外,私有注册表允许组织将公共模型与专有数据集合并,从而促进基于敏感数据的模型训练和调整。 其结果是人工智能模型实例化和调整的全球加速,每个区域的私有注册中心都是同步的。
释放全球人工智能潜力
Vultr 对促进全球创新的承诺不仅仅限于技术创新。 据 J.J. 我们的母公司 Constant 首席执行官卡德韦尔 (Kardwell) 表示:“Vultr 致力于在世界各地打造创新生态系统——从硅谷和迈阿密到圣保罗、特拉维夫、东京、新加坡、伦敦、阿姆斯特丹等——提供即时访问高端信息的途径。 性能云GPU和云计算资源,加速人工智能和云原生创新。”
Kardwell 继续说道:“通过与 NVIDIA 以及我们不断发展的技术合作伙伴生态系统密切合作,我们正在消除获取最新技术的障碍,并为企业提供首个可组合的全栈解决方案,用于端到端 AI 应用程序生命周期管理。” “这使得数据科学、MLOps 和工程团队能够在全球分布式的基础上进行构建,而无需担心安全性、延迟、本地合规性或数据主权要求。”
Dave 表示:“Vultr GPU 堆栈和容器注册表使组织能够即时访问 NVIDIA NGC 目录上的整个预训练 LLM 库,以便他们能够加速其 AI 计划,并从任何地方配置和扩展 NVIDIA 云 GPU 实例。” Salvator,NVIDIA 加速计算产品总监。
通过与 NVIDIA 和不断发展的技术合作伙伴生态系统合作,Vultr 消除了最新技术的障碍,并为企业提供可组合的全栈解决方案,用于端到端 AI 应用程序生命周期管理。 此功能使数据科学和工程团队能够在其全球模型的基础上进行构建,而无需担心安全性、本地合规性或数据主权要求。
Vultr 最新优惠活动
1. Vultr 充多少送多少活动
2. Vultr 新用户免费赠送 250 美元
3. Vultr VPS 终身 75 折优惠码