为您的容器启用 Autopilot 模式并大规模安全运行企业工作负载,全程几乎无需 Kubernetes 相关专业知识。
每月免费获取一个可用区级或 Autopilot 集群。 新客户可获享 $300 赠金,用于试用 GKE 和其他 Google Cloud 产品。
功能
为了支持更大的模型,我们将引入对 65,000 个节点的集群的支持。为了开发先进的 AI 模型,团队需要能够在各种工作负载之间分配计算资源。这不仅包括模型训练,而且还包括服务、推理、进行临时研究和管理辅助任务。在最少数量的集群中集中计算能力,可灵活地快速适应推理服务、研究和训练工作负载需求的变化。
GKE 推理功能采用了生成式 AI 感知型扩缩和负载均衡技术,可为生成式 AI 应用提供与众不同的卓越性能。与其他托管式和开源 Kubernetes 产品相比,这些功能有助于将服务成本降低 30% 以上、尾部延迟降低 60%,并将吞吐量提高多达 40%。
使用新推出的高级 GKE Enterprise 版本,平台团队可以从一个位置配置和观察多个集群,为团队而不是集群定义配置,并为开发者提供用于部署和管理应用的自助服务选项,从而提高速度并从中受益。您可以使用高级安全设置和基于 GitOps 的配置管理来降低风险。该解决方案利用全托管式集成解决方案来降低总拥有成本 (TCO),三年投资回报率高达 196%。
GKE Standard 版本支持完全自动化的集群生命周期管理、Pod 和集群自动扩缩、费用可见性以及基础架构费用自动优化。除 GKE 的所有现有优势外,它还提供两种运维模式:Autopilot 模式和 Standard 模式。全新高级 GKE Enterprise 版本不仅具备上述所有功能,还提供适用于多个团队和集群的管理、治理、安全和配置功能,以及统一的控制台体验和集成式服务网格。
GKE 实现了完整的 Kubernetes API、四向自动扩缩、发布渠道和多集群支持。Pod 横向自动扩缩可以基于 CPU 利用率或自定义指标进行调整。集群自动扩缩在每个节点池内进行,Pod 纵向自动扩缩会不断分析 Pod 的 CPU 和内存使用量,自动调整 CPU 和内存请求。
通过 Google Distributed Cloud 在您自己的数据中心利用 Kubernetes 和云技术。获享出色的 GKE 体验,包括由 Google 验证的软件安装和更新,过程简单快速且易于管理。
为您的集群预留 IP 地址范围,让集群 IP 能够通过 Google Cloud VPN 与专用网络 IP 共存。
常见用途
使用舰队可以简化管理多集群部署的方式,例如分隔生产环境与非生产环境,或者分隔各个层级、位置或团队的服务。借助舰队,您可以对 Kubernetes 集群实施分组和标准化,从而更轻松地管理基础架构并采用 Google 最佳实践。
强大的 AI/机器学习平台通常包含以下层:(i) 支持使用 GPU 大规模训练和服务工作负载的基础架构编排;(ii) 与分布式计算和数据处理框架灵活集成;(iii) 支持多个团队使用同一基础架构,以最大限度地提高资源利用率。
强大的 AI/机器学习平台通常包含以下层:(i) 支持使用 GPU 大规模训练和服务工作负载的基础架构编排;(ii) 与分布式计算和数据处理框架灵活集成;(iii) 支持多个团队使用同一基础架构,以最大限度地提高资源利用率。
创建容器化 Web 应用,在本地对其进行测试,然后将其部署到 Google Kubernetes Engine (GKE) 集群中。所有操作都可直接在 Cloud Shell Editor 中完成。在这一简短的教程结束时,您将了解如何构建、修改和调试 Kubernetes 应用。
创建容器化 Web 应用,在本地对其进行测试,然后将其部署到 Google Kubernetes Engine (GKE) 集群中。所有操作都可直接在 Cloud Shell Editor 中完成。在这一简短的教程结束时,您将了解如何构建、修改和调试 Kubernetes 应用。
价格
GKE 定价方式 | 用完赠金后,总费用将取决于版本、集群操作模式、集群管理费用和适用的入站数据传输费用。 | |
---|---|---|
服务 | 说明 | 价格 (USD) |
免费层级 | GKE 免费层级每月为每个计费账号提供 $74.40 的赠金,该赠金适用于可用区级集群和 Autopilot 集群。 | 免费 |
Kubernetes | 企业版 包括标准版的功能,此外还支持多团队、多集群和自助式操作,并提供高级安全、服务网格和配置功能以及统一的控制台体验。 | $0.0083 每 vCPU 每小时 |
标准版 支持完全自动化的集群生命周期管理、Pod 和集群自动扩缩、费用可见性以及基础架构费用自动优化。 | $0.10 每个集群每小时 | |
计算 | Autopilot 模式:为 Pod 预配的 CPU、内存和计算资源。 Standard 模式:您需要按照 Compute Engine 价格为每个实例付费。 | 参阅 Compute Engine 价格 |
详细了解 GKE 价格。 查看所有价格详情。
GKE 定价方式
用完赠金后,总费用将取决于版本、集群操作模式、集群管理费用和适用的入站数据传输费用。
企业版
包括标准版的功能,此外还支持多团队、多集群和自助式操作,并提供高级安全、服务网格和配置功能以及统一的控制台体验。
$0.0083
每 vCPU 每小时
标准版
支持完全自动化的集群生命周期管理、Pod 和集群自动扩缩、费用可见性以及基础架构费用自动优化。
$0.10
每个集群每小时
Autopilot 模式:为 Pod 预配的 CPU、内存和计算资源。
Standard 模式:您需要按照 Compute Engine 价格为每个实例付费。
参阅 Compute Engine 价格
详细了解 GKE 价格。 查看所有价格详情。
业务用例
Moloco:使用 Google Kubernetes Engine 上的 TPU,模型训练速度提高 10 倍
“随着 Moloco 的广告业务呈指数级增长,扩展我们的基础架构是一项巨大的挑战。GKE 的自动扩缩功能让工程团队能够专注于开发,而无需花费大量精力进行运维。” - Sechan Oh,Moloco 机器学习总监
通过将 NVIDIA NIM 的强大功能与 Google Kubernetes Engine 相结合,我们将平均 token 速度提高到了原来的 6.1 倍。这意味着,LiveX AI 可以实时为客户提供个性化体验,包括无缝的客户支持、即时的产品推荐和减少退货。
- Jia Li,LiveX AI 联合创始人兼首席 AI 官
“使用 GKE 上的 TPU,特别是使用较新的 Trillium 进行推理(尤其是图片生成),可将延迟降低高达 66%,从而带来更好的用户体验并提高了转化率。用户在 10 秒内就能获得响应,而无需等待长达 30 秒。这对提高用户互动度和留存率至关重要。”
- HubX 联合创始人 Cem Ortabas
“优化生成式 AI 推理的性价比对我们的客户来说至关重要。我们很高兴看到 GKE Inference Gateway 在开源中实现了经过优化的负载均衡和可扩展性。GKE Inference Gateway 的新功能可以帮助我们进一步提高客户推理工作负载的性能。”
- Chaoyu Yang,BentoML 首席执行官兼创始人