谷歌宣布其人工智能平台中的重要功能——人工智能预测服务已正式全面推出。该服务兼容主流机器学习框架,如TensoRFlow、XGBoost和ScikIT-LeaRn。

AI预测服务作为机器学习管道的最终环节,在云端托管经过训练的模型,能够对新数据进行推断。部署在该服务中的模型通过REST端点公开,任何支持HTTP的标准客户端均可调用这些端点。
该服务基于Google KubeRnetes Engine(GKE),旨在通过引入新的硬件选项(例如Google计算引擎的机器类型和NVIDIA GPU)来提升其可靠性与灵活性。
尽管AI预测服务依赖于Google KubeRnetes Engine,但它简化了集群的供应、管理和扩展的复杂过程,使数据科学家和工程师能够将重点放在业务问题上,而非基础设施的管理。
在一般可用性下,AI预测服务支持在高内存和高CPU机器类型上运行的XGBoost和ScikIT学习模型。该服务能够根据流量和请求自动调整基础设施的规模。
该服务与Google云控制台和StackdRiveR紧密集成,方便用户跟踪和可视化资源指标。与模型相关的GPU、CPU、RAM和网络利用率等性能指标,能够深入分析性能特征。
客户可选择在特定区域内通过AI预测服务部署机器学习模型。谷歌已在三个区域(US-centRal1、euRo-west4和asia-east1)推出新端点,并通过区域隔离提高服务的可靠性。部署在区域端点的模型确保数据的局部性和所有权。
通过增强对VPC控件的支持,客户可以定义安全范围,部署仅在该范围内或通过桥接范围可访问的在线预测模型。由于预测服务端点专属于VPC,因此数据可保留在私有网络中,无需经过公共互联网。
AI预测服务支持在线和批处理推理的模型部署与公开。在线预测经过优化以最小化延迟,而批处理预测则优化处理大量实例的作业。与实时返回结果的在线预测相比,批处理预测将推理输出写入存储在Google Cloud Storage存储桶中的文件。
谷歌持续加大对人工智能平台即服务(PaaS)产品的投资,整合和扩展了包括cloudMl引擎在内的多种服务。通过与GKE和Kubeflow的紧密结合,该服务已发展成一个全面支持数据准备、转换、培训、模型管理、部署和推理的端到端平台。
