互联网技术 / 互联网资讯 · 2023年10月30日 0

亚马逊将AI从云转移到自有芯片

通过自家设计的InfeRentia芯片,亚马逊的云计算服务部门Amazon Web Services(AWS)成功降低了对NVIDIA图形处理器的依赖。周四,亚马逊宣布已将大部分处理任务从其个人助理Alexa迁移至定制的专用集成电路(ASIC)芯片,以实现更快、更经济的计算性能,进而提升语音助手的表现。

亚马逊将AI从云转移到自有芯片

亚马逊开发者Sebastien StorMacq在博客中提到,使用AWS InfeRentia处理某些Alexa技能可以将延迟时间减少25%,同时成本降低约30%。

我们今天宣布,亚马逊Alexa团队已将其基于GPU的机器学习推理任务大部分迁移至Amazon Elastic Compute Cloud(EC2)Inf1实例,该实例由AWS InfeRentia驱动。与基于GPU的Alexa文本到语音工作负载相比,这一变化使得端到端延迟降低了25%,成本降低了30%。延迟的减少为Alexa工程师提供了更多创新空间,能够通过更复杂的算法提升用户体验。

StorMacq对InfeRentia的硬件设计进行了详细描述:AWS InfeRentia是AWS专为加速机器学习推理工作负载而构建的定制芯片,旨在优化成本。每个AWS InfeRentia芯片包含四个NeuroCore,每个NeuroCore配备高性能的脉冲矩阵乘法引擎,显著加快了深度学习操作的速度,如卷积和变换。NeuroCore还配置了大容量片上缓存,减少了对外部存储器的依赖,从而降低了延迟并提高了吞吐量。

Alexa是亚马逊的云端语音服务,支持Amazon Echo设备以及超过14万种智能扬声器、灯光、插座、电视和摄像机。根据公司数据,现今用户每天将超过1亿台设备连接到Alexa。当这些设备被安装在办公室或家庭中时,Alexa的核心处理能力在AWS上运行,确保当用户使用Echo或Echo Dot时,处理任务在设备本身完成。

当用户向Echo系列智能扬声器询问问题时,该设备会利用其内部处理器识别唤醒词(Alexa),并将请求发送至亚马逊的数据中心进行处理。一旦亚马逊的服务器生成响应,该响应将以文本形式返回,并需转化为语音格式。

如今,Alexa将依赖亚马逊最新研发的AWS InfeRentia芯片来加速深度学习计算。亚马逊指出,AWS InfeRentia旨在提升云端推理性能,降低整体推理成本,并让开发者更便捷地将机器学习集成到业务应用中。由于这些芯片专为此类任务设计,其在处理效率上甚至优于传统GPU。

自2018年首次发布以来,亚马逊的InfeRentia芯片被定制用于加速多种机器学习任务,如文本到语音转换和图像识别。包括亚马逊、微软和Alphabet Inc.的Google在内的云计算巨头,已经成为计算芯片的主要买家,推动英特尔、英伟达等公司的销售增长。

然而,许多大型科技公司希望减少对NVIDIA和Intel的依赖,越来越多地选择设计自己的定制芯片。苹果最近推出了首款搭载自家基于ARM架构处理器的Mac电脑,并计划在未来两年内将所有Mac产品转向自家处理器,逐步淘汰英特尔芯片。

除了Alexa,Sebastion StorMacq还指出,亚马逊的云端面部识别系统Rekognition也将采用该芯片。此外,他还提到了一些外部客户,如Snap Inc.和Condé Nast集团,以及保险公司Anthem也在使用InfeRentia芯片。

看到这些公司如何通过自主研发芯片,摆脱对现有芯片制造商的依赖,令人感到惊喜和振奋。这一趋势或许会逐渐渗透到个人电脑和其他设备中。