谷歌的人工智能芯片现已向公众开放
谷歌的云张量处理单元(Cloud Tensor Processing Units)现在可以在公开测试版上被任何人试用,为科技巨头云平台的客户提供了专用硬件,大大加快了人工智能模型的训练和执行速度。
谷歌去年首次宣布的云TPU,通过为客户提供特殊电路,加速了人工智能计算。Google test使用其中的64个,只用了30分钟就训练出了ResNet-50(一种用于图像识别的神经网络,也是人工智能训练速度的基准工具)。
这种新的硬件可以帮助吸引客户使用谷歌的云平台,并承诺更快的机器学习计算和执行。加速新的人工智能系统的训练可能是一个重要的帮助,因为数据科学家可以利用这些实验的结果为未来的模型迭代做出改进。
谷歌正在利用其先进的人工智能能力为其云平台吸引新的血液,远离市场领导者亚马逊网络服务(Amazon Web Services)和微软Azure。企业越来越希望公共云平台的使用多样化,谷歌新推出的AI硬件可以帮助企业利用这一趋势。
公司已经排队测试云TPU,他们正在使用硬件在私人阿尔法中训练人工智能模型自动驾驶汽车,包括Lyft。
公司走了很长一段路才来到这里。2016年,谷歌宣布了最初的Tensor处理单元(仅提供推理功能),并承诺客户将能够在其上运行定制模型。此外,它还通过云学习API为其他业务的工作负载提供了速度提升。然而,企业永远无法在原始TPU的基础上运行自己定制的工作负载。
谷歌并不是唯一一家通过专用硬件加速人工智能的公司。微软正在使用一组现场可编程门阵列(FPGA)来加快其内部机器学习操作,并为其Azure云平台的客户提供加速联网。未来,微软致力于为客户提供一种在FPGA上运行机器学习模型的方式,就像公司的专有代码一样。
与此同时,亚马逊正在用自己的专用FPGA为客户提供计算示例。根据今天发布的一份报告,该公司还在开发一种特殊的人工智能芯片,这将加速其Alexa设备的机器学习计算。
事实上,从TPU获得人工智能加速并不便宜。谷歌目前每小时每TPU收费6.50美元,但一旦硬件普及,价格可能会改变。目前,谷歌仍在限制其客户可获得的云TPU配额,但任何人都可以申请获得新芯片。
一旦人们进入云TPU,谷歌有几个优化的参考模型可供他们踢轮胎,并使用硬件加速人工智能计算。
标签: