谷歌最新发布了其第四代TPU芯片
日前,Google分享了有关其TPU芯片的新版本的早期细节,据介绍,该芯片用于运行人工智能工作负载,其性能是前一代的两倍以上。
Google的TPU(即Tensor处理器单元)是专门针对AI设计的专用集成电路。搜索巨头今天详细介绍的新的TPU模型是该芯片的第四次迭代。通过Google Cloud Platform,企业可以使用第三次和第二次迭代,这两者也展示了出色的性能。
谷歌表示,其第四代TPU的平均性能比其第三代TPU高出2.7倍。这家搜索巨头通过在最近的MLPerf行业竞赛中衡量他们训练五个流行的AI模型的速度来比较这些芯片。第四代TPU在运行Mask R-CNN模型时获得了最强的效果,Mask R-CNN模型是用于自动驾驶等用例的图像分割AI,其训练速度比Google的早期芯片快3.7倍。
Google指出,他们在本次MLPerf训练回合中使用的超级计算机是Cloud TPU v3 Pod的四倍,后者在之前的比赛中创造了三项记录。该系统包括4096个TPU v3芯片和数百个CPU主机,所有这些都通过超快速,超大规模的定制互连进行连接。该系统总共可提供430多个PFLOP峰值性能。
性能的提高是设计重大变化的结果。谷歌工程师Naveen Kumar在博客中详细介绍了该公司已大大提高了TPU的内存带宽,即芯片从内存中获取数据进行处理的速度,并提高了其执行专门计算的能力。
“Google的第四代TPU ASIC提供了TPU v3的矩阵乘法TFLOP的两倍以上性能,” Kumar在帖子中详细介绍。矩阵乘法是AI模型用来处理数据的一种数学运算,而TFLOP是每秒一万亿个浮点运算。相比之下,与新芯片进行比较的第三代TPU v3 每秒可管理420万亿次操作。
Kumar写道,客户可以很快获得有关新TPU的更多信息。鉴于该平台上已有两个上一代TPU可供租用,该芯片很有可能最终登陆Google Cloud。但是,客户可能需要等待一会儿:ExtremeTech 报告说,第四代TPU在MLPerf竞赛期间被列为研究类别,这意味着它将在至少六个月内无法商用。
新芯片的速度提升尤其引人注目,因为其性能优于第三代的芯片在同一比赛中打破了多项记录。谷歌使用了4,090个第三代TPU来构建其所谓的世界上最快的AI培训超级计算机。该系统为MLPerf八个基准中的六个基准创造了新记录,并在30秒内训练了四个测试模型。