芯片设计将会越来越多地瞄准人工智能技术
人工智能(AI)显然是来年企业优先级列表中的头等大事,但是这项特定技术的革命性承诺真正取得成果可能还需要一段时间。造成这种情况的部分原因是,传统的数据基础架构根本无法满足从智能系统和应用程序中产生有意义的结果所需的规模处理数字的任务。与过去的技术变革不同,支持AI工作负载不仅是部署新硬件或提高性能的问题,尽管它们很重要,但在设计一种全新的方式来收集,解释和传播数字信息时,也是如此。
从根本上讲,这将需要更改核心处理基础结构,但是当涉及到企业级工作负载时,该领域的工作似乎仍处于起步阶段。
这项工作的一部分是将核心数量推向新的极限。华盛顿州立大学和卡内基梅隆大学的研究人员正在研究一种片上数据中心(DoC)架构,从谷歌和亚马逊到美军的每个人都可以使用它来提高AI性能。这个想法是在单个芯片上组合成千上万个GPU和CPU芯片,同时利用有线和无线通信来增强它们的交互性。详细信息有望在下个月的以色列HLS博览会大数据发布中发布。
同时,欧洲委员会已制定了Mont-Blanc 2020项目,以设计用于万亿级工作负载的基于ARM的SoC。这项工作吸引了ARM公司,Atos / Bull,Kalray公司和SemiDynamics等组织制定出一种解决方案,该方案将多核体系结构与低功耗ASIC和FPGA实施相结合,以支持从存储和网络到自动驾驶汽车的各种应用。这里的目标不是生产商品,而是为矢量长度,网络和内存带宽以及可行的功率包络等属性开发基本的蓝图。
这并不是说AI就绪系统尚未进入市场。但是,目前,必需的集成是在硬件而不是芯片设计中进行的。一个示例是IBM的新型Power System AC922服务器,该服务器将一对公司的Power9 CPU与多达六个Nvidia Tesla V100 GPU封装在一起,并支持至少三个内存接口(PCIe 4.0,NVLink 2.0和OpenCAPI),性能几乎提高了三倍。标准的x86机器。该公司表示,该设计适用于神经网络和深度学习等AI应用以及更传统的HPC功能,这两种功能通常都受内核之间的带宽限制而不是内核本身的处理能力的限制。(公开:我向IBM提供内容服务。)
但是,在超大型数据公司正在设计自己的基础架构解决方案的时代,这些努力开始针对AI不足为奇。阿里巴巴最近求助于恩智浦半导体,将其物联网操作系统集成到恩智浦的各种应用处理器,微控制器芯片和多核设备中,以期为智能汽车,智能零售生态系统和智能家居提供动力。尽管此解决方案比核心数据中心工作负载更多地针对边缘,但它仍然代表着对日益多样化的处理体系结构的需求,以适应日益增长的数据基础架构的复杂性。
新兴的AI平台是围绕多个内核和高速互连构建的,这一事实表明,仅进行处理不足以成功实现应用程序。在很大程度上,至少在开发人员希望创造出真正独特的用户体验的情况下,人工智能将需要在不同资源之间进行高级别的编排。
好的AI的基础将是硅,但真正的魔力将来自对数据生态系统的从上到下的重新构想。