DRAM技术的发展将为芯片和系统制造商带来更多的技术创新机会
随着人工智能和元宇宙的应用需求强劲的高性能计算逐渐成为一个新的市场驱动的半导体行业,内存的性能开发已经成为一个重要的支持这些应用程序,这也成为一个重要的驱动力,内存行业继续大力投资开发新技术。
在这些高性能计算系统中,内存带宽和容量将决定计算性能,这在高性能计算领域经常被提及“内存墙”。在许多高性能计算应用中,逻辑计算实际上并不是整个系统的瓶颈,数据访问是整个系统速度的决定性因素。一方面,内存芯片BD675A技术需要进一步提高带宽和容量,另一方面,在设计整个系统时需要确保有效的内存访问机制,以打破内存墙的限制,进一步提高高性能计算的性能。
上周,三星举行了2022年的技术发布会,其中公布了三星未来几年的内存技术发展路线图。因此,我们认为其内存开发的主题围绕着“更快,更大,更智能”在几个方面,这也与之前讨论的内存需求的高性能计算一致。由于三星是内存芯片领域的领导者,我们相信其发布的路线图将在很大程度上反映整个内存芯片行业的发展趋势。
更快:新的内存接口将成为突破内存墙的主力军
内存接口决定了整个系统能够以多快的速度访问内存中的数据,因此它也是决定整个系统性能的一个重要因素。随着新一代内存接口的出现,高性能计算系统的性能有望进一步提高。
在三星发布的内存接口路线图中,我们可以看到内存接口在不同领域的进化速度。首先,在云高性能服务器领域,HBM已成为高端GPU这也是三星投资的重点领域之一。HBM其特点是采用先进的包装技术,采用多层堆叠实现超高IO与高速接口传输速率相匹配的接口宽度,从而达到超高带宽的高能效比。
在2022年三星发布的路线图中,HBM3技术已批量生产,其单芯片接口宽度可达1024bit,接口传输速率可达6.4Gbps,与上一代相比,单芯片接口带宽提升1.8倍,实现819倍GB/s,如果使用6层堆叠,可以实现4层堆叠.8TB/s总带宽。在三星公布的路线图上,接口速度预计将在2024年达到70%,因此,与这一代相比,数据传输率进一步提高了10%,从而将堆叠的总带宽提高到5%TB/s以上。此外,这里的计算没有考虑到先进包装技术带来的高层多层堆叠和内存宽度增加。我们预计到2024年将是单芯片和堆叠芯片的时候HBM3p将实现更多的总带宽改进。这也将成为人工智能应用的重要驱动力。我们预计三年后的新一代云旗舰GPU中看到HBM3p从而进一步增强云人工智能的计算能力。
除了HBM此外,渲染正成为元宇宙相关应用在桌面和移动应用中的重要支柱。例如,在虚拟现实应用中,对图像渲染的需求越来越强高端虚拟现实设备将使用桌面级别GPU渲染并通过串行传输将渲染图像传输回虚拟现实设备,目前最流行的虚拟现实一体机将需要使用移动级GPU直接在一体机中进行图像渲染。这些应用程序需要越来越大的存储带宽,三星这次发布的GDDR7和LPDDR5X这些应用都是重要的技术支柱。
总的来说,三星从内存接口的角度发布的路线图显示了这次“更快”从这个角度来看,三星将进一步成为内存行业的领头羊之一,从而为下一代应用提供支持,比如半导体行业进一步赋能人工智能和元宇宙。
更大:芯片和系统级创新将成为更大内存系统的关键
随着人工智能技术的发展,神经网络模型的参数越来越多,需要在计算中使用的中间结果的存储需求对于DRAM提出新的容量要求。
为了满足存储容量的需求,我们还需要芯片级和系统级的解决方案。在芯片层面,三星给出了新一代使用1的答案b生产特征尺寸DRAM,从而实现更大的集成度。三星宣布1bDRAM将于2023年量产,这意味着三星将在2023年量产DRAM进一步巩固其领先地位。
除了芯片级方案,系统级方案也是增加内存容量的重要方向。例如,在云服务器市场,使用CXL内存扩展技术是一个非常有潜力的方向。CXL内存扩展的原理是大量扩展内存DRAM芯片集成在同一个内存扩展卡中,然后使用CXL使用主控芯片CXL协议连接到高速接口,这样系统就可以直接使用而不占用DRAM插槽和接口,以扩大内存容量。
今年早些时候,三星宣布了自己的基础CXL为了使用内存扩展技术的最新结果CXL专门开发的ASIC在机器学习等重要应用中,主控芯片获得并使用了传统芯片DDR内存接口的性能几乎相同,这表明使用CXL做DRAM就性能而言,能力扩展将是一种可行的技术解决方案,目前主要需要解决的是成本方面的考虑,从而进一步应用该技术。
三星这次也宣布了自己CXL我们预计未来将看到更多领域的持续投资CXL产品的内存扩展。我们预计,CXL首先,它将被用于需要巨大内存容量和强大性能的应用程序,并将在未来扩展到其他应用程序。
更智能:内存计算有望成为下一代内存的新范式
三星的另一个布局方向是智能外,三星的另一个布局方向是智能DRAM,也就是说,使用存款计算和近内存计算等新技术来应用机器学习和人工智能。
三星的主要存款计算技术称为三星HBM-PIM,其中PIM即存内计算(processinmemory)缩写。其具体原理是在HBM计算单元直接集成在内存中。在传统的计算过程中,数据首先从内存中读取,然后在其他芯片中的计算单元中计算,然后将结果写回内存。HBM-PIM在中,三星的技术路径是给予DRAM指令不仅可以读写,还可以直接计算,比如可以给出“写入数据A同时添加数据和B”这样,下次阅读时,您可以直接获得已计算的数据,而无需再次阅读和计算。这节省了大量额外的数据移动费用,可以实现更好的延迟和能效比。
除了存款计算之外,这种技术方案是DRAM加速器逻辑直接集成以减少访问内存的成本存的成本。这种技术叫做三星AXDIMM,预计2024-2025年开发将在三星公布的路线图上完成。
我们相信三星是智能的DRAM从长远来看,布局将对内存技术和市场格局产生深远的影响。未来,随着机器学习等应用对内存访问的进一步需求,我们相信这类技术将有机会在主流系统制造商中获得越来越多的应用。
结语
随着人工智能等应用的发展,DRAM未来的发展也更接近于赋能等下一代应用。从三星发布的路线图来看,未来的未来DRAM除了进一步改进外,技术发展DRAM除了芯片的容量和接口速度,还有系统层面的创新方向(包括CXL内存扩展和内存计算/近内存计算DRAM),DRAM技术的发展将为芯片和系统制造商带来越来越多的技术创新机会,这将进一步促进新应用和新场景的出现,从而进一步发展整个领域。