AI技术正在跟各个细分行业紧密结合,NPU的大时代正在来临
随着互联网、移动互联网和物联网的发展,一些海量数据正在迅速增加,AI发展提供了肥沃的土壤。随着神经网络算法的进步,CPU、GPU、NPU、FPGA各种芯片BC182LB性能的快速提升,大大提升了计算机处理的大量视频、计算图像和其他数据的能力。也就是说,在计算能力、算法和数据三要素快速发展的背景下,AI技术的成熟度越来越高,AI随着工业的不断发展,着陆应用越来越丰富,AI与各行各业的典型应用场景融为一体。
这些年来,我们可以清楚地看到AI在智能手机、智能音箱、互联网应用等消费电子产品ToC大量应用场景落地后,开始向工业制造业、能源、交通、金融、医疗、教育、零售、汽车等传统ToB终端产业渗透。
现在的AI技术已经开始渗透到人们日常生活的方方面面,那么什么样的AI技术最有前途,最容易被市场接受?事实上,未来AI着陆应用可能市场更加碎片化,能够在性能和成本之间取得良好平衡的应用。可能更具市场前景。
碎片化会增加企业成本
不管是工业制造、能源、金融、还是在交通行业,许多应用场景需要根据特定场景提供更多的定制服务。这必然会增加AI企业成本负担。例如,在工业场景中,AI企业需要帮助工厂设计并训练工业级的高性能AI模型。这就需要AI企业大量的成本投入和深厚的技术沉淀,包括多场景海量数据采集、复杂模型的设计和算法训练、以及软件框架和硬件系统。AI支持大规模运营的基础设施。此外,由于每个工厂生产的产品不同,生产线环境也不同,开发的解决方案可能只适用于独家客户,成本无法平均分配,自然会更高。
在交通领域,AI需要对特殊交通事故、道路塌陷、识别不同的场景,如火灾、分析、评估损失等,这些都是极其具体的要求。
碎片化的应用场景也可能带来另一个问题。由于单个场景的频率较低,因此可用数据的数量较少。此外,每个模型的生产都需要大量的计算能力和人力,AI行业人力投入会相应增加,AI成本也会增加。
当然,这些碎片化的应用场景,也会有一些好处,那就是大部分的客户其实是不懂AI的,他们需要的不是一个AI模块,或者开发包,而是一整套定制化的解决方案,而且,因为这种定制化的方案确实也帮助他们解决了实际问题,因此,他们也更愿意为此类解决方案付费。
AI背后的NPU
所有落地AI在应用中,需要硬件计算能力的支持,包括当前市场上流行的自动驾驶。随着汽车摄像头、毫米波雷达、激光雷达和超声波雷达等环境感知传感器的增加,自动驾驶系统将收集更多的传感器数据。自动驾驶计算芯片需要算法处理。这些数据的结算实现了汽车、路人和其他信息的融合,决定了驾驶控制。随着传感器数量的增加,自动驾驶计算芯片的计算能力要求将显著提高。
计算能力的提高离不开NPU支持。这是一个基础DSA人工智能领域的特殊架构技术(尤其是人工神经网络、机器视觉等)硬件加速的微处理器。CPU、GPU、NPU在硬件架构上就是针对AI设计的,非常适合神经网络运算。
NPU与CPU和GPU其他通用处理器有不同的设计概念。考虑到计算的通用性,大部分提高的计算能力不能直接转化为神经网络处理能力的提高,例如MAC专门的运算改进,NPU对于神经网络的设计,不需要考虑神经网络不需要一些计算单位。与神经网络相比CPU擅长处理任务和发号施令,GPU擅长图像处理并行计算,NPU更善于处理人工智能任务。NPU通过突触权重实现存储与计算一体化,从而提高运行效率。
所以,我们可以得到很多支持AI或应用处理器SoC中发现NPU。比如苹果A15、特斯拉的FSD芯片、地平线、OPPO马里亚纳X芯片等。SoC实际上现在有一些芯片MCU产品也开始集成NPU为满足一些边缘智能应用的需求模块。
事实上,有很多支持AI的SoC通过集成神经网络,通过集成神经网络IP一般来说,神经网络是实现的IP随着神经网络算法的同步发展,可以进一步扩展,以满足神经网络性能日益增长的需要。
结语
AI技术与各细分行业紧密结合,充分发挥其优势。在AI技术落地应用越来越多的时候,NPU也变得越来越重要,未来对NPU的需求也将会进一步提升,相信NPU的大时代正在来临。