人工智能技术将成为其他产业高质量发展的催化剂
人工智能作为一门学科,是由“人工智能之父”麦卡锡及一批数学家、信息学家、心理学家、神经生理学家、计算机科学家,在1956年美国达特茅斯学院召开的会议上首次提出。
随着互联网的兴起和发展,带动了新一轮的科技创新,自动化生产、机器人技术、信息技术等得到长足发展,并逐渐影响着人们的衣食住行。 世界主要发达国家也已经把发展人工智能上升到国家的战略。
欧洲将人工智能确定为优先发展项目,2014年发布了《2014-2020欧洲机器人技术战略》和《地平线2020战略——机器人多年发展战略图》,意在促进机器人行业的供应链建设,并拓展机器人技术在多领域的应用。2016年6月,欧盟委员会提出人工智能立法动议,并制定了《对欧盟机器人民事法律规则委员会的建议草案》和《欧盟机器人民事法律规则》。2018年4月,欧盟委员会提交了《欧盟人工智能》,制定了欧盟AI行动计划,并提出增强欧盟的技术与产业能力,推进AI技术的应用,确立合适的伦理和法律框架。2018年12月,欧盟委员会及其成员国发布主题为“人工智能欧洲造”的《人工智能协调计划》。
加速度方程用于开发所谓的图形流处理器,用于自动驾驶汽车和视频监控等边缘计算场景。完全可编程芯片组承担了CPU的许多功能,但在任务级并行和流执行处理方面进行了优化,仅使用7瓦的电源。
体系结构基于图数据结构,其中对象之间的关系表示为连接的节点和边。每个机器学习框架都使用图形概念,在整个芯片的设计中都保持着同样的语义。可以执行包括CMM但包含自定义节点的整个图。我们可以在这些图形中加速任何平行的东西。
其基于图形的架构解决了GPU和CPU的一些容量限制,并能更灵活地适应不同类型的AI任务。它还允许开发人员将更多的处理转移到边缘,以便更好地推断。如果企业能对80%的处理过程进行预处理,就能节省大量时间和成本。
这些应用可以让智能更接近数据,实现快速决策。大多数的目标是推断,这是AI模型的现场部署,而不是更计算密集型的训练任务。
某企业正在开发一种使用内存计算的芯片,以减少延迟和对外置存储设备的需求。其人工智能平台将提供灵活性和运行多个神经网络的能力,同时保持较高的准确性。
其数据处理单元系列为大规模并行处理器阵列,拥有可伸缩的80核处理器,能够并行执行数十个任务。关键创新是在每个处理元素内部紧密集成一个张量协处理器,并支持元素之间的直接张量数据交换,以避免内存带宽瓶颈。这可以实现高效的AI应用加速,因为预处理和后处理是在相同的处理元素上执行的。
人工智能内存中的计算芯片
十多年来,像黃汉森这样的研究人员一直致力于建立阻变式存储器技术,使其能够可靠地处理高功率的计算任务。大约在2015年,计算机科学家开始认识到这些节能设备在大型人工智能算法方面的巨大潜力,而这些算法正开始起飞。那一年,加州大学圣巴巴拉分校的科学家们表明,阻变式存储器可以做的不仅仅是以一种新的方式存储内存,还可以自己执行基本的计算任务,包括在神经网络的人工神经元内发生的绝大多数计算,这些计算是简单的矩阵乘法任务。
黃的团队设计了一个新的芯片架构,其中阻变式存储器和硅神经元被混合在一起。这一设计上的小变化减少了总面积并节省了能源。
瑞士联邦理工学院苏黎世分校的神经形态学科学家Melika Payvand评价说:"我认为[这种安排]非常漂亮。""我绝对认为这是一项开创性的工作。"
近年来,黃的团队与合作者合作,在NeuRRAM芯片上设计、制造、测试、校准和运行AI算法。他们确实考虑过使用其他新兴的存储器类型,这些存储器也可以用于内存计算芯片,但阻变式存储器具有优势,因为它在模拟编程方面具有优势,而且它相对容易与传统计算材料集成。
学界评论说:他们最近的成果代表了第一个可以运行如此大型和复杂的人工智能算法的阻变式存储器芯片,这一壮举以前只在理论模拟中实现。""当涉及到真正的硅时,这种能力没有了。"这项工作是开创性的展示。""数字人工智能系统是灵活和精确的,但效率却低了好几个数量级。现在,他们的灵活、精确和节能的模拟阻变式存储器芯片"首次弥补了这一差距"。