铠侠在2022年欧洲计算机视觉会议上展示图像分类系统,通过大容量存储器部署Memory-Centric AI技术
“存储器解决方案的全球领导者铠侠株式会社(Kioxia Corporation)开发了一种基于Memory-Centric AI的图像分类系统。Memory-Centric AI是一项利用大容量存储器的人工智能技术。该系统使用神经网络对图像进行分类,而神经网络会参考外部大容量存储器中的知识;这样可避免“灾难性遗忘”(catastrophic forgetting)这一神经网络的主要挑战,并可在不损失当前知识的情况下添加或更新知识。
”
存储器解决方案的全球领导者铠侠株式会社(Kioxia Corporation)开发了一种基于Memory-Centric AI的图像分类系统。Memory-Centric AI是一项利用大容量存储器的人工智能技术。该系统使用神经网络对图像进行分类,而神经网络会参考外部大容量存储器中的知识;这样可避免“灾难性遗忘”(catastrophic forgetting)这一神经网络的主要挑战,并可在不损失当前知识的情况下添加或更新知识。铠侠于10月25日在特拉维夫举行的2022年欧洲计算机视觉会议(ECCV 2022)上对该技术进行了口头汇报。ECCV是计算机视觉领域的顶级会议[1]。
大容量存储的图像分类技术(图示:美国商业资讯)
传统的人工智能技术通过更新名为“权重”的参数来训练神经网络,从而获取知识。一旦完成训练,神经网络必须从头开始重新训练,或者用新数据进行微调才能获取新知识。前者需要大量的时间并消耗大量的能源成本,而后者需要更新参数并面临灾难性的遗忘问题,即丧失曾获得的知识,导致分类精度下降。
为解决基于神经网络的图像分类系统的成本和准确性问题,新的解决方案将大量的图像数据、标签和图像特征图[2]作为知识存储在一个大容量存储器中。然后,神经网络通过参考这些存储的知识对图像进行分类(图1)。这种方法通过向存储的数据添加新获得的图像标签和特征图来增加或更新知识。由于不需要重新训练或更新权重,不仅避免了“灾难性遗忘”,图像分类也能保持更高准确度。
此外,由于神经网络对图像进行分类时参考了所存储的数据,因而分类结果所依据的数据具备可视化,从而有望提高人工智能的可解释性[3]、缓解黑盒问题[4],并支持对知识来源进行选择性地修改。此外,通过分析所引用的数据,可以根据引用频率来评估每个存储数据的贡献。
铠侠秉承“用‘内存’提升世界”使命,持续为人工智能和存储技术的发展做出贡献,铠侠将Memory-Centric AI从图像分类扩展到其他领域,并促进采用大容量存储的人工智能技术的研究和开发。
关于Memory-Centric AI
介绍视频:https://youtu.be/lw8XKhviGJc
Memory-Centric AI,第一部分:铠侠顶级工程师是如何开发依赖记忆的人工智能?https://brand.kioxia.com/en-jp/articles/article25.html
Memory-Centric AI,第二部分:记忆互联网:Memory-Centric AI用途头脑风暴?https://brand.kioxia.com/en-jp/articles/article26.html
关于欧洲计算机视觉会议
欧洲计算机视觉会议(ECCV)是计算机视觉领域的顶级会议。近年来,ECCV已被确立为人工智能研究论文发表的主要场合,涵盖图像分类、物体检测和其他使用深度学习的技术。今年的口头报告接收率为2.7%。
[1] Paper title: K. Nakata et. al., “Revisiting a kNN-based Image Classification System with High-capacity Storage”, European Conference on Computer Vision 2022 (ECCV 2022)(论文题目:K. Nakata等人,“重新审视基于kNN的大容量存储的图像分类系统”,2022年欧洲计算机视觉会议)
[2] Image feature maps: multidimensional (e.g., 1,024-dimensional) numerical data obtained through neural network operations(图像特征图:通过神经网络操作获得的多维(如1,024维)数字数据)
[3] Explainability of AI: possibly of explaining the basis and reasons of results predicted by AI in a way that can be interpreted by humans.(人工智能的可解释性:以人类解读的方式解释人工智能预测的结果的潜在基础和原因。)
[4] Black-box problem: the process leading to the results predicted by AI is not interpretable to humans, making it a black box problem.(黑盒问题:人工智能预测结果的创造过程无法被人类解读,成为一项黑盒问题。)