高能效浮点存内计算研究获突破
发布时间:2023-05-23 18:01:15 所属栏目:大数据 来源:网络
导读: 近年来,存内计算架构成为人工智能加速芯片的重要研究方向。存内计算架构能够降低数据访问开销,显著提升神经网络等智能算法的能效。目前,针对存内计算芯片的研究集中在定点存内计算领
近年来,存内计算架构成为人工智能加速芯片的重要研究方向。存内计算架构能够降低数据访问开销,显著提升神经网络等智能算法的能效。目前,针对存内计算芯片的研究集中在定点存内计算领域,现有浮点存内计算的实现方案采用近存电路、指数-底数分离、浮点-定点转换等方式,面临较低并行度或较多浮点运算周期的挑战,难以实现高能效和高性能。浮点运算对于未来的存内计算芯片具有重要意义,因为它具有更大规模的网络模型和复杂任务的需要,并且它必须能够在神经网络训练过程中实现浮点运算。 针对高能效浮点存内计算的挑战,中国科学院院士、中科院微电子研究所研究员刘明团队与清华大学教授刘勇攀团队合作,提出了“稠密存内+稀疏数字”的新型混合存内计算架构。研究发现,神经网络各层的数据分布具有长尾特性,且其中大部分数据的指数位密集分布在一个较小的区间内。基于此,研究提出了将高能效存内计算核心用于执行密集指数位的数据运算,将高灵活度稀疏数字核心用于执行具有长尾特性的稀疏指数位的数据运算。高效的浮点-定点转换电路、灵活编码的稀疏数字核心以及节省高位计算的数字存内计算加法器树电路进一步提升了该设计方案的能效。该SRAM存内计算芯片在28nm工艺下流片,在4比特定点和16比特浮点情况下,存内计算核心的稠密网络峰值能效分别达到275TOPS/W和17.2TOPS/W,稀疏网络峰值能效分别达到1600TOPS/W和90TOPS/W。 该方面的成果有助于推动SRAM存内混合计算芯片在高训练集准确率非线性浮点神经网络及神经网络最小二乘训练等方面的应用。 相关研究成果以A 28nm 16.9-300TOPS/W Computing-in-Memory Processor Supporting Floating-Point NN Inference/Training with Intensive-CIM Sparse-Digital Architecture为题,入选固态电路领域顶级会议ISSCC 2023。 顶级会议isscc2023。近年来,随着计算机技术的发展,电子信息技术已成为当今世界科技发展的重要方向之一。 (编辑:晋中站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
推荐文章
站长推荐