存算一体CARM技术助力AI节能:千分之一功耗或成可能
明尼苏达大学研究人员成功研发新型计算随机存取存储器(CRAM)
近日,明尼苏达大学双城校区的研究团队宣布成功研制出一款名为CRAM的新型计算随机存取存储器。这款新型存储器的出现有望将AI芯片的能耗降低至千分之一,从而为我国AI产业的可持续发展提供重要支持。
根据国际能源机构的预测,AI的能源消耗在未来几年中将翻一番。到2022年,AI的耗电量预计将达到460太瓦时(TWh),而在2026年,这一数字将攀升至1000太瓦时。传统AI芯片在处理逻辑和内存之间的数据传输过程中,能耗巨大,这已经成为制约AI产业发展的瓶颈之一。
CRAM新型存储器采用了一种全新的设计理念,它将数据直接保存在存储器内部进行处理,避免了数据在不同存储器和逻辑之间的频繁传输,从而有效降低了能耗。实验结果显示,与传统方法相比,基于CRAM的机器学习推理加速器能耗可降低至千分之一,甚至更低。
值得一提的是,明尼苏达大学团队自2003年成立以来,一直致力于开发这项技术。他们以磁性隧道结(MTJs)相关专利为基础,通过创新性的CRAM架构,成功地突破了传统冯-诺依曼架构的限制,满足了各类人工智能算法对高性能和低能耗的需求。
目前,明尼苏达大学团队已开始与半导体行业领导企业展开合作,共同推动CRAM技术的规模化应用,以期在更大程度上降低人工智能的能耗。