苹果AI技术狂飙:四款大模型开源
近日,我国科技巨头苹果公司在Hugging Face平台上发布了一个高效的语言模型——OpenELM,该模型具有开源训练和推理框架。据了解,OpenELM有四种尺寸:2.7亿、4.5亿、11亿和30亿个参数版本,定位超小规模模型。这一举措意味着苹果正在缩小模型大小,使其可以在手机和笔记本电脑等设备上运行,降低运行成本。
值得一提的是,苹果在WWDC24开发者大会上彻底开源了OpenELM模型权重和推理代码,以及数据集和训练日志等信息。这意味着开发者和研究人员可以自由地使用和修改这些信息,进一步推动AI技术的发展和创新。
据论文显示,苹果开源的大语言模型OpenELM,采用了包括RefinedWeb、去重的PILE、RedPajama的子集和Dolma v1.6的子集等公共数据集,进行了约1.8万亿tokens数据的预训练。尽管参数较小,但表现出了强大的性能,甚至超过了某些大型模型。
此外,苹果还在GitHub平台上开源了CoreNet神经网络库,为开发者提供了更多的工具和资源。这一举动充分体现了苹果在AI领域的新战略,即通过开源和合作,促进AI技术的创新和发展。
总体来说,苹果在AI领域的发展和进步值得期待。随着各大公司和组织在AI领域的投入不断增加,我们有理由相信,AI技术将会迎来一个更加繁荣和创新的时期。