元宇宙推出LLM编译器代码优化模型

Meta 近日发布了一款名为“LLM Compiler”的预训练模型,该模型基于 Code Llama 构建,主要致力于代码优化。据悉,这款模型已经登录到 Hugging Face,并提供 70 亿参数和 130 亿参数的两个版本,可供学术界和商业领域使用。Meta 认为,尽管当前已有许多语言模型在各种编程任务中表现出了强大的能力,但在代码优化方面仍有提升的空间。因此,他们推出了 LLM Compiler 模型,以满足这一需求。

据悉,LLM Compiler 模型在 5460 亿个 LLVM-IR 和汇编代码标记的庞大语料库上进行了训练,其“代码优化潜力”可达 77%。开发者可以将该模型与其他 AI 模型相结合,以提高生成的代码质量。据 Meta 介绍,LLM Compiler 模型的训练目标是模拟编译器对代码进行优化,或将已经优化的代码转换回原始语言。

此次发布的 LLM Compiler 模型有望帮助开发者在编写代码时避免一些常见的错误和陷阱,提高代码的可读性和可维护性。此外,通过结合其他 AI 模型,开发者可以进一步挖掘代码优化的潜力,提高代码质量和效率。

发表回复