Llama 3.2 发布:AI 模型实现多模态应用,手机端运行
Meta公司近日推出了一款名为Llama 3.2的AI模型,该模型具有开放性和可定制性,能够满足不同场景的需求。Llama 3.2拥有多种功能,如图像推理、文本摘要等,适用于各种场景。该模型在文本生成、多语言翻译、编码、数学和高级推理等方面表现优秀。
Llama 3.2模型分为四个版本,分别为90B Vision(文本+图像输入)、11B Vision(文本+图像输入)、3B(文本输入)和1B(文本输入)。各个版本根据不同的需求和场景进行了优化。例如,90B和11B版本适合用于企业级应用,而3B和1B版本则更适合应用于边缘设备和移动应用程序。
值得一提的是,Llama 3.2模型支持128K标记的上下文长度,这使得在边缘本地运行的设备用例(如摘要、指令跟踪和重写任务)中处于领先地位。同时,该模型可以直接替代相应的文本模型,并在图像理解任务方面优于其他闭源模型。
为了方便开发者在不同环境中使用Llama模型,Meta公司将分享首批Llama Stack官方发行版。这一发行版将大大简化开发人员在各种环境下的使用方式,实现检索增强生成(RAG)和工具支持型应用的快速部署,并集成安全性。
Meta公司与AWS、Databricks、Dell Technologies、Fireworks、Infosys和Together AI等合作伙伴紧密合作,为他们的下游企业客户构建Llama Stack发行版。设备分发将通过PyTorch ExecuTorch进行,单节点分发将通过Ollama。
此次推出的Llama 3.2模型将为企业和开发者带来更多可能性,推动人工智能技术的发展与应用。