跳至正文

爱芯元智CEO谈大模型Scaling Law:未来会放缓

仇肖莘:爱芯元智发布“爱芯通元AI处理器” 加速AI模型在大规模落地

近日,我国AI算力公司爱芯元智在2024世界人工智能大会暨人工智能全球治理高级别会议上正式发布了其用于AI端侧模型推理的“爱芯通元AI处理器”。据悉,该处理器的核心技术为算子指令集和数据流微架构,底层采用可编程数据流的微架构,具有高中低三档算力,支持原生transformer模型,已在智慧城市建设及辅助驾驶等领域实现规模化量产,未来可广泛应用于文搜图、通用检测、以图生文、AI Agent等模型场景。

爱芯元智董事长仇肖莘表示,大模型在大规模落地过程中,需要云、边、端三级紧密结合,其中边缘侧和端侧结合的关键在于AI计算与感知。为此,爱芯元智已基于自主研发的爱芯智眸AI-ISP和爱芯通元混合精度NPU两项核心技术,确立了“AIoT+ADAS”为主的一体两翼战略路线,并向边缘计算、AI推理领域深度拓展,助力智慧城市、智能驾驶等应用场景快速落地。

仇肖莘在接受钛媒体App采访时表示,团队正在密切关注业内合作伙伴在AI领域的大模型应用布局。她认为,大模型的Scaling Law(规律效应)并非绝对的“铁律”,其增长速度不会一直保持线性,未来必将迎来稳定的平滑优化期。她强调,半导体行业的发展趋势不仅体现在单芯片的提升,更是系统整体性能的调度、优化和管理。

对于大模型在端侧落地的应用场景,仇肖莘预测,首先将在车辆领域得到广泛应用,随后可能会扩展至手机、AI PC等设备。由于车辆需要实时响应的应用场景特点,使其成为端侧大模型的一种刚需。此外,她还提出“智能家居”将成为未来生成式AI的可能应用场景,借助家用AI服务器中枢,形成算力中心,实现多种设备的智能化控制。

谈及爱芯AI能力的商业模式,仇肖莘表示,行业主要有两类应用:一类是客户自身的SoC无法支持大模型,可通过爱芯的NPU IP集成到客户芯片中,提升其高效NPU能力;另一类则是利用爱芯的芯片和软件栈,实现大规模落地解决方案。她强调,半导体行业是一个长期发展的领域,选择合适的投资者至关重要。首先,投资者需充分理解半导体的行业特性及周期性;其次,芯片公司需努力实现商业闭环。因此,爱芯元智将持续推进规模化生产和力量产,打造健康稳定的产业链生态系统。

发表回复