大模型热退背后的难题与瓶颈
大模型发展面临盈利难与落地难的问题
随着2024年的临近,大模型似乎开始走下坡路:资本市场的相关概念难以炒作,英伟达股价频繁波动,引发了“泡沫破裂”的担忧;消费市场上,BATH公司的创新活动减少,产品更新速度放缓,民众关注度下降。然而,在这场热闹的竞争中,大模型似乎还有两大战场:一是各大公司之间的“价格战”,二是各大公司在公共场所的广告营销。这些现象的出现,不禁让我们思考,大模型的未来出路在哪里?存在哪些难点和卡点?
首先,大模型面临着盈利难的问题。尽管像OpenAI这样的大模型公司,也面临“吃饭”的难题。OpenAI预计亏损50亿美元,全年运营总成本高达85亿美元,按照这样的估算,其现金流可能在一年内耗尽。而要想推出下一代的大模型GPT5,OpenAI还需要更多的数据和算力,这也是一大笔花费。目前市面上的大模型,大部分都采取To C+To B的方式,即通过会员订阅和开发者API调用两条腿走路。但是无论是To C还是To B,能一开始就产生付费的很少,而且除去沉重的负担,大多数都无法盈利。
其次,大模型在落地方面也面临着困难。虽然大佬们高喊ChatGPT的问世是“iPhone时刻”,是新一代的“火”和“电”,但是实际上,当前的大模型还存在许多局限性,包括认知偏差、缺乏主动性、泛化性能弱、易产生幻觉等问题。例如,在数学计算方面,大模型明显处于弱势,甚至不如小学生。此外,大模型的数据更新不及时,需要外挂知识库才能在一定程度上缓解这个问题,但这仍然无法完全解决问题。在B端,由于缺乏实战经验,大模型在行业中的应用尚没有一个成熟的案例。
再者,大模型的发展也受到数据、算力和成本等方面的限制。如果把大模型比作一头巨兽,那么它的一个显著特点是“不停地进食”:需要大量的优质、广泛的语料进行长期、高频次的喂养。然而,这对数据的挖掘、获取提出了严峻的挑战,涉及各方权益保障、利益分配、版权归属等问题,通常在涉及敏感信息时,数据的清洗、标注、脱敏等工作也会非常复杂。
此外,如果把AI链路比作一间工厂,那么算力就是维持工厂运行的燃料(煤、石油、电力等)。大模型需要巨大的算力支持,初始的ChatGPT就需要超过7亿元的算力。后续优化过程中,每天的算力消耗大约是3640PFLOPS,相当于需要7至8个达到500PFLOPS的数据中心的支撑,整体基础设施建设费用以百亿元计。随着大模型规模的扩大,算力需求会成倍增加,已经超过了硬件的摩尔定律。
然而,大模型在产业中的应用正在逐步拓展。大模型不再是仅仅停留在实验室里只会聊天、写诗、作画的模型,而是开始走进各个产业,发挥Agent的作用。例如,在矿区,华为的盘古矿山大模型可以替代人工,成为主运智能监测系统的眼睛,精准识别异常情况,提高安全性;在物流领域,京东的言犀大模型帮助快递员完成各种任务,提高工作效率;在零售行业,京点的AI工具可以帮助商家制作吸引人的商品图和文案。
总之,大模型的发展仍面临许多问题和挑战,包括盈利难和落地难等。但是,我们也看到了一些积极的信号,大模型已经开始向产业迈进,发挥着重要的作用。我们期待在未来能看到更多的大模型在各行各业的应用,发挥更大的价值。