在7月的盛夏,世界人工智能大会(WAIC)的前夜,一场关于AI算力芯片的企业会议在上海浦东一家酒店召开。两家专注于AI基础架构技术的公司高层悉数亮相,尽管他们是竞争对手,但共同的目的是争夺与一家AI芯片企业的合作订单。
据钛媒体App报道,其中一家AI基础架构公司的CEO在得知对手将出席此会议后,立即与主办方沟通,争取到一个演讲名额。他特意从北京海淀飞抵上海,在数百位媒体和合作伙伴面前,首次公开介绍了自己公司成立半年多以来的发展历程。
这位CEO的努力没有白费,不仅成功赢得了客户的合作,还在短短三天后,在世界人工智能大会(WAIC)的AI算力发布会上,顺利拿下了与另一家AI算力企业的合作许可,成果显著。
这仅仅是国内AI基础架构行业激烈竞争的一个缩影。AI基础架构,作为算力与应用之间的“桥梁”,是连接AI算力中心和算力云等推理、训练形式的基础软件设施层,为AI大模型应用提供软件系统、数据存储和处理、网络设施等技术,有效解决美国对华高端AI算力限制、模型断训、英伟达与国产算力解耦等问题。
在AI算力紧缺、美国英伟达GPU对华限制、模型成本“降本增效”等因素的影响下,兴起不足一年的AI基础架构行业已经成为中国AI大模型产业不可或缺的关键环节,也是与美国AI市场之间“别树一帜”的特色。
中金公司指出,目前AI基础架构产业处于高速增长的发展早期,未来3-5年内各细分赛道有望保持超过30%的高速增长。基金管理机构KKR&Co.数据显示,随着AI算力需求增长,全球数据中心投资有望达到每年2500亿美元(约合人民币1.9万亿元)。
红杉资本、贝恩等机构预计,到2027年,全球AI市场规模将飙升至近1万亿美元,AI硬件和服务市场年增长率达40%-55%。其中,全球将有超过4万亿元人民币(6000亿美金)投资到AI基础设施层,生成式AI计算规模增长至109.9亿美元,模型训练成本每年增长240%(2.4倍)以上。
在过去12个月内,AI基础架构已成为热门赛道。阿里、百度、字节火山引擎等公司都在积极布局AI基础架构技术产品。7月,AI基础架构公司硅基流动(SiliconFlow)完成天使+轮融资,总金额近亿元人民币,参与投资的有智谱AI、360、水木清华校友基金、耀途资本等机构;9月,无问芯穹完成近5亿元A轮融资,成立16个月内累计已完成近10亿元融资,投资方名单相当豪华——社保基金中关村自主创新专项基金、启明创投、联想创投等超过46家机构和实体。
无问芯穹联合创始人、CEO夏立雪表示,在一个互联网客户大模型推理的业务场景中,无问芯穹将整体算力使用效率提升了90%,有效解决了客户大模型业务中算力成本的问题,帮助业务伙伴实现算力成本的大幅下降。
他指出,“我们认为(公司未来)3-5年内肯定能够规模化地实现利润”。
随着AI大模型数据量规模增加,算力需求日益旺盛,但AI芯片成本高居不下。4万亿美金AI算力规模投入的背后,算力发展分化与鸿沟问题不断显现。
在Scaling Laws(缩放定律)的指引下,投入模型的计算资源和数据量越大,模型的能力就越强。过去十多年中,计算资源和数据的规模呈现出指数级增长,这也是AI重新进入公众视野的原因。
以下是一些关于AI大模型规模与算力基础设施成本之间的鸿沟的数据:
1. 美国OpenAI公司开发的GPT 1.0版本参数量1.7亿,而GPT-4版参数量可能已经超过1万亿,增长速度惊人;
2. GPT-3.5在微软云Azure AI超算基础设施上进行训练,总算力消耗约3640PFlops-days(即按每秒一千万亿次计算,需运行3640天);
3. 算力成本中,一颗台积电量产的3nm芯片成本超过2万美金;
4. 一个8卡的英伟达A100价格已超过25亿美金;
5. 2023年1月,ChatGPT使用近3万颗英伟达高端GPU来处理数亿个日常用户请求,此类GPU的单个售价就已高达数万美元,微软旗下由GPT模型支持的新Bing AI聊天机器人,仅在算力基础设施搭建环节就花费至少40亿美元,这一数额甚至超过了南苏丹一国的GDP。
如今,GPT-5预计要用超过10万卡集群设施。由此可见,随着AI大模型数据量规模增加,算力需求日益旺盛,但AI芯片成本高居不下。
过去12个月内,AI基础架构已成为热门赛道。阿里、百度、字节火山引擎等公司都在积极布局AI基础架构技术产品。7月,AI基础架构公司硅基流动(SiliconFlow)完成天使+轮融资,总金额近亿元人民币,参与投资的有智谱AI、360、水木清华校友基金、耀途资本等机构;9月,无问芯穹完成近5亿元A轮融资,成立16个月内累计已完成近10亿元融资,投资方名单相当豪华——社保基金中关村自主创新专项基金、启明创投、联想创投等超过46家机构和实体。
无问芯穹联合创始人、CEO夏立雪表示,在一个互联网客户大模型推理的业务场景中,无问芯穹将整体算力使用效率提升了90%,有效解决了客户大模型业务中算力成本的问题,帮助业务伙伴实现算力成本的大幅下降。
他指出,“我们认为(公司未来)3-5年内肯定能够规模化地实现利润”。
随着AI大模型数据量规模增加,算力需求日益旺盛,但AI芯片成本高居不下。4万亿美金AI算力规模投入的背后,算力发展分化与鸿沟问题不断显现。
在Scaling Laws(缩放定律)的指引下,投入模型的计算资源和数据量越大,模型的能力就越强。过去十多年中,计算资源和数据的规模呈现出指数级增长,这也是AI重新进入公众视野的原因。
以下是一些关于AI大模型规模与算力基础设施成本之间的鸿沟的数据:
1. 美国OpenAI公司开发的GPT 1.0版本参数量1.7亿,而GPT-4版参数量可能已经超过1万亿,增长速度惊人;
2. GPT-3.5在微软云Azure AI超算基础设施上进行训练,总算力消耗约3640PFlops-days(即按每秒一千万亿次计算,需运行3640天);
3. 算力成本中,一颗台积电量产的3nm芯片成本超过2万美金;
4. 一个8卡的英伟达A100价格已超过25亿美金;
5. 2023年1月,ChatGPT使用近3万颗英伟达高端GPU来处理数亿个日常用户请求,此类GPU的单个售价就已高达数万美元,微软旗下由GPT模型支持的新Bing AI聊天机器人,仅在算力基础设施搭建环节就花费至少40亿美元,这一数额甚至超过了南苏丹一国的GDP。
如今,GPT-5预计要用超过10万卡集群设施。由此可见,随着AI大模型数据量规模增加,算力需求日益旺盛,但AI芯片成本高居不下。
过去12个月内,AI基础架构已成为热门赛道。阿里、百度、字节火山引擎等公司都在积极布局AI基础架构技术产品。7月,AI基础架构公司硅基流动(SiliconFlow)完成天使+轮融资,总金额近亿元人民币,参与投资的有智谱AI、360、水木清华校友基金、耀途资本等机构;9月,无问芯穹完成近5亿元A轮融资,成立16个月内累计已完成近10亿元融资,投资方名单相当豪华——社保基金中关村自主创新专项基金、启明创投、联想创投等超过46家机构和实体。
无问芯穹联合创始人、CEO夏立雪表示,在一个互联网客户大模型推理的业务场景中,无问芯穹将整体算力使用效率提升了90%,有效解决了客户大模型业务中算力成本的问题,帮助业务伙伴实现算力成本的大幅下降。
他指出,“我们认为(公司未来)3-5年内肯定能够规模化地实现利润”。
随着AI大模型数据量规模增加,算力需求日益旺盛,但AI芯片成本高居不下。4万亿美金AI算力规模投入的背后,算力发展分化与鸿沟问题不断显现。
在Scaling Laws(缩放定律)的指引下,投入模型的计算资源和数据量越大,模型的能力就越强。过去十多年中,计算资源和数据的规模呈现出指数级增长,这也是AI重新进入公众视野的原因。
以下是一些关于AI大模型规模与算力基础设施成本之间的鸿沟的数据:
1. 美国OpenAI公司开发的GPT 1.0版本参数量1.7亿,而GPT-4版参数量可能已经超过1万亿,增长速度惊人;
2. GPT-3.5在微软云Azure AI超算基础设施上进行训练,总算力消耗约3640PFlops-days(即按每秒一千万亿次计算,需运行3640天);
3. 算力成本中,一颗台积电量产的3nm芯片成本超过2万美金;
4. 一个8卡的英伟达A100价格已超过25亿美金;
5. 2023年1月,ChatGPT使用近3万颗英伟达高端GPU来处理数亿个日常用户请求,此类GPU的单个售价就已高达数万美元,微软旗下由GPT模型支持的新Bing AI聊天机器人,仅在算力基础设施搭建环节就花费至少40亿美元,这一数额甚至超过了南苏丹一国的GDP。
如今,GPT-5预计要用超过10万卡集群设施。由此可见,随着AI大模型数据量规模增加,算力需求日益旺盛,但AI芯片成本高居不下。
过去12个月内,AI基础架构已成为热门赛道。阿里、百度、字节火山引擎等公司都在积极布局AI基础架构技术产品。7月,AI基础架构公司硅基流动(SiliconFlow)完成天使+轮融资,总金额近亿元人民币,参与投资的有智谱AI、360、水木清华校友基金、耀途资本等机构;9月,无问芯穹完成近5亿元A轮融资,成立16个月内累计已完成近10亿元融资,投资方名单相当豪华——社保基金中关村自主创新专项基金、启明创投、联想创投等超过46家机构和实体。
无问芯穹联合创始人、CEO夏立雪表示,在一个互联网客户大模型推理的业务场景中,无问芯穹将整体算力使用效率提升了90%,有效解决了客户大模型业务中算力成本的问题,帮助业务伙伴实现算力成本的大幅下降。
他指出,“我们认为(公司未来)3-5年内肯定能够规模化地实现利润”。
随着AI大模型数据量规模增加,算力需求日益旺盛,但AI芯片成本高居不下。4万亿美金AI算力规模投入的背后,算力发展分化与鸿沟问题不断显现。
在Scaling Laws(缩放定律)的指引下,投入模型的计算资源和数据量越大,模型的能力就越强。过去十多年中,计算资源和数据的规模呈现出指数级增长,这也是AI重新进入公众视野的原因。
以下是一些关于AI大模型规模与算力基础设施成本之间的鸿沟的数据:
1. 美国OpenAI公司开发的GPT 1.0版本参数量1.7亿,而GPT-4版参数量可能已经超过1万亿,增长速度惊人;
2. GPT-3.5在微软云Azure AI超算基础设施上进行训练,总算力消耗约3640PFlops-days(即按每秒一千万亿次计算,需运行3640天);
3. 算力成本中,一颗台积电量产的3nm芯片成本超过2万美金;
4. 一个8卡的英伟达A100价格已超过25亿美金;
5. 2023年1月,ChatGPT使用近3万颗英伟达高端GPU来处理数亿个日常用户请求,此类GPU的单个售价就已高达数万美元,微软旗下由GPT模型支持的新Bing AI聊天机器人,仅在算力基础设施搭建环节就花费至少40亿美元,这一数额甚至超过了南苏丹一国的GDP。
如今,GPT-5预计要用超过10万卡集群设施。由此可见,随着AI大模型数据量规模增加,算力需求日益旺盛,但AI芯片成本高居不下。
过去12个月内,AI基础架构已成为热门赛道。阿里、百度、字节火山引擎等公司都在积极布局AI基础架构技术产品。7月,AI基础架构公司硅基流动(SiliconFlow)完成天使+轮融资,总金额近亿元人民币,参与投资的有智谱AI、360、水木清华校友基金、耀途资本等机构;9月,无问芯穹完成近5亿元A轮融资,成立16个月内累计已完成近10亿元融资,投资方名单相当豪华——社保基金中关村自主创新专项基金、启明创投、联想创投等超过46家机构和实体。
无问芯穹联合创始人、CEO夏立雪表示,在一个互联网客户大模型推理的业务场景中,无问芯穹将整体算力使用效率提升了90%,有效解决了客户大模型业务中算力成本的问题,帮助业务伙伴实现算力成本的大幅下降。
他指出,“我们认为(公司未来)3-5年内肯定能够规模化地实现利润”。
随着AI大模型数据量规模增加,算力需求日益旺盛,但AI芯片成本高居不下。4万亿美金AI算力规模投入的背后,算力发展分化与鸿沟问题不断显现。
在Scaling Laws(缩放定律)的指引下,投入模型的计算资源和数据量越大,模型的能力就越强。过去十多年中,计算资源和数据的规模呈现出指数级增长,这也是AI重新进入公众视野的原因。
以下是一些关于AI大模型规模与算力基础设施成本之间的鸿沟的数据:
1.