您的位置:主页 > 公司动态 > 公司新闻 > 公司新闻
AI芯片封堵再加重,国内算力需求寻路
导读
壹 ||在我国算力包围途径中,国产GPU芯片自研代替被认为是*大挑选,但这一挑选需求时刻。现在最实际的挑选是,怎么*化地运用现有的高端芯片资源。
贰 ||毫无疑问,当国内算力供应因芯片卡缺少堕入严重时,云端算力能够补位。
叁 || 据工信部音讯,近年来我国算力工业规划快速增加,年增加率近30%,算力规划排名全球第二,仅次于美国。但当下的问题在于,这其间一部分并不是本轮生成式AI所需求的智能算力,而仅仅通用算力。
关于英伟达A800芯片或许被禁售的音讯,正在引发连锁反应。
一位英伟达芯片代理商告知记者,大约一周前,关于英伟达A800芯片被禁售的这个信号“让市场上的A800价格一会儿涨了起来。”
据这位代理商介绍,英伟达A800 80GB PCie标准版GPU的市场价,15天前在9万元人民币/颗,“现在(一颗)11万元左右。”即使价格飞涨,他告知记者,英伟达的高端算力GPU芯片仍然是“抢手货”,在他看来,英伟达的H800系列GPU芯片现在还能够正常供应,只不过价格更高了。
一面是越来越贵、越来越稀缺的高端芯片,一面是下流需求高涨的“百模大战”,寻觅另一条路途,成为火烧眉毛的挑选。
在被认为是“史上最火爆”的上海2023年国际人工智能大会(WAIC)上,算力需求和缺口成为了高频词汇。
7月7日上午,清华大学电子工程系教授汪玉表明,若以大言语模型作为底座,一起处理我国14亿人的推理恳求,所需的核算量超越现在我国数据中心总算力的3个数量级。他由此着重我国现有算力资源的严重程度。
“没有大算力,做大模型就是天方夜谭。”我国工程院院士、鹏城试验室主任高文也在WAIC上泄漏,团队正在紧锣密鼓地对一个2000亿参数的大模型进行练习,至少“需求4000块卡练习100天”。
云核算技术专家刘世民早早注意到,国内正式途径现在益发买不到高端AI芯片,面临算力开展遭受约束,他也看到,一些云厂商根据相关AI产品能够供应GPU算力这一最根底的AI服务,当然,其间不乏AWS、Azure这样的海外云服务商。
“现在算力比较严重,所以会挑选租借云算力。”云从科技研究院的孙进泄漏,买不到高端算力卡,加之自建算力集群周期长,即使租借云算力本钱相较自建要高,“高出50%~100%”,但这仍然成为一些对算力有需求的科技公司的挑选。
现在,这条路途也在面临更多应战:7月4日,有音讯称美国计划对运用亚马逊云、微软云等海外云核算服务的我国企业施加约束。这是继上一年美国约束对华半导体出口,本年撮合日本、荷兰对华约束出口先进芯片制作设备后又一行动,“现在估量又要封堵云GPU了。” Vibranium Consulting副总裁陈沛说。
01 围堵加码
陈沛介绍,云GPU要比自建GPU算力集群贵,“大型云厂商的价格差不多一小时2-3美元。”据他所知,AWS、Azure这样的大型云服务商在新加坡有供应部分品种的云算力服务,在我国亦然。
2022年8月,当英伟达的GPU核算芯片A100和H100被美国政府要求约束向我国出口后,对高端算力有需求的厂商,还能够在具有先进制程AI芯片的AWS、Azure等云厂商供应的云端算力服务中得到满意。
当今约束假如继续晋级,我国厂商未来若想运用AWS、Azure等海外云服务商的云端算力服务,也要取得美国政府答应才行。
2022年,由IDC、浪潮信息、清华大学全球工业研究院联合编制了一份《2021-2022全球核算力指数评价陈述》,量化提醒了算力的重要性:全球各国算力规划与经济开展水平明显正相关,核算力指数均匀每进步1点,数字经济和GDP将别离增加3.5‰和1.8‰;美国和我国的核算力指数别离为77分和70分,同属国别核算力的领跑者。
上述半导体职业调查人士主张,正在算力侧打开自研立异的我国厂商们,当下“需求丢掉梦想”,她认为,只要不断霸占芯片的老练制程,叠加软件立异才干一起进步算力。
在我国算力包围途径中,国产GPU芯片自研代替被认为是*大挑选,但这一挑选需求时刻。现在最实际的挑选是,怎么*化地运用现有的高端芯片资源。
02 算力同享
依照外媒此前发表,作为微软全力扶持的AI创业公司,OpenAI具有微软Azure云最高优先级的支撑——约有2.5万个英伟达GPU正在支撑GPT大模型的练习,这是现在国际上规划最巨大的AI服务器之一。而OpenAI光用在练习ChatGPT上,就运用了1万个英伟达的GPU。
但即使是微软,GPU也面临缺口。本年6月,在揭露的OpenAI CEO Sam Altman 说话纪要中说到,GPU的缺少延迟了Open AI客户的许多短期计划。但这份说话纪要很快被删去。
依照此前媒体报道,现在我国企业GPU芯片持有量超越1万枚的不超越5家,具有1万枚A100的至多1家。且因为美国上一年8月开端算力封闭,这些存货的剩下运用寿命约为4-6年。
但实际正在急剧改变:伴随着本年以来的生成式AI浪潮和大模型井喷,此前存在的缺口无疑还在进一步扩大。
由此,在国内推进“算力同享”被提上日程。
北京市经信局4月下旬发布的“北京市通用人工智能工业立异同伴计划”,开展敏捷。7月3日,计划发布了第二批同伴名单中共有63家企业,其间包含百度、京东、神州数码和金山等10家算力供应同伴。
北京市经信局发布的*批算力供应方同伴名单只要两家,一个是北京超级云核算中心,另一个就是阿里云核算有限公司。
2022年8月30日,阿里云推出飞天智算渠道的一起,还启动了张北和乌兰察布两座超大规划智算中心,以公有云和专有云两种形式,为各类组织供应服务。
彼时阿里云表明,其智算渠道以及智算中心可将核算资源运用率进步3倍以上,AI练习功率进步11倍。毫无疑问,当国内算力供应因芯片卡缺少堕入严重时,云端算力能够补位。
当阿里云提出“算力普惠”的方针愿景时,华为也经过推出昇腾AI集群处理计划,以添补着算力需求和硬件算力供应间的沟壑。在7月6日下午的WAIC上,华为昇腾核算事务总裁张迪煊宣告,昇腾AI集群规划从开始的4000卡扩展晋级至16000卡,成为业界*万卡AI集群,其算力现已在支撑像科大讯飞等企业进行大模型练习以及智能化转型。
03 AI缺口
现在获益于昇腾AI集群的算力支撑,讯飞星火大模型的优化练习在有序进行中。科大讯飞高档副总裁胡国平在WAIC上着重,一切的大模型练习都激烈依靠高端AI芯片集群和生态。
不过,孙进告知记者,云端算力同享或租借,往往适用于低频练习需求的厂商。“根据相同或同类型的算力芯片,云厂商供应的云GPU的确能够构成代替。”但他表明,“各地建造的练习算力集群,大部分是消费级推理卡集群,或者是CPU集群。”
一般来说,算力被分为三类:通用算力、智能算力、超算算力。在传统工业数字化转型的场景中,根据一般CPU芯片集成的服务器所能供应的通用算力就可满意;而人工智能开展、大模型的练习和推理,这些对应的则是智能算力,是要根据AI芯片所供应的算力。此外,天体物理、航空航天等杂乱运算则需求超算算力。
据工信部音讯,近年来我国算力工业规划快速增加,年增加率近30%,算力规划排名全球第二,仅次于美国。
但当下的问题在于,这其间一部分并不是本轮生成式AI所需求的智能算力,而仅仅通用算力。
此前发布的《我国算力指数开展白皮书(2022)》显现,中、美在全球算力规划中的比例别离为33%、34%,其间通用算力比例别离为26%、37%,智能算力别离为28%、45%,超级算力别离为18%、48%。
在刘世民看来,算力同享的确能够让更多企业能用上算力,但先进芯片所代表的高端算力,一旦被约束,必然约束国内算力的增加。当今,我国的人工智能工业又现已步入AIGC年代,参加其间的厂商需求进行的是高频练习,继续的优化迭代。
值得重视的是,算力需求暴增下,供应背面的国产GPU自研以及软件立异,都将是我国厂商萧规曹随要处理的问题。
陈沛说,种种约束框架下,英伟达供应的高端算力,在市场上不只受欢迎,仍是刚需。陈沛记住2020年OpenAI练习GPT-3时,用的是英伟达GPU芯片V100,“一万颗,耗时14.8天”,但在一周前,他看到英伟达宣布的最新测验成果中显现,仅用3000多颗H100 GPU芯片,11分钟就完成了GPT-3的模型练习。
“英伟达仍然是AI练习范畴的老迈。”陈沛说。
一位国产AI大模型厂商的创始人也告知记者,现在其自研的大模型正在储藏的英伟达算力芯片上“跑着”,虽然芯片禁售是未来式,但面临大模型浪潮所带来的高频算力需求,现在咱们没有太多的备选计划。
下一篇:只要比亚迪,才能救奥迪?