网站首页

产品中心

智能终端处理器 智能云服务器 软件开发环境

新闻中心

关于江南体育

公司概况 核心优势 核心团队 发展历程

联系江南体育

官方微信 官方微博
主页 > 新闻中心

江南体育比英伟达快10倍的AI芯片问世概念龙头已起飞背后线倍

发布时间:2024-02-23 22:21浏览次数: 来源于:网络

  江南体育官网受外围AI题材全线暴涨影响,A股节后相关题材也大幅反弹。申万一级行业通信、传媒两大指数节后均大涨超7%,高居涨幅榜前二,计算机指数大涨超4%,位居涨幅榜第四。概念涨幅更为猛烈,多模态模型指数大涨超16%,10多个相关指数涨超10%。部分个股大幅飙升,会畅通讯300578)、中文在线)、当虹科技等两天大涨超40%。

  昨日AI题材再曝大消息,一家名为Groq的初创公司在AI圈爆火,其开发的LPU推理引擎,推理速度较英伟达GPU提高10倍,成本只有其1/10。在此消息影响下,昨日相关个股尾盘飙升,西测测试301306)和北京君正300223)急速20cm涨停。

  目前,AI芯片市场主要是由英伟达主导,H100也公认是训练大语言模型最需要的GPU。在AI大发展的背景下,英伟达业绩股价双双暴涨。华尔街预计英伟达第四财季营收超过200亿美元,是上年同期60.5亿美元的3倍多,其业绩也将于北京时间2月22日公布。股价方面,在去年大涨239%的情况下,今年英伟达股价再度暴涨超40%,最新市值超1.7万亿美元,一度超过谷歌、亚马逊成为美股第三大公司。看好AI市场的广阔空间,微软、谷歌、AMD江南体育、英特尔等巨头也纷纷发力AI芯片业务。据报道,科技巨头微软公司正在开发一种新的网卡,用来提高其人工智能芯片Maia的性能,最终达到减少对英伟达产品依赖的目的。另外,去年底作为英伟达最强挑战者的AMD,则发布了“最强算力”Instinct MI300X江南体育。

  初创公司Groq近期的消息更是吸足了眼球。该公司是一家由谷歌TPU团队 的成立的初创公司,这些人推出了一种新型的自研芯片——LPU(Language Processing Unit),这个LPU用于大模型推理加速。其芯片推理速度较英伟达GPU提高10倍、成本只有其1/10;运行的大模型生成速度接近每秒500 tokens,碾压ChatGPT-3.5大约40 tokens/秒的速度。

  根据推特上与Groq关系密切的投资人k_zeroS分享,LPU的工作原理与GPU截然不同。它采用了时序指令集计算机(Temporal Instruction Set Computer)架构,这意味着它无需像使用高带宽存储器(HBM)的GPU那样频繁地从内存中加载数据。这一特点不仅有助于避免HBM短缺的问题,还能有效降低成本。不同于Nvidia GPU需要依赖高速数据传输,Groq的LPU在其系统中没有采用高带宽存储器(HBM)。它使用的是SRAM,其速度比GPU所用的存储器快约20倍。不过真相可能并不简单。业内大佬贾扬清算了一笔账,因为Groq小得可怜的内存容量(230MB),在运行Llama-2 70b模型时,需要305张Groq卡才足够,而用H100则只需要8张卡。从目前的价格来看,这意味着在同等吞吐量下,Groq的硬件成本是H100的40倍,能耗成本是10倍。

  然而这并不影响A股市场对SRAM概念股的追捧。昨日尾盘,北京君正在短短1个小时内由绿盘拉升至20cm涨停,西测测试在不到10分钟时间拉升14%水平。今天早盘部分概念股继续冲高,西测测试一度大涨超16%,北京君正一度涨超8%。

  业内人士指出,上述概念股的涨幅较大,一方面确实有SRAM概念助攻,另一方面作为核心题材的存储器本身也受益于AI时代大发展。与此同时,存储复苏也利好整个板块。国投证券研报显示,主流市场的存储厂商自2023年三季度以来迎来业绩拐点,受益于AI服务器需求激增,高带宽存储芯片HBM 受到热捧,成为存储芯片行业发展的重要增量。据TrendForce 预计,今年一季度 DRAM 合约价季涨幅约13%至18%,NAND Flash为18%至23%,全年维持上涨趋势江南体育,到2024年底,DRAM和NAND Flash 的价格将上涨约60%。一些公司的业绩也有望暴增。根据机构一致预测,朗科科技300042)、德明利001309)、恒烁股份等3股机构一致预测今年净利增速均超18倍,普冉股份、澜起科技、江波龙301308)、聚辰股份等个股机构一致预测今年净利增速均超100%。与业绩不相符的是,大部分个股股价表现不佳,佰维存储、恒烁股份、大为股份002213)、中电兴发002298)等个股年内均跌超30%。

下一篇:江南体育炸裂!一文详解美AI芯片巨头“成绩单”
上一篇:江南体育需求火爆 黄仁勋:AI芯片供不应求状况将贯穿全年

咨询我们

输入您的疑问及需求发送邮箱给我们