(原标题:这类芯片,出路弘远)
若是您但愿不错常常碰头,宽容标星储藏哦~
源泉:实质编译自nextplatform,谢谢。
在高性能经营的大部分历史中,一台超等经营机经常是一个独处的征战,主要用于运行模拟或模子,其与外部宇宙的独一说合只需要一个相对较小的接口,用于涌现一些可视化实质。
但在生成式AI(GenAI)版块的东谈主工智能中,中枢在于不停从外界获取数据,并通过输出刻薄或活动来对外界进行回复。这意味着,AI集群需要高带宽、快速且无损的蚁集,以幸免虚耗本领——进而幸免虚耗这些荒谬不菲的AI处事器(搭载了GPU和其他类型的AI加快器)的老本。同期,聚合AI系统与外界的前端蚁集也可能需要从企业常见的10 Gb/秒速率升级。
这便是为什么像Arista Networks这么的公司对GenAI充满期待。
在2024年第三季度财报电话会议上,Arista高管默示,他们新增了一位“云巨头”客户,该客户加入了此前四家试用或试点其AI专用交换机的超大限制和云构建客户名单中,这些客户为下一代AI集群进行测试,咫尺每个集群中包含50,000到100,000个GPU,异日以至会更多。Arista进一步默示,还有15个企业客户正愚弄更少数目的GPU构建AI集群,他们也在测试Arista的产物,迟缓参加试点和分娩系统阶段。(咱们预料,企业可能部署了数千个GPU,以至多达10,000个,前提是他们能赢得Nvidia或AMD的GPU配额,以及CFO的预算批准。)
因此,AI蚁集需求正在迟缓开发,Nvidia的InfiniBand蚁集天然在AI集群中占据主导地位,但正濒临Arista以偏执自有的Spectrum-X产物线的竞争。以IT速率来看,这一发挥蹧跶了很长本领。但以太网的运转性能不及以充分愚弄这些GPU,因此在RDMA和拥挤实现方面作念了耕作,以便在InfiniBand强势的规模伸开竞争,并愚弄以太网在疏浚层级的后端采集会较InfiniBand更高的可膨胀性。
AI前端升级与后端之间的比例,即Arista首席引申官Jayshree Ullal所称的“AI中心”比例尚不明晰,因为这是一个新兴样式。跟着本领推移,这种比例也会变得越来越难以细目。(就像咫尺很难界定什么是“云”雷同。)2025年的预测是,AI后端蚁集市集为7.5亿好意思元,AI说合前端蚁集市集也为7.5亿好意思元,此外还有750亿好意思元用于校园蚁集。
Ullal在电话会议中讲明谈:“咱们越来越看到,每在后端蚁集上消费一好意思元,前端蚁集可能需要多消费30%、100%,以至200%。这便是为什么咱们敬佩,来岁将会再有7.5亿好意思元用于前端流量,其中包括AI,但不单限于AI。因此,我不会惊诧于这个数值在30%到200%之间,平均大略为100%,即后端为前端的两倍。是以咱们对此感到很乐不雅。咱们尚不明晰怎样精准地统计纯AI开销,这便是为什么我不停补充证实,当推理、西宾、前端存储、WAN和传统云交融时,纯AI开销会变得难以跟踪。”
但这将是来岁的事情。在9月的这个季度,Arista仍在奋发获取一些AI业务订单。它咫尺还是达成了五个大客户的走动(上个季度是四个)。咱们对这些客户的具体技俩所知未几,但知谈其中之一是Meta平台公司,正在构建两个集群,一个遴选Nvidia InfiniBand互连,另一个则使用Arista以太网。证据Ullal的说法,其中三位客户的发挥讲求;一位刚刚起步,而新加入的第五位客户发挥“较预期舒适”,因其“恭候新GPU,濒临电力和冷却等挑战”。
在这一季度,Arista的产物收入增长18.5%,达到15.3亿好意思元,处事收入增长28.2%,达到2.871亿好意思元。
产物中的软件订阅收入下落了30.2%,为2070万好意思元,牵累了合座软件和处事收入的增长,算计仅增长了21.4%,达到3.079亿好意思元。咱们不明晰这里的原因。
合座来看,该季度收入增长了20%,达到18.1亿好意思元,较上季度增长7.1%。预期收入范围为17.2亿到17.5亿好意思元。运营收入增长了30.2%,达7.85亿好意思元,涌现出讲求的老本实现和更高利润,净收入增长更快,达37.2%,为7.48亿好意思元,净收入占收入的41.3%,是自2019年第四季度以来的最高水平,且那时是因税收优惠而达到了47.2%的水平。这是着实的利润,而非管帐上的调养。第三季度部分研发老本推迟至第四季度也有所匡助。
Arista在第三季度末捏有73.4亿好意思元的现款及等价物,同比增长66.7%。客户采购首肯加多了15%,达到23亿好意思元,递延收入为25.7亿好意思元。
瞻望异日,Arista默示第四季度收入应在18.5亿至19亿好意思元之间,全年增长18%,此前预期为10%-12%。
关于2025年,跟着蚁集客户结构转向云和AI客户,计算收入将增长15%-17%,但毛利率可能下落3至5个百分点,年度收入将向上80亿好意思元。
至于向400 Gb/秒和800 Gb/秒互联的过渡,Ullal默示大大宗AI进修皆是针对400 Gb/秒的产物,因为客户正恭候蚁集接口卡和超以太网功能(如包喷射)以便升级到800 Gb/秒蚁集。
“天然咱们正在进行一些800 Gb/秒的早期进修,但大大宗进修仍然是400 Gb/秒的,”Ullal默示。“我计算到2025年,咱们将看到400 Gb/秒和800 Gb/秒之间的更好分派。”
https://www.nextplatform.com/2024/11/08/the-back-end-ai-network-puts-pressure-on-the-front-end/
半导体杰作公众号保举
专注半导体规模更多原创实质
热心公共半导体产业动向与趋势
*免责声明:本文由作家原创。著作实质系作家个东谈主不雅点,半导体行业不雅察转载仅为了传达一种不同的不雅点,不代表半导体行业不雅察对该不雅点赞同或因循,若是有任何异议,宽容说合半导体行业不雅察。
今天是《半导体行业不雅察》为您共享的第3941实质,宽容热心。
『半导体第一垂直媒体』
及时 专科 原创 深度
公众号ID:icbank
可爱咱们的实质就点“在看”共享给小伙伴哦