为降低AI芯片成本,英伟达收购两家AI创企

发布于: 雪球转发:0回复:0喜欢:0

文丨Congerry

在这波人工智能热潮中,英伟达不仅是最火的芯片厂商,也是最活跃的企业风投之一。

根据 PitchBook 的数据,仅去年一年英伟达就投资了 30 多家初创公司。现在,英伟达可能成为最活跃的人工智能初创企业收购者之一。

根据The Information报道,Nvidia 最近达成了两项收购以色列人工智能初创公司的协议,其中一项是周三宣布的 Run:ai,另一项是尚未宣布的 Deci。

这两笔交易旨在降低英伟达人工智能芯片运行成本,从而吸引更多企业客户采用其产品,并进一步巩固其在AI芯片市场的领先地位。

就在昨天,黄仁勋将全球第一台 DGX H200,亲手交付给 OpenAI。

Run:ai,让GPU资源利用率最大化

Run:ai成立于2018年,总部位于以色列特拉维夫,致力于通过软件层来优化GPU等AI加速芯片的利用率。该公司的Kubernetes管理平台能够将GPU等资源虚拟化,动态调度和分割,实现负载并行运算、资源共享和高效利用。

不同于CPU,GPU很难像虚拟化CPU那样进行细粒度资源划分和调度。目前大多数GPU在机器学习任务中都倾向于以整机独占方式运行,利用率较低。

Run:ai技术可打破这一格局,将整块GPU切分成多个小分区分配给不同任务,避免出现资源浪费的情况。

Run:ai平台与Kubernetes深度集成,用户可在其中集中管理计算资源池、动态调度任务、监控资源利用情况。同时,Run:ai也与Nvidia AI软硬件产品高度兼容,包括NGC容器、DGX系统等。

该公司此前已获Tiger Global、Insight Partners等机构的1.18亿美元融资,约有150名员工。据以色列媒体报道,Nvidia此次以7亿美元的价格全资收购了Run:ai。

Deci:AI,模型瘦身以节省算力成本

与Run:ai从资源管理层面优化AI算力利用不同,Deci则着眼于AI模型本身,通过模型压缩等技术降低算力需求。Deci可对CUDA架构开发的机器学习模型进行优化,使计算更高效、成本更低。

大型语言模型、计算机视觉等AI模型往往存在计算量巨大、部署困难的问题。Deci的自动化优化技术可以让同一模型在计算性能方面达到理想水平,但内存、存储和能耗需求大幅降低,从而节省算力成本。该公司曾为包括Adobe、应用材料(Applied Materials)等企业提供服务。

Deci成立于2017年,去年估值超过1亿美元。英伟达收购该公司有望将其技术与Run:ai、OmniML(2022年收购)技术融合,打造一个让AI开发者轻松构建高性能、低成本人工智能应用的端到端系统。

此外,两家公司高效AI芯片技术的获得,也让英伟达可以更好服务那些原本觉得其GPU成本偏高的企业客户。

目前尚无法得知 Deci 的收购价格。据LinkedIn称,这家特拉维夫初创公司已从Insight Partners、Emerge和Square Peg Capital等投资者那里筹集了5500万美元的风险投资,拥有约100名员工。

加码AI芯片应对新兴厂商挑战

想分AI芯片市场这块蛋糕的,不止英伟达一家。

谷歌、OpenAI、微软等科技巨头在AI芯片领域的渗透,让英伟达在自家主场面临了来自新兴玩家Cerebras、Graphcore等的挑战。

这些新兴公司均专注于人工智能专用芯片,设计目的是超越通用GPU芯片在部分AI场景下的计算效率。

例如Graphcore将定制化张量加速芯片运用在大型语言模型计算场景。此外,这些AI芯片新贵还获得了红杉资本、阿布扎比增长基金等机构超过60亿美元的资金支持。

尽管Nvidia GPU在通用AI计算能力方面仍占优势,但这些新兴厂商正成为挑战者,迫使英伟达加大创新力度。收购Run:ai和Deci正是其AI芯片领域两手并重的重要一步。

此前据报道,为寻找收购标的,英伟达高层曾征求多家风投公司建议,邀请十多家前景看好的AI创业公司做路演。经过评估后,Run:ai和Deci最终入选,这两笔并购将进一步强化英伟达在AI生态系统的控制力。

Run:ai的Kubernetes虚拟化技术将与Nvidia DGX云服务深度集成,开发者可更高效利用算力资源;Deci的优化技术将为Nvidia CUDA生态中的AI应用提供动力。这些举措无疑有助于扩大Nvidia GPU在AI界的应用,并防范潜在竞争对手。

然而,降低AI计算成本只是英伟达发力AI芯片市场的一个出发点。随着人工智能模型和算法的快速更新迭代,对硬件算力的需求也在不断攀升,这要求英伟达在芯片设计和制造工艺层面不断创新升级。同时,其他硬件厂商也纷纷加码AI芯片,长期竞争才刚刚开始。

除了算力,人工智能模型训练所需的巨量数据和能源也是制约因素。以ChatGPT等大型语言模型为例,其训练时耗费的算力和电力惊人,也产生大量碳排放。如何在确保AI芯片算力的同时,降低环境足迹,是企业和学术界亟待解决的难题。

不过,Run:ai和Deci帮助企业降低AI成本的可行途径,至少在当前阶段提供了暂时的缓解之策。随着更多创新技术的涌现,人工智能计算的效率有望继续提高,人工智能在现实世界中的应用前景将更加广阔。