Niv-AI这家以色列初创公司昨天正式亮相,直接甩出1200万美元种子轮融资,目标直指AI算力工厂里最烧钱的那个环节——GPU功耗失控。
过去两年,前沿实验室动辄几千上万块GPU一起跑大模型,功率需求在毫秒级疯狂跳动。数据中心为了不被电网甩脸子,只能两种办法:要么花大价钱买临时储能缓冲峰值,要么直接把GPU性能掐掉30%。Jensen Huang在GTC上说得直白,每一瓦没用上的电,都是白扔的收入。Niv-AI创始人Tomer Timor和CTO Edward Kizis去年才建队,现在就带着Glilot Capital、Grove Ventures、Arc VC等一票以色列和硅谷基金杀出来了。
他们第一步干的事很简单粗暴:在机架层面装上自家的高精度传感器,精确到毫秒抓取GPU真实功耗曲线。目前已经在自家GPU和几个设计合作伙伴的集群上跑数据采集。为什么非得自己测?因为公开的功耗数据太粗糙,根本看不出不同深度学习任务的真实功率profile。训练Transformer和跑推理,峰值差能到几倍,传统监控根本跟不上。
拿到海量毫秒级数据后,Niv-AI打算建AI模型来预测和调度整个数据中心的负载。说得通俗点,就是给数据中心工程师配个“用电副驾”,提前知道哪块GPU集群下一秒要冲高功率,提前把其他任务的节奏错开,避免集体峰值把电网吓尿。Timor在采访里把这事比作拔河:一边是数据中心想榨干已付电费的每一瓦,另一边是电网怕数据中心突然抽太多电把自己搞崩。Niv-AI想当中间那个聪明绳子。
这套打法对当下特别扎心。 hyperscaler建新数据中心已经卡在土地、变压器、输电线路好几道关口,供应链一拖就是18-24个月。现有集群如果能把被掐掉的那30%性能抠回来,等于不用等新厂房就能多跑30%的算力。Grove Ventures的Lior Handelsman直接放话:现在这种建数据中心的方式根本玩不下去了。
公司计划6-8个月内在美国几家数据中心上线可运行系统。估值他们死活不肯说,但1200万种子轮在AI基础设施赛道已经算中上水平,背后投资人阵容也够硬。相比那些还在画大饼的能源优化项目,Niv-AI至少已经开始实测真实GPU集群,而不是停留在PPT阶段。
加密市场今天整体偏软,BTC现报$73,944(24h -1.49%),ETH现报$2,318(24h -1.44%),主流币种普跌1-4个百分点,唯独TRX逆势拉了4.16%。但AI基础设施这块的叙事从来不缺资金关注,尤其当算力瓶颈从芯片转向电力那一刻,任何能让现有GPU多榨10%甚至20%性能的公司,都可能成为下一轮VC疯抢的对象。Niv-AI现在就是在赌这个时间窗口——电网升级赶不上AI用电爆炸的速度,谁先把“智能用电层”插进去,谁就吃到最肥的那块肉。
他们强调这不是简单省电,而是双赢:数据中心多用GPU多赚钱,电网少挨峰值冲击少建备用容量。听起来很理想,但实际落地还得看毫秒级预测模型到底准不准,调度算法会不会把训练任务搞崩。毕竟AI训练最怕的就是被打断,Niv-AI的“副驾”要是调度失误,反而可能让损失更大。
眼下这家公司还处在早期验证阶段,传感器数据采集刚起步,AI调度模型更是八字没一撇。但方向够狠,切中了AI工厂当下最疼的点。未来半年如果真能在几家美国数据中心把系统跑稳,下一轮融资大概率会变成拍卖会。毕竟谁都不想看着几亿美元的GPU因为电不够用在那干瞪眼。