仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接
整理|褚杏娟
近日,网上曝出LeptonAI已通知用户,Lepton将于2025年5月20日正式停止运营,此后用户将无法再访问LeptonAI平台上的服务或提交的数据,建议用户在该日期之前尽快下载或备份所需数据。服务终止时,若用户账户中仍有未使用的积分,官方将会在关停后予以退款处理。
不仅如此,官方网站已经禁止新账户注册,显示正在维护。
LeptonAI的官方推特显示也已经被注销。
就在大约两周前,TheInformation报道,英伟达已完成对LeptonAI的收购,交易价值数亿美元,知情人士透露称创始人贾扬清及联合创始人白俊杰都已加入英伟达,目前还不清楚具体担任职位。
值得注意的是,黄仁勋还一直称英伟达是一家软件公司,LeptonAl创始团队都是软件方面的顶尖人才,或许这也是双方契合的一点。
收购消息刚被曝出来时,许多人猜测英伟达收购后是会仅保留机器学习人才、大砍业务,还是会继续运营LeptonAI的云平台。目前看来,英伟达似乎更在意的人才,而非其相关具体业务,毕竟如今已经选择了关闭服务。
对此,InfoQ向LeptonAl方面进行了求证,贾扬清对此回应称:无法评论,不过不是人才收购。
交易完成时LeptonAI约有20名员工,目前还未有消息指出这些员工的去留。英伟达此番价值可能达数亿美元的收购,实现了让LeptonAI投资方红杉中国、CRV和FusionFund较为可观的退出,大约在两年前他们参与了该公司1100万美元的种子轮融资。
起于“百模大战”
LeptonAI成立还不到两年的时间。两位创始人在业内都颇有名气:贾扬清在博士期间创立并开源了深度学习框架Caffe,白俊杰是开放式神经网络交换标准ONNX的共同创始人以及Caffe2的核心开发者。贾扬清先后在谷歌、Meta任职多年,2019年3月起在阿里担任技术副总裁。白俊杰也曾分别在Meta、阿里云任职。两人担任AI研究员时,共同开发了PyTorch框架。
2023年3月,贾扬清离开阿里云,四个月后宣布联合创立了LeptonAI。他们创业时,正值国内“百模大战”,贾扬清等人没有直接入局大模型,而是选择成为大模型的基础设施提供商。不过,他们自己没有购买GPU,而是用租用的方式,然后对外提供算力租赁等服务。这种模式被称为是典型的“人工智能即服务(AIaaS)”,即通过云计算平台预配人工智能(AI)服务和工具。
LeptonAI整个团队主要在海外,所以目标客户主要为海外企业和国内想要拓展海外市场的企业。官网显示,Lepton的服务主要包括:
全托管的AI云平台Lepton:支持模型的开发、训练和部署,包括开箱即用的Serverless接口,兼容OpenAIAPI;完全自定义的专属推理接口;支持运行分布式训练或批处理作业等。
企业版Lepton:管理节点组,同时允许用户使用自有服务器创建自托管的节点组。
PythonSDK,帮助用户构建AI应用。
与LeptonAI同名的云平台专为AI工作负载优化,用户可以在平台上进行模型训练和推理。该公司提供了一个可视化界面,帮助用户在其云平台上配置训练集群,并支持多款Nvidia显卡选择。对于需要并行训练多个模型的团队,平台还提供了一种集中管理每个项目分配硬件资源的工具。
在模型训练过程中,有时会出现降低输出质量的错误,LeptonAI的平台具备检测此类错误的功能,同时还能发现更为隐蔽的技术问题,比如神经网络在训练过程中使用了超出预期的内存等。
模型开发完成后,LeptonAI用户可以将模型部署在平台提供的推理优化实例上。该平台承诺,在推理过程中能够实现超过每秒600个token的处理速度,同时将延迟控制在10毫秒以内。平台还具备自动扩展功能,当推理需求增加时,可自动为客户增加计算资源。
LeptonAI还采用开源工具vLLM来加速推理。该技术能够将相似的大模型提示合并成一次请求,从而减少模型所需处理的计算量。开发者还可借助vLLM降低模型的内存占用。
此前,贾扬清在接受InfoQ《大模型领航者》栏目采访时表示,团队在技术实现上没用什么“黑科技”,而是将很多耳熟能详的单点技术结合起来,以实现成本的显著降低,如大模型处理服务收到大量请求时的动态批处理(DynamicBatch)、用小模型预测数个token的预测解码等。具体如何实现单点技术的有机结合,就是他们工作的重点和难点。
期间,团队还基于Lepton做了一些产品demo。比如,贾扬清曾在其社交平台分享了他基于LeptonAl实现的AI搜索引擎(类似Perplexity),而且只用了不到500行代码。这个项目当时引起了大家热议,目前也已经开源,斩获8.1k颗星。
“通过这些产品,我们可以展示自己在开源模型上能做的事情,以及Lepton平台帮助用户构建应用的能力。”贾扬清曾表示。团队希望通过这些产品或demo可以在用户中形成好的口碑,当有人需要部署大模型时就会想到LeptonAI。
贾扬清还积极对外分享最新的大模型进展思考。比如DeepSeek爆火后,贾扬清分析称,它的成功更多体现了纯粹的智慧与务实:在计算资源和人力有限的前提下,通过聪明的研究方法,产出最好的成果。这与当年AlexKrizhevsky在只有两块GPU的情况下造出AlexNet模型一样,靠的不是超大规模集群,而是扎实的能力。
目前,贾扬清的x分享停留在了3月中旬。
止步于算力巨头的野望
AI爆发后面临的主要问题就是缺算力。为了减少投入,不少企业“由买转租”,这催生了算力租赁的诞生,算力租赁价格一年就可实现翻倍。
北美和欧洲地区仍是算力租赁市场的主导者。像CoreWeave是挖矿起家,英伟达通过投资支持、供货保障等方式扶持CoreWeave。CoreWeave采用“GPU即服务”(GAAS)模式,拥有32个数据中心,运行超25万+GPU,主要服务微软、英伟达、OpenAI、Meta、Google等北美大客户。而欧洲本地云服务商Nebius,在芬兰拥有一个部署了约2万个GPU的数据中心。受益于欧洲扶持政策,Nebius以短期租赁性价比取胜。值得注意的是,Nebius也获得了英伟达的投资。
值得注意的是,LeptonAI与英伟达若干主要客户的服务存在竞争关系,其中包括AI云服务商CoreWeave。贾扬清去年6月时曾透露,LeptonAI的客户数量和整体营收都处于非常健康的增长状态,他对此也比较满意,验证了团队之前的想法和产品在用户中的接受度。
对于英伟达此次收购LeptonAl的目的,业内猜测是其欲试图完全掌控供应链,而不仅仅是负责制造部分。与其只出售显卡或AI芯片,英伟达选择提供完整的解决方案:自己开发芯片、组装服务器、再提供租赁服务。这正是人们常说的“垂直整合”——一家公司掌控从上游到下游的整个流程。
这种垂直整合策略让英伟达能够从芯片设计到算力租赁的全产业链中获利,同时还能更好地控制其GPU芯片的使用方式和价格策略,进一步增强其在AI计算领域的主导地位。
通过这一策略,英伟达还成功规避了一个行业中常见的问题:库存积压。当市场降温、销量下滑时,许多公司往往会被大量滞销的设备所拖累。但如果英伟达可以自己出租服务器,就能让设备始终保持运转状态,同时还能继续从中盈利。
SemiAnalysis指出,通过收购Lepton,英伟达不仅获得了额外的收入来源,还可能挤压其他云服务提供商的生存空间。通过打造这套自有体系,英伟达也更有能力与亚马逊、谷歌和微软等巨头竞争,它们同样在AI领域布局,并采用定制芯片(也就是常说的ASIC)提供服务。
这也对应了黄仁勋的想法。他在今年3月的GTC大会上表示,英伟达不再是一家芯片公司,也不再是一家AI公司,而是一家算法和基础设施公司。
目前,英伟达正在投入构建AI基础设施,规划周期必须在上游和下游都延伸多年。黄仁勋想要把英伟达打造成一个AI工厂,直接成为客户的收入来源。“每个行业、每个国家、每家公司都来到这里,因为我们已经成为一个基础平台,其他公司可以在此基础上构建自己的业务。”
参考链接:
https ://www.theinformation.com/briefings/nvidia-closes-acquisition-gpu-cloud-startup-lepton
https ://www.infoq.cn/article/w155KHeD4mR860s7cPEz?utm_source=chatgpt.com
https ://tecfoco.com.br/nvidia-compra-lepton-ai-e-entra-de-vez-no-aluguel-de-servidores-com-ia
声明:本文为InfoQ整理,不代表平台观点,未经许可禁止对全文或部分内容进行转载。
InfoQ老友!请留步!极客邦1号客服上线工作啦!
后续我将通过微信视频号,以视频的形式持续更新技术话题、未来发展趋势、创业经验、商业踩坑教训等精彩内容,和大家一同成长,开启知识交流之旅欢迎扫码关注我的微信视频号~
今日荐文
95后中国开发者刚刚发布“摸鱼神器”,比Manus快4倍!实测结果能否让打工人逆袭?
人形机器人“颤颤巍巍”跑完北京马拉松,冠军身价抵轿车,季军仅3.9万:20家企业发展实录
宇树回应机器人比赛摔倒,唯一无人陪跑机器人获亚军;月之暗面或多名产品经理离职;腾讯启动史上最大就业计划|AI周报
被Cursor连拒两次,OpenAI怒砸30亿美元收购竞品!奥特曼新打法:大模型公司要直接做应用赚钱
你也「在看」吗?👇