2026年1月6日星期二

交出历史最好成绩单的蔚来,只为 2026 准备了 3 款车

紧绷了一整年的李斌,终于能稍稍松一口气了。

1 月 6 日早上,蔚来的第 100 万台量产车在合肥下线,距 2014 年蔚来成立,已经过去了 12 年。

在刚刚翻篇的 2025 年,蔚来也交出了一份足够提振士气的成绩单。

蔚来 2025 年全年交付 32.6 万台,同比劲增 46.9%,12 月单月交付量冲破 4.8 万台,创下历史新高。

具体来看——

全新 ES8 在 12 月单月交付超 2.2 万台,这款纯电旗舰 SUV 从开启交付到破万仅耗时 41 天;

乐道 L90 上市 5 个月累计交付 4.3 万台,稳坐年度大型纯电 SUV 销冠;

入门品牌 Firefly 萤火虫在 Q4 实现了 52.8% 的环比增长,以 61% 的惊人市占率在高端小车市场建立起绝对统治力,连续 7 个月霸榜。

至此,李斌构想多年的「金字塔」产品结构已然成型——塔尖有高溢价的 ES8 锚定品牌高度,塔腰有乐道 L90 承接中产需求,塔基有萤火虫在细分市场构建护城河。

这套产品组合的成功,标志着蔚来终于进化为了具备全细分市场统御力的成熟新势力。

长期主义的「延迟满足」

在李斌看来,2025 年的胜利,本质上是「长期主义」对「短期波动」的一次延迟满足。

他在给员工的内部信中引用了一组数据,2025 年前 11 个月,国内纯电车型在新能源市场的占比回升至 61.9%,增速显著反超增程和插混。

这一趋势验证了蔚来长久以来的判断,即随着基础设施的完善,纯电技术带来的体验收益,已正式超越补能焦虑带来的体验损失。蔚来过去 11 年在技术创新与充换电设施上所下的「笨功夫」,终于等到了市场风向的回归。

虽然财报尚未披露,但蔚来经营状况的好转已是板上钉钉。

但李斌并未表现出过度的乐观。在全员信中,他将当下定义为「决赛阶段」,并冷静地指出:「汽车行业的竞争,本质是 3~5 个点效率差距的长期竞争。」

对于 2026 年,李斌给出的关键词是「惊险一跃」。蔚来必须完成从「烧钱换规模」到「效率换生存」的质变。

他强调,越是环境残酷,越需保持战略定力。这种定力不再是盲目扩张,而是对成本控制和 ROI(投资回报率)的极致追求,「每一分钱都要花得值」。

▲李斌内部信全文,晚点 latepost 制图

结硬寨,打呆仗

我们没有片刻放松的资格。

基于对效率与竞争的洞察,李斌将蔚来在 2026 年的策略总结为六个字,「结硬寨,打呆仗」。

在产品端,蔚来不再追求「车海战术」,而是聚焦精品,目前确认推出的新品仅有三款,蔚来 ES9、改款 ES7 以及乐道 L80。

其中,车长超 5.3 米的全尺寸 SUV 蔚来 ES9 被视为上半年冲击单月 5 万辆销量的胜负手。相比起全新 ES8 ,这款新旗舰会更多的偏向于商务用途。

新车技术上则会继承了 ET9 同源的「天行底盘」与 900V 架构,并有望尝试搭载通过半固态电池将纯电续航提升至 900 公里,以一种「技术过剩」的姿态在豪华车市场树立标杆。

李斌透露,ES9 新车目前已经处于 PP 阶段(制造量产的流程),即将在工信部申报中亮相。

▲ 蔚来 ES9 谍照

紧随其后的改款 ES7 预计于 Q3 补位,整体定位为高端大五座 SUV,主打户外场景,强调超大储物空间,预计有可以媲美乐道 L90 的前备箱空间。

▲ 蔚来 ES7 谍照

因乐道 L90 销量井喷、产能挤兑而推迟的乐道 L80 也将在上半年亮相,预计价格将切入了 20 万元以内。作为乐道 L90 的同平台大五座版本,乐道 L80 意在通过宽裕的后排空间与 BaaS 模式下的极致性价比,与 L60、L90 形成高低搭配,和理想 L6 等竞品抢夺市场。

▲ 乐道 L80 谍照

「硬寨」的另一面,是蔚来大力投入的基础设施将从「输血」转向「造血」。

2026 年元旦,蔚来打通了滇藏换电线,李斌直播跑了一趟。

截至目前,蔚来全球已建成 3,737 座换电站。但在新的一年,李斌对基建的要求从「铺得广」转向了「赚得回」。

2026 年蔚来的第五代换电站将大规模铺设,全年预计新增 1000 座以上,全面兼容蔚来、乐道、萤火虫三个品牌。

与往年不同,李斌今年特别强调了「能源商业运营能力」,明确要求为充换电业务的盈利打下基础。这意味着,随着三大品牌保有量的提升,蔚来的补能网络将从单纯的「服务成本中心」正式向「商业盈利中心」转型,将长期积累的基建优势转化为真金白银。

▲ 李斌为新换电站剪彩

同时,蔚来也需要更广阔的市场空间,李斌将目光投向了两个过去做得不够好的地方:下沉市场和海外市场。

渠道端,蔚来三大品牌将联合行动,走出北上广深的舒适区,目标覆盖超 210 个地级市,尝试将蔚来、乐道、萤火虫三个品牌放在同一个店面中销售,在更为下沉的市场争取客户。

而在海外市场,蔚来将变得更加务实,不再盲目高举高打,而是以萤火虫为先锋,利用这款高端小车天然契合海外市场的属性,进入 40 个国家和地区。

▲ 萤火虫右舵版

最后,也是李斌认为最痛苦的变革,将发生在组织内部

在技术投入上,李斌透露,5 纳米智驾芯片和整车操作系统的量产,核心目的除了提升性能,保持领先,同时也要降低成本。蔚来期望通过 Cedar、Banyan 等系统的跨品牌复用实现「一份投入,三份产出」。

在管理上,李斌手中的「手术刀」将切得更深。已经推行了一段时间的「基本经营单元」模式将继续深入,在 2026 年,任何无法自我造血的业务单元,都将面临审视。

蔚来似乎有点变了。

曾经那个为了服务体验不计成本、充满浪漫色彩的蔚来,正在变得越来越像一家精于计算的传统商业机器。

但这就是残酷的商业现实,在中国新能源市场从激进扩张走向存量竞争的当下,蔚来不再需要被理解为「理想主义者」,它要成为一家能持续活下去、并赢得竞争的公司。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博




from 爱范儿 https://ift.tt/dJ0Rvgn
via IFTTT

2026年1月5日星期一

500万网友围观的「灵魂计算机」,被全网疯狂打假:物理学不存在了

五分钟的宣传视频,里面除了演员和道具是真的,剩下的全是假的。

▲ 视频链接:https://ift.tt/JtsZvX2

这是网友在 Pickle 高调发布自己的 AR 眼镜,并号称是第一台「灵魂计算机」视频下的评论。

目前,视频在 X 上已经有超过 560 万的浏览,评论区里一边在说这很疯狂,电视剧《黑镜》成真了,一边是压倒性地「这是虚假宣传」,还附上了 5000 字长文来驳斥。

究竟是怎么一回事,我们先来看看这个第一台灵魂计算机,是怎么有灵魂的。

说是计算机,其实是一副眼镜。Pickle 1 的规格大小,和普通墨镜差不多,重 68g。但是它搭载了一套 Pickle OS 的系统,能够记录到我们看到的一切、预判我们的需求,将这些信息整理成「记忆泡泡」,从而拥有一个懂你的灵魂。

▲ Pickle OS 记忆泡泡

具体的参数情况,

  • 12 小时的全天候电池寿命
  • 顶级显示方案,双目全彩波导显示(作为对比,Meta 最近的眼镜仅右侧镜头中有一个显示屏),视野(FOV)极广,且拥有无延迟的计算能力
  • 隐私保护上,Pickle 1 数据在硬件隔离的安全飞地中解密,第三方无法获取
  • 使用高通骁龙芯片来运行 Pickle OS 系统,但未透露具体的芯片型号

就是这么小一丁点的东西,在官方那段极具未来感的演示视频里,Pickle 1 能凭借它强大的多模态理解和推理能力,几乎解决了我们生活中遇到的各种问题,例如交通、留言、预订、购物、思考、解题等。

此外,它还有不受限制的记忆功能,在我们看到之前的场景时,会自动回忆起与之相关的内容。

与虚拟形象的对话,也成为 Pickle 1 的一大亮点,它能收集我们每天的使用信息,从而更加理解和更好地服务我们。

Pickle 1 是来自一家同名的加州初创公司,创始人创业经历丰富,也是大学辍学,在 Pickle 1 之前发布过多次更新。他们承诺在 2026 年第二季度开始发货,预售价 799 美元,需支付 200 美元定金。

今年第二季度一眨眼就到了,如果这一切是真的,Pickle 1 将做到拳打 Meta,脚踢 Apple Vision Pro。

这次,物理学真的不存在了

软件领域一两个月创造神话的故事很多,但在硬件产品上,似乎还没怎么听过一鸣惊人的案例。

很明显,要做出一个可靠的硬件,比大部分时候只用面对代码的软件工程,要困难不少。

网络上 AR/VR 领域的网友们,立马就看出了视频的猫腻。VR 公司 Wild 的创始人 Matthew Dowd,直接写了长文指控 Pickle 1 可能在虚假宣传。

真格基金创业合伙人 Wu Xu,也从计算能力、显示效果以及产品定义三个方面给出了自己的质疑。

5090 的算力,但是不用散热?

做个对比,Meta 最新的 Orion 原型机,重量约为 98 克,为了实现强大的算力,它必须连接一个外置的计算模块,且电池续航远低于 12 小时。

▲ Meta Orion 产品图

而 Pickle 声称自己在一个只有 68 克的全一体机身里,塞进了比 Orion 更强的续航,和同等级的显示效果,甚至不需要外接电源或计算单元。

Wu Xu 在算力和续航上,也泼了一盆冷水。他提到现在的智能眼镜无法在设备端,进行如此高强度的实时计算,例如视频里演示的 3D 覆盖、零延迟。

如果不连接其他设备,把这些计算全部在眼镜端侧完成,眼镜会被热量融化,电池也会瞬间耗尽,很明显这是反物理的。

他说,光用一句「计算由高通支持」是完全说不通的。大概就是,明明是一个能发十几二十篇顶级论文的项目,现在却藏着掖着什么都不说。

光学显示的魔法

Pickle 1 声称使用了双目全彩波导显示,且视野(FOV)极广,约 30-70 度。

Matthew Dowd 指出,目前市面上能做到这种亮度和视野的波导显示器,不仅体积大,而且极其昂贵,Meta 的成本就在 1 万美元以上。

如果要做到双目全彩显示,根本不可能塞进这么小的镜框里,更不可能只卖 799 美元。

也有网友提到,目前使用波导或其他眼镜光学设备,真实体验大多数是图像面积较小、亮度有限,色彩和对比度较不鲜艳,尤其是在户外。

演示视频里显示的动态范围高、细节丰富、色彩鲜艳,很明显以目前的水平是做不到。

原型机都算不上,就是一个特效合成的视频

如果说参数上的质疑还属于理论探讨,那么随着各路大神拿着放大镜,审视 Pickle 1 这段五分钟的视频时,更多尴尬的细节暴露了。

Matthew Dowd 在他的详尽打假报告中指出,Pickle 1 的产品设计存在大量低级漏洞。

充电口去哪了? 官方声称配备充电盒,但在眼镜机身上找不到任何金属触点或充电接口。作为对比,Meta Ray-Ban 的鼻托处有明显的充电触点。

怎么听声音? 作为一款主打语音交互、能听音乐、有 AI 替身对话的产品,机身上竟然找不到扬声器开孔和麦克风。

甚至也没有佩戴检测,智能眼镜通常需要的红外或电容传感器,用于检测用户是否佩戴,在产品图上也踪影全无 。

在产品宣传视频里,还有一段令人惊艳的实机演示。网友也发现,这个实机演示同样是造假,视频中的画面清晰度极高(至少 720p),且是横屏录制。

但 Pickle 的 CEO Daniel Park 却自己在 Discord 社区里承认,他们的摄像头并非为创作者级录制设计,主要用于环境捕捉。

也就是说,官方视频里展示的眼镜视角,很可能根本不是这副眼镜拍出来的。

都来创业,下一个「Manus」还是 Magic Leap

这些技术上的漏洞,大概都可以用「处于早期开发阶段」来强行解释,但是深挖一下这家公司的历史,会让你彻底对这个产品失去信心。

根据创始人 Daniel Park 在 LinkedIn 上公开的信息,他高中毕业在庆熙大学读医学,并在博士阶段退学;随后参加了 Y Combinator 的创业课程。

Pickle 之前,他还创办了 Kumefood 的农产品电子商务品牌,目前也没有后续;在他们的官网还写着,「即将开业」。

关于 Pickle,上面写着 2024 年 7 月成立,但其实就在 9 个月前,这家公司的业务还是 AI Zoom 替身,帮助用户在视频会议中,生成一个完美的虚拟形象。

更离谱的是,这期间他们还短暂推出过一款名为 Glass 的桌面软件。这款应用被指控直接剽窃了开源项目 Cheating Daddy 的代码,甚至还修改了原作者的许可协议。

简单总结一下 Pickle 的时间线:
1. 做 AI 视频替身软件。
2. 由软件转型做被指抄袭的桌面工具。
3. 仅仅 5 个月前,突然摇身一变,声称造出了超越 Meta 和 Apple 十年研发成果的 AR 眼镜。

从头到尾,这就不是一家深耕硬件产品的公司,团队成员也没有硬件相关的背景。但就是这样一家公司,要在今年第二季度发货一款让扎克伯格都做不出来的产品?

Pickle 对这些质疑还没有作出具体的回应,只是默默转发了多条「Pickle 这个名字很好,泡菜/腌黄瓜怎么了」、「这看起来就像是乔布斯还在世会做的产品」、以及确认高通有和他们合作的一张截图。

▲ Sacha Segan 是高通的高级公关经理

还不知道这件事情会如何收尾,Pickle 目前官网显示已经是第二批订货时段了,而第二批送货时间会在今年的第四季度。

▲ 准备好了就请签字吧

发长文带头打假的 VR 公司 Wild 的创始人 Matthew Dowd,则是直接公开发起了一项赌约。如果 Pickle 能在 2026 年第二季度按时发货,且产品如描述一致,他将把所有预售收入赔给 Pickle CEO;反之,CEO 赔给他。

AI 硬件显然是当下的热点,从 Rabbit R1 到 Humane Ai Pin,我们见过太多概念美好但体验翻车的先例。

▲ Magic Leap 利用好莱坞级别的 CG 特效视频,冒充真实技术演示,在骗取谷歌、阿里等巨头数十亿美元融资后,最终只拿出了一个性能远低于承诺的 AR 眼镜

但 Pickle 1 的性质似乎更严重,现在看来它可能连「半成品」都算不上,更像是一个利用精美渲染图片和视频,还有网友们的 AI 焦虑,来收割定金的噱头。

这和当年的 Magic Leap 是如出一辙,虽然手中可能是有一些技术,但把特效视频当成科技成果来宣传,只是在透支我们对 AR/VR/MR 以及相关 AI 技术的信任。

所以,哪怕你对灵魂计算机的概念再心动,APPSO 还是请你先把这 200 美元,留在自己的口袋里吧。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博




from 爱范儿 https://ift.tt/rVQuAe6
via IFTTT

英伟达罕见不发显卡,刚刚黄仁勋带着2.5吨新「核弹」炸场,DeepSeek又被点名

这是英伟达 5 年来,第一次在 CES 上没发消费级显卡。

CEO 黄仁勋阔步走向 NVIDIA Live 的舞台中央,还是去年那件亮面鳄鱼皮衣。

与去年单独主旨演讲不同,2026 年的黄仁勋密集赶场。从 NVIDIA Live 到西门子工业 AI 对话,再到联想 TechWorld 大会,48 小时内横跨三场活动。

上一次,他在 CES 发布了 RTX 50 系列显卡,而这一次,物理 AI 和机器人技术成为了全新的主角。

Vera Rubin 计算平台登场,依旧是买越多省越多

发布会期间,爱整活的老黄直接把一台 2.5 吨重的 AI 服务器机架搬上了舞台,也因此引出了本次发布会的重点:Vera Rubin 计算平台,以发现暗物质的天文学家命名,目标只有一个:

加速 AI 训练的速度,让下一代模型提前到来。

通常来说,英伟达内部有个规矩:每代产品最多只改 1-2 颗芯片。但这次 Vera Rubin 打破了常规,一口气重新设计了 6 款芯片,并全面进入生产阶段。

究其原因,伴随着摩尔定律的放缓,传统性能提升方式已经跟不上 AI 模型每年 10 倍的增长速度,所以英伟达选择了「极致协同设计」——在所有芯片、整个平台各个层级上同时创新。

这 6 款芯片分别是:

1. Vera CPU:
– 88 个 NVIDIA 定制 Olympus 核心
– 采用 NVIDIA 空间多线程技术,支持 176 个线程
– NVLink C2C 带宽 1.8 TB/s
– 系统内存 1.5 TB(为 Grace 的 3 倍)
– LPDDR5X 带宽 1.2 TB/s
– 2270 亿个晶体管


2. Rubin GPU:
– NVFP4推理算力50PFLOPS,是前代 Blackwell的5倍
– 拥有 3360 亿晶体管,比 Blackwell 晶体管数量增加了 1.6 倍
– 搭载第三代Transformer引擎,能根据 Transformer 模型需求动态调整精度

3. ConnectX-9 网卡:
– 基于 200G PAM4 SerDes 的 800 Gb/s 以太网
– 可编程 RDMA 与数据通路加速器
– 通过 CNSA 与 FIPS 认证
– 230 亿个晶体管

4. BlueField-4 DPU:
– 专为新一代 AI 存储平台而构建的端到端的引擎
– 面向 SmartNIC 与存储处理器的 800G Gb/s DPU
– 搭配 ConnectX-9 的 64 核 Grace CPU
– 1260 亿个晶体管

5. NVLink-6 交换芯片:
-连接 18 个计算节点,支持最多 72 个 Rubin GPU 像一个整体协同运行
– 在 NVLink 6 架构下,每个 GPU 可获得 3.6 TB 每秒的 all-to-all 通信带宽
– 采用 400G SerDes,支持 In-Network SHARP Collectives,可在交换网络内部完成集合通信操作


6. Spectrum-6 光以太网交换芯片
– 512 通道,每通道 200Gbps,实现更高速数据传输
– 集成台积电 COOP 工艺的硅光子技术
– 配备共封装光学接口(copackaged optics)
– 3520 亿个晶体管

通过 6 款芯片的深度整合,Vera Rubin NVL72 系统性能比上一代 Blackwell 实现了全方位的提升。

在 NVFP4 推理任务中,该芯片达到了 3.6 EFLOPS 的惊人算力,相比上一代 Blackwell 架构提升了 5 倍。在 NVFP4 训练方面,性能达到 2.5 EFLOPS,实现 3.5 倍的性能提升。

存储容量方面,NVL72 配备了 54TB 的 LPDDR5X 内存,是前代产品的 3 倍。HBM(高带宽内存)容量达到 20.7TB,提升 1.5 倍。在带宽性能上,HBM4 带宽达到 1.6 PB/s,提升 2.8 倍;Scale-Up 带宽更是高达 260 TB/s,实现了 2 倍增长。

尽管性能提升如此巨大,晶体管数量只增加了 1.7 倍,达到 220 万亿个,展现了半导体制造技术上的创新能力。

工程设计上,Vera Rubin 同样带来了技术突破。

以前的超算节点要接 43 根线缆,组装要 2 小时,还容易装错。现在 Vera Rubin 节点采用 0 根线缆,只有 6 根液冷管线,5 分钟搞定。

更夸张的是,机架后面布满了总长近 3.2 公里的铜缆,5000 根铜缆构成 NVLink 主干网络,实现 400Gbps 传输速度,用老黄的话来说,:「可能有几百磅重,你得是体格很好的 CEO 才能胜任这份工作」。

在 AI 圈里时间就是金钱,一个关键数据是,训练一个 10 万亿参数模型,Rubin 只需 Blackwell 系统数量的 1/4,生成一个 Token 的成本约为 Blackwell 的 1/10。

此外,虽然 Rubin 的功耗是 Grace Blackwell 的 2 倍,但性能提升远超功耗增长,整体推理性能提升 5 倍,训练性能提升 3.5 倍。

更重要的是,Rubin 相比 Blackwell 吞吐量(每瓦-每美元可完成的 AI Token 数)提升10倍,对于造价 500 亿美元的千兆瓦数据中心来说,这意味着营收能力将迎来直接翻倍。

过去 AI 行业的最大痛点是,上下文内存不够用。具体来说,AI 在工作时会生成「KV Cache」(键值缓存),这是 AI 的「工作记忆」。问题是,随着对话变长、模型变大,HBM 内存显得有些捉襟见肘。

去年英伟达推出 Grace-Blackwell 架构扩展内存,但还是不够。而Vera Rubin 的方案是在机架内部署 BlueField-4 处理器,专门管理 KV Cache。

每个节点配 4 个 BlueField-4,每个背后有 150TB 上下文内存,分配到 GPU 上,每块 GPU 额外获得 16TB 内存——而 GPU 自带内存只有约 1TB,关键是带宽保持 200Gbps,速度不打折。

但仅有容量还不够,要让分布在几十个机架、上万块 GPU 上的「便签」像同一块内存那样协同,网络必须同时做到「够大、够快、够稳」。这就轮到 Spectrum-X 登场了。

Spectrum-X 是英伟达推出的全球首款「专为生成式 AI 设计」的端到端以太网网络平台,最新一代的 Spectrum-X 采用台积电 COOP 工艺,集成硅光子技术,512 通道×200Gbps 速率。

老黄算了笔账:一个千兆瓦数据中心造价 500 亿美元,Spectrum-X 能带来 25% 吞吐提升,相当于节省 50 亿美元。「你可以说这个网络系统几乎是『白送』的。」

安全方面,Vera Rubin 还支持保密计算(Confidential Computing)。所有数据在传输、存储、计算过程中全程加密,包括 PCIe 通道、NVLink、CPU-GPU 通信等所有总线。

企业可以放心把自己的模型部署到外部系统,不用担心数据泄露。

DeepSeek 震惊了世界,开源和智能体是 AI 主流

重头戏看完,回到演讲开始。黄仁勋一上台就抛出了一个惊人的数字,过去十年投入的约 10 万亿美元计算资源,正在被彻底现代化。

但这不仅仅是硬件的升级,更多的是软件范式的转移。他特别提到了具备自主行为能力(Agentic)的智能体模型,并点名了 Cursor,彻底改变了英伟达内部的编程方式。

最让现场沸腾的,是他对开源社区的高度评价。黄仁勋直言,去年 DeepSeek V1 的突破让全世界感到意外,它作为第一个开源推理系统,直接激发了整个行业的发展浪潮。PPT 上,我们熟悉的国产玩家 Kimi k2 和 DeepSeek V3.2 分别是开源第一和第二。

黄仁勋认为,虽然开源模型目前可能落后最顶尖模型约六个月,但每隔六个月就会出现一个新模型。

这种迭代速度让初创公司、巨头、研究人员都不愿错过,包括英伟达在内。

所以,他们这次也没有只卖铲子,推销显卡;英伟达构建了价值数十亿美元的 DGX Cloud 超级计算机,开发了像 La Proteina(蛋白质合成)和 OpenFold 3 这样的前沿模型。

▲ 英伟达开源模型生态系统,涵盖了生物医药、物理 AI、智能体模型、机器人以及自动驾驶等

而英伟达 Nemotron 模型家族的多款开源模型,也成为这次演讲的亮点。其中包含语音、多模态、检索生成增强以及安全等多个方面的开源模型,黄仁勋也提到,Nemotron 开源模型在多个测试榜单上表现优秀,并且正在被大量的企业采用。

物理 AI 是什么,一口气连发几十款模型

如果说大语言模型解决了「数字世界」的问题,那么英伟达的下一个野心,很明显是要征服「物理世界」。黄仁勋提到,要让 AI 理解物理法则,并在现实中生存,数据是极其稀缺的。

在智能体开源模型 Nemotron 之外,他提出了构建物理 AI(Physical AI)的「三台计算机」核心架构。

  • 训练计算机,也就是我们熟知的,由各种训练级显卡构建的计算机,像图片中提到的 GB300 架构。
  • 推理计算机,运行在机器人或汽车边缘端的「小脑」,负责实时执行。
  • 模拟计算机,包括 Omniverse 和 Cosmos,它能为 AI 提供一个虚拟的训练环境,让它在模拟中学习物理反馈。

▲ Cosmos 系统能生成大量的物理世界 AI 训练环境

基于这套架构,黄仁勋正式发布了震惊全场的 Alpamayo,全球首个具备思考和推理能力的自动驾驶模型。

与传统自动驾驶不同,Alpamayo 是端到端训练的系统。它的突破性在于解决了自动驾驶的「长尾问题」。面对从未见过的复杂路况,Alpamayo 不再是死板地执行代码,而是能像人类司机一样进行推理。

「它会告诉你接下来会做什么,以及它为什么会做出这样的决策」。在演示中,车辆的驾驶方式惊人地自然,能够将极端复杂的场景,拆解为基础常识来处理。

演示之外,这一切也不是纸上谈兵。黄仁勋宣布,搭载 Alpamayo 技术栈的奔驰 CLA,将在今年第一季度于美国正式上线,随后陆续登陆欧洲和亚洲市场。

这辆车被 NCAP 评为全球最安全的汽车,底气就是来自于英伟达独特的「双重安全栈」设计。当端到端的 AI 模型对路况信心不足时,系统会立即切换回传统的、更稳妥的安全防护模式,确保绝对安全。

发布会上,老黄还特地展示了英伟达的机器人战略。

▲九大顶级 AI 及相关硬件制造商之间的竞争,他们都在扩大产品线,尤其是要抢夺机器人赛道,高亮的单元格为自去年以来的新产品

所有机器人都将搭载 Jetson 小型计算机,在Omniverse 平台的 Isaac 模拟器中接受训练。并且英伟达正在把这套技术整合进Synopsys、Cadence、西门子等工业体系。

▲ 黄仁勋邀请了包括波士顿动力、Agility 等人形机器人、四足机器人「登台」,他强调,最大的机器人其实是工厂本身

自下而上,英伟达的愿景是,未来芯片设计、系统设计、工厂仿真,都将由英伟达物理 AI 加速。发布上,又是迪士尼机器人闪亮登场,老黄还因此对着这群超萌机器人调侃道:

「你们会在计算机中被设计、在计算机中被制造,甚至在真正面对重力之前,就会在计算机中被测试和验证。」

如果不说是黄仁勋,整场主题演讲看下来甚至会以为是某个模型厂商的发布会。

在 AI 泡沫论甚嚣尘上的今天,除了摩尔定律的放缓,黄仁勋似乎也需要用 AI 到底能做什么,来提升我们每个人对 AI 的信心。

除了发布全新 AI 超算平台 Vera Rubin 的强悍性能,来安抚算力饥渴,他在应用和软件上也比以往花了更多的功夫,拼尽全力让我们看到,AI 将会带来哪些直观改变。

此外,就像黄仁勋说的一样,过去他们为虚拟世界造芯,现在他们也下场亲自演示,将注意力放在以自动驾驶、人形机器人为代表的物理 AI,走进行业竞争更激烈的真实物理世界。

毕竟,只有仗打起来,军火才能持续卖下去。

文|莫崇宇、张子豪、姚桐

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博




from 爱范儿 https://ift.tt/6Zsodh2
via IFTTT