2025年7月31日星期四

早报|iPhone 累计出货破 30 亿,库克预告新 Siri 明年来/理想回应重卡撞不过新车/网易云音乐起诉 SM 娱乐

cover

📈

苹果财报:全球营收 940 亿美元

🔥

苹果回应「微博放错视频」

👓

扎克伯格:未来不用 AI 眼镜就吃亏了

👍

大众 CEO:GTI 会一直卖到 2030 年的

🤖

机构:2029 年全球机器人市场规模超 4000 亿美元

💥

理想回应 8 吨重卡撞不过新车

💸

罗马仕员工回应「公司破产」

🔓

字节扣子团队公布「开源理由」

💡

腾讯研究院圆桌实录:AI 发展下,人的想象力却变成最后的独特优势

📷

大疆首款 360 全景相机发布

🖋

Manus 上线「广泛研究」

🚗

租电 17.98 万元起,乐道 L90 正式开售

⚖

网易云音乐起诉 SM 娱乐

💻

「鼠标手」被纳入职业病

重磅

苹果财报:全球营收 940 亿美元

今天凌晨,苹果正式公布了 2025 财年第 3 财季最新财报(截至 6 月 29 日),具体来看:

总营业收入为 940.4 亿美元(约合人民币 6771 亿元),同比增长 10%;大中华区营业收入为 153.7 亿美元(约合人民币 1106 亿元),相比较去年同期的 147.28 亿美元,同比增长 4.35%;净利润达 234.3 亿美元。

其中,iPhone 收入达 445.8 亿美元;iPad 收入为 65.8 亿美元;Mac 收入为 80.5 亿美元;可穿戴设备、家居和配件收入为 74 亿美元;服务收入达 274.2 亿美元。

据 9to5Mac 报道,在该财季的电话会上,苹果 CEO 库克表示,中国市场的 iPhone 销量实现反弹,相比上一季度,该地区总收入增长 4.35%。他还表示,中国的 iPhone 用户数量达到历史新高,并且销量回升的主要原因是国补政策。另外,库克在接受 CNBC 采访时表示,iPhone 16 相比去年同期的 iPhone 15 更受欢迎。

同时,库克还宣布,自 2007 年推出以来,苹果已累计出货 30 亿部 iPhone,创造了新的里程碑。据悉,苹果于 2016 年 7 月宣布 iPhone 全球累计出货量达 10 亿部。

库克还在电话会上表示,Mac、iPad、Apple Watch 等产品也深受中国消费者青睐。其中 MacBook Air 是中国最畅销的笔记本电脑机型,Mac Mini 是中国最畅销的台式机机型。

在 AI 领域,库克也透露了更多相关进展。其表示,公司正在「大幅增加」AI 领域的投资,并且对能「加速技术路线图」的并购持开放态度。

库克还表示,苹果在更加个性化的 Siri(开发)方面取得不错的进展,并正如苹果所承诺,该公司预计将在明年正式发布相关功能。此外,库克高度评价 AI 的价值,称其为「我们一生当中最深远的技术之一」。

库克在接受 CNBC 采访时透露,苹果 2025 年迄今为止已收购「大约 7 家公司」,但「没有一起是金额巨大的」。

大公司

苹果回应「微博放错视频」

日前,有媒体报道称「苹果官方微博闹乌龙」,表示刷到苹果官方账号「Apple 支持」发表了一条关于苹果设备的家长控制功能的介绍微博,但该微博下方的视频却是三星 Z Flip 7 的宣传视频。

但我们在 7 月 29 日就已经刷到过这条微博内容,彼时并未出现任何异常情况。目前,该微博的状态依然正常,并未看到有「已编辑」的二次编辑标记。

而苹果官方昨日也就上述事件发表了声明:

Apple 支持仅发布过 Apple 相关内容。我们正与微博沟通,以调查此事的发生原因。

考虑到此前网传的截图是来自微博国际版客户端,所以我们猜测,这很可能是因为数据流、缓存,或其他原因,而导致的视频错位现象。

昨晚,新浪微博 CEO 王高飞(来去之间)发文表示,本次苹果的视频异常是微博轻享版客户端的一个 Bug——本地缓存问题。

扎克伯格:未来不用 AI 眼镜就吃亏了

据 TechCrunch 报道,Meta CEO 扎克伯格日前在公司第二季度财报会上,向投资者表示,其认为未来没有使用 AI 眼镜的人将会处于竞争劣势。

「我始终认为眼镜本质上将是 AI 的理想载体,因为它能够让 AI 全天候感知你的所见所闻,并与你交流,」扎克伯格还表示,为 AI 眼镜添加显示屏还会释放出该品类的巨大价值。

值得一提的是,Meta 此前曾发布了一款配备显示技术的 AI AR 眼镜 Orion,并且有望在未来推出类似 Orion 的可显示 AI 眼镜。

扎克伯格进一步表示,「我认为未来如果没有使用 AI 的眼镜,或是没有其他与 AI 交互的手段,相比他人,你可能会处于相当显著的认知劣势。」

近日,扎克伯格还发表了一封公开信,透露了 Meta 将目标定在了打造超级智能。

其在信中坦言,自己对超级智能帮助人类加速进步持积极乐观态度,但更重要的是,超级智能有望开启个人赋权的新纪元——人们将拥有更大的自主权,按照自己选择的方向来改变世界。

大众 CEO:GTI 会一直卖到 2030 年的

据 motor1 报道,大众汽车 CEO Thomas Schäfer 日前确认,旗下高尔夫 GTI 车型将会被保留到 2030 年。

「(高尔夫 GTI)在 2030 年绝对会继续存在,而内燃机车型仍将保持强劲的存在」,Thomas 在日前的一次采访中表示。但值得一提的是,Thomas 也透露,「(GTI)可能会加入一些电气化元素」。

值得一提的是,目前大众高尔夫存在插电混动版的 GTE 车型。报道指出,若 Thomas 透露的内容属实,那么未来 GTI 和 GTE 可能将会合并为一款车型。

据悉,大众此前已确认将在本年代末(2030 年前)推出第九代高尔夫,届时该车型也将全面走向电动化。而 Thomas 所指的 2030 年仍存在的燃油车型,或为目前的第八代高尔夫(该车型或持续生产至 2035 年)。

机构:2029 年全球机器人市场规模超 4000 亿美元

昨日,数据机构 IDC 发文预测称,到 2029 年全球机器人市场规模将超过 4000 亿美元。

IDC 指出,中国市场占据近半份额,并以近 15% 的复合增长率位居全球前列,成为推动全球机器人产业增长的核心引擎。具体来看:

  • 商用服务机器人:2024 年,全球商用服务机器人出货量突破 10 万台,而中国厂商以 84.7% 的出货份额引领全球;
  • 四足机器人:2024 年,全球四足机器人市场规模超过 1.8 亿美元,出货量约 2 万台。IDC 表示,从全球格局来看,中国厂商宇树科技、云深处依托完善的供应链体系与高度集成的产品设计,在性能表现、出货规模及开放性等方面实现突破,正逐步重塑全球市场领导格局。
  • 人形机器人:在政策引导下,中国人形机器人行业正通过「技术突破—应用验证」的双向循环模式加速发展,吸引多元化厂商积极参与,协同构建产业生态,推动行业持续进步。另外,百度、华为、字节、智元机器人等企业正积极推进具身智能大模型的创新升级与应用落地。

值得一提的是,IDC 还预测 2025 年中国人形机器人商用销售出货量预计约 5 千台,2030 年将增至近 6 万台,年复合增长率超 95%。

理想回应 8 吨重卡撞不过新车

日前,理想 i8 与大货车碰撞测试冲上热搜,引发广泛关注。

从理想官方公布的视频来看,理想 i8 共经历两次卡车撞击。而在撞击后,理想 i8 的 A 柱、B 柱、C 柱、门梁均无变形,9 个气囊全部打开,电池包无漏液、无起火,车门自动解锁、门把手自动弹开。

值得一提的是,与理想 i8 撞击的卡车则出现了整个车头断裂,甚至四轮悬空的情况。

对于上述情况,理想汽车通过封面新闻回应,明确此次测试的真实性与科学性。其表示,i8 和卡车撞击的超级实验,是基于用户真实交通会车场景的模拟,全权委托专业的第三方检测机构测试认证。试验场地、测试设备以及市场端随机购买的测试卡车均由检测机构提供,理想汽车没有任何指定

而视频当事卡车所属品牌方「乘龙卡车」(该品牌隶属东风柳州汽车有限公司),昨日也发布了声明回应了上述事件。

乘龙卡车方面指出,某汽车品牌日前发布与乘龙卡车正面碰撞视频的行为,已构成严重侵权,并超过正常商业竞争范畴,严重误导和损害公众知情权,对乘龙卡车品牌及商业名誉带来了巨大负面影响。

乘龙卡车强调,据其了解,某汽车品牌未公开测试车辆状况(双方车辆是否改装、减配、卡扣是否固定、车辆是否过检等)、场景环境(测试场地状况、车速、驾驶状态等),通过自定义碰撞条件,特定设计非常规测试场景,发布与公众认知的正常碰撞结果偏差较大的碰撞视频。

乘龙卡车表示,其对此事高度关注,将持续关注此事件,本着专业、严谨、负责的态度成立专项组进行进一步研究,并对此事造成的影响,保留追究法律责任的权利。

另外,针对此事,九派新闻以投资者身份致电对撞试验的测试方中国汽研,其证券部工作人员回应称,测试的全过程肯定符合所有的规定和标准,不会因为(哪一方)是客户,去刻意调节车辆参数。关于卡车的来源,其表示,测试卡车是一辆全新车,具体来源还需要与业务部门确认。

该工作人员还表示:「这次测试不属于公告准入测试,我们理解应该不是强制性必须做的一个(项目)业务,(测试结果)一般用于车辆的开发验证。」

昨日,理想汽车产品线负责人「老汤哥 Tango」也发文回应称,「相信权威机构的专业,要不来复测一把?」,随后理想汽车另一名产品线负责人张骁转发并表示「可以啊,直播都行」。

罗马仕员工回应「公司破产」

日前,市场流传罗马仕已进入破产程序。据蓝鲸新闻向罗马仕员工求证,该名员工表示:

国庆节前应该会有结果——由于证书暂停不得超过 3 个月,若 9 月底仍未恢复,所有库存产品都将销毁。

该人士还表示,「如果届时将无法恢复生产和售卖产品,最终要么注销,要么走向破产。」

据媒体「知危」7 月报道,目前已进行大规模停工停产的罗马仕仍有大量需要处理的问题、货物。

据报道援引罗马仕产品部员工消息,公司目前还有不少于 5000 万成本价货值的成品,都印有 LOGO 的,也不知道之后要怎么处理。员工透露,去年罗马仕营业额大概是 17-18 亿左右,其中充电宝业务占了大概 80%。

员工还表示,公司可以选择仅关闭充电宝业务,但罗马仕却选择解散所有业务。

字节扣子团队公布「开源理由」

昨日,字节旗下扣子团队发文,制作一期官方 AMA。

据悉,扣子自 2025 年 7 月 26 日在 GitHub 开源后,获得了开发者的广泛关注。当前,Coze Studio 已有 13k+ stars,Coze Loop 已有 4k stars。

「为什么决定开源扣子」,扣子运营负责人则表示,「开源的策略并不是简单敲定的,我们在内部经过了很多轮的讨论,最终才决定开源出来。」该负责人总结下来主要有三个原因:

  • 顺应技术浪潮,加速生态建设:扣子团队指出,Agent 赛道正处于一个爆发式增长的时刻。其认为,未来不会是一家公司定义所有 Agent,而是由成千上万的开发者共同来定义。其希望通过开源,将扣子打造成 Agent 开发领域的「基础设施」和事实标准。
  • 构建信任,拥抱透明:扣子团队表示,尤其对于 Agent 这种需要连接企业内部数据和服务的应用,信任至关重要。开源意味着将扣子的核心代码、架构和逻辑向社区公开,这是建立信任最彻底的方式。
  • 驱动产品迭代,吸收全球智慧:开源能够让扣子团队直接获得来自全球一线开发者的反馈、代码贡献和创新思想。社区的需求会成为扣子迭代最直接、最宝贵的驱动力,帮助团队把产品打磨得更好,避免闭门造车。

💡 腾讯研究院圆桌实录:AI 发展下,人的想象力却变成最后的独特优势

日前,腾讯研究院发布最新一期《仲夏六日谈》,主题为《AI 时代如何把想象力变成一种竞争优势?》。本次对话嘉宾拥有多位 AI 创企的创始人,大家分别讨论了 AI 时代下,想象力与竞争的相互转化。

主持人、腾讯研究院资深专家袁晓辉指出,在 AI 越来越具备行动力的时代,人的想象力反而可能成为最后的独特优势。围绕对未来 3 到 5 年的展望:

  • 捏 Ta CEO 胡修涵预测会有个人创作者用智能体 IP 打造「一人公司」;
  • 井英科技创始人朱江强调 AI 让人人都能表达内心的故事并与内容更深互动;
  • 特赞科技 CEO 范凌则认为智能体将从辅助工具进化为可独立交付结果的「数字员工」,而工具公司也将向结果导向型智能体平台转型;
  • 可触未来联合创始人游威则聚焦在用户习惯与 AI 产品形态的协同演进上,指出真正的机会不在模型能力本身,而在如何将其融入具体使用场景并形成用户协作新习惯。

对于「AI 是否会取代人类的主体性」这一更深层的议题,嘉宾们持有清醒的判断和复杂的情感:

  • 朱江认为 AI 娱乐的终极形态可能是一种更具沉浸感的内容体验,而创作和消费在未来将趋于合一。
  • 胡修涵坦言,其担忧技术过于强大会削弱文化领域的平等性,尤其是当 AI 不仅承担创作也承担评判角色时,人的创作欲望和评论权也许会被稀释。
  • 范凌从历史中找到信心:就像照相机的诞生没有终结艺术,反而开启了抽象、装置、摄影等新艺术形式,AI 也未必是人类想象力的终点,而是另一个起点。
新产品

大疆首款 360 全景相机发布

昨晚,大疆正式发布了旗下首款全景相机 OSMO 360。

🔗 详细看新品:这台全景相机,重现《F1》飞车镜头|大疆 OSMO 360 上手

新机最大亮点在于其采用了专门定制的相机传感器。与传统手机/相机的 4:3 矩形 CMOS 不同,OSMO 360 搭载了定制的 1/1.1 英寸方形 CMOS,最大化匹配全景镜头的圆形成像区域,并且降低了耗电和发热,体积重量也得到进一步优化。

画质方面,OSMO 360 实现了 8K50fps,同时支持 6K60fps 和 4K100fps 等多种规格;并且还支持 10Bit 和 D-Log M。照片方面,新机支持拍摄高达 1.2 亿像素/16K 超高清全景照片。

续航方面,OSMO 360 采用了与 Action 运动相机系列通用的1950mAh电池设计,一块电池在 8K30fps模式下能连续录制 114 分钟。另外,机身还内置 105GB 存储。

配件生态同样丰富:除了兼容 Action 系列的磁吸配件,还能通过触点连接手柄进行供电和控制。机身自带 1/4 螺口,第三方配件的选择也非常广泛。这次大疆还专门推出了适合骑行和车载的新配件。

价格方面,OSMO 360 起售价为 2999 元。

消息称奔驰新车将采用吉利插混技术

据 36 氪汽车消息,奔驰拟面向中国市场,推出一款超长续航的插电式混动新车,以参与愈发白热化的大电池插混产品竞争。而如今,奔驰初步计划与吉利汽车合作开发这款新车的插电混动系统方案。

知情人士透露,奔驰有意采用吉利旗下豪华品牌莲花跑车(此前为路特斯)的插电混动技术方案。据悉,双方正在密切洽谈,关键方向性的决策已经做出,目前还在就开发主体与细节进行协商。

报道指出,今年以来,吉利和奔驰已经开展了一系列合作。据此前报道,奔驰已经决定采购吉利系业务亿咖通和星际魅族的联合座舱方案。

据了解,莲花跑车的混动技术方案于 2024 年 11 月发布,名为「路遥」。该方案以电机驱动为主,涡轮增压发动机既可以用于发电,在高速工况也参与直驱。新方案下,整车综合续航将超 1100 公里。

另外,在 900V 技术的支持下,除了插入式快充,「路遥」还支持行驶中自主快充,解决了亏电场景性能下降的问题。

另据此前消息,奔驰这一混动新车项目已启动预研工作,新产品的定义之一便为油电同驱、超长续航,目标超过上千公里续航。而「路遥」混动技术方案的确符合奔驰新车的部分预期。

Manus 上线「广泛研究」

昨晚,Manus 正式推出一项新功能,能够通过协调数十个 AI 智能体进行同时工作,以实现广泛研究,并命名为「Wide Research」(广泛研究)。

官方介绍,Wide Research 的关键不仅仅在于拥有更多的智能体——而是它们如何协作。与传统的基于预定义角色(如「管理者」「编程者」「设计师」)的多智能体系统不同,Wide Research 中的每个子智能体都是一个功能完备的、通用的 Manus 实例。

据悉,在 Wide Research 加持下,Manus 解锁了一种强大的新方式,让用户能够处理需要获取数百个项目信息的复杂、大规模任务。「无论您是在探索财富 500 强企业,比较顶尖 MBA 项目,还是深入研究 GenAI 工具,Wide Research 都使深入、大量的研究变得毫不费力。」

Wide Research 即日起正式向 Pro 用户推出,并计划逐步向 Plus 和 Basic 层级用户开放。

租电 17.98 万元起,乐道 L90 正式开售

昨晚,乐道 L90 正式上市,先看售价:

乐道 L90 六座版 Pro,整车购买售价为 26.58 万元,采用 BaaS 电池租用方案的售价则为 17.98 万元;六座版 Max,整车购买售价为 27.98 万元,BaaS 方案售价为 19.38 万元;六座四驱 Ultra 版 ,整车购买售价为 29.98 万元,BaaS 方案售价为 21.38 万元。

🔗 来看新车:17.98 万元起!乐道 L90 正式开售,还多了一个七座版本

尺寸方面,乐道 L90 车长 5145mm,轴距达到 3110mm。同时,其还拥有容积达 240L 的智能电动前备箱。在座舱内部,L90 还正式推出了大七座(2+3+2)版本。(价格为 27.18 万元起,BaaS 租电为 18.58 万元起)

在驾乘体验层面,L90 全系标配静音电吸门;动力系统提供两种配置,后驱版搭载 340kW 电机,四驱版综合功率则达到 440kW,百公里加速时间为 4.7 秒。

另外,新车底盘用上了前双叉臂后五连杆悬架,并配备拥有 100mm 调节行程的空气悬架;蔚来自研的「行云智享底盘」系统还可以根据云端数据,预判路况并提前调节悬架。

智能化层面,L90 的座舱采用四屏布局,搭载高通骁龙 8295P 芯片;35 英寸的 AR-HUD 支持 AR 增强显示,并可在转向时显示 16.7 英寸的盲点影像。辅助驾驶硬件上,标配了包括 4D 毫米波雷达在内的 30 个高性能感知硬件,为其全场景 NOA 领航辅助功能提供了支持。

续航上,新车通过轻量化车身、0.25Cd 的低风阻和高效热管理系统,在标配 85kWh 电池包的情况下,官方公布的百公里电耗为 14.5 度电,CLTC 综合续航为 605 公里。

新消费

网易云音乐起诉 SM 娱乐

据企查查消息,法院日前公开杭州乐读科技有限公司、杭州网易云音乐科技有限公司起诉 SM ENTERTAINMENT CO. 、卡斯梦(上海)文化传播有限公司等开庭信息,案由涉及滥用市场支配地位纠纷。

公告显示,该案件计划将于 8 月 6 日,在浙江省杭州市中级人民法院开庭审理。

据悉,今年 1 月,网易云音乐曾发布致韩国 SM 歌迷的一封信,告知各位歌迷朋友因版权方单方面通知不续约,并表示在 2025 年 1 月 31 日以后,平台很可能不得不下架韩国 SM 娱乐公司旗下全部歌曲内容。网易云方面会争取版权续约的可能,如果有进一步的消息会第一时间告知用户。

值得一提的是,今年 5 月,腾讯音乐通过场外大宗交易方式,斥资 12.9 亿元成为 SM 娱乐二股东后,其在 K-pop 版权市场的话语权显著增强,甚至可能进一步压缩网易云音乐的版权空间。

另据法院公开,深圳市腾讯计算机系统有限公司、腾讯音乐娱乐(珠海)有限公司起诉广州网易计算机系统有限公司、杭州乐读科技有限公司、杭州网易云音乐科技有限公司,案由涉及不正当竞争纠纷,同样也计划将于 8 月 6 日,在浙江省杭州市中级人民法院开庭审理。

「鼠标手」被纳入职业病

据 IT 之家消息,国家卫生健康委等 4 部门联合印发新版《职业病分类和目录》,由原有的 10 大类 132 种职业病增加到 12 大类 135 种职业病,并将于 2025 年 8 月 1 日起正式实施。

目录新增 2 个职业病类别,分别为职业性肌肉骨骼疾病、职业性精神和行为障碍,每个类别中分别新增 1 种职业病。

其中,职业性肌肉骨骼疾病类别中新增腕管综合征,职业性精神和行为障碍类别中新增创伤后应激障碍(限于参与突发事件处置的人民警察、医疗卫生人员、消防救援等应急救援人员)。

据悉,腕管综合征即俗称的「鼠标手」,本次被纳入新版《职业病分类和目录》,但只限于长时间腕部重复作业或用力作业的制造业工人。

目录要求 2025 年底前,每个省份至少有 2 家以上机构可提供新增职业病的检查、诊断及康复服务,保障劳动者健康权益。

小红书 RED LAND 将登陆上海复兴岛

据人民网报道,8 月 8 日至 10 日,小红书 RED LAND 开放世界冒险岛活动将登陆位于杨浦区的复兴岛,上海杨浦复兴岛将变身为全球首座二次元「痛岛」。

RED LAND 活动期间,复兴岛上的 8 万平米空间将因地制宜,与经典的游戏、二次元动漫场景有机结合,为游戏二次元爱好者带来沉浸式游玩体验。

据悉,位于杨浦区的复兴岛面积约 1.3 平方公里,是上海黄浦江畔唯一的内陆岛屿,也是规划中一块罕见的「留白」地。2024 年 12 月 13 日,上海量子城市时空创新基地落地复兴岛,开启了书写复兴岛全新的故事篇章。

好看的

史努比动画音乐剧定档 8 月上线

据守望好莱坞消息,史努比&花生漫画改编近 35 年来的首部音乐剧——特别集《Snoopy Presents: A Summer Musical》发布预告。

该剧将讲述查理·布朗热爱露营,决心让自己的最后一年过得特别。但第一次参加露营的莎莉却对这个陌生的新地方感到紧张和疑虑。就在大家安顿好营地时,史努比和伍德斯托克发现了一张藏宝图,这张地图指引他们踏上附近的野外探险之旅。

影片由 Erik Wiese 导演,艾蒂安·凯利奇、Jayd Deroché 配音,将于 8 月 15 日上线 Apple TV+。

《哪吒 2》明日全网上线

昨日,电影《哪吒之魔童闹海》宣布,将于 8 月 2 日 10 点上线国内多个视频网站。

据悉,本次《哪吒之魔童闹海》将登陆哔哩哔哩、腾讯视频、爱奇艺、优酷等多个网站。其中,据腾讯视频表示,《哪吒之魔童闹海》在腾讯视频站内预约量冲破 1246 万,登上站内电影预约榜单 TOP1。

《哪吒之魔童闹海》于今年 1 月 29 日上映,全球累计总票房达到 159.11 亿元,位居全球影史票房榜第五位。

《纽伦堡》首曝预告,11 月上映

据守望好莱坞消息,电影《纽伦堡》预告公布,并定档 11 月 7 日北美上映。

影片改编自《纳粹与精神病医生》,聚焦二战结尾,纽伦堡法庭对德国劳工阵线领导人罗伯特·莱伊的审判(其后来在狱中自杀),以被委任来对纳粹头领们进行评估的美军精神科医生 Douglas Kelley 的视角展开。

该片由詹姆斯·范德比尔特执导并编剧,罗素·克劳、拉米·马雷克、利奥·伍德尔、迈克尔·珊农主演,另外还将于 2025 年 9 月 6 日在多伦多国际电影节首映。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博




from 爱范儿 https://ift.tt/TbRkhNX
via IFTTT

预售 130 万元,仰望 U8L 鼎世版把「东方豪华」玩明白了

仰望 U8L 鼎世版的发布会这次有点不一样。

场地并没有放在某个有大屏的会展中心或者是体验中心内,而是搭了一个很有古风韵味的,有木地板又有水池,背景是远山的场景。上台的第一个嘉宾也是精挑细选过的——王潮歌,一位专注于本土文化的导演,执导过《印象刘三姐》、《秦始皇》、《又见敦煌》等歌舞剧。

传统文化的氛围营造的很足,和仰望 U8L 鼎世版的设计也结合的很巧妙。

既然叫鼎世版,那新车的设计语言必然用了很多「鼎」或者说传统文化相关的元素。

我们用「鼎」作为设计主题,背后有更深的含义。过去 100 多年来,豪华车的设计语言是由西方定义的,但仰望 U8L 鼎世版将中国元素作为设计的主标识,这是一种与我们文化、历史和进步相契合的表达。

比亚迪介绍说仰望 U8L 鼎世版前脸及大灯设计灵感都来自于中国传统「鼎」的意象,左右各 99 颗菱形灯珠规律排布与前格栅组成了「鼎」字轮廓,为了营造出大气、尊贵的视觉效果也将前保险杠进行了熏黑处理。前脸中央、尾部以及方向盘上的车标都使用了由 24K 真金经过 24 道工艺精制而成,勾勒出了甲骨文中「电」字的轮廓。

新车提供的两款专属黑金配色的灵感也来源于战国时期的黑漆描金工艺。比亚迪在 U8L 鼎世版上采用了大面积的日曜金色与神秘深邃的曜石黑的对冲设计,颜色分界线从引擎盖贯穿至车尾,与水切腰线平行,配合上方正厚重的车声,让我想起一句诗「黑云压城城欲摧,甲光向日金鳞开」。

除了颜色设计,仰望 U8L 鼎世版庞大的车身带来的体量感也很足,车长 5400mm,宽 2049mm,高 1921mm,轴距 3250mm,比路虎揽胜创世加长版的 5250*2047*1870mm,轴距 3197mm 的车身尺寸大了不少,能够带给人相当强的威严与压迫感,比亚迪为其提供了 23 寸的八孔锻造轮毂和 22 寸的多幅锻造轮毂可选,轮胎的胎宽也增加至了 285mm。

此外,U8L 鼎世版还搭载了上下对开式的电动尾门,下放的地门可以供 2-3 个成年人乘坐,在小酌、休憩或者观景时都能提供舒适的体验。

与 U8 主攻硬核越野方向不同,U8L 鼎世版定位则是行政豪华和商务接待之用,所以 U8L 的内饰风格显得更低调自然一些,在配色和选材上都呈现出了更内敛的高级感。

U8L 鼎世版是大六座布局,座舱空间达到了 5.3m³,提供了黑棕、紫灰两款内饰配色,比亚迪介绍说这两种颜色的灵感分别来自于「 秋日庐山的深沉画卷」和「香炉紫烟」的氤氲 。

新车在材质和细节设计上也是精挑细选精心修饰。 U8L 鼎世版四门门板与副仪表台处的木材采用柚木或黑胡桃木,都取自同一颗树最好的部分,木板的纹理走势协调统一,地面和顶棚则分别使用了羊毛和麂皮材质。

整车的中控部分则做成了中轴对称布局,内饰中央放置了一块 12.8 英寸 OLED 材质的瀑布曲面屏,两侧是 23.6 英寸仪表屏和 23.6 英寸副驾多媒体屏,后面有一块 21.4 英寸的液晶折叠屏。

除了视觉上的豪华感之外,U8L 鼎世版在听觉,触觉,便利程度上堆足了料。

仰望 U8L 鼎世版搭载了丹拿铂金证据系列 Hi-End 级 32 扬声器系统,功率可达 2040W,支持 7.1.4 杜比全景声。二排车窗、二排角窗、三排车窗都支持 11 档遮光效果调节,甚至可以结合车辆定位、阳光照射角、座椅角度以及车辆周围行人多少等自动变化 PDLC 的雾度和暗度。

在静谧性上,仰望 U8L 鼎世版在车速 120km/h 下,车内噪声不超过 64.6dB。同时其也继承了仰望 U8 行业领先的涉水密封性,核心系统防水等级高达 IP68。

U8L 鼎世版这次还搭载了可感知乘客体温和体表湿度的智能感温扶手,在 35℃-43℃宽温域下,能够有效提升冬季用车体验,14 点座椅按摩、主副驾电动可伸缩式腿托、二排双行政零重力座椅等也都一应俱全。

车辆的动态部分这次则没有介绍太多,不过有透露 U8L 鼎世版将搭载易四方技术平台和 云辇-P 智能液压车身控制系统,具备应急浮水、爆胎稳行、原地掉头等能力,也升级了双阀液压减震器。辅助驾驶系统采用了 天神之眼 A – 智能辅助驾驶三激光版方案。

此外主动后轮转向、碳陶刹车盘、刀片电池等技术也都将搭载于 U8L 鼎世版上。

比亚迪在发布会上用了这么一段话来描述此次 U8L 鼎世版的设计理念:

车外是「鼎」立天地的磅礴气度,车内是独属于中国人的一方山水秘境。当车门轻合,喧嚣渐远,任外界风浪波涛如何汹涌,入座便是心安归处。这既是中国人的心理境界,也是中国豪华车所必须具备的格调。

一时间我竟想不出什么更好的表达来描述对这种「东方韵味」的喜爱,只是觉得,要是正式发布会放在大明宫遗址,或者嘉峪关前开,会不会更震撼一点?以及预售 130 万元的话,如果避开豪车税大概率会低于 107 万,似乎还挺「划算」的?

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博




from 爱范儿 https://ift.tt/n98ULh6
via IFTTT

对话理想辅助驾驶团队:辅助驾驶,如何从「猴子」进化到「人类」

去年这个时候,爱范儿和董车会在理想北京研发中心与理想辅助驾驶团队进行了一场交流,当时理想辅助驾驶的新技术架构「端到端+ VLM 视觉语言模型」即将上车,理想辅助驾驶团队当时的表述是:

「端到端+ VLM 视觉语言模型」背后的理论框架,是自动驾驶的「终极答案」。

随着「端到端+ VLM 视觉语言模型」的技术架构过渡到了 VLA(Vision-Language-Action,视觉语言动作模型),我们离「终极答案」又进了一步。

按照李想和理想辅助驾驶团队的说法,这是理想辅助驾驶能力从「猴子」阶段,进化到「人类」阶段的关键一步。今天同期,我们又来到了理想北京研发中,继续和理想辅助驾驶团队聊这个领域的新动向。

▲ 理想汽车自动驾驶研发高级副总裁郎咸朋

辅助驾驶里,猴子和人类有什么区别?

去年理想辅助驾驶方案切换到「端到端+ VLM 视觉语言模型」之前,采用的是业界通用的 「感知 Perception — 规划 Planning — 控制 Control」技术架构,这个架构依赖工程师根据现实各种各样的交通情况来编写对应的规则指导汽车的控制,但难以穷尽现实所有交通情况。

这是辅助驾驶的「机械时期」,辅助驾驶只会应付有对应规则的情况,没有思考和学习的能力。

「端到端+ VLM 视觉语言模型」是辅助驾驶的「猴子时期」,相比于机械,猴子要更聪明,也有一些模仿和学习的能力,当然,猴子也更好动更不听话。

「端到端+ VLM 视觉语言模型」的本质就是「模仿学习」,依赖大量人类驾驶数据进行训练,数据的数量和质量决定性能。并且因为安全考虑,在这个架构中,负责复杂场景的 VLM 视觉语言模型并不能参与控车,只是提供决策和轨迹。

VLA(Vision-Language-Action,视觉语言动作模型)则是辅助驾驶的「人类时期」,拥有了「能思考、能沟通、能记忆、能自我提升」的能力。

猴子经历了漫长的变化才变成人类,理论上「端到端+ VLM 视觉语言模型」的「模仿学习」也可以在漫长的岁月里学会人类几乎所有的驾驶数据,做到行为上几乎像个人。

但代价就是「时间」。

理想汽车自动驾驶研发高级副总裁郎咸朋说:

我们去年实际的端到端 MPI(平均接管里程),去年 7 月份第一个版本 MPI 大概在十几公里,当时已经觉得挺不错的,因为我们的无图版本迭代了很长时间,综合 MPI(高速+城市)也就 10 公里左右。

 

从 100 万到 200 万 Clips(用于训练端到端辅助驾驶的视频片段),再到 1000 万Clips,随着数据量上升,今年年初,MPI 达到 100 公里,7 个月 MPI 翻了 10 倍,平均一个月翻一点几倍。

 

但是到了 1000 万 Clips 之后,我们发现一个问题,只增长数据量是没有用的,有价值的数据越来越少。这就跟考试一样,不及格的时候,随便学一学分就提升非常快。当考到八九十分了,再往上提 5 分、10 分,是很难的。

 

这时候我们使用了超级对齐,强制让模型输出符合人类要求的结果。另外,我们也筛选了一些数据补充到超级对齐里,让模型能力进一步提升,这样做是有一定效果的,但我们大概从今年 3 月份到 7 月底,花了 5 个月时间,模型性能才提升了 2 倍左右。

这是「端到端+ VLM 视觉语言模型」技术架构在飞速进步后遇到的第一个问题:越往后,有用数据越稀少,模型性能进步的速度也越慢。

而其本质问题也随之暴露出来,郎咸朋说:

本质来看,现在端到端的这套模仿学习并不具备深度的逻辑思考能力,就像猴子开车一样。喂猴子一些香蕉,它可能会按照你的意图做一些行为,但并不知道自己为什么要做这些行为,一敲锣它就过来,一打鼓它就跳舞,但不知道为什么要跳舞。

 

所以说端到端架构不具备深度思考能力,顶多算是一个应激反应,就是给一个输入,模型给一个输出,这背后没有深度逻辑。

这也是为什么要在端到端大模型之外再加一个 VLM 视觉语言模型的缘故,VLM 视觉语言模型具有更强的理解和思考能力,能提供更好的决策。但这个模型一是思考得慢,二是和端到端大模型耦合得不够深,很多时候端到端大模型理解和接受不了 VLM 视觉语言模型的决策。

去年这个时候,理想辅助驾驶团队就说过:

以后两个趋势,第一是模型规模变大,系统一和系统二现在还是端到端加 VLM 两个模型,这两个模型有可能合一,目前是比较松耦合,将来可以做比较紧耦合的。第二方面也可以借鉴现在多模态模型的大模型发展趋势,它们就朝这种原生多模态走,既能做语言也能做语音,也能做视觉,也能做激光雷达,这是将来要思考的事情。

趋势很快就变成了现实。

郎咸鹏也说了为什么要从端到端+VLM 切换到 VLA 的原因:

去年做端到端的时候一直也在反思,是不是端到端就够了,如果不够的话我们还需要再做什么。

 

我们一直在做 VLA 的一些预研,其实 VLA 的预研代表的是我们对人工智能的理解并不是一个模仿学习,一定像人类一样是有思维的,是有自己推理能力的,换句话说它一定要去有能力解决它没有见过的事情或未知的场景,因为这个在端到端里可能有一定的泛化能力,但并不是足以说有思维。

 

就像猴子一样,它可能也会做出一些你觉得超越你想象的事情,但它不会总做出来,但人不是,人是可以成长的、可以迭代的,所以我们一定要按照人类的智能发展方式去做我们的人工智能,我们就很快从端到端切换到 了VLA 方案去做。

VLA(Vision-Language-Action,视觉语言动作模型)就是去年的趋势思考,以及当下成为现实的技术架构。

虽然 VLA 和 VLM 就差了一个字母,但内涵差异非常大。

VLA 的 Vision 指各种传感器信息的输入,也包括导航信息,能够让模型对空间有理解和感知。

VLA 的 Language 指模型会把感知到的空间理解,像人一样总结、翻译、压缩、编码成一个语言表达出来。

VLA 的 Action 是模型根据场景的编码语言,生成行为策略,把车开起来。

直观的差异就是,人可以用语言去控车,说话就可以让车慢点快点左转右转,这主要是 Language 部分的功劳,人的指令大模型收到的 prompt,VLA 模型内部的指令也是 prompt,等于是打通了人和车。

此外,视觉和行为之间,也没有阻碍了,从视觉信息输入到控车行为输出的速度和效率都大大加快,VLM 慢,端到端不理解 VLM 的问题被解决了。

更显著的差别是思维链(Chain of Thought,CoT)能力,VLA 模型的推理频率达到了 10Hz,比 VLM 的推理速度快了 3 倍多,同时对环境的感知和理解更充分,可以更快更有理有据地进行思维推理,生成驾驶决策。

除了思维能力和沟通能力之外,VLA 也具备一定的记忆能力,可以记住车主的偏好和习惯;以及相当强的自主学习能力。

▲ 理想 i8 是理想 VLA 技术的首发车型

理想辅助驾驶的《飞驰人生》

现实世界里,人类想要成为老司机,肯定先得去报个驾校考个驾照,然后贴「实习标」蹒跚上路,在真实道路上开几年时间。

此前辅助驾驶的训练也是如此,不光需要真实世界里的行驶数据用作训练,也需要在真实世界里进行大量的路试。

在一些小说里,有些天赋异禀的选手可以通过读书,读成武力境界超高的实战高手,比如《少年歌行》里的「儒剑仙」谢宣,《雪中悍刀行》里的轩辕敬城。

但是在传统武侠小说里,只会有《天龙八部》里王语嫣这样精通武学典籍,自身却是毫无实战能力的战五渣。

▲ 《飞驰人生》剧照

当然,也有介于中间态的情况:在赛车电影《飞驰人生》里,落魄赛车手张弛在脑海里不断复现巴音布鲁克地区的复杂赛道情况,每天在脑海里开 20 遍,5 年模拟开了 36000 多遍,然后回到真实赛道的时候,成为了冠军。

虚拟开车,不断精进,超越自己过去的最好成绩,这是「算法」。

不过张弛回归赛道,再次成为冠军车手之前就已经在这条赛道多次证明过自己,积累了大量的实际驾驶经验。

实车实路,积累经验,直到了解这条赛道所有的路况,这是「数据」。

郎咸朋说,想要做好 VLA 模型,需要四个层面的能力:数据,算法,算力和工程能力。

理想强调自己数据多,数据优秀,数据库好,以及数据标注和数据挖掘准已经很久了,关于数据,理想也有新技能:生成数据训练。

通过世界模型进行场景重建,然后在重建的真实数据之上,举一反三,生成相似场景,比如理想在世界模型里重建一个出高速 ETC 的场景,在这个场景下,不仅可以用原来的真实数据情况,比如白天晴朗地面干燥,也可以生成出白天大雪地面湿滑,夜晚小雨能见度不佳等等场景。

理想训练 VLA 模型算法的更迭也跟生成数据息息相关,郎咸朋介绍说:

2023 年我们还没做端到端,一年用实车的有效测试里程大概 157 万公里,每公里花 18 块钱。

 

我们开始做端到端的时候,就有一部分在做仿真测试了,2024 年全年的仿真测试仿了 500 万公里左右,实车也测了 100 多万公里,平均下来成本降到了 5 块钱一公里不到,差不多也是花了 3000 万左右。但是同样花 3000 万,我能测 600 万公里了。

 

今年半年时间(1 月 1 日-6 月 30 日),我们测了 4000 万公里,实车只有 2 万公里,就跑一些基本的场景。所有的测试,大家看到的超级对齐、现在的 VLA,我们都是用仿真测的,5 毛钱一公里,就是付个电费,付个服务器的费用。并且测试质量还高,所有的 case、所有的场景都能举一反三,可以完全复测,分毫不差。我们的测试里程多了,测试质量好了,研发效率就提升了。

 

所以很多人质疑我们不可能用半年做个 VLA,测都测不过来,实际上我们测试非常多。

仿真测试的优点除了成本低之外,还能完美复现场景,真实场景测试情况下,一个场景很难被 100% 还原,对于 VLA 模型来说,场景复现差之毫厘,驾驶表现可能就失之千里。

以此而言,理想训练 VLA 模型的形式,与电影《飞驰人生》里主角在真实驾驶经验基础上,不断地虚拟训练的模式,有一些类似。

当然,最后 VLA 模型的训练,也需要背后巨大算力的支撑,理想现在的总算力为 13EFLOPS,其中 3EFLOPS 给了推理,10EFLOPS 给了训练。换算成显卡数量,是等效 2 万张英伟达 H20 用作训练,等效 3 万张英伟达 L20 用于推理。

关键 Q&A

Q:智能辅助驾驶存在一个「不可能三角」,也就是效率、舒适和安全三个目标之间是互相制约的,目前阶段可能难以同时实现。理想汽车的 VLA 目前在当前阶段最先优化的指标是哪一个?刚刚提及到 MPI,是否可以理解为目前理想汽车最终的指标是提升安全性以有效减少接管?

郎咸朋:MPI 是我们衡量的指标之一,还有一个指标是 MPA,也就是指发生事故的里程,理想车主的人驾数据是 60 万公里左右出一次事故,而在使用辅助驾驶功能的情况下是 350 到 400 万公里发生一次事故。这个里程数据我们还会持续提升,我们的目标是将 MPA 能提升到人类驾驶的 10 倍,也就是比人驾安全 10 倍,做到 600 万公里才出一次事故,但这必须等到 VLA 模型提升之后才能做到。

针对 MPI,我们也做过分析,可能一些安全风险问题会导致接管,但有时候舒适度不好也会导致接管,比如急刹、重刹等,因为并不一定每次都会遇到安全风险,但是如果驾驶舒适度不好,用户依然不想用辅助驾驶功能。因为 MPA 可以衡量安全性,在 MPI 方面,除了安全性之外,我们重点提升了行车舒适度,如果体验了理想 i8 的辅助驾驶功能,会体验到舒适度比之前的版本有很大提升。

效率是排在安全和舒适之后的,比如走错路,虽然效率有所损失,但我们不会通过一些危险的动作立刻纠正,还是要在安全和舒适的基础上去追求效率。

Q:VLA 模型的难点在哪里?对企业的要求是什么?如果一个企业想要落地VLA模型会面临哪些挑战?

郎咸朋:曾经也有很多人问过如果车企想做 VLA 模型是不是可以跳过前面的规则算法,跳过端到端阶段,我认为是不行的。

虽然 VLA 的数据、算法等可能跟之前不太一样,但是这些仍然是要建立在之前的基础上的,如果没有完整的通过实车采集的数据闭环,是没有数据能够去训练世界模型的。理想汽车之所以能够落地 VLA 模型,是因为我们有 12 亿数据,只有在充分了解这些数据的基础上,才能够更好的生成数据。如果没有这些数据基础,首先不能训练世界模型,其次也不清楚要生成什么样的数据。

同时,基础训练算力和推理算力的支撑需要大量资金和技术能力,如果没有之前的积累是不能完成的。

Q:今年理想实车测试是 2 万公里,请问大幅减少实车测试的依据是什么?

郎咸朋:我们认为实车测试有很多问题,成本是其中一方面,最主要的是我们在测试验证一些场景时不可能完全复现发生问题时的场景。同时,实车测试的效率太低了,在实车测试过程中要开过去之后再复测回来,我们现在的仿真效果完全可以媲美实车测试,现在的超级版本和理想 i8 的 VLA 版本中 90% 以上的测试都是仿真测试。

从去年端到端版本我们就已经开始进行仿真测试的验证,目前我们认为它的可靠性和有效性都很高,所以我们以此替代了实车测试。但仍有一些测试是无法替代的,比如硬件耐久测试,但和性能相关的测试我们基本上会使用仿真测试替代,效果也非常好。

工业时代来临后,刀耕火种的流程被机械化替代;信息时代后,网络替代了大量工作。在自动驾驶时代也是一样,端到端时代来临后,我们进入了使用 AI 技术做自动驾驶的方式,从雇佣大量工程师、算法测试人员,到数据驱动,通过数据流程、数据平台和算法迭代提升自动驾驶能力。而进入了 VLA 大模型时代,测试效率是提升能力的核心因素,如果要快速迭代,一定要把在流程中影响快速迭代的因素迭代掉,如果这其中仍有大量的实车和人工介入,速度是会降低的。并不是我们一定要替代实车测试,而是这项技术,这个方案本身就要求要使用仿真测试,如果不这样做,并不是在做强化学习,并不是在做 VLA 模型。

Q:VLA 其实没有颠覆端到端+VLM,所以是否可以理解成 VLA 是偏向于工程能力的创新?

詹锟(理想汽车自动驾驶高级算法专家):VLA 不只是工程方面的创新,大家如果关注具身智能,会发现这波浪潮伴随着大模型对物理世界的应用,这本质就是提出了一个 VLA 算法,我们的 VLA 模型就是想把具身智能的思想和路径引用在自动驾驶领域。我们是最早提出,也是最早开始实践的。VLA 也是一种端到端,因为端到端的本质是场景输入,轨迹输出,VLA 也是如此,但算法的创新是多了思考。端到端可以理解为 VA,没有 Language,Language 对应的是思考和理解,我们在 VLA 中加入了这一部分,把机器人的范式统一,让自动驾驶也能成为机器人的一类,这是算法创新,不只是工程创新。

对于自动驾驶而言,很大的挑战是必须要有工程创新。因为 VLA 是一个大模型,大模型部署在边缘端算力上是非常具有挑战的。很多团队并不是认为 VLA 不好,而是因为 VLA 部署有困难,把它真正落地是非常具有挑战性的事情,尤其是在边缘端芯片算力不够的情况下是不可能完成的,所以我们是在大算力芯片上才能部署。所以这不仅仅是工程创新,但的确需要工程部署大范围优化才能实现。

Q:VLA 大模型在车端部署的时候是否会有比如模型裁剪或蒸馏版本?如何在推理效率和模型之间做好平衡?

詹锟:在部署时的效率和蒸馏上我们做了非常多平衡。我们的基座模型是自研的 8×0.4B 的 MoE 模型(混合专家模型),这是业界没有的,我们在深入分析英伟达芯片后,发现这个架构非常适合它,推理速度快的同时模型容量大,能够同时容纳不同场景、不同能力的大模型,这是我们在架构上的选择。

另外,我们是大模型蒸馏出来的,我们最早训练了一个 32B 的云端大模型,它容纳了海量的知识和驾驶能力,我们把它做出的思考和推理流程蒸馏到 3.2B 的 MoE 模型上,配合 Vision 和 Action,使用了 Diffusion 技术(扩散模型,可以生成图像、视频、音频,动作轨迹等数据,具体到理想的 VLA 场景,是利用 Diffusion 生成行车轨迹)。

我们用这样的方法做了非常多的优化。从细节上来看,我们也针对 Diffusion 做了工程优化,并不是直接使用标准 Diffusion,而是进行了推理的压缩,可以理解为一种蒸馏。以前 Diffusion 可能要推理 10 步骤,我们使用了 flow matching 流匹配只需要推理 2 步就可以了,这方面的压缩也是导致我们真正能够部署 VLA 的本质原因。

Q:VLA 是一个足够好的解法了吗?它抵达所谓的「GPT 时刻」还需要花多长时间?

詹锟:多模态模型之前说没有达到 GPT 时刻,可能指的是 VLA 这种物理 AI,而不是 VLM,其实现在 VLM 已经完全满足一个非常创新的「GPT 时刻」标准,如果针对物理 AI,现在的 VLA,特别是在机器人领域、具身智能领域可能并没有达到「GPT 时刻」的标准,因为它没有那么好的泛化能力。

但在自动驾驶领域,其实 VLA 解决的是一个相对统一的驾驶范式,是有机会用这个方式做到一个「GPT 时刻」的,我们也非常承认现在的 VLA 是第一版本,也是业界第一个往量产上要推的 VLA 版本,肯定会存在一些缺陷。

这个重大尝试是想说我们想用VLA来探索一个新的路径,它里面有很多尝试的地方,有很多需要去落地的探索的点,不是说不能做到「GPT 时刻」就一定不能去做量产落地,它有很多细节,包括我们的评测、仿真去验证它能不能做到量产落地,能不能给用户「更好、更舒适、更安全」的体验,做到以上三点就可以给用户更好的交付。

「GPT 时刻」更多指的是具有很强的通用性和泛化性,在这个过程可能随着我们自动驾驶往空间机器人或往其它具身领域去拓展的时候会产生出更强的泛化能力或者更综合的统筹能力,我们也会在落地以后随着「用户数据迭代、场景丰富、思维逻辑性越来越多、语音交互越来越多」逐渐往 ChatGPT 时刻迁移。

像郎博(郎咸朋博士)说的,到明年我们如果到了 1000MPI,可能会给用户这种感觉:真的到了一个 VLA 的「GPT 时刻」。

稳中向好。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博




from 爱范儿 https://ift.tt/MaPc3ni
via IFTTT