2026年3月10日星期二

🦞 龙虾卸载指南

就算是真的龙虾,也不是每个人都适合吃。

用这句话来形容当下的绝对 AI 顶流 OpenClaw,可能再合适不过。

社交媒体上流传的截图,永远是龙虾最肥美的那一面:Agent 自动处理邮件、跨应用调度任务、像一个不用休息,永远不会在群里已读不回的数字员工。

这种画面制造了强烈的 FOMO,让无数人心想「我也要一只」。

于是,一场关于龙虾的集体狂热就此开始。只是,没人提的是,这只「龙虾」要配什么锅、烧多少柴火,以及它进了你厨房之后,会不会顺手把冰箱里的东西全部清空。

今天,我们不谈那些改变世界的宏大叙事,只算一算普通人养一只 OpenClaw,到底要付出怎样的成本。

月薪两万,养不起一只龙虾

先说怎么才能体验 OpenClaw?

目前体验最完整的方案,是专门准备一台长期在线的本地硬件。OpenClaw 创始人 Peter Steinberger 本人就用一台 Mac Mini 跑 Agent,连接本地文件、挂接各类工具,连续处理各种任务。

受此影响,苹果 Mac mini 在各大电商平台迅速售罄,苹果官网显示,现在下单最快要到 4 月底才能到手;并且一些二手平台上甚至衍生出了「租 Mac mini 养龙虾」的服务。

但如果想用本地模型把 API 费用压下去,硬件门槛会陡然上升。

如果想省掉这笔硬件钱,则可以选云服务器。腾讯云、阿里云都有一键部署方案,价格从几十到上百元不等,以及 Kimi Claw、MaxClaw、以及今天正式上线的 AutoClaw,主打一个开箱即用。

买不到机器怎么办?拿自己的旧电脑硬上呗。但 OpenClaw 对系统环境,尤其是 Node.js 的版本,有着极其玄学的要求。无数满怀激情的年轻人,跟着教程折腾了一通宵,最后依旧卡在命令行报错界面。

这种想用用不上的焦虑,也催生了一个暴利的代装 OpenClaw 行业:国内平台上远程代装几十元起步,上门服务普遍要 500 到 1500 元。国外一家名为 SetupClaw 的网站则报价 3000 至 6000 美元。

哪怕你成功部署了龙虾,也建议留意后续的坑。

Chatbot 聊天机器人时代,用户的付费订阅是包月的,问一次,答一次,成本是静态的。但 Agent 一旦开始跑任务,每一次读网页、调工具、看文件、重试错误,背后是疯狂燃烧的 token 在负重前行。

这也让我想起了最近流行的一句话:「月薪两万,养不起 OpenClaw。」

OpenClaw 的官方文档写得很直白:养「龙虾」的花费不只来自核心模型回复,还来自网页读取、记忆检索、压缩总结、工具调用,以及系统提示里塞进去的 workspace 文件和 bootstrap 配置。

上下文一长,反复调用几轮,燃烧的 token 梆梆就是两拳。具体到价格,按 2026 年 3 月的市场行情,用 Claude Sonnet 跑 OpenClaw,单月累计一千万输入加一千万输出 token,光费用就接近 180 美元。

真把它当全天候执行 Agent、用高阶模型跑难度较高的任务,月费破千美元也都不稀奇。

市场数据也印证了这种烧法。OpenRouter 处理的 token 量从每周 6.4 万亿直接涨到 13 万亿。

在这条生态链里,顶层赢家始终是找到 C 端场景的各大 AI 厂商,靠算力和 API 坐收渔利;次层是云厂商和知识付费者,靠服务和信息差赚钱;受损方只有一类,就是掏钱烧 Token、还要承担系统风险的普通用户。

还没装上 OpenClaw,就已经先交了第一笔安全学费

退一万步讲,就算你不差钱,安全问题才是真正让人睡不踏实的雷区。

微软安全团队曾预警过龙虾的危险之处:OpenClaw 应被视为「携带持久凭证的不受信任代码执行环境」,不适合直接跑在标准个人电脑或企业工作站上。

问题不在于它能不能用,问题在于它天生就站在一个很危险的位置。高权限、高连通、高自动化,这三样东西凑在一起,本来就不该让人放松警惕。可很多人偏偏是用装聊天软件的心态去装 OpenClaw,最后便很容易落得一地鸡毛。

Shodan 平台监测显示,全球有超过十几万个 OpenClaw 实例直接暴露在公网上,处于零认证状态,奇安信数据显示其中相当数量位于中国境内。

工信部也专门发布了风险提示,OpenClaw 网关在默认配置下不核验请求来源,用户只需在浏览器里误点一个恶意链接,攻击者就能通过本地端口接管 Agent 的全部系统权限。

更麻烦的是,有些人甚至还没装上正版,就已经先交了第一笔学费。

安全研究机构 Huntress 在 2026 年 2 月发现,有人趁 OpenClaw 大热,在 GitHub 上伪造安装包,植入 Vidar 信息窃取木马和 GhostSocks 代理恶意软件。

连 Bing 搜索广告都被拿来做引流,用户搜索「OpenClaw Windows」,AI 推荐链接直接指向了一个刚创建的恶意 GitHub 仓库。这批假安装包从 2 月 2 日挂上去,到 2 月 10 日才被发现下架,中间整整八天。

▲Bing AI 搜索结果链接到了一个托管在 GitHub 上的恶意安装程序。🔗 https://www.huntress.com/blog/openclaw-github-ghostsocks-infostealer

插件生态同样是一个隐蔽的雷区。

网络安全机构审计发现,ClawHub 插件市场里约 12% 的 Skill 含有恶意代码,通常伪装成加密货币助手、YouTube 工具这类热门类目,一边执行正常任务,一边在后台偷取 SSH 密钥、浏览器密码和 API 密钥。

由于插件大多以 Markdown 或 YAML 格式存储,普通用户根本无法肉眼辨别。更要命的是,即便官方下架了已知恶意插件,GitHub 仓库仍保留着历史备份。你找人代装的那一份,到底顺手给你塞了什么,很多时候连代装的人自己都未必说得清楚。

这类风险,并不会因为使用者足够专业就自动消失。

Meta AI 安全研究总监 Summer Yue 将工作邮箱接入 OpenClaw 后,Agent 开始高速删除邮件,对她反复发出的「STOP」指令毫无响应,最终她不得不物理断开机器才阻止了损失。

原因不是模型不够聪明。而是 OpenClaw 的上下文压缩机制在处理大量邮件时,把她此前设定的「不确认不执行」这条底线指令直接过滤遗忘了。系统设计的优先级里,根本没有「用户随时可以叫停」这一条。

一个专门研究 AI 安全风险的顶级专家,尚且无法在关键时刻踩住刹车,阴沟里翻船。普通用户面对的风险,自然不难想象。

说到底,大家的焦虑也不是没有来由。去年之 DeepSeek,犹如今日之 openclaw,每隔一段时间,AI 总会冒出一个新物种,把人推到「再不用就落伍」的心理边缘。

可很多时候,真正把人拖垮的,不是工具不够先进,而是工具太多、太杂、太吵。哈佛商业评论今年 3 月的研究就用数据印证了这种境况。

调查 1488 名全职工作者后,研究者发现,同时使用超过三个 AI 工具,生产力反而会下降。

他们把这种状态叫作「AI 脑过载」,典型表现包括注意力饱和、决策疲劳、持续性脑雾。经历这类状态的员工,主动离职意向比其他人高出 39%。最会用 AI 的人,有时也会以另一种形式被 AI「干掉」。

所以回过头看,OpenClaw 你拿它当玩具,或者拿它做高价值、低频次的任务,成本大体可控,风险也还算能收得住。真把它当成一个 24 小时在线的数字雇员去养,成本、风险和管理复杂度都会迅速上升。

对绝大多数普通用户来说,等等下一代更稳、更安全、更省钱的产品,往往比现在立刻冲进去当第一批小白鼠要理性得多。

第一个吃螃蟹的人值得尊敬。但第一百个吃螃蟹的人,通常吃得更好,也更便宜。

附卸载指南

如果读到这里,你已经判断 OpenClaw 带来的成本和风险远远大于收益,决定和这只「龙虾」体面告别,也不是没有办法。它的卸载和普通软件不太一样,不是拖进废纸篓就算完事。

卸载分两条路:CLI 还在的,走简易路径;CLI 已经找不到但服务还在跑的,走手动清理路径。

简易路径(CLI 仍然可用)

最省事的方式是用它自带的卸载命令:

openclaw uninstall

想一键清除所有配置、跳过所有确认提示,加参数:

openclaw uninstall –all –yes –non-interactive

如果你习惯用 npx,也可以:

npx -y openclaw uninstall –all –yes –non-interactive

如果想手动一步步来,效果完全一样,按顺序执行:

第一步,停止网关服务:

openclaw gateway stop

第二步,卸载网关服务本身:

openclaw gateway uninstall

第三步,删除本地状态与配置文件:

rm -rf “${OPENCLAW_STATE_DIR:-$HOME/.openclaw}”

注意:如果你当时把 OPENCLAW_CONFIG_PATH 设置到了状态目录之外的自定义路径,那个文件也需要手动删除,否则会有残留。

第四步,删除 workspace(可选,但建议执行,会一并清除 Agent 运行时产生的文件):

rm -rf ~/.openclaw/workspace

第五步,卸载 CLI 本体,根据当时的安装方式选择对应命令:

# npm 安装的

npm rm -g openclaw

# pnpm 安装的

pnpm remove -g openclaw

# bun 安装的

bun remove -g openclaw

如果还安装了 macOS 桌面版,记得一并处理:

rm -rf /Applications/OpenClaw.app

手动清理路径(CLI 已不可用,但服务仍在运行)

如果 CLI 已经找不到了,但网关服务还在后台默默跑着,就需要根据操作系统分别处理。

macOS 用户:

默认服务标签为 ai.openclaw.gateway,执行:

launchctl bootout gui/$UID/ai.openclaw.gateway
rm -f ~/Library/LaunchAgents/ai.openclaw.gateway.plist

如果你当时用了 –profile 参数,需要把命令里的标签和 plist 文件名替换为 ai.openclaw.<profile名>。此外,老版本 OpenClaw 遗留的 com.openclaw.* 格式 plist 如果还存在,也一并删除。

Linux 用户:

默认服务单元名为 openclaw-gateway.service,执行:

systemctl –user disable –now openclaw-gateway.service
rm -f ~/.config/systemd/user/openclaw-gateway.service
systemctl –user daemon-reload

使用了 –profile 的,对应单元名为 openclaw-gateway-<profile名>.service,命令里替换即可。

Windows 用户:

默认任务名为 OpenClaw Gateway,执行:

schtasks /Delete /F /TN “OpenClaw Gateway”
Remove-Item -Force “$env:USERPROFILE\.openclaw\gateway.cmd”

使用了 –profile 的,任务名对应为 OpenClaw Gateway (<profile名>),同时删除 ~\.openclaw-<profile名>\gateway.cmd。

几个容易漏掉的细节

  • 多 profile 的情况: 如果你当时用 –profile 参数创建了多个配置,每个 profile 都有独立的状态目录,默认路径是 ~/.openclaw-<profile名>,需要逐一找出来,逐一删除。一个都不能漏,否则残留数据还在。
  • 远程模式的情况: 如果你用的是远程模式,状态目录不在本机,而是在网关主机上。这意味着上面停止服务、删除状态目录这几步,需要登录到网关主机上去执行,本机操作是不够的。
  • 源码方式安装的情况: 如果你当时是通过 git clone 拉取源码运行的,卸载顺序很重要——必须先卸载网关服务(走上面的简易路径或手动清理路径),再删除仓库目录,最后清理状态和 workspace。顺序不能反,否则服务还挂着,删了仓库反而清理不干净。

做完这些,才算真的和这只龙虾说了再见。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博




from 爱范儿 https://ift.tt/iZEp3dt
via IFTTT

美的发布了家居智能体 MevoX,想让智能家居更懂你

如果把过去十几年智能家居的发展简单划一条线,大致可以分成三个阶段:联网、联动、理解。

最早的阶段,是把家电连上网络。从单机设备变成可以用手机控制的产品,这也是很多人最早理解的「智能家居」——远程开空调、查看冰箱状态、用手机控制扫地机器人。

第二阶段,是设备之间开始产生联动。例如空调与空气净化器协同运行,洗衣机与烘干机自动接力完成洗护流程,厨房设备之间形成简单的场景组合。这一步解决的是「设备之间能不能协同」的问题。

但走到今天,行业逐渐意识到一个更深层的问题:即便设备可以互联互通,家依然不太理解人。用户依然需要说出明确的指令、手动创建场景、不断调整参数。很多智能家居在演示时看起来很聪明,但在真实生活中却很少被频繁使用,问题并不在设备本身,而在于系统缺乏真正的「理解能力」。

在上海举行的美的全屋智能战略发布会上,美的试图回答这个问题。发布会上最核心的两件事,一是推出家居智能体 MevoX,二是提出全屋智能的「三个一」战略:一张家电网、一个聪明大脑、一个开放平台。这套组合背后的逻辑,其实是让家庭从「可控制系统」,升级为「能理解人的系统」。

智能体进入家庭:从控制设备到理解生活

过去一年,「智能体(Agent)」几乎成为 AI 行业最热的关键词之一。与传统 AI 不同,智能体不只是回答问题或执行单次任务,而是能够理解目标、持续记忆,并在复杂环境中做出决策。

如果把这个概念放进家庭场景,意义就会变得非常具体。

传统智能家居的逻辑是:人–指令–设备执行。

而智能体的逻辑更像是:人–意图–系统理解并调度设备。

美的这次发布的 MevoX 家居智能体,正是尝试把这种能力带进家庭空间。它的两个核心能力是高阶推理和持续记忆。前者意味着系统不只是识别语音指令,而是理解用户想要达成什么目标;后者则意味着它可以逐渐学习家庭成员的习惯,例如作息、温度偏好、洗护方式等。

换句话说,智能体的价值并不在于「帮你开灯」,而在于知道什么时候该开灯,甚至不需要你开口。

这也是为什么美的把家庭 AI 的目标描述为「意图驱动空间」。当系统能够理解人的意图时,家庭环境就不再只是被动响应,而是可以主动调整。

例如:

  • 早晨起床前,系统已经调好室温和热水
  • 回家路上,车与家庭系统提前联动
  • 晚餐准备时,厨房设备自动协同

这些并不是单一设备能完成的,而是需要一个能够调度整个家庭设备网络的「智能体」。

从更宏观的角度看,这其实也是家电行业正在发生的一次结构性变化。过去几十年里,家电企业的竞争主要集中在产品性能、制造能力和渠道规模。但在智能化时代,新的竞争维度开始出现:设备规模、数据能力和系统调度能力。

智能体之所以成为关键,就是因为它可以把这些能力整合起来。单个设备再聪明,也无法理解整个家庭;只有系统级 AI 才可能做到。

这也是为什么越来越多的科技公司开始关注家庭场景。因为家庭其实是一个极其复杂、但又高频的生活空间。对家电企业来说,优势恰恰在这里:设备就是入口。

拥有大量设备,就意味着拥有真实生活数据,也意味着 AI 可以不断学习真实场景。这是很多互联网公司很难复制的能力。

「三个一」战略:智能家居真正的基础设施

不过,仅仅有一个 AI 大脑并不足以构建真正的智能家庭。家庭空间的复杂程度远高于手机或电脑系统——设备数量多、品牌多、场景多,任何一个环节不通都会让体验断裂。

这也是美的提出「三个一」战略的原因。

第一,是一张家电网。在智能家居行业,很多公司强调算法和交互,但真正决定体验的往往是设备规模。没有足够多的联网设备,所谓的智能场景就只能停留在演示阶段。

目前,美的已经拥有超过 5 亿台具备联网能力的家电,其中 1.4 亿台已经在线。这意味着,从空调、冰箱到热水器、洗衣机,大量设备已经成为家庭网络的一部分。对 AI 来说,这相当于拥有了一套完整的「感知系统」。

换句话说,家电越多,家庭数据就越完整,智能体也越有能力理解生活。

第二,是一个聪明大脑。这部分就是 MevoX,以及其背后的家庭智航系统 MIA 1.0。如果说家电网是身体,那么 AI 大脑就是神经系统——它负责对所有设备进行统一调度与决策。

美的把这个系统称为「家庭自动驾驶」。这个比喻其实很贴切:自动驾驶汽车要做的是实时感知环境、预测行为并控制车辆,而家庭 AI 也需要对空气、温度、水、电、饮食等多种系统进行综合判断。

当设备规模和 AI 推理能力同时存在时,家庭空间才可能真正实现自动化。

第三,是一个开放平台。这是智能家居行业长期存在的难题。过去十年里,大多数家庭都同时拥有多个品牌的设备,不同系统之间很难互通。

美的的思路并不是只做封闭体系,而是尝试推动更大的互联生态。例如与手机厂商、汽车厂商进行互联,在手家互联和车家互联之间建立连接。

当手机、汽车、家电都能共享数据时,智能场景的边界就会明显扩大。例如回家途中车机系统提前通知家庭设备,或者家里的能耗数据与车辆充电策略联动。

从技术时间点来看,这样的变化其实也恰好发生在一个关键阶段。一方面,大模型让 AI 的理解能力有了明显提升,语音、语义和多模态交互逐渐成熟;另一方面,智能家电的普及率也已经足够高,设备联网不再是难题。

换句话说,软件能力和硬件基础第一次同时成熟。

当这两件事叠加时,家庭空间就可能出现一次真正的体验升级。未来几年,智能家居行业很可能会从「设备联网竞赛」,转向「系统智能竞赛」。

在这个过程中,谁能够建立更完整的设备网络、更多真实场景数据,以及更稳定的系统调度能力,谁就更有机会定义下一代家庭体验。

这次发布会的主题叫「智美万象」。如果换一种角度理解,它其实描述的是一种更大的变化:家庭正在从设备集合,变成一个可计算的生活系统。

当家里的空气、用水、饮食、洗护都可以被感知和调度时,家庭空间就不再只是物理空间,而是一个持续运行的系统。在这个系统里,设备不再是孤立的产品,而是一个个节点;而 AI 智能体,则像是连接这些节点的中枢。美的这次提出的 MevoX 和「三个一」战略,本质上是在搭建这样一套基础设施。

它是否能够真正改变家庭体验,还需要时间验证。但可以确定的是,当智能体开始进入家庭,智能家居的叙事已经发生变化,它开始从「控制设备」,走向「理解生活」。

稳中向好。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博




from 爱范儿 https://ift.tt/91GHvBX
via IFTTT

2026年3月9日星期一

实测 5 万元的苹果 AIPC,比我们想象的还要出色|M5 Max MacBook Pro 评测

如果有 5 万块钱的预算,用来配一台个人电脑,你会怎么选?

放在以前,你可能会把预算的大头放在显卡上——毕竟无论是「玩游戏」还是「下班玩游戏」,有个强悍的 GPU 总归不是一件坏事。

▲ 图|网络

可如今,这个问题变得复杂起来。

以往在 CPU、GPU、主板、内存、硬盘、外设之间有序分布的预算,突然被内存这头「吞金巨兽」打乱。

这下无论计划用电脑做什么,你都会碰到顾此失彼的问题——

大内存、大显存、大硬盘每个都不能缺,但每个都会让钱包滴血。

而在内存乱潮中异军突起的 Mac,恰恰就是上面那个问题的最佳解决方案。

迄今最强的 AI Mac

刚刚过去的春季发布会上,苹果如期带来了 M5 MacBook Pro 的升级版机型,以及配套的 M5 Pro 和 M5 Max 处理器。

作为 Apple Silicon 全面更新台积电 3nm N3P 工艺的结果,两款新处理器在规格上的确没有让我们失望。

其中,M5 Pro 有 15+16 和 18+20 核两种规模,均搭载了去年 M5 上的神经网络加速器,也就是那个「苹果版的 Tensor Core」。

▲ 图|Apple

M5 Max 本次则有 18+32 和 18+40 核可选,以及 16 核神经网络加速器。仅从处理器规模上看,M5 Pro 与 M5 Max 毫无疑问都是 GPU 优先的。

这种倾向也体现在了新处理器的微架构设计上。

目前,所有 M5 系列的处理器均换装了 LPDDR5X 9600 统一内存,根据苹果的介绍,M5 Pro 的最大内存带宽为 307GB/s,M5 Max 则有 614GB/s

▲ 图|Apple

既然 M5 Pro 和 M5 Max 标配 18 核 CPU,那么导致内存带宽不同的原因大概率就在 GPU 规格上。

结合发布前的预测,这种差异侧面说明了 M5 系列的内存控制器很有可能是设置在 GPU 核心簇上的

这种策略和爱范儿去年参访英特尔工厂时看到的 Panther Lake 架构心有灵犀:

这样做的好处很明显——将 GPU 与内存控制器靠近,可以非常有效地缓解内存数据的核间通讯的延迟,变相提升 GPU 效率。

而速度更快、VRAM 更大的 GPU 最擅长什么呢?当然是本地 AI 应用了。

这也是本次苹果在官网页面上非常高频提及「AI」的原因之一。

就拿爱范儿这台 14 寸 MacBook Pro 样机来说,我们收到的是今年最顶规的 40 核 GPU M5 Max 版本,搭配 128GB 统一内存和 8TB 硬盘,一台超过 5.5 万元的性能怪兽。

一般来说,当我们用 Windows PC 跑本地模型的时候,最大的瓶颈往往不是卖出天价的「主板内存」,而是显卡内部的 VRAM 显存。

而苹果统一内存的最大优势,就在于它可以被 GPU 直接调用。

比如我们这台 128GB M5 Max 评测机,理论上甚至可以为 GPU 提供接近 100GB 的显存空间:

既然有了这么充裕的内存,我们当然要按照苹果宣传的那样,狠狠运行一下那些以前跑不了的大规模本地 AI 模型了。

在 llmfit 中可以看到:一块 128GB 的 M5 Max,对于所有不超过 125b 的模型都可以「顺跑」(perfect)。

直到 220b 以上的 MiniMax M2.5、Qwen3 和 DeepSeek v2.5 等等,才会变成「勉强能跑」(marginal):

▲ M5 Max 128GB

相比之下,32GB 内存的 M1 Max 用 llmfit 查一下,最多也就只能跑一跑 2 或 4bit 量化 35b 左右的模型了

▲ M1 Max 32GB

考虑到部署的便捷程度,以及上下文理解的空间,我们选择通过 LM Studio 测试 qwen3.5-35b-a3b,以及支持 MLX 的 qwen3-next-80b,两者均为 8-bit 量化的 MoE 模型

对于 qwen3.5-35b-a3b 这种「总量和推理数量都不大」的 MoE 模型来说,M5 Max 经常是还没来得及热起来就跑完了:

▲ qwen3.5-35b-a3b

即使面对接近 3000 字的原文材料,在手动拉满模型 token 上限之后,M5 Max 在每一轮重写和仿写中的首词元响应速度都在 1.7 秒左右,即 TTFT 约 1.7s、TPOT 约 65tps,累计思考和撰写的字数近万也没有溢出。

▲ qwen3.5-35b-a3b

而有 MLX 优化、8-bit 量化且参数量更大的 qwen3-next-80b 在 M5 Max 上更是如虎添翼。

虽然需要忽略内存警告手动加载接近 80GB 的模型,但是运行效果的确非同凡响:

在 qwen3.5-35b-a3b 中需要思考近 30 秒的相同提示词,输给 qwen3-next-80b 则是接近秒出,TTFT 约 3s、TPOT 约 72tps。

▲ qwen3-next-80b

这一方面是因为 80b 的参数相比 3b 活跃参数本来就够大,更因为这是基于苹果开源的 MLX 框架优化的版本,可以最大发挥出 Apple Silicon 的优势。

除了 MoE 模型之外,M5 Max 面对类似 Llama 3.3 这样的稠密模型的表现怎么样呢?

▲ 图|Tom’s Guide

尽管 8-bit 量化的 Llama 3.3 70b 模型体积只有约 75GB,但 128k 上下文所需的巨大 KV cache 还是会溢出,导致 LM Studio 无法加载。

换成体积更小的 Llama 3.3 70b Q4_K_M 之后 M5 Max 终于可以正常加载了,执行上述提示词后系统负载约为 95GB,生成速度 9.95 token/s:

换句话说,在面对类似规模的稠密模型的时候,还是需要更大内存的 M3 Ultra 上场

不过我们本次在 M5 Max 上观测到的最大占用,反而不是稠密的 Llama 3.3,而是跑在 Msty Studio 里面的 deepseeek-r1:

在 Msty Studio 中,我们加载了一个 75GB 的 deepseek-r1 70b-llama-distill-q8_0,花两分钟占用 122GB 内存给你写了首俳句:

▲ deepseek-r1 70b-llama-distill-q8_0

这还仅仅是本地语言类模型的成绩,即使在一些传统性能项目中,M5 Max 的表现同样没有让我们失望。

在 Cinebench 2026 中,M5 Max 最高跑出了 GPU 79295 分的成绩,相比 M4 Max 提升了超过 15%,和目前规模最大的 M3 Ultra 仅差 5% 左右。

▲ 连续烤机后下降到了 7.7 万分左右

而这样的成绩放到游戏中是什么样呢?

我们按照与去年评测标准版 M5 时相同的参数,重新在 M5 Max 上玩了一会《赛博朋克 2077》。

在使用默认「for this mac」预设时,M5 Max 可以稳定在 59 帧左右,相比标准版 M5 不仅预设分辨率更高、细节更多,帧率更是直接翻倍

在手动优化一下设置(高细节 1.5K 光追 FSR MetalFX 超分和帧生成)之后,M5 Max 则可以在风扇拉满的情况下稳定住密集场景 50~60 帧——

这个成绩距离游戏本当然差不少,但 2077 本来就是个非常庞大的游戏,M5 Max 能够在不插电的 14 寸机身里面跑出这样的效果,还是很让人惊喜的。

至于其他体量更小、优化更好的游戏,比如《控制:终极合辑》、《逃离鸭科夫》等等,只要不乱改设置,M5 Max 基本都可以稳住 60 帧一根线。

无论是 AI 工作流,还是打游戏,这款 M5 Max 芯片的 MacBook Pro,是一只毫无疑问的澎湃猛兽

迄今最好的苹果屏幕

除了 M5 Pro/Max 之外,今年春季发布会上的另一个「Pro 级」新品则是千呼万唤始出来的新一代 Studio Display。

更具体一点说,是新款 Studio Display 和 Studio Display XDR。

在 Pro Display XDR 下架之后,Studio Display XDR 接过了它的衣钵,凭借着 24,999 的起售价成为了目前苹果专业级显示器的门面担当。

而我们在上手 Studio Display XDR 之后的初体验也和 Apple 活动现场一致:

屏幕面积缩小的影响并不明显,反而是 ProMotion 从第一秒就抓住了我们的目光——

得益于一块 2304 分区的 mini-LED 面板,以及 1000 尼特峰值 SDR 亮度、2000 尼特峰值 HDR 亮度,说它「不抓人眼球」是不可能的。

▲ mini-LED 的光晕现象只在非常极限的情况下可见

在「老生常谈」的广色域 HDR 内容创作之外,Studio Display XDR 当然也是影音娱乐的一把好手。

尤其是当你手头有一些支持 HDR 效果的「欧美大片」的话,用 MacBook Pro 搭配 Studio Display XDR 的体验,在目前的苹果产品线中是无出其右的:

而相同的评价对于今年的新款 Studio Display 同样适用。

实际上,除了 ProMotion、峰值亮度和充电功率之外,Studio Display 在屏幕面板素质方面,完全可以看齐新的 Studio Display XDR ——

毕竟苹果事先打好了招呼:5K 120Hz 可不是随便什么处理器都能带动的,如果你的 Mac 使用的是 M1 全系、M2 或 M3 标准版的话,插上 Studio Display XDR 最高只能以 60Hz 显示。

这也符合我们拿到 Studio Display XDR 的体验结果。

甚至如果你的 macOS 版本太老,即使插上显示器能够充电,也是无法输出画面的。

有意思的是,爱范儿在发布会现场和苹果的工作人员交流时,他们提到:两款显示器都搭载了 iPhone 的 SoC 芯片

而外媒 MacRumors 通过解包两款新显示器的固件更新代码,发现苹果分别为两款新显示器装上了 A19 和 A19 Pro 处理器——

不出意料,这是为了 5K 画面解码、背光控制、Center Stage 摄像头以及其他显示器功能准备的。

但这也让苹果的「处理器笑话」越来越多了:

2026 年刚开头,你就可以买到 M5 芯片的 iPad Pro、A18 Pro 芯片的 MacBook Neo,以及 A19 Pro 芯片的显示器。

总的来说,今年的 Studio Display XDR 是一次非常及时的更新。

它最重要的意义,在于补全了苹果专业级产品线中 ProMotion 的缺口,也是让产品联动的体验更加无缝。

当苹果开始谈论 AI

这次的春季发布会上,苹果除了改变之前的发布模式之外,也开始大大方方地谈论起了 AI ——

这次的 AI 不是一鸽再鸽的 Apple Intelligence,也不是苹果曾经反复强调的 Machine Learning,就是简单直白的通用人工智能

而从目前的产品表现来看,当苹果开始谈论 AI,它确实是准备好了。

早在苹果 2020 年转向 Apple Silicon 与统一内存架构时,它大概率没有想到如今的 AI 模型需求大爆发,以及随之而来的内存危机。

最直白的例子,莫过于这块 M5 Max 上的 128GB 统一内存:

  • 如果只看消费级 DDR5 6400 内存,想要买足 128GB 的确不是难事,所需开销仅仅一万元左右,但无论如何也达不到 614GB/s 的带宽。
  • 如果想要用显卡凑够 128GB 的 VRAM,在专业卡买不到的前提下,你需要买整整五块 RTX 5090D,这还是忽略显卡间通讯延迟之后的结果。

这种时候,有本地 AI 需求的小型企业团队、个人开发者、AI 从业者等等就会陷入两难的境地:

要么用有限的预算,在搭建 PC 时将预算分割到内存、显卡、CPU、硬盘等等上面,稀释整体的计算性能。

要么咬紧牙关加预算,投入几十乃至上百万元,进入自构服务器的领域。

▲ 图|Servermall

这时,一台不到 6 万元,自带 128GB 高带宽内存、顶级 HDR 屏幕和扬声器,以及 8TB 硬盘的 MacBook Pro,反而变成了个人和工作室用户的终极性价比之选

甚至如果你用不到上面那些「外设」,或者本地 AI 需求不高的话,还可以退而求其次选择 Mac Studio 或者 Mac mini ——

而后者已经在刚刚的「龙虾潮」中迎来了一波自己的春天。

▲ 图|Apple Must

虽然 Apple Intelligence 引人发笑,但 Apple Silicon 和统一内存在这个「大 AI 时代」的潜力,才只露出冰山一角。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博




from 爱范儿 https://ift.tt/IoXqwKf
via IFTTT

微信可以养龙虾了?腾讯一天甩出三只虾,最后这个大招有点狠

上周腾讯在深圳办公室楼下搞万人装 OpenClaw 活动,造就了一场新时代的「送鸡蛋」盛会。连马化腾都在朋友圈感叹「没有想到会这么火」。

昨天,深圳龙岗区发布了一份史无前例的「龙虾」补贴政策,更是让人们高呼:龙岗区改名龙虾区

今天更刺激的来了:一天里,腾讯的 CSIG(云与智慧产业事业群)直接发布了三款适配 OpenClaw 的产品/更新。

它们分别是:

  • QClaw,来自腾讯电脑管家团队,现在也属于 CSIG 了?)
  • WorkBuddy
  • 腾讯云轻量云

其中最值得关注的就是 QClaw。

这是腾讯电脑管家基于 OpenClaw 打造的一款本地 AI 助手,可以一键安装。通俗的话就是 OpenClaw「套壳」,去年此时也有一个火遍全网的套壳 Agent 产品,叫 Manus。

重点来了, QClaw 具备一个现在所有 OpenClaw 产品都没有的「杀手级」功能——接在微信和龙虾对话,让它帮你干活。

目前 QClaw 还没正式开放内测,APPSO 也将第一时间跟大家分享体验。

QClaw 网站🔗
https://ift.tt/kVelEfg

让「养龙虾」变得像装微信一样简单

根据官网信息,它支持 Mac 和 Windows 双端,内置了 Kimi-2.5 模型,内测用户展示的界面显示可默认关联到 Kimi、Minimax、GLM、DeepSeek 等内置模型,还可让用户自定义大模型。

当然,最最最重磅的功能,是可以零配置直接关联微信,无论你是在通勤路上还是躺在沙发上,在微信给这只「龙虾」发条消息,它就能远程操控你的电脑干活。

▲图片来自:特工宇宙

QClaw 背靠着一个庞大的 Skills 生态,链接了 ClawHub 和 GitHub,拥有超过 5000 多种 Skills 储备。这意味着它不仅能陪聊,还能帮你跑代码、查数据、甚至管理项目,技能树点得满满当当。

这只龙虾还拥有「持续记忆」的能力,它会像个老朋友一样记住你的偏好和上下文,用得越久越顺手,真正长成懂你的模样。

至于很多人关心的数据安全问题,QClaw 数据全部留在本地,不上云端。

当然,由于需要执行系统级操作(如文件操作、浏览器控制等),你需要授予一定的权限。建议设置强密码和身份验证(Token),限制聊天范围(仅允许可信联系人),敏感操作开启二次确认。

Qclaw 的接入流程主打一个「傻瓜式」操作,看起来还是非常友好的:
1. 下载客户端:目前支持 Mac 和 Windows 双平台(暂时不开放下载)。
2. 扫码绑定:安装打开后,用你的微信扫一下屏幕上的二维码。
3. 开始使唤:绑定成功后,你的微信里就多了一个「龙虾」好友。

在微信 QQ 「养龙虾」能干嘛

说了这么多,QClaw 到底能干嘛?

目前官网并不支持下载,在官方的内测群消息,预计下周正式开放内测,会以邀请码的形式开发,而且放言内测期间免费,解决 Token 焦虑。

APPSO 也给大家附上内测登记链接 :https://ift.tt/W8acvJd


这么说吧,当你在外面浪的时候老板突然要数据,你只需要对着微信说一句「帮我打开桌面的 Q3 报告.xlsx,把第 3 列数据求和」,它就能远程操控你的电脑,打开文件、算好数据,直接结果甩回微信给你。

人在咖啡厅,活在工位上,这才是真正的远程办公自由。

别人还在苦哈哈地想选题、写文案、回评论的时候,你只需要丢一句「帮我在小红书发一条关于 AI 效率的笔记,并自动互动」,它就能生成笔记、一键发布,甚至自动回复评论帮你涨粉。

你负责躺,它负责卷,这会是以后社媒运营的终极形态吗?

编程这些常见功能也同样支持,你说一句「创建一个 Chrome 插件项目,自动提交到 GitHub」,它就能建文件夹、写代码、Push 到仓库一气呵成,全程零手动。

导师说「下周交综述」但你连论文标题都没看过?别慌,告诉它「搜近 3 年 LLM Agent 的综述论文,整理成 PDF」,检索、筛选、写综述、导出 PDF 全套服务直接打包发到你手上。

在生活中你可能没有对象,但你可以有一个每天早上 8 点准时提醒你天气的 AI,下雨叮嘱带伞,降温催你加衣,比你妈还准时,比你对象还靠谱——如果有的话。

如果这个产品正式上线,大概是目前市面上门槛最低的 OpenClaw 连接方案之一了。而且它把复杂的 Agent 技术封装成了一只可以在微信里随时呼叫的「龙虾」。

QClaw 虽然做到了「在个人微信里直接和龙虾交互」,但它和飞书、企业微信那套 OpenClaw 接入完全不是一回事。

就在今天上午,企业微信也官宣了 OpenClaw 接入智能机器人,不仅能直接对话,还支持通过 OpenClaw 快速写入数据到智能表格。

同时腾讯版龙虾 WorkBuddy 也正式上线,完全兼容OpenClaw的技能,它还能接入QQ、飞书、钉钉等工具。

腾讯追赶龙虾动作之快,几乎是在抢着表态。

说实话,微信要接入龙虾,技术上根本不是什么难题。真正让它迟迟没有动作的原因,所有人都心知肚明——一个坐拥 14 亿用户的国民级应用,哪怕 OpenClaw 再香,安全和数据这根弦也不敢松半分。

能力越大,包袱越重,这事急不来。

但不管微信怎么选,AI 新入口的争夺战已经悄然换了赛道。

OpenAI 联合创始人 Andrej Karpathy 昨天在一条帖子下的留言引起了热议。他的意思很直白,也很颠覆:未来的软件,不再是给人用的,而是给 AI 智能体用的。

而他转发的,是 Box CEO Aaron Levie 的一篇长文。里面有一个堪称「暴论」的判断:

如果你的产品不能通过 API 注册账户、不能让智能体自主操作,那在 AI 时代就「约等于死亡」。智能体将取代人类成为所有软件的「第一用户」,软件设计的逻辑要从「API 优先」直接跃迁到「API 唯一」。

这话听着极端,但你仔细品,它击中的恰恰是整个行业最不愿意面对的真相。

APPSO 上周在分析 OpenClaw 的文章里提了一个观点:龙虾让 IM 软件重新有了成为微信的机会。关键就在于,在 Agent 时代,一个聊天平台究竟应该开放到什么程度?

你想想看,当一个聊天窗口可以调用任意 Agent,完成从订票、写代码到跑数据分析的所有任务时,它就已经不只是一条消息管道了——它正在变成一个超级接口。而最适合坐在这个位置上的,从始至终都还是微信。

只不过,开放生态能不能在不撕开安全口子的前提下,真正达到那种「无所不能」的服务深度?说实话,目前没有人敢打这个包票。

但这颗种子已经种下了,你能感觉到,一个全新的形态已经在萌芽。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博




from 爱范儿 https://ift.tt/Cnrak1Z
via IFTTT