2026年3月12日星期四

2026 年第一个「机皇」,粉丝先买|三星 S26 Ultra 评测

在过去的很长一段时间里,我们对于手机显示屏的追求都是非常单纯的——

不仅亮度要能在室外看得清,还得有丰富的色彩,分辨率的提升更是要跑赢通胀指数才行。

这种「既要又要还要」的精神,最终促成了如今涵盖从高端旗舰到平价中端手机的高性能 OLED 屏幕,峰值亮度、可视角度、清晰度一个不落。

不过一块光鲜亮丽的屏幕窝在床上看电影时当然爽,可一旦需要在地铁经过体育西路的时候回复一下 boss,那些越过肩膀的视线就变得不友好起来。

▲ 图|网络

这也是为什么即使被批评「劣化屏幕素质」的防窥膜,依然在各种电商平台取得了不俗的销量。

而我们手里这台三星 S26 Ultra,就对这种「既要又要还要」的矛盾提出了一种解决思路——

一块外表平平无奇的普通 OLED 屏幕,也能拥有超过防窥膜的隐私保护能力。

防窥:戴着镣铐跳舞

今年 S26 Ultra 最出圈的「隐私屏幕」功能,我们已经在发布会追踪、现场上手和原理分析的文章中为大家做了详细的报道。

而当我们真正将这台浅云蓝色的 S26 Ultra 拿在手中之后,这块屏幕的防窥效果依然可以让编辑部的同事们不断发出「wow」「awesome」的声音。

和爱范儿在现场体验到的功能一样,三星为 S26 Ultra 的隐私屏幕功能提供了完善的场景触发机制

比如我们可以设置在打开系统相册、企业微信、中信银行、Gmail 和 1Password 的时候自动启用隐私屏幕。

在点开 app 的一瞬间,手机就会自动从普通模式切换为隐私屏幕,阻断来自隔壁工位的目光:

同时,也可以把 S26 Ultra 设置成只有出现通知弹窗的时候开启防窥。在你眼里一览无余的私人电话,在旁人看来就是一块巨大的黑幕:

而且很多时候我们不希望别人看到的,只是屏幕上的一两处关键信息而已。

S26 Ultra 的动态防窥效果能够涵盖密码界面和通知弹窗,基本已经解决了 99% 的「突发」需求:

然而就像我们在技术原理分析中指出的那样:

由于屏幕中有 50% 的像素为窄角发光像素,S26 Ultra 侧向亮度衰减的速率不像前代那么均匀。


▲ 为了容纳广角前摄,S26 Ultra 的挖孔也变大了一些

但如果你想要防窥效果,给 S25 Ultra 贴了一张防窥膜的话,那 S25 Ultra 的显示效果又反过来不如 S26 Ultra 了:

▲ 贴了防窥膜的 S25 Ultra(左)

这也是我们在实际使用一段时间之后,对于这块硬件自带物理防窥功能的屏幕的最终结论:

假如你之前有贴防窥膜的需求,那 S26 Ultra 无论打开或关闭隐私屏幕,显示效果都要好于贴上防窥膜的 S25 Ultra。

因此还是那句话,无论是抗反射涂层还是防窥屏,它们的重点更多都在于「硬件集成」。这种化繁为简的能力,就是新硬件最令人着迷的地方。

系统:Bixby「倒退」九年

今年 S26 全系列的另一大升级,就是带来了最新版本的 OneUI 8.5。

相比 S25 Ultra 上面的 OneUI 8,新版本系统带来的改变非常细微。

除了电池强制显示百分比、系统界面换用胶囊形底栏,以及支持信号图标叠放之外,OneUI 8.5 本身的新东西并不算多——

换言之,这依然是那个需要你熟练掌握《OneUI 使用说明书》以及 GoodLock 插件之后,才能真正用得顺心的系统。

但在系统的微小改进之外,OneUI 8.5 其实还迎来了一个更加可感的升级:Bixby 变得更智能了。

九年前的三星 Galaxy S8 上,三星大幅提升了 Bixby 的指令处理速度和 app 功能调用能力,实现了如今难以想象的「动动嘴就能发微信红包」的效果:

而自那以后的 Bixby 再也没能重现那个时候的辉煌,直到最近两年 Agentic AI 概念的兴起,Bixby 才重新获得了代为操作的执行能力。

只不过在今年的国行 S26 Ultra 上,情况则变得复杂起来。

虽然三星没有介绍 Bixby 的具体「合作方」都有谁,但大概率依然是百度智能云、阿里千问、美图、生数科技等等前几年合作过的那些。

都说除了看广告还得看疗效,三星今年的新版 Bixby 的自动化体验究竟如何呢?一句话说:

一觉醒来,Bixby 能力倒退九年,还有这种好事?!

从执行效果来看,目前版本 Bixby 的「智能执行」基本可以涵盖点外卖、叫车、订票、导航等等复合指令,对于各个门类下的主流 app 都实现了适配:

只不过目前 Bixby 也有一些我们熟悉的问题——比如微信里,包括 Bixby 在内的所有利用无障碍权限识别屏幕画面、模拟点击的语音助手,都无法接入任何微信功能……

虽然 Gemini 已经能够通过 API 接入 + 屏幕 OCR 模拟点击的组合拳来实现不错的「智能执行」了,但在国内一边野蛮生长、一边横行霸道的软件生态里面,Bixby 就像曾经的豆包手机一样无助。

同时,根据我们上手的体验来看,Bixby 在智能执行期间的命令区分还有一些不完善之处。

最明显的例子就是,当智能执行到某一步,Bixby 询问你的具体选择时,如果你回答不是很明确,Bixby 就会切回大语言模型帮你解释东西、而不再继续操作:

影像:喜欢剑走偏锋

虽然 AI 很先进,但作为一台 2026 年的旗舰超大杯,影像依旧是不得不聊的话题。

三星 S26 Ultra 搭载了一套四摄影像系统,分别是 1/1.3 英寸的两亿像素主摄、1/2.5 英寸的五千万像素超广角、1/3.94 英寸的一千万像素 3 倍长焦以及 1/2.52 英寸的五千万像素 5 倍长焦。

为了给这四颗镜头腾地方,S26 Ultra 在外观上做出了妥协。

它放弃了前代标志性的独立镜头排布,背部隆起了一个明显的中岛,整体设计语言全面向 Z Fold 7 看齐。

如果你曾钟情于 S25 Ultra 克制、利落的极简美学,看到这一代的背面多少会觉得有些臃肿:

外观方面见仁见智,但突起的模组并没有让三星的硬件弯道超车。在国产品牌动辄一英寸主摄和大底长焦面前,三星的参数实在有些乏善可陈。

不过在上手后,我发现这位昔日机皇,依旧有可取之处。

作为久被国产哈苏味、徕卡味以及蔡司味熏陶的用户,我是真不太喜欢三星偏向「保守派」的成像风格——

除了整体呈现像是没有风格的白开水,拍摄高频细节较多的场景时,自动模式总是带有较重的数码感。

但瑕不掩瑜,在传感器尺寸普遍弱于国产旗舰的情况下,我并没有觉得两者画质有明显差距。尤其是主摄上了两亿像素后,虽然像素数不完全等于画质,但在计算摄影的帮助下依旧可以有效提升成片质感。

不过,在光线较暗的环境下,S26 Ultra 的表现就稍微有些露怯了。

这是一张在地铁里随手抓拍的照片,此时手机并没有触发夜景模式,放大细节,车厢把手和金属环的质感其实还原得相当扎实。

但只要视线移向虚化的背景,问题就暴露了:暗部爬满了肉眼可见的底噪,甚至糊成了斑驳的色块。

我们推测这主要是算法问题,三星的算法一如既往地倾向保守,似乎更想保留光线最原始的状态。

这种老派的克制当然有它的审美坚持,但代价也显而易见。所以在光线较暗的情况下,尽量手动开启夜间模式会比较稳妥:

在 S26 Ultra 的长焦上,还有个细节值得注意。

不同于常见的方形潜望镜,S26 Ultra 的 5 倍长焦呈圆形开孔,结合增加的高度,基本可以判定 S26 Ultra 使用了 ALoP 技术。

知名拆机频道 JerryRigEverything 也在最新的视频中证明了这一点:

▲ 图|YouTube @JerryRigEverything

传统的潜望长焦像是一条横卧在手机里的长隧道,要先让棱镜将光线拐弯 90 度,再通过镜片聚焦到传感器上,会损失不少进光量:

▲ 图|YouTube @JerryRigEverything

而 ALoP 将镜片组「叠」在棱镜上方,先聚光再折射,除了保护进光量之外,还能获得更自然的焦外,不会出现丑陋的方形光斑:

体验下来,我觉得照片模块最值得夸奖的,其实是仿色功能——

在滤镜列表的最前端,三星允许你上传一张准备好的照片,并根据上传的照片智能分析调色风格,实时预览到取景框中。

仿色是从去年开始流行的一个功能。比较主流的方式是下载修图 app,上传示意图,再上传自己拍摄的照片,修图 AI 会根据上传的示意图将照片修好。

不仅折腾不说,这种 App 往往还有次数限制,想痛快用?对不起,请充值。

三星把这个流程直接塞进了系统相机里,确实是做了件大好事。

我尝试将一张使用富士 Negative Classic 胶片模拟拍摄的照片上传到仿色栏中,几秒之后,三星 S26 Ultra 的取景框就出现了相应的风格变化。

并且三星的仿色功能算法很巧妙,没有粗暴改变照片风格,只按照提供的照片更改了一下基调,给了一个大致的方向,以免力度过大导致画面失真。

同时 S26 Ultra 也支持你保存仿色的风格,并提供相当多的自定义选项,方便你进一步调整仿色风格。

总的来说,虽然三星仿色的还原度依旧达不到国产几家对 NC 滤镜的复刻,但强在反应迅速、可控性强,且你只要能找到对标样片,它就能仿个七七八八,给创作留出了更足的想象空间。

不知道为什么,三星与苹果两家海外大厂,都很擅长用不那么好的硬件做出很棒的视频效果,乃至视频性能至今也是第一梯队。

三星 S26 Ultra 最高支持以 8K 30fps 的规格拍摄视频,纸面数据大家看看就好,真正让我觉得这台手机「有点东西」的,是一个叫地平线锁定的功能。

听名字你大概就能猜到它的本事:无论在拍摄时怎么晃动,或是把手机拿在手里转圈,屏幕里的画面永远稳如泰山,地平线纹丝不动。

这个功能其实不算新鲜,在其他手机上出现过,但早些年受限于芯片算力,这种模式大多是「实验室产品」——画面在剧烈晃动时会出现诡异的果冻效应。基本属于能用,但不好用。

但在 S26 Ultra 上,地平线锁定的可用性大大提升了,最高规格可以到 2560×1440 60 帧。

比如在跑动中快速翻转手机,S26 Ultra 的实时画面处理没有生硬的电子拖拽感,分辨率也保持在了足以出片的水平,表现出了极高的成熟度:

聊完拍摄,我想特别拎出来讲讲一个三星国行机型的专属功能——相框水印。

根据实测,S26 Ultra 的照片水印只能在拍摄前选择是否开启,一旦照片拍摄完毕,你没有任何办法在相册编辑里增删水印。

▲ 裁剪前

而矛盾的是,当编辑照片的时候,无论是调整曝光与颜色,还是裁剪照片尺寸,OneUI 都知道避开水印,并根据新尺寸重新添加:

▲ 裁剪后

也就是说,S26 Ultra 在拍摄后是可以识别到水印存在的,但买定离手、拍完不给添加或者删除。

智能了,但只有一点点。

结语:粉丝先买

作为 2026 年第一批直板旗舰,三星 S26 Ultra 除了本身作为商品之外,也是让我们看到了三星显示在屏幕技术方面的突破。

虽然如今在国内的市占率和知名度都排不上号,但无论是 HPX 系列传感器,还是依旧稳居供应链顶端的屏幕,三星又一直是国产手机绕不过去的一个环节。

只不过,单从产品力上看,S26 Ultra 给人的感觉并不安稳。

毕竟和前几代机型相比,S26 Ultra 的防窥硬件,的确影响到了一些屏幕观感、亮度和抗眩光强度。

而防窥膜虽然是很多人的刚需,但不要防窥的用户同样数不胜数——

这种「为了细节功能代替用户做出取舍」,可能会成为这一代三星最大的障碍。

因此,对坚持至今的 S21 Ultra、S22 Ultra 用户来说,S26 Ultra 无疑是全方位的进步,可以不用犹豫、直接换新。

然而对 S24 Ultra、S25 Ultra 以及持观望态度的潜在用户们来说,S26 Ultra 在木桶各块板子上的取舍并不平均,很难形成足够的说服力。

总之,对于这样一台 12+256GB 起步价 9999 元人民币的手机来说,还是让粉丝先买吧。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博




from 爱范儿 https://ift.tt/9xBAS3Z
via IFTTT

中国 AI 视频赛道最大单笔融资,为什么给了爱诗科技


APPSO 获悉,爱诗科技近日完成 3 亿美元 C 轮融资,创下国内 AI 视频生成赛道单笔融资的最高纪录。

领投方鼎晖香港基金联合鼎晖 VGC、鼎晖百孚重金押注;产业资本中国儒意、三七互娱紧随入场;国内政府引导基金、险资、家族办公室,还有 UOB Venture Management、Lion X 基金。参投名单横跨两个半球,不同领域的资本默契涌向了同一个方向。

3 亿美元融资放在当下 AI 行业似乎没有什么好惊讶的,这还不到 OpenAI 融资的零头。但你得把这个数字放进 AI 视频赛道的坐标系里看:成立于 2018 年的 Runway,花了七年才在上个月完成 3.15 亿美元的 E 轮融资。而爱诗科技从种子轮走到同等量级的 C 轮,只用了不到三年。

A 轮,达晨财智领投,蚂蚁集团跟进;B 轮,阿里巴巴领投逾 6000 万美元,彼时已是国内视频生成赛道最大的一笔钱;C 轮,3 亿美元,纪录再次被自己改写。

每一轮都有新的顶级机构首次入场,每一轮金额都在翻倍。节奏越来越快,筹码越押越重

实际上,这笔融资反映出的信号大于数字本身:AI 视频不再是大模型叙事的配角,资本已经把它当作一条独立的、值得重仓的赛道来押注

爱诗科技创始人王长虎曾在 2024 年表示,视频生成一定是被低估的。爱诗科技用不到三年时间,将这个非共识变成了资本共识。

非共识的起点:2023 年,为什么是视频

「我不会创业,但没关系,创业就是边做边学。」2023 年 4 月,爱诗科技创始人王长虎决定创业时,就是带着这句话出门的。

2023 年 4 月,爱诗科技创始人王长虎带着一个在当时看起来相当「偏科」的判断出来:当所有人都在追大语言模型,他要押注视频生成。

要知道一年之后 OpenAI 的 Sora 才正式亮相,可以想象当时王长虎这个选择有多么反常识。

在微软亚洲研究院待了 8 年、在字节跳动做了 4 年 AI Lab 总监之后,王长虎比大多数人更清楚视频 AI 的技术节奏。「2023 年初很多人都不认同做视频这件事,大家都在看大语言模型,」他后来回忆,「但这就有了非共识:我们觉得视频生成是大事,而我们过去在视频和 AI 方面有经验,能赢在全球。」

这个判断在当时要承受不小的压力。相比语言模型,视频生成的算力消耗更大,生成质量更难控制,产品化路径也更模糊。早期的投资人需要相信的,不是现在能看到什么,而是三年后那张尚未成型的蓝图。

2024 年 3 月,达晨财智率先领投 A1 轮,完成了第一次押注。随后一个月,蚂蚁集团以逾 1 亿元人民币跟投,是彼时国内 AI 视频领域单笔最大机构投资。至此,爱诗科技基本完成了从「技术方向」到「资本方向」的验证。

王长虎在创业之初就明确了愿景:「帮助每个人成为生活的导演」。海外产品 PixVerse 和国内产品拍我 AI,都是在这个方向上的落地——前者于 2024 年 1 月上线,后者于 2025 年 6 月推出,两款产品针对不同市场独立运营。

DiT 架构:那个没人看好的选择

要理解这笔 3 亿美元的 C 轮,需要先看懂爱诗科技的技术路线。

把爱诗科技的技术路线从头捋一遍,会发现 DiT(Diffusion Transformer)架构这个选择,是整个故事的原点,也是很多结果的前提。

2023 年,国内主流视频生成方案普遍采用 U-Net 架构。这也没问题,U-Net 经过了图像生成领域多年实践的充分验证,稳定、成熟,调参经验相对成熟,可以较快地跑出效果。对大多数想先做出来再说的团队,这是理所当然的选择。

可以爱诗科技选了 DiT,成为国内首家将这一架构用于视频生成的创业公司

DiT 是 Diffusion(扩散模型)与 Transformer 的组合架构。Transformer 的核心优势在于注意力机制(Attention Mechanism)——它让模型在处理数据时,能够同时「感知」序列中任意位置的信息,而不是像卷积网络那样只能处理局部区域。

对于视频生成这个任务来说,这种能力的价值是决定性的:视频的本质是时间轴上的连续帧,每一帧的内容与上下帧存在复杂的时空依赖关系。人物的动作要连贯,物体的运动轨迹要符合物理规律,光影变化要在跨帧时保持一致——这些要求,需要模型能够捕捉「跨帧的长程时空关联」,而这正是 Transformer 天然擅长的事。

但这个选择在 2023 年要付出不小代价:DiT 在训练初期对算力和数据量的要求更高,起步阶段几乎必然要经历「效果不如成熟 U-Net」的阵痛期。对一家刚起步的创业公司,这是不小的风险,钱可能在效果变好之前就烧完了。

事实证明,这个判断是对的。2024 年 Sora 发布时,OpenAI 公开的技术路线正是 DiT。在视频生成这个方向上,DiT 架构确实是更接近正确答案的那条路。

当 Sora 发布时,爱诗已经在 DiT 架构上积累了一年多的训练经验、数据处理流程、工程优化方案。这种时间差,在技术迭代速度极快的 AI 领域,十分关键。

模型产品两手抓,被低估的核心逻辑

在 AI 视频领域,大多数公司的做法是先把模型训练好,再去想产品怎么做。这是一条看起来稳妥的路,模型成熟了,产品化的风险就小得多。

但这种路线有个致命问题:等模型「训练好」的时候,你已经错过了最关键的反馈窗口。用户真正需要什么样的生成效果?哪些场景的需求最强烈?模型应该在哪些维度上优先优化?这些问题,只有产品跑起来、用户用起来,才能得到真实答案。

爱诗从一开始就把模型训练和产品迭代放在同一个循环里。

PixVerse 网页版 2024 年 1 月上线时,模型还远未到「完美」状态,但产品已经可以让用户生成视频、给出反馈。每一个版本的模型升级,都直接来自上一个版本用户的真实使用数据,哪些 Prompt 成功率低、哪些特效最受欢迎、哪些场景容易出错,这些信号实时回流到训练流程,指导下一轮模型优化的方向。

更重要的是,这种模型-产品的协同进化,会随着时间推移形成复利效应:用户越多,反馈越密集,模型优化越精准,产品体验越好,又吸引更多用户——这是一个正向飞轮,而不是单向的技术推进。

「这就是创业公司的优势所在,没那么复杂,所以效率高,」爱诗联合创始人谢旭璋说。这句话听起来轻描淡写,但背后是对技术路线、产品节奏、组织能力的高度整合。大厂可以投入更多算力、更大团队,但很难做到这种模型与产品的深度结合,流程太长,部门太多,反馈链条一旦拉长,速度优势就会被稀释。

这种效率优势最终体现在成本结构上。谢旭璋在接受晚点采访时透露,爱诗「平均每月用的训练资源不到千卡,成本大概只有同行的 10%」。

这是一种结构性的成本优势,而不是靠压缩预算换来的短期节省。用谢旭璋的话说,模型架构、算法、工程、产品能力的综合优势

当模型优化方向始终贴着真实需求在走,就能减少在错误的方向上浪费算力;产品反馈能实时指导训练策略,每一次迭代的投入产出比都会更高。

从 2024 年 1 月 PixVerse 网页版正式上线,到 2026 年初 V5.6 发布,爱诗科技连续更新 8 个主要版本,平均每两个月就有一次大的模型升级。

这种迭代密度的背后,正是模型与产品一起训练的方法论在起作用:

  • V2(2024 年 7 月):多段视频生成与局部重绘笔刷上线,用户从单纯「生成一段」开始走向「编辑与创作」;
  • V3(2024 年 10 月):特效模式上线,「抽卡概率」从随机提升至接近确定性,这是 PixVerse 从创作工具迈向大众产品的真正节点;
  • V3.5(2024 年 12 月):生成时间压缩至 10 秒内,极大降低用户等待成本;
  • V4(2025 年初):「准实时生成」能力出现,5-7 秒生成 5 秒视频;
  • V4.5(2025 年 5 月):参数量与训练数据集指数级扩张,全球用户达 6000 万;
  • 拍我AI (2025 年 6 月):PixVerse 国内版「拍我AI」发布,同步上线网页端及移动端应用;
  • V5(2025 年 8 月):Agent 创作助手上线,用户不再需要学习 Prompt 语法,口语化意图自动转化为模型指令,API 生态同步开放;
  • V5.5(2025 年 12 月):「分镜 + 音频」一键生成,国内首次实现画面与声音的同步协同,完整叙事能力成型;
  • V5.6 (2026 年 1 月 26 日 ):模态大模型,支持分镜和音画同步生成。

在权威 AI 评估机构 Artificial Analysis 最新发布的视频生成模型排行榜中, PixVerse V5.6 位列全球第 2 位,持续领跑全球视频生成模型第一梯队。


这种迭代密度在 AI 视频行业里相当罕见,爱诗跟很多同类产品的策略不同:持续往前推,每一版解决真实用户在当下遇到的真实问题,同时在架构层面为下一次跃升保留余量

背后的可行性,恰恰是 DiT 架构的可扩展性所赋予的,每次模型升级,不需要推倒底层重来,而是在既有基础上加宽加深。

3 亿美元,押注不只是 AI 视频

但鼎晖最终决定领投这次 C 轮,押注的不只是 V5 的榜单排名,可能还有 2026 年 1 月刚刚发布的 PixVerse R1。

R1 可以说是爱诗科技迄今最激进的一次产品技术迭代。

过去的视频生成,无论做得多精致,本质上都是「把指令翻译成一段视频文件」,是一次性的、离线的渲染过程。用户输入指令,等待生成,拿走一段固定的视频文件。这像是在冲洗胶卷,你拍完就拍完了,要等冲洗出来才能看,看完也无法再改。

R1 不是这个逻辑,它不再只是「生成一段视频」,是一个能实时响应用户交互指令的「世界模型」:用户可以在视频播放中输入指令,改变光影、替换背景、控制角色走向,系统响应延迟约 2 秒,输出为 1080P 超高清实时视频流。

背后依赖的是爱诗自研的「瞬时响应引擎(IRE)」,它将计算步骤从数十步压缩至 1-4 步,实现从「离线渲染」到「实时交互」的重要升级。

谢旭璋判断,未来视频和游戏的边界一定会越来越模糊。一旦视频变得能交互了,全新的内容、用户和创作机会就会涌现。

谢旭璋在采访中透露,R1 发布后,游戏行业的 B 端客户来得最多,「以后的游戏开发不用再像过去那样熬漫长的大周期了,无论是玩法、画面还是剧情,AI 都能让它变得更轻量、更具想象力。更重要的是,它能帮那些不懂代码但有创意的人,把点子变成真正的游戏。」

R1 的潜在价值,已经超出了「更好的视频生成工具」这个范畴。如果说 PixVerse V5 是在争视频生成工具的头部位置,R1 是在定义是一个完全不同的品类——实时交互式内容体验的操作系统。它的竞争对手,不再是 Runway 或可灵,是 Unity、Unreal Engine,甚至是尚未出现的内容消费形态

回看爱诗科技这笔 C 轮的投资人结构,其实本身就是一个信号。

鼎晖三支基金联合领投,背后是对这家公司进入规模化阶段的系统性判断。产业资本中国儒意(影视内容)和三七互娱(游戏)的入场,指向了 R1 要重构两个行业:互动影视制作和 AI 原生游戏开发。

进入 2026 年,整个 AI 视频赛道也在加速进入下半场。前有 Seedance 2.0 风靡全球,现在爱诗科技成为新的独角兽。

目前,PixVerse 全球注册用户突破 1 亿,MAU 超过 1600 万;国内版拍我 AI 与 PixVerse 形成双轨并行格局;爱诗科技也是 2025 年联合国「人工智能向善全球峰会」上唯一入选的中国 AI 视频应用,并于同年正式加入联合国大学全球人工智能网络。

这笔 3 亿美元融资,可以理解为资本对一个即将到来的时代的投票。AI 视频的下一个战场,不在参数量,不在榜单排名,关键在于谁先把视频从一个「消费品」变成一个「交互界面」

不过,知道技术路线在哪里会拐弯,和相信这条路最终走得通,是两件事。

在 AI 这个行业,「选对了方向」本身并不稀缺。稀缺的是,在方向被主流认可之前那段空白期里,有没有足够具体、足够扎实的东西,支撑你不摇摆

三年里爱诗科技在这条路线没有在中途断裂,很难说是提前预见了终点的全知视角,而是每走一步,下一步的方向都从上一步的技术现实中自然长出来。

视频正在从被观看的内容,变成被触碰的世界。因此,这三亿美元所押注,远不止 AI 视频的未来,而是那个「」万物皆可交互」的时代。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博




from 爱范儿 https://ift.tt/lQVTJuz
via IFTTT