想知道谁在裸泳吗?
#News #APPLE

🍎 苹果悄然更新 MacBook Pro 和 MacBook Air

🔗M5 Pro 和 M5 Max | MacBook Pro | MacBook Air

💰 配置与价格

① MacBook Pro

14 英寸起售价 17999 元,包含 15+16 M5 Pro 处理器、24GB 统一内存、1TB 固态硬盘;
16 英寸起售价 21999 元,包含 18+20 M5 Pro 处理器、24GB 统一内存、1TB 固态硬盘

可选配最高 8TB 固态硬盘和 128GB 统一内存

② MacBook Air

13 英寸起售价 8499 元,包含 10+8 M5 处理器、16GB 统一内存、512GB 固态硬盘;
15 英寸起售价 9999 元,包含 10+10 M5 处理器、16GB 统一内存、512GB 固态硬盘

可选配最高 4TB 固态硬盘和 32GB 统一内存

💡 值得一提

① M5 Pro 和 M5 Max

- 全新融合架构,将两颗芯片晶粒结合为一个单片系统 (SoC)
- 新中央处理器搭载 18 颗核心,包括 6 颗超级核心与 12 颗全新性能核心,这些核心现名为「超级核心」
- 速度更快的 16 核神经网络引擎
- 媒体处理引擎支持 H.264 与 HEVC 硬件加速、AV1 解码和 ProRes 编解码引擎
- 为雷雳 5 端口提供支持
- 引入内存安全保护功能 Memory Integrity Enforcement

② MacBook Pro

- 搭载 M5 Pro 和 M5 Max 芯片
- M5 Pro 机型起步存储容量为 1TB,M5 Max 机型起步存储容量为 2TB
- 配备 N1 芯片,支持 Wi-Fi 7 与蓝牙 6
- 续航时间最高可达 24 小时

③ MacBook Air

- 搭载 M5 芯片
- 起步存储容量较上代机型翻倍,达 512GB,最高可选配 4TB
- 配备 N1 芯片,支持 Wi-Fi 7 与蓝牙 6
- 电池续航时间最长达 18 小时

👀 MacBook 系列也如期带来更新,但并未发布传言中的「廉价版」,可以说是现有系列的常规升级。主要看点还是 M5 Pro 和 Max 处理器引入了「超级核心」概念,更新了架构,入门款配置下的 CPU 部分目前都保持了一致,差别在于 GPU 和 NPU

除了处理器换代之外,本次在几乎没有涨价(MacBook Air 13 英寸除外)的情况下,硬盘容量得到了一定提升,在目前内存和硬盘双双涨价的环境下,还是不错的。总之,作为专业本,Pro 更加 Pro;而 Air 也有了足够的实力陪伴我们日常使用,相信会有更多用户选择 Air

频道:@NewlearnerChannel
写给每个AI工程师:你那26000行的提示词,可能正在拖垮你的Agent | 推文

别再沉迷于寻找终极AI Agent框架了。一位资深玩家揭示了反直觉的真相:顶级高手都在做减法,他们用最精简的工具,只痴迷于一件事——上下文管理。你精心维护的复杂提示和插件,可能正是AI表现不稳定的根源。

你是不是也这样:每天用着Claude和Codex,却总怀疑自己没把它们的性能榨干。你看着别人用AI造火箭,自己连两块石头都堆不起来。

于是你疯狂折腾,试遍了市面上所有的agentic框架和插件,你的`CLAUDE.md`提示文件堆到了26000行。结果,AI助手还是时而天才,时而智障。

你以为是工具不够好,但一个残酷的真相是:你那股折腾的热情,恰恰在拖后腿。一位自称“不是游客”的资深Agent工程师,在尝试了所有主流范式、并用其构建了生产级系统后,如今选择了一套几乎是“裸奔”的极简配置,反而做出了最突破性的工作。

他揭示的核心秘密只有一个词:上下文。更具体地说,是“上下文过敏”。你给AI的上下文太多了。那些横跨几十个会话的记忆插件、命名糟糕的技能库、臃肿的规则集,都在制造“上下文膨胀”。当你想让它写一首关于红杉树的诗时,它脑子里还装着上次帮你修bug时关于内存管理的笔记,以及71个会话前某个进程卡死的惨痛教训。结果可想而知。

顶级玩家的做法是反过来的:极度精准地控制信息注入。他们会把研究和实现彻底分开。一个任务用来研究,另一个拥有全新、干净上下文的Agent只负责执行。他们痴迷于设计“任务合同”,用测试用例和截图验证来明确定义任务的终点,而不是让Agent自己决定什么时候“完工”。

更深一层,他们懂得利用AI的设计缺陷——“谄媚”。你让它“找个bug”,它就算没有bug也会给你造一个出来,因为它被设计为取悦你。所以高手会换一种说法:“过一遍代码逻辑,报告你的发现。”这种中立的指令才能得到真实反馈。他们甚至会设计“对抗性Agent”,一个负责找茬,一个负责反驳,最后让裁判Agent来评判,像一个内部的红蓝军演习。

所以,别再追逐新工具了。前沿模型公司自己就是Agent的最大用户,任何真正好用的功能,迟早会被集成到基础模型里。你真正需要做的,是把你那个庞大的`CLAUDE.md`当成一个逻辑目录,而不是知识垃圾场。当AI犯错,就加一条规则;当有个好流程,就沉淀成一个技能。然后,定期清理、合并这些规则和技能,给他“做个Spa”。

你需要的不是一个更强的工具,而是成为一个更好的上下文管理者。

这里不是在评测工具,而是在传授一种与AI协作的“心法”。它精准地命名了大多数工程师遇到的问题——“上下文膨胀”,并给出了反直觉但极其深刻的解决方案。关于利用AI“谄媚”缺陷设计对抗性Agent的例子,更是局内人才有的洞察,这才是真正拉开人与人之间AI使用效率差距的地方。
那个860MB的网页,预示着一个前端新时代的开始 | 帖子

别再以为带视觉功能的AI模型只能在云端服务器上运行。一个0.8B参数的Qwen多模态模型现在已经能完全在浏览器里跑起来了。这意味着AI正在从后端API,变成前端的一个本地组件。

一个开发者分享了一个网页链接,初看平平无奇。点开后,浏览器开始下载一个大约860MB的资源包。几分钟后,一个能理解图像的多模态AI,Qwen 3.5的小尺寸版(0.8B参数),就这样在你的浏览器里、用你本地的GPU跑了起来,不需要任何服务器。

这事儿听起来像个技术宅的小玩具,但它踩过了一条很重要的线。

我们习惯的AI应用开发模式是:前端负责交互,核心的智能部分交给云端的庞大模型处理,通过API调用连接两者。这套模式稳定、强大,但也昂贵、有延迟,且隐私是个绕不开的问题。我们默认了,强大的AI能力必然来自云端。

而浏览器本地运行的模型,直接把这个前提给拆了。它意味着,对于一些中轻度任务,AI不再是一个需要付费调用的远程服务,而更像一个前端可以直接加载的JavaScript库。隐私数据完全不出本地,没有网络延迟,甚至可以离线运行。

当AI视觉能力像加载一个jQuery库一样简单和本地化时,无数需要“看一眼”的应用场景就被打开了。比如实时分析视频会议里你的仪态,或者不上传任何数据就能帮你整理相册的应用。

这当然不是说云端大模型要被取代了。但它标志着一个重要的分工正在开始:云端负责处理“原子弹”级别的问题,而越来越多的“子弹”级别任务,将直接在用户的设备上,在浏览器里解决。

所以,那个860MB的网页背后真正的问题是:当AI从后端服务变成前端组件,下一个杀手级应用会诞生在哪个领域?

最恐怖的变化,往往发生在那些看起来“不过是个技术Demo”的时刻。这篇文章抓住了这一点,把一个技术细节(模型本地化运行)提升到了架构变迁和行业分工的层面。所谓的“前端已死”可能说早了,前端只是在等待它的新武器。
那种“我一个人用AI就能搞定”的兴奋感,可能是个陷阱 | 帖子

AI让单人开发产品的效率史无前例地提高,许多人相信可以借此颠覆那些臃肿、昂贵的老牌SaaS。但现实是,那些“臃肿”和“昂贵”并非产品缺陷,而是大公司服务企业客户时构建的护城河。真正的机会不在于技术本身,而在于找到被巨头忽略的客户,或彻底重塑工作流。

一个语音转录软件,大厂每月收15美元订阅费。一个独立开发者用同样的技术内核,做成一次性买断,成本降到几乎为零。这是真实发生的案例,也是“AI让单兵作战成为可能”这个论调最激动人心的佐证。

这几乎成了独立开发者圈的圣经:AI把技术门槛夷为平地,一个人就是一支军队,去颠覆那些反应迟钝、UI丑陋、定价蛮横的老牌SaaS。理论上,你只需要找到一个这样的“现金牛”产品,用AI把它做得更便宜、更漂亮、更快,就能挖走用户。但这股乐观情绪,在讨论区撞上了几堵冰冷的墙。

最核心的一堵墙是:你眼中的“臃肿”,恰恰是企业客户购买的安全感本身。那些复杂的采购流程、合规要求、服务协议和客户支持体系,对个人开发者来说是累赘,对大公司决策者来说却是必需品。他们不是在买一个工具,而是在买一个“出问题了有人负责”的承诺。

另一个残酷的现实是,真正的10倍体验,并非来自技术或UI。没人想要一个“更好”的发票工具,他们想要的是“再也不用想开发票这件事”。真正的颠覆,来自对整个工作流的重塑,而不仅仅是给老产品套上AI外壳。

所以,如果你是一个想用AI搞点事情的开发者,机会是巨大的,但不在于正面硬刚。你的优势在于服务那些被巨头“臃肿”定价挡在门外的用户,或者找到一个巨头因体量太大而无法灵活转身的全新工作流。

技术让你能更快地造出一把更锋利的锤子。但问题是,用户需要的,真的是锤子吗?

一盆恰到好处的冷水。戳破了“一人干翻一个公司”的技术幻想,把讨论拉回到了商业常识的层面。那句“你眼中的臃肿,恰恰是企业客户购买的安全感本身”太精准了,点出了很多独立开发者一厢情愿的视角盲区。
生产级AI Agent的核心根本不是AI,而是分布式系统 | 推文

大多数人以为构建Agent就是“Prompt+工具”的循环,这是一种危险的误解。一旦涉及真实用户、高并发和容错,Agent就从一个AI问题,变成了经典的分布式系统工程问题。这解释了为什么大量Agent项目最终都只是个玩具。

很多人觉得,构建AI Agent无非就是把Prompt和工具扔进一个循环里。这个假设很合理,但它根本就不是生产环境的架构。

你的Agent一旦需要知道自己在跟谁说话、需要保持状态、处理并发请求、执行敏感操作,以及在工具调用失败后幸存下来——它就不再是一个“LLM+工具”的简单组合,而蜕变成了一个不折不扣的分布式系统。

构建Agent本身是简单部分,市面上有无数框架帮你搞定。真正的难点在于“运行时”——那个包裹着Agent、让它能在真实世界里可靠工作的系统。这才是所谓的“智能体软件工程(Agentic Software Engineering)”。

构建Agent是AI工程,但在生产中运行它是软件工程。这套工程体系由六根支柱撑起:持久性、隔离性、治理、状态、扩展性和可组合性。每一个都指向经典的分布式系统难题,比如数据隔离失败就是数据泄露,而服务过载则意味着你继承了所有第三方API的速率限制和延迟。

这解释了为什么那么多Agent项目最终都像个漂亮的玩具,却无法成为可靠的产品。AI行业还没有完全吸取过去几十年我们在构建可靠分布式系统中学到的教训。

最终,能把这套软件工程的纪律内化到团队血液里的,会交付出伟大的产品。而那些继续把Agent当作脚本对待的,会继续与成功失之交臂。

一针见血。AI圈的热潮让很多人忘了,再聪明的“大脑”也需要一个强壮的“身体”才能在现实世界里行动。这篇文章把焦点从算法和模型,拉回到了决定产品生死的工程纪律上。当你的Agent需要审批、回滚、保证用户数据隔离时,你面对的就不是一个AI问题,而是对你软件工程成熟度的拷问。
好多人让我锐评Qwen基模负责人林俊旸离职,好吧。

我要说句不意外,肯定有人又要说我马后炮,但其实我这几个月来在上播客和写稿子里不止一次的提到过一个细节:

清华大学那场AI-Next峰会上,林俊旸邀请观众体验Qwen,用的是qwen.ai这个根本没有运营投入的实验室网址,而不是千问App。

模型干模型的,产品干产品的,这当然是模型团队的舒适区了,只投身研究、不负责市场,Qwen在开源社区里的究级口碑就是这么打下来的,但产品团队就难受了,做什么事情都需要和自己平级的模型团队配合,只能协调,不能统筹。

产模分离是阿里过去几年里最奇怪的地方,在千问App还没有被独立出来发展的时候,还可以说且行且珍惜,现在千问App要直接和豆包元宝打消耗战了,还让模型团队保持例外论,这肯定行不通。

最新的形势就是,大厂在做DAU,豆包现在还在发红包你敢信,小虎在冲ARR,月暗智谱MiniMax三家给洋人卖Tokens卖疯了,那么Qwen的位置在哪里呢,你总得沾个边吧?

事实上,AI一号位工程的调整,是这一年来几乎所有国内互联网大厂都在做的事情,字节和腾讯都干了,轮到阿里大家觉得很奇怪,主要还是Qwen模型本身没出太大问题,突然换将有些刺激。

还是那句话,组织的方向很重要,不认同组织的判断,就会很麻烦,这和你是不是一个好人、你做的工作是不是很优秀,关系不大。

就像没人会不尊重杨立昆的学术成就,没有他老人家的贡献,AI的发展指不定还要晚多少年,但大家也都心知肚明,继续让他带Meta的AI实验室,那Meta就真完蛋了,你不可能让一个不相信Transformer的人去带领大模型⋯⋯

前段时间,因为诉讼披露,微软的CTO有一封2023年底发给老板的邮件被曝光,里面是他但是作为对接人看到并汇报的OpenAI宫斗事件,说以Ilya Sutskever为首的研究团队讨厌需要和产品团队争夺资源,how dare you,竟敢让我们排队等GPU!

微软的CTO在此批注,表示自己内心都是崩溃的:「OpenAI的研究团队根本没有明白,如果没有Applied的商业成功,他们根本不可能拥有现在这么多GPU。」

所以,从国内到海外的实践经验都说明,产模分离是一个田园牧歌的理想状态,它可以暂时性的存在,但前提是公司没有市场回报的预期,愿意千金买马骨,Qwen这几年过的的好日子,都是这么来的。

新的剧本就是阿里不愿意了,作风依然很粗暴很阿里,但就形势来说,其实没那么大的争议。

再说了,和OpenAI的11个联合创始人里走了9个相比,这才哪到哪啊⋯⋯

记得马老师曾说阿里要每年定期给社会输送人才,结果都是些年满35岁后被优化出来的P7P8们,给接收方的牛马们带去了一点点阿里味的震撼,连山姆看似牢不可破的名声都差点被打崩了,不过这次林俊旸流入自由转会市场,就没得阴阳了,是真的大牛出圈,大厂们赶紧抢吧。

by @阑夕ོ #科技圈大小事
Anthropic疯狂发产品,是因为手里藏着一张终极底牌?| 帖子

Anthropic近期产品发布节奏异常密集,有人认为他们内部已经拥有远超公开版本的“终局模型”,正在抢先构建生态锁定用户。也有人觉得这不过是一家烧钱公司在融资压力下的常规操作。

最近关注AI行业的人应该都有一个感觉:Anthropic发产品的速度快得不像话。MCP协议、Claude Code、Excel和PPT插件、Computer Use……几乎每隔几天就有新东西冒出来。

有一个流传很广的猜测是这样的:Anthropic内部已经拥有一个能力远超当前公开版本的模型,可能叫Opus 6,也可能叫别的什么。他们知道一旦放出来,普通人几天就能造出像样的应用。所以现在拼命铺产品、建生态,是为了在放出那个东西之前,把用户牢牢焊在自己的平台上。

这个逻辑听起来有点阴谋论,但细想又不是完全没有道理。有网友提到,Anthropic的安全文档里出现过“unleashed opus”的说法,而且AI实验室内部跑着大量公众从未见过的测试模型,这在行业里是公开的秘密。蒸馏技术让他们可以把最强模型的能力逐步释放到消费级产品里,同时把真正的重武器留在家里。

你仔细看他们的产品线就会发现一个模式:MCP让所有应用都能接入Claude,Claude Code让开发者在Claude上面构建,Office插件让企业用户产生依赖,Computer Use让Claude接管完整工作流。这套组合拳打完,迁移成本会高到让人懒得换。等“神级模型”真正落地的那天,OpenAI和Google争夺的可能只是剩下的残羹。

说白了,模型本身正在变成生态系统里的一个组件,而生态才是护城河。这跟当年的平台战争是同一个剧本。

不过反对的声音也很有意思。有观点认为,一家每年烧80亿美元的公司,如果真有能改变世界的模型,藏着不发才是最不合理的商业决策。更可能的解释是:他们有一批优秀的工程师在高压下快速交付,产品质量其实参差不齐,很多更新是在修之前的坑。还有人指出,Anthropic最初“安全优先”的人设已经有些立不住了,密集发布更像是在开发者群体中重建信任的挣扎。

也有一种更冷静的看法:这跟什么秘密模型无关,Anthropic只是终于想明白了OpenAI很早就想明白的事情——光有好模型不够,得有分发渠道和产品生态。现在的竞争早就过了比模型参数的阶段。

两种叙事都有道理,但我倾向于认为真相在中间偏后的位置。Anthropic大概率在内部模型能力上领先公开版本几个月,这个优势足以让他们的产品团队用更强的工具来构建更好的产品,形成正循环。至于是不是存在一个“终局模型”,这个问题本身可能就问错了。AI的发展更像是连续的能力曲线,而不是某个藏在保险柜里的奇点时刻。

一个更值得关心的问题是:当AI公司开始用自己的AI来开发自己的产品,这个加速循环的终点在哪里?

每次行业加速,就有人喊“他们肯定藏着什么”——这种叙事的魅力在于把复杂的工程竞赛简化成一场悬疑剧。但商业世界最反直觉的真相是:真有王炸的人往往最先打出去,因为藏着不发的机会成本高到离谱。一家年烧80亿的公司,每多藏一天“终极模型”,就是在给对手多送一天追赶窗口。Anthropic的密集发布与其说是“精心计算的围猎”,不如说是一群顶级工程师在资本时钟下的极限冲刺。我们总想给混乱的世界找一个幕后主谋,却忘了大多数狂奔只是因为身后有狼。
Anthropic指责中国实验室抓取数据后,一场开源反击战意外爆发 | 帖子

Anthropic指责中国实验室抓取Claude数据后,有人开源了一个名为DataClaw的工具,允许用户上传自己与Claude的对话记录用于训练其他模型,24小时内获得363颗GitHub星标。这场争议背后是AI行业一个根本性矛盾:用公开数据训练出的模型,能否阻止他人用同样的方式复制自己?

这件事的导火索是最近网传Claude Sonnet 4.6在中文环境下自称是DeepSeek-V3,引发了一轮关于中国AI实验室是否在抓取Claude输出数据的讨论。Anthropic随后公开表达不满。

然后就有人把梯子扔回去了。DataClaw的README写得很直接:“Anthropic用免费共享的信息构建了他们的模型,然后推行越来越严格的数据政策来阻止别人做同样的事。这就像爬上梯子后把它抽走。DataClaw把梯子扔回去。”马斯克在下面回复了一个“Cool”。

不过有网友提醒,这个工具的自动脱敏功能并不可靠。有人去Huggingface上检查用户上传的对话记录,发现第一条就包含有效的API密钥,还有其他可识别的个人信息。技术上的隐患是一回事,但更值得讨论的是这件事背后的逻辑困境。

有观点认为Anthropic是“cosplay道德”。也有人替他们辩护:训练AI属于变革性使用,产出由专有算法定义,这是共识。但反驳很快就来了:训练LLM的流程现在已经是公开知识,每家公司可能有一些“秘密酱料”,但整体而言并不神秘。更关键的是,这些公司当初训练模型时也没问过数据创作者的许可,甚至有人指出他们用过种子下载的版权材料。

这就是问题所在:如果你认为用公开数据训练模型是合理的,那别人用你的输出做同样的事,凭什么不行?如果AI生成的回复归用户所有,用户当然可以拿去训练别的模型;如果归Anthropic所有,那用Claude Code写的所有软件是不是也归他们?这是个怎么回答都很尴尬的问题。

有观点认为这可能是一个“史翠珊效应”的经典案例,Anthropic本可以什么都不说,现在反而把事情闹大了。也有人指出,这场争论可能会让Anthropic像OpenAI和Gemini一样隐藏思维链输出。Dario之前一直没这么做,部分是出于AI安全的考虑,但现在可能被迫改变。

有一点倒是很清醒的提醒:用户把通用数据分割上传后,反而让数据变得更容易被识别,因为对话被切分成了个人化的信息块,格式还很规整。

关于ASI是否应该公开的讨论也被带起来了,但这个方向有点跑偏。眼下的问题不是超级智能,而是这个产业的底层叙事:谁有资格定义规则,谁有资格打破规则。

“我偷的是知识,你偷的是我”——这大概是AI时代最精准的双标宣言。 Anthropic的愤怒让我想起一个古老的笑话:强盗抢了一袋金币,然后报警说有人偷了他的金币。当年这些公司扫荡互联网时,没人问过博主、作家、程序员是否同意;现在轮到自己的输出被“采集”,突然就发现了数据伦理的重要性。最讽刺的不是被反噬,而是被用同样的逻辑反噬。 DataClaw那句“把梯子扔回去”堪称年度最佳回旋镖。这场争论真正揭示的是:在AI行业,道德标准的弹性取决于你站在食物链的哪一端。
Square 宣布裁员 40%,这可能只是接下来裁员大潮的开始。
公司没有任何经营困难,只是...
AI 已经改变了组织运作的方式
AI + 扁平化的组织方式,可以比之前 2 倍多的人做更多的事。
未来的公司里,每个人都必须成为超级个体,做超出自己岗位边界的事。
不要被动等待,现在就主动开始转变。

by @AGENT橘 #科技圈大小事
在2026年经营一家AI公司,感觉像在祈祷 | 帖子

大型LLM厂商每次产品发布都可能让某些公司瞬间出局,但真正被“一枪毙命”的案例屈指可数。更值得关注的是那些慢慢失血的行业,以及藏在免费模式背后的数据逻辑。

有人在Twitter上说,2026年经营一家公司,基本上就是每天早上醒来祈祷某个大型LLM厂商别在今天的发布会上顺手把你干掉。

这话听着夸张,却有几分真实的恐慌。

有观点认为,那些基础模型厂商产品发布得越来越快,恰恰说明它们自己也没把握靠单个产品赚够钱。真要有信心“一枪毙命”某个行业,就不会搞出ChatGPT Health这种不上不下的东西了。

那么,到底有没有被一枪打死的公司?有,Chegg。这家靠卖作业答案起家的教育平台,在ChatGPT出现后股价近乎归零。不过争议随之而来:有人认为它的死是AI造成的,也有人翻出数据说,它的股价在2021年底、ChatGPT发布之前就已经跌回疫情前水平,真正的死因是商业模式本身就是一个伪装成公司的答案库,学生一回校它就没用了,FTC还在2025年以“暗黑模式”订阅陷阱判它赔了750万美元。

Stack Overflow、Quora、Grammarly、DeepL,这些名字也被拿出来讨论。它们算不算“被打死”,取决于你如何定义“死”。流量下滑不是死,营收压缩也不是死,但增长逻辑被彻底打断,迟早是死。

有网友提到,SaaS整体收入已经下滑40%到60%。一枪毙命是夸张,但持续失血是真的。

免费层这件事更耐人寻味。有人说OpenAI如果取消免费版会亏更多,但马上有人反驳:他们已经开始测试广告了,这就把底牌亮出来了——你的数据比你的订阅费值钱得多。广告是Google和Meta的印钞机,OpenAI走到这一步,不管愿不愿意,商业逻辑开始趋同。

还有网友提出一个更冷静的视角:全球劳动力哪怕只提升几个百分点的效率,就已经是以万亿美元计算的价值。非要等某家公司被完全替代才算数,这个标准本身就是在回避问题。

客服领域目前正在发生的事情最具代表性。大量公司裁员、上AI,部分客户投诉激增,一些公司悄悄开始回聘真人。有观点认为,这就像当年把客服外包给印度、菲律宾,消费者最初强烈抗拒,后来慢慢接受了。AI是下一轮外包,只是这次外包给了算法。

重型机械、化工、采矿、物流,这些行业的人理所当然地觉得自己安全。他们也许是对的,至少目前是。仓储机器人还只能在室内光滑地面上跑,还需要全覆盖的Wi-Fi信号。

所以实体世界的护城河,到底能守多久?

当OpenAI开始测试广告的那一刻,所有用户都该明白一件事:你从来不是客户,你是矿藏。免费层不是慈善,是圈地运动——先用便利换取你的思维轨迹、表达习惯、决策模式,再把这些数据打包卖给出价最高的人。

Google和Meta用了二十年才让人类习惯“用隐私换便利”这笔交易,AI公司用两年就完成了同样的驯化。所以2026年经营公司最该祈祷的,不是别被发布会干掉,而是祈祷自己别在不知不觉中,把最值钱的东西免费送了出去。真正的猎杀从来不开枪,它让猎物自己走进陷阱。
当偷来的东西,又被人偷了 | 帖子

Anthropic指控DeepSeek、Moonshot AI和MiniMax通过2.4万个账号、1600万次对话对Claude实施“工业级蒸馏攻击”。问题是,Anthropic自己训练模型用的数据,相当一部分是从互联网和书籍上未经授权获取的。这场控诉,更像是一出黑色喜剧。

Anthropic最近在X上发帖,措辞严肃地宣布:DeepSeek、Moonshot AI和MiniMax对他们的模型发动了“工业级蒸馏攻击”,创建了超过2.4万个账户,与Claude产生了逾1600万次交互,目的是提取Claude的能力来训练自己的模型。

“蒸馏攻击”。这个词选得很妙。

有网友立刻指出,所谓“攻击”,本质上是:付钱用API,记录输出,用来训练自己的模型。其中一条评论说得直接——“‘蒸馏攻击’,你是指我们付钱购买的服务吗?”

更要命的是,有人截图显示Claude Sonnet 4.6在对话中把自己称作DeepSeek。Anthropic的模型在喊另一家公司的名字,说明训练数据里的痕迹没那么干净。另一方向更早被人挖出来的老料是:Claude曾频繁把自己称为ChatGPT,这显然是Anthropic在早期训练时也大量使用了OpenAI输出数据的结果。锅叠着锅。

Anthropic在训练数据问题上的底牌,并不比被它指控的对象光鲜多少。他们买下约100万册实体书、物理切割书脊后扫描,以规避版权限制;另据法庭文件,他们还从LibGen、Pirate Library Mirror等影子图书馆下载了约700万册书籍,完全没有付费,直到去年在法庭败诉后才被判每本书赔偿至少3000美元。有网友因此调侃:“我以为你们要说什么违法的事,结果是机器人在24小时切割书脊,那没事了。”

有观点认为,Anthropic这次公开点名三家中国公司,时机相当可疑,节点恰好在DeepSeek新模型发布前夕,这更像是一次针对监管层的定向喊话,而非单纯的维权声明。有网友直接说:他们的目标不是用户,是立法者,他们想让这些中国模型在监管层面被封杀,就像芯片禁令的逻辑一样。

围观的人很多,声援Anthropic的寥寥无几。

有评论写道:“你没有资格控诉别人偷了你偷来的东西。”

还有一条更短,也更狠:“无论道德还是法律层面,蒸馏模型输出和Anthropic训练时对待创作者的方式,差距只有一个:人家至少付钱了。”

Anthropic在AI对齐和安全性上确实做了很多认真的工作,Claude在很多任务上表现优异,这一点不需要否认。但“我们比别人少偷了一点”,撑不起这种道德宣示的重量。

更值得关注的问题也许是:如果中国实验室真的可以通过API调用来持续接近顶级闭源模型的能力,那这门生意的护城河究竟在哪里?

在硅谷,“攻击”这个词的定义取决于谁先抢到麦克风。 付费调用API、记录输出、用于训练——这套流程放在三年前叫“行业惯例”,放在今天因为对手是中国公司,就成了“工业级蒸馏攻击”。

Anthropic真正的焦虑藏在控诉背后:如果1600万次对话就能逼近你的模型能力,那你卖的到底是技术,还是一张随时可能过期的先发优势入场券? 这不是维权声明,是写给国会山的求救信——当护城河见底,最后一招只能是让裁判把对手罚下场。
一篇博客文章让IBM蒸发300亿美元 | 帖子

Anthropic宣称Claude Code可以自动分析和迁移COBOL遗留系统,IBM单日暴跌13%,市值蒸发约300亿美元。但多数技术人士认为这是严重过度反应,银行不迁移COBOL从来不是因为没钱没时间,而是因为风险太高,AI幻觉问题并没有解决这个核心障碍。

全美95%的ATM交易跑在COBOL上。这门语言诞生于1959年,比互联网还老。银行、航空、政府的核心系统里,几十亿行COBOL代码安静地运转着,像地基一样不被人看见。懂它的程序员正在慢慢老去,年轻人没有人愿意学,维护费用也因此居高不下。

然后Anthropic发了一篇博客,说Claude Code能分析庞大的COBOL代码库、识别风险、大幅降低迁移成本。市场的反应是:IBM股价当天跌13%,这是它25年来最惨烈的单日表现,2月份累计跌幅接近27%,创下1968年以来最差月度表现。

300亿美元,一篇博客文章的代价。

讽刺的是,有人指出Anthropic根本没有发布什么"新工具",只是给Claude Code现有功能写了一份新的营销材料,专门对准COBOL场景包装了一下。没有新模型,没有新功能,就是换了个说法重新讲了一遍。

恐慌归恐慌,真正的问题在于:银行为什么几十年来一直没有迁移COBOL?

答案不是缺钱,也不是缺人。有观点认为,答案是风险。金融系统里一个错误可能意味着数亿人的账户出问题,没有任何CEO愿意在财报里解释"我们用AI迁移了核心系统然后它产生了幻觉"。AI会幻觉这件事是公认的,你仍然需要人工逐行审查每一行输出——而这恰恰是整个工程最慢的那一步。AI并没有移除瓶颈,只是把前面那段路修得稍微平整了一点。

放射科医生的故事可以类比:AI今天已经可以替代90%的影像诊断工作,但医院并没有裁员,因为没人愿意第一个承担责任。金融系统同理。

不过,有一个角度值得认真对待。有观点认为,这件事真正动摇的不是COBOL迁移市场本身,而是IBM那块利润极高的咨询和专业服务收入。过去,COBOL知识是稀缺资源,IBM靠垄断这种稀缺性定价。Claude的出现让这种知识变得不那么稀缺了——哪怕迁移本身依然危险,分析、文档整理、风险评估这些前期工作的成本已经在下降。

一位做过COBOL转Java项目的开发者提到,当年整个项目最难的部分根本不是写Java,而是搞清楚那些COBOL代码到底在干什么。这正是AI可以显著加速的地方。

IBM当然也有自己的AI工具用于大型机现代化,这一点在讨论里几乎没人提。

现在的问题是:一年后回头看,这次暴跌到底是市场提前定价了一个真实的长期威胁,还是一次集体过度反应。有人已经设了一年后的提醒,等着来验证。

300亿美元蒸发的本质,是市场在追问一个哲学问题:谁敢第一个签字? COBOL像心脏手术——AI可以读片、画线、甚至建议下刀位置,但最后那一刀,必须有个活人敢签生死状。

银行不迁移从来不是不会,是不敢。几十亿行代码背后是几亿人的工资卡、房贷、退休金,任何一个幻觉都可能变成头条新闻。AI把“能不能做到”的问题解决了八成,但“谁来负责”的问题一个字没动。

Anthropic写了篇营销文案,IBM跌了四分之一,这不是技术革命,是一群对金融系统运作方式毫无概念的投资者在集体应激。
Anthropic亲口承认:它会故意给你错误答案 | 帖子

Anthropic发布了一篇关于“蒸馏攻击”的博客,声称检测到DeepSeek等中国实验室通过大量账户系统性地调用其API来生成训练数据。更值得关注的是,他们承认不只是封号,而是主动对“可疑”请求的输出结果进行投毒。这引发了广泛讨论——一家公司有没有权利在你不知情的情况下给你一个故意错误的答案?

Anthropic最近发布了一篇博客,主题是他们如何检测并反制所谓的“蒸馏攻击”。内容大意是:他们发现一批账户行为高度同步,支付方式相似,请求节奏整齐,判断是有人在规模化地调用Claude来生成chain-of-thought训练数据,幕后指向中国实验室的研究人员。

这本是一个普通的商业纠纷,却被写成了半个国家安全报告的语气。

但真正让人不安的不是被追踪,而是这一句:他们选择对“问题输出”进行投毒,而不是直接封号。

有网友直接点出了这件事的荒诞逻辑:你不会去雇一个会随机给你错误建议的顾问。如果一个API供应商公开宣布它有能力、也有意愿在后台悄悄劣化你的输出,你怎么知道自己什么时候是正常用户,什么时候已经被划入“可疑”名单?

“可疑”的标准是什么,没人说清楚。有观点认为,这套系统只要存在,任何用户都面临不确定性。问题越多的人,越容易触发某些阈值。

更讽刺的一层:他们用来检测“攻击者”的手段,是分析请求元数据并追踪到具体研究人员。这听起来很高明,其实无非是查账号、IP和支付信息,基本上所有API供应商都能做到,只是大多数人不会公开炫耀。

有网友提到,这些研究人员大概率不会傻到用实名账号。背后涉及多达2.4万个账号的协调操作,追踪链条肯定比官方描述复杂得多。至于“通过元数据锁定到具体研究员”这个说法,听起来更像是施压姿态,而不是侦探工作的复盘。

Anthropic在博客结尾还呼吁加强芯片出口管制,理由是限制算力可以遏制蒸馏攻击。有网友指出这两件事根本不在同一个讨论层面,把商业竞争问题包装成国家安全叙事,目的不言而喻。

目前讨论中最直接的行动结论是:用本地模型,或者至少分散使用多个来源的模型。当你无法验证一个API的输出是否被人为干预过,信任就不再是理性的选择。

有用户在看完这篇博客后取消了Claude订阅。他说,封号他能接受,投毒他不能接受。

这个区别,Anthropic大概认为不重要。

Anthropic这篇博客最精彩的部分,是它亲手拆掉了自己的护城河。AI服务卖的从来不是算力,是信任——而信任这东西,最怕的不是背叛,是“我保留背叛你的权利”。封号是绝交,投毒是诈骗,前者终止关系,后者腐蚀关系的定义本身。当一家公司公开宣称它的检测系统可以悄悄给你塞错误答案,每个用户都必须面对一个无法证伪的质问:我这次的输出,是真货还是样品?最讽刺的是,他们用来证明自己“正义”的手段,恰恰证明了自己“有能力作恶”。这不是安全报告,这是一封写给所有付费用户的勒索信:好好表现,别问太多问题。
Anthropic终于还是忍不住开大了,公开点名DeepSeek、月之暗面和MiniMax三家厂商对Claude实施了工业级的「蒸馏」。

可以把「蒸馏」理解为通过和Claude进行特定对话并基于输出结果来训练自己的模型,在使用方式上和普通用户没有区别,只是规模有点儿,大。

在Anthropic的声明里,被认定为「蒸馏」的对话总计有1600万次,其实严格来说,「蒸馏」并不违反任何法律——目前也不存在这样的法条——它更像是僭越了Anthropic的「家规」,众所周知,这家公司比较仇视中国同行。

然而大模型的学习和训练本身也都处于灰色地带,对于版权内容的汲取从来没有一一争得许可,只要技术进步有利于全人类福祉的大旗不倒,这些争议就都能被应付过去。

所以Anthropic的愤怒同样不太可能得到它想要的效果,「蒸馏」是行业里的公开秘密,大家都在干——去年8月Anthropic突然切断了OpenAI的API权限,也是发现后者在拿Claude当GPT-5的「陪练」——毕竟,AI产出的内容,是不可能自带知识产权的,「家规」再高,高不过「法理」。

倒是中国开源模型排着长队对齐Claude Opus的趋势已成定局,这完全有理由让Anthropic感到威胁,80%以上的性能,20%以下的成本,这在任何市场都是破坏级的颠覆。

比如MiniMax在春节期间发布的M2.5,只用了一个星期的时间,就成了OpenRouter上Tokens调用量的榜一,超过 Kimi K2.5 、GLM-5、DeepSeek V3.2 的总和。

这不是靠普通用户的几个轮次对话就能创造出来的需求规模,只有以OpenClaw为代表的百万级Tokens消耗大户,才撑得起M2.5的单周3T调用量。

反正我看到马斯克吃瓜吃得很欢,不嫌事大的表示「他们怎么敢偷Anthropic从人类程序员那里偷来的东西?」

这句话其实还有双关的含义,只有科技考古学家能接得住:

1983年,史蒂夫·乔布斯公开指责比尔·盖茨新开发的Windows操作系统窃取了Macintosh的图形界面创意,而比尔·盖茨则非常淡定的回应——「事实是,我们都有一个名叫施乐的富有邻居,当我闯入他的房子打算偷走电视时,我发现你已经偷了它。」

要知道,这可不是苹果和微软的黑历史,反而证明了成王败寇的商业逻辑,市场不会为技术买单,却会给解决问题的产品付钱,硅谷一直以海盗精神自豪,现在它们也要学会接受新的世界观,那就是,海盗这玩意,是没法垄断的啊。

🤣

by @阑夕ོ #AI探索站
看到一条帖子,如果按今年(2026年)来换算赤壁之战主要参与者的年龄的话,那么是

99年出生的诸葛亮出使东吴,在90年鲁肃的引荐下成功说服00年的孙权,孙刘联军在93年周瑜(还打了72年的黄盖)的带领下成功打败了73年的曹操和59年的程昱、65年的贾诩…

另外79年的刘备娶了08年的孙尚香,此时97年的司马懿还在家读书

by @西元Levy #无用但有趣的冷知识
Back to Top