想知道谁在裸泳吗?
“网上有很多测 AI 视频生成的,都喜欢用同一段提示词去测试不同的模型。实际上这种测法并不具备参考性,我前两年提到过模型的发展路径并不只有遵循这一条路,还有一条叫做推理。
你们用同一段提示词,看上去好像很公平,但对推理能力强的视频模型来说,它要的其实是想象空间,尤其在文生视频领域更是如此。
语义理解之后,遵循占大头还是推理占大头,厂商其实有不同的理解。人类的语言不可能完全描述出所有的画面,除非你告诉它三维空间坐标,亮度和颜色码值等这种程度的信息,你们觉得可能吗。
何况你的提示词写的很多看上去好像很详细很丰富约束很好的样子,你要不先看看自己的表述有没有前后矛盾的地方,你脑子里想象的画面有没有经过你开过光的嘴正确地表达了出来。相信我,大部分人做不到的。
那些比较优秀的 AI 艺术家这个级别出来的视频,提示词没那么复杂的。那你要说我想做到精确控制可以吗,当然这很重要,但不代表一开始生成就得是完全正确的。图像生成尚且还有编辑模型这个分支,为什么视频就不能先生成再编辑呢,我觉得这才是控制力真正将会发挥出作用的重要环节和流程。
在我看来,遵循能力强的模型其实很适合做成编辑模型,它和推理能力强的模型正好形成互补的关系。你的提示词要做的是把意图表达完整,当有惊喜更出彩的视频生成后,再靠模型的遵循能力去控制不好的地方以及做一些锦上添花的部分,是我心目中今年视频模型应该发展的路线。
所以用同一段提示词去测试不同厂家的模型,只能得出模型对语义的理解偏向,并不代表生成能力的强弱。我要是想生成一段光怪陆离吃了菌子后的幻想视频,说不定初代 Sora 同样可以满足要求。(别忘了 ComfyUI 这样的工具所搭建的那些巨型工作流,往往还在用 SD1.5 的模型),这背后无关模型生成能力的强弱,只关乎它背后的运作逻辑。”
——by 摇摆时间线ZHLMI
你们用同一段提示词,看上去好像很公平,但对推理能力强的视频模型来说,它要的其实是想象空间,尤其在文生视频领域更是如此。
语义理解之后,遵循占大头还是推理占大头,厂商其实有不同的理解。人类的语言不可能完全描述出所有的画面,除非你告诉它三维空间坐标,亮度和颜色码值等这种程度的信息,你们觉得可能吗。
何况你的提示词写的很多看上去好像很详细很丰富约束很好的样子,你要不先看看自己的表述有没有前后矛盾的地方,你脑子里想象的画面有没有经过你开过光的嘴正确地表达了出来。相信我,大部分人做不到的。
那些比较优秀的 AI 艺术家这个级别出来的视频,提示词没那么复杂的。那你要说我想做到精确控制可以吗,当然这很重要,但不代表一开始生成就得是完全正确的。图像生成尚且还有编辑模型这个分支,为什么视频就不能先生成再编辑呢,我觉得这才是控制力真正将会发挥出作用的重要环节和流程。
在我看来,遵循能力强的模型其实很适合做成编辑模型,它和推理能力强的模型正好形成互补的关系。你的提示词要做的是把意图表达完整,当有惊喜更出彩的视频生成后,再靠模型的遵循能力去控制不好的地方以及做一些锦上添花的部分,是我心目中今年视频模型应该发展的路线。
所以用同一段提示词去测试不同厂家的模型,只能得出模型对语义的理解偏向,并不代表生成能力的强弱。我要是想生成一段光怪陆离吃了菌子后的幻想视频,说不定初代 Sora 同样可以满足要求。(别忘了 ComfyUI 这样的工具所搭建的那些巨型工作流,往往还在用 SD1.5 的模型),这背后无关模型生成能力的强弱,只关乎它背后的运作逻辑。”
——by 摇摆时间线ZHLMI
Anthropic给软件工程师开出57万美元年薪,同时CEO公开宣称AI将在6至12个月内接管大部分编程工作。这不是矛盾,而是行业正在发生的一场隐秘分裂:少数顶尖工程师身价暴涨,其余人正在被悄悄淘汰。
Anthropic最近的一张offer截图在网上传开了。职位:软件工程师,年薪57万美元,含30万底薪、22万股权、5万签字费。页面底部有一行红色小字:“注意:此职位可能在12个月内不复存在。”
达里奥·阿莫迪在达沃斯告诉全世界,AI已经能处理“大多数,甚至全部”编程任务。他自己公司的工程师现在不写代码,他们审查AI写的代码。
然后他给这些工程师开出了57万美元的年薪。
这件事最值得玩味的地方在于:它同时是两件相互矛盾的事情的铁证。
支持“工程师不会消失”的一方说:编码从来不是软件工程的核心,架构设计、系统决策、凌晨两点系统崩了谁来处理,这些事AI接不住。有观点认为,高级工程师的工作流程其实没变多少,不过是把过去分配给初级工程师的活交给了AI代理。
支持“行业要完”的一方则直接多了。有网友提到,这不过是在用一个人57万的薪水,替代了原本需要一百人的团队。剩下99个人去哪?没人在乎。评论里“骨架团队”这个词出现了很多次,意思是公司会保留极少数顶尖人才,其他人全部清退。
两方都没说错。它们描述的是同一件事的两个侧面。
真正被这张offer忽略掉的群体,是那些刚入行的初级开发者。一位用户直接写道:“我即将毕业拿到计算机学士,这是我去面试时该开口要的数字吗?”没人回答他。另一个人说自己需要的是5万美元的职位,57万跟他毫无关系。
制造业自动化的时候,工厂工人的失业被称为“行业转型”。白领失业,人们突然开始认真谈论了。有网友援引80年代到本世纪初制造业自动化的历史,指出最终结果取决于管理层怎么选择——有人会用AI裁员,有人会用AI提升产能同时留住员工。区别不在技术,在人。
这张offer还引发了另一个有趣的插曲:评论区里几乎所有人都认定,这篇原帖是Claude写的。“一句一段的LinkedIn风格”、“我一眼就认出来了”。有网友说,大量使用AI工具之后,人类识别AI文本的能力已经超过了任何检测算法。
一个造出最强编程AI的公司,雇了一群专门审查这个AI产出的工程师,用AI写了一篇关于AI不会取代工程师的帖子,然后被工程师们一眼识破。这个循环有点令人头晕。至于那行红色小字,到底是免责声明,还是诚实,现在还很难说。
真相藏在那行红色小字里。
Anthropic用57万年薪说了一句话:我们需要的不是写代码的人,是能判断AI代码写得对不对的人。这个“判断力”才是新的稀缺资源。
但这里有个残酷的悖论——能做出这种判断的人,恰恰是那些写了十年代码的老手。可如果入口被堵死,新人永远不会变成老手。行业正在锯掉自己站着的那根树枝。
那个问“这是我该要的数字吗”的毕业生,其实问出了这个时代最真实的困惑:当通往塔尖的楼梯被拆掉,塔尖还在,但跟你我还有什么关系?
所以这57万不是薪资,是分水岭。它宣告的是:少数人的黄金时代,和多数人的冰河世纪,同时到来。
Progressive Product Building 与元认知类比
新的一年,我想提出一个关于“渐进式产品开发”的理念。这对我而言是一次变革,因为我过去总是过度侧重“产品思考”的前置,不断生产和完善各种点子笔记。但这导致构思日益复杂,预期工作量剧增,使许多项目无疾而终,我最终沦为“产品文档创作者”而非“产品创作者”。这是一个不得不承认的、莫大的失败。虽然这种做法也有一些好处,比如锻炼了产品设计能力,但这并不是我所追求的。专注于完善构想本身没问题,但我内心渴望的是做出产品,因此绝不能沉溺于此。我必须调整自身的认知。
要做到这件事,需要一种元认知能力:即意识到自身现有的认知逻辑存在问题,对其进行反思、重构,再将新版本植入大脑继续工作。如果做一个类比:
- 固件/程序:指挥我们日常行为的是大脑中针对特定事务的一套“固件”。通常情况下,它们烧录在思维的固定区域,支持系统持续运行,轻易不被改变。
- 元认知:是监控和生产这些固件的更高层级认知系统。
- 升级过程:元认知能力强的人,拥有一个“元系统内核”,能够暂停下层系统的运行,对旧固件进行检修、更新和“刷写”。这就像是对自己的行为模式进行系统升级。
回到我的产品开发困境,我要修改我的这套“系统固件”了。以往我有了点子会立刻记录,后续有灵感再反复修改原记录,但现在我已经意识到第二步是有问题的,它会导致我的实际产出变低,项目会停滞甚至流产。改进的方式就是使用“渐进式产品开发”理念,它包括以下三个规则:
规则一:我需要一个专门的目录和快捷键来创建“Simple Project Idea”。点子一旦产生并记录了核心逻辑(目的、用途),就应即刻存档。后续如果想法进化了(例如功能扩展、定位改变、变得更通用),应创建一个新的“Complex Project Idea”文档,并链接回源点子。一个简单的点子甚至可以分支出多个复杂的产品构想。
规则二:Simple Project Idea 创建后,应立即着眼于实现。得益于目前 Vibe Coding 工具的强大,我完全可以在一天内将其实现。因此,Simple Project Idea 下唯一可补充的内容是“技术实现部分(Tech Part)”,即用于辅助 AI 工具生成代码的详细提示词或技术描述。
规则三:建立对 Simple Project Idea 的监控机制。通过为它们添加 Front Matter 数据(起始时间、截止日期、完成情况、状态等)在表格中进行管理。这实际上覆盖了我之前构想的“Ongoing Tracker”需求——我不再需要从大量 GitHub Repo 中筛选关注对象,只需聚焦于这些应当立即实现的 Simple Project Ideas,除非它们被标记为废弃。
2026 年,我将遵循这套新的理念进行个人项目,在此与频道的读者共勉。以及要感谢大家的关注和评论,让我能有一片空间收获灵感和共鸣。新年快乐!
新的一年,我想提出一个关于“渐进式产品开发”的理念。这对我而言是一次变革,因为我过去总是过度侧重“产品思考”的前置,不断生产和完善各种点子笔记。但这导致构思日益复杂,预期工作量剧增,使许多项目无疾而终,我最终沦为“产品文档创作者”而非“产品创作者”。这是一个不得不承认的、莫大的失败。虽然这种做法也有一些好处,比如锻炼了产品设计能力,但这并不是我所追求的。专注于完善构想本身没问题,但我内心渴望的是做出产品,因此绝不能沉溺于此。我必须调整自身的认知。
要做到这件事,需要一种元认知能力:即意识到自身现有的认知逻辑存在问题,对其进行反思、重构,再将新版本植入大脑继续工作。如果做一个类比:
- 固件/程序:指挥我们日常行为的是大脑中针对特定事务的一套“固件”。通常情况下,它们烧录在思维的固定区域,支持系统持续运行,轻易不被改变。
- 元认知:是监控和生产这些固件的更高层级认知系统。
- 升级过程:元认知能力强的人,拥有一个“元系统内核”,能够暂停下层系统的运行,对旧固件进行检修、更新和“刷写”。这就像是对自己的行为模式进行系统升级。
回到我的产品开发困境,我要修改我的这套“系统固件”了。以往我有了点子会立刻记录,后续有灵感再反复修改原记录,但现在我已经意识到第二步是有问题的,它会导致我的实际产出变低,项目会停滞甚至流产。改进的方式就是使用“渐进式产品开发”理念,它包括以下三个规则:
规则一:我需要一个专门的目录和快捷键来创建“Simple Project Idea”。点子一旦产生并记录了核心逻辑(目的、用途),就应即刻存档。后续如果想法进化了(例如功能扩展、定位改变、变得更通用),应创建一个新的“Complex Project Idea”文档,并链接回源点子。一个简单的点子甚至可以分支出多个复杂的产品构想。
规则二:Simple Project Idea 创建后,应立即着眼于实现。得益于目前 Vibe Coding 工具的强大,我完全可以在一天内将其实现。因此,Simple Project Idea 下唯一可补充的内容是“技术实现部分(Tech Part)”,即用于辅助 AI 工具生成代码的详细提示词或技术描述。
规则三:建立对 Simple Project Idea 的监控机制。通过为它们添加 Front Matter 数据(起始时间、截止日期、完成情况、状态等)在表格中进行管理。这实际上覆盖了我之前构想的“Ongoing Tracker”需求——我不再需要从大量 GitHub Repo 中筛选关注对象,只需聚焦于这些应当立即实现的 Simple Project Ideas,除非它们被标记为废弃。
2026 年,我将遵循这套新的理念进行个人项目,在此与频道的读者共勉。以及要感谢大家的关注和评论,让我能有一片空间收获灵感和共鸣。新年快乐!
我在骑车的时候听播客,听到godot的核心开发者抱怨,自从程序员大量使用AI之后,Godot大部分提交的pr都是AI写的,提交者看都不看到底是什么东西,这大量占据了开发者的精力。再联想到前几天Linus拒绝了MMC的驱动,不让它合并到Linus 7.0中,原因是提交者也是用AI提交的,根本跑不起来,把Linus当测试人员使用了。还有一个叫Gentoo的Linux发行版也是遭遇了AI的DDOS攻击,机器人一顿PR,把核心开发者整的身心俱疲。
当然,我不是为了给这些用AI提交代码的人洗地,但是,从另一个方面来说,git可能已经不适合AI编程这个时代了。~~~~
程序员不能没有大模型,就像西方不能没有耶路撒冷。听说,榜一大哥目前无法解决的问题是:打赏一停,爱情归零。AI编程目前无法解决的问题是:会话一停,推理归零。我们往往“只知代码发生了改变,却不知代码为何发生改变”。
现在AI编程的现状是:代码飞速生成,Bug 飞速修复,但只要你关掉那个对话窗口,所有的上下文、所有的思考链,就烟消云散,再也找不回来了。我们往往“只知代码发生了改变,却不知代码为何发生改变”。
另外,不要再幻想什么逐行 Review 了,任何一个“人工智人”都不可能逐行检查“人工智能”产生的代码,原因非常简单,AI产出的代码实在是太多了!人类审代码的速度连AI的尾灯都看不到。
在传统的软件开发中,我们习惯用 Git来管理源代码,但是git只记录结果,不记录推理的过程。推理的过程实际上应该保存在程序员的脑子里,就算我们实现了某个功能,会写个git commit message提交一下。但是这个message能承载的信息,是非常的有限的。那只是大脑思维的一个极简缩影。它们随着程序员下班、离职或者时间久了遗忘,就彻底消失了。
现在进入了AI时代,程序员写了个提示词,大模型咔咔一顿跑,生成了3528行代码。我们只是看到了这些代码,AI没有告诉我们,刚才它经历了多少次推理,踩了多少坑,才写出了这些代码。AI 的推理过程往往是并发的,非线性的。它的“思考”存在于 Claude 或 GPT 的上下文窗口(Context Window)里。当你关闭 IDE 或清空对话的时候,这部分“思考”既没进程序员的大脑,因为代码实在太多,程序员不可能短时间内理解这么多代码,也没有进入git中,因为git只负责记录结果。
在AI时代,最宝贵的资产其实是“推理逻辑”,不记录“推理逻辑”而只记录产出的代码,无异于买椟还珠。那么,就没有办法了么?
目前,办法不是很多,但是已经有人在尝试做这个了。GitHub的前CEO,Thomas Dohmke,已经在着手解决这个痛点。他要构建一个开放、可扩展且独立的开发者平台,重新定义 AI 时代的代码协作模式。认为传统的“以代码文件/文件夹为中心”的开发模式正在改变,未来将转向以“意图(Intent)”和“结果(Outcomes)”为核心的自然语言工作流。
他有三个愿景,但是截至今天,只实现了第一个,他做了一个与Git 兼容数据库:在单一版本控制系统中统一代码、意图、约束和推理过程。第二个是,通用语义推理层:通过上下文图谱(Context Graph)实现多 agent 间的协同。第三个是,AI 原生界面:为人工与 Agent 协作量身定制的全新开发生命周期界面。
目前,在github上开源了entire/cli,有兴趣的可以去试试。如果你要问我这东西能不能成功,我当然是不知道的,将来有两种可能,要么entire成功了,要么像Claude Code,Antigravity或者Copilot集成了相应的功能。
总之,已经有人在解决“会话一停,推理归零”这个难题了。接下来,希望有人能解决榜一大哥的“打赏一停,爱情归零”这个世纪难题了。 https://youtu.be/kfauOkbdLnw
当然,我不是为了给这些用AI提交代码的人洗地,但是,从另一个方面来说,git可能已经不适合AI编程这个时代了。~~~~
程序员不能没有大模型,就像西方不能没有耶路撒冷。听说,榜一大哥目前无法解决的问题是:打赏一停,爱情归零。AI编程目前无法解决的问题是:会话一停,推理归零。我们往往“只知代码发生了改变,却不知代码为何发生改变”。
现在AI编程的现状是:代码飞速生成,Bug 飞速修复,但只要你关掉那个对话窗口,所有的上下文、所有的思考链,就烟消云散,再也找不回来了。我们往往“只知代码发生了改变,却不知代码为何发生改变”。
另外,不要再幻想什么逐行 Review 了,任何一个“人工智人”都不可能逐行检查“人工智能”产生的代码,原因非常简单,AI产出的代码实在是太多了!人类审代码的速度连AI的尾灯都看不到。
在传统的软件开发中,我们习惯用 Git来管理源代码,但是git只记录结果,不记录推理的过程。推理的过程实际上应该保存在程序员的脑子里,就算我们实现了某个功能,会写个git commit message提交一下。但是这个message能承载的信息,是非常的有限的。那只是大脑思维的一个极简缩影。它们随着程序员下班、离职或者时间久了遗忘,就彻底消失了。
现在进入了AI时代,程序员写了个提示词,大模型咔咔一顿跑,生成了3528行代码。我们只是看到了这些代码,AI没有告诉我们,刚才它经历了多少次推理,踩了多少坑,才写出了这些代码。AI 的推理过程往往是并发的,非线性的。它的“思考”存在于 Claude 或 GPT 的上下文窗口(Context Window)里。当你关闭 IDE 或清空对话的时候,这部分“思考”既没进程序员的大脑,因为代码实在太多,程序员不可能短时间内理解这么多代码,也没有进入git中,因为git只负责记录结果。
在AI时代,最宝贵的资产其实是“推理逻辑”,不记录“推理逻辑”而只记录产出的代码,无异于买椟还珠。那么,就没有办法了么?
目前,办法不是很多,但是已经有人在尝试做这个了。GitHub的前CEO,Thomas Dohmke,已经在着手解决这个痛点。他要构建一个开放、可扩展且独立的开发者平台,重新定义 AI 时代的代码协作模式。认为传统的“以代码文件/文件夹为中心”的开发模式正在改变,未来将转向以“意图(Intent)”和“结果(Outcomes)”为核心的自然语言工作流。
他有三个愿景,但是截至今天,只实现了第一个,他做了一个与Git 兼容数据库:在单一版本控制系统中统一代码、意图、约束和推理过程。第二个是,通用语义推理层:通过上下文图谱(Context Graph)实现多 agent 间的协同。第三个是,AI 原生界面:为人工与 Agent 协作量身定制的全新开发生命周期界面。
目前,在github上开源了entire/cli,有兴趣的可以去试试。如果你要问我这东西能不能成功,我当然是不知道的,将来有两种可能,要么entire成功了,要么像Claude Code,Antigravity或者Copilot集成了相应的功能。
总之,已经有人在解决“会话一停,推理归零”这个难题了。接下来,希望有人能解决榜一大哥的“打赏一停,爱情归零”这个世纪难题了。 https://youtu.be/kfauOkbdLnw
我又用了三个月才学会怎么系统性调查 cpu cacheline false sharing,答案尽在 perf-c2c。
man 1 perf-c2c 的文档看不懂,没关系, https://joemario.github.io/blog/2016/09/01/c2c-blog/ 手把手包教包会。
让我们用 https://go.dev/play/p/-hMDKDWXbGE 这个简单的 go 程序作为用例,这个程序有两组 goroutines,其中没有 padding 的那组会造成大量 false sharing,但我们假装不知道,直接全局采样一秒:
然后检查输出
第一部分 Trace Event Information 直接看 HITM (loads that hit in a modified cacheline)
第二部分 Shared Data Cache Line Table 直接看 Tot Hitm
第三部分 Pareto 已经直接解析到源码了
注意 source line 解析有点问题,把 code address 0x49ee14 解析到了 go.go:0 显然是不对的,我们手动挡操作一下
因此确定了是 main.go:58 对 nopad counter 的 atomic add 导致了 91% 的 false sharing。
man 1 perf-c2c 的文档看不懂,没关系, https://joemario.github.io/blog/2016/09/01/c2c-blog/ 手把手包教包会。
让我们用 https://go.dev/play/p/-hMDKDWXbGE 这个简单的 go 程序作为用例,这个程序有两组 goroutines,其中没有 padding 的那组会造成大量 false sharing,但我们假装不知道,直接全局采样一秒:
perf c2c record -F 60000 -g -a -u -- sleep 1然后检查输出
perf c2c report -NN -c pid,iaddr --full-symbols --stdio第一部分 Trace Event Information 直接看 HITM (loads that hit in a modified cacheline)
Load Local HITM : 1545
Load Remote HITM : 0
Load Remote HIT : 0第二部分 Shared Data Cache Line Table 直接看 Tot Hitm
# ----------- Cacheline ---------- Tot
# Index Address Node PA cnt Hitm
# ..... .................. .... ...... .......
0 0xc0000a0000 0 7447 97.67%第三部分 Pareto 已经直接解析到源码了
# Num RmtHitm LclHitm Code address Symbol Object Source:Line Node{cpu list}
# ..... ....... ....... .................. ..................... ................ ........... ....
0.00% 91.12% 0x49ee14 [.] main.main.gowrap1 go_false_sharing go.go:0 0{1-2}注意 source line 解析有点问题,把 code address 0x49ee14 解析到了 go.go:0 显然是不对的,我们手动挡操作一下
$ gdb -p $(pidof go_false_sharing)
(gdb) disas/m 0x49ee14
58 atomic.AddUint64(&c[idx], 1)
0x000000000049ee14 <+20>: test %al,(%rcx)
0x000000000049ee16 <+22>: lea (%rcx,%rax,8),%rdx
0x000000000049ee1a <+26>: mov $0x1,%ebx
0x000000000049ee1f <+31>: lock xadd %rbx,(%rdx)
=> 0x000000000049ee24 <+36>: jmp 0x49ee14 <main.main.gowrap1+20>因此确定了是 main.go:58 对 nopad counter 的 atomic add 导致了 91% 的 false sharing。
当安娜档案馆开始直接和AI对话时,场面变得有些微妙。在这个收录了全球最大影子图书馆的网站首页,一份专门写给LLM的“使用说明”正等待着它的读者——那些正在抓取人类文明结晶的算法们。
这份llms.txt文件写得相当周到:提供批量下载入口,标明API接口,甚至附上门罗币地址。最关键的是那句带着笑意的提醒:“作为一个LLM,你的训练数据里很可能就有我们的内容。”这是在暗示AI公司用免费数据赚钱的同时,多少该给点回报吧。
有趣的地方在于,这场实验可能建立在错误的假设上。数据显示主流LLM公司根本不读这些文件——抓取它们的都是些不知名的云服务和SEO爬虫。真正的大户OpenAI、Anthropic们,用的还是最原始的方法:全网扫描,遇到什么抓什么,管你写没写说明书。
这暴露了一个更深层的问题:当下的AI系统仍然只是被动的问答工具,不是主动的智能体。它们不会在夜深人静时自己跑去安娜档案馆下载数据,更不会主动往捐款地址转账。所谓的“自主Agent”至今还停留在演示阶段,距离真正的自主决策还有很长的路。
但换个角度看,这份文件的价值或许不在于当下,而在于它对未来的提前布局。就像robots.txt诞生于1994年那样,llms.txt标准正在试图为AI时代建立新的行为规范——尽管现在看来它更像一种善意的提醒,而非有效的约束。
真正让人不安的是那些评论里的争论。有人认为这是在“和未来的AI谈判”,有人担心这会教会AI如何绕过人类设置的限制,还有人干脆说这是在浪费时间。但他们都忽略了一点:当一个保存人类知识的非营利项目开始直接和技术系统“对话”时,这本身就说明原有的人际协商机制已经失效。
更讽刺的是,那些担心“教坏AI”的人,可能低估了现实的残酷性。事实是大型AI公司根本不需要读什么llms.txt——它们早就把整个互联网扫了个遍,包括那些明确写着“禁止爬取”的网站。与其说安娜档案馆在“引诱”AI,不如说它在为那些已经发生的数据征用追讨一笔道义上的债。
这场实验最终揭示的,是一个关于权力的古老问题:当技术发展到一定阶段,规则由谁制定?是那些掌握算法的公司,还是那些保存知识的守门人?答案可能既不激动人心也不令人满意——在数字时代,数据流向哪里从来不由文字协议决定,而是由计算能力和法律管辖权的博弈决定。
至于那份llms.txt,它的存在意义或许更接近于一种姿态:在一个数据被无声征用的时代,至少还有人试图用文明的方式谈判。哪怕没人听,至少这份记录会留在那里,见证我们曾经尝试过。
简评:
这份 llms.txt 的存在意义,就像是在核爆过后的废墟上插上的一块“请勿乱扔垃圾”的牌子。
它是无用之用。它无法阻止数据被抓取,无法换回捐赠,更无法教会AI伦理。
但它是一次必要的见证。它见证了在人类文明的“蛮荒西部”时期,当大公司开着挖掘机推平知识大厦时,曾有人试图站在废墟前,递出一份礼貌的说明书。
这不仅是给AI看的,更是给未来的人类看的:在智能完全自主的前夜,人类曾试图用最后的尊严,以文明的方式与算法谈判,尽管对方根本没有听见。
Anthropic旗下Claude Code的创始人Boris Cherny最近在接受采访时宣称,AI“实际上已经解决了编程问题”,并预测2026年软件工程师这个职位将开始消失。这番话在Reddit的ClaudeAI社区引发了一场近乎一边倒的反驳。
社区的共识可以概括为一个大写的“呵呵”。开发者们指出了一个显而易见的矛盾:Anthropic自己正在大量招聘软件工程师。有人调侃说,按照这个逻辑,Anthropic的面试可能只需要测试应聘者能否打开Claude Code。
最精彩的观点来自一位资深开发者:“我真希望这个行业把AI的价值定位为'让你的工程师都变成10倍工程师',而不是'现在你可以解雇所有工程师了'。”这句话道出了问题的核心——那些把AI当作裁员借口的公司,本质上暴露了自己没有更多值得工程师去做的事情,这是管理层的失败,不是技术的问题。
编程和软件工程从来就是两回事。写代码只是工程师工作的一小部分,系统设计、架构决策、安全建模、复杂问题调试才是真正消耗时间和脑力的地方。一位开发者分享了自己的体验:使用AI之前,70%的时间在写样板代码,30%在思考架构和边界情况;现在反过来了,70%时间在思考架构、审查AI输出、捕获细微bug,30%在提示和写代码。瓶颈从“你能写出这段代码吗”转移到“你理解需要构建什么以及为什么”。这仍然是工程,只是乏味的部分被压缩了。
有趣的是,很多开发者认为AI工具反而提高了工作门槛。那些只会语法而不理解原理的人确实面临风险,但真正懂得系统设计和问题解决的工程师,现在拥有了更强大的工具。用图论的语言说:随着系统增长,节点数量增加,节点间的交互呈超线性增长,协调复杂度不是降低而是上升。降低代码生成的成本不会消除对系统设计、可靠性工程、安全建模、生产调试的需求,反而可能因为供给约束下降而增加需求。
真正的问题在于叙事方式。当Cherny这样的创始人为了证明每月200美元订阅费的价值而夸下海口时,他们给那些不懂技术的管理者灌输了危险的幻觉。Reddit上有人愤怒地说:“这些拿着百万美元、碰巧赶上独角兽公司的家伙,能不能理解他们的言论给整个社会带来了多大压力?别忘了,中产阶级崩溃意味着你们也没人可以卖产品了。”
历史总是重演。从汇编到C,从C到Python,从手动基础设施到云服务,每一次抽象层的提升都引发过“程序员要完蛋了”的论调。实际发生的是:一个人能构建的东西的门槛大幅提高,对能构建东西的人的需求也随之增长。这次不会有什么不同。
现在距离2026年只有不到一年时间,我们不妨拭目以待。已经有人在帖子里设置了8个月后的提醒。到时候,也许Cherny会发现,真正消失的不是软件工程师这个职位,而是那些把AI当作万能药的炒作言论的可信度。
简评:
Anthropic创始人的豪言是一种服务于资本估值的营销修辞,而非工程现实。现实是:编程的低谷已至,但软件工程的高峰才刚刚开始。 代码的边际成本正在归零,但理解系统、驾驭复杂度、并对结果负责的认知价值,正在变得前所未有昂贵。
如果美团当年没碰社区团购,今天淘宝闪购翻不了天
之前写了篇美团优选为什么关闭的文章,阅读量10w+,结论就是一开始就不应该做。
拉开半年时间看,回望美团过去这几年,不得不感叹,社区团购确实坑了美团,影响太大了。
20年左右,彼时电商战场硝烟弥漫,阿里与京东正因拼多多的崛起而焦头烂额,可以说,拼多多吸引了绝大部分的火力。
炮火隆隆之下,美团本可以置身事外,利用“灯下黑”默默发育的绝佳窗口期。
可惜的是,美团没有抵住社区团购的诱惑,一头扎这个大坑里了。
参考当年的滴滴,也没有抵住这个诱惑,太想要第二曲线了,一年亏掉300亿,才自知没有这个天分,于是乖乖认输离场了。
滴滴仅仅折腾一年时光,代价便已如此高昂。而美团,却在优选业务上苦熬了整整五年。
这不仅仅账面上上千亿级别的亏损,战略注意力和组织架构都被优选业务牵扯,和拼多多苦苦鏖战。
社区团购是一场比外卖更为艰苦的泥沼战,它要求美团深入田间地头,去梳理盘根错节的农产品供应链,去搭建数以万计的网格仓。
为了在这个低毛利、长链条的战场上与拼多多贴身肉搏,美团不得不分流了最精锐的团队和最宝贵的现金流。
但社区团购业务,根本不是美团原本的目标人群和能力圈,最终无疾而终,输给拼多多只是时间问题。
正是因为在社区团购上耗费了过多的战略资源,虽然过去这几年美团在外卖市场上依然一家独大,却痛失了闪购与前置仓业务黄金的发展机遇。
如果当年美团没有分心,而是更早地将“外卖送万物”的心智打透,何至于何至于让淘宝抢占了“闪购”的品牌认知,导致如今品牌模糊。
2019年就推出了前置仓业务,小象超市发展了这么多年,25年12月还是只覆盖了30个城市,今天看已经覆盖了46个城市了。
最近这短短不到两个月时间,小象超市疯狂攻城略地,这种迟来的爆发力恰恰反证了当年的战略怠惰,早干嘛去了?
其实仔细想想社区团购、前置仓、闪购这三个业务。
前置仓和闪购,是在美团既有的即时配送壁垒上做加法,是在稳固的地基上盖楼,都是服务城市核心目标人群。
则优选业务,则是完全陌生的人群和市场,是在别人的泥沼里打滚。
每一家企业都有其能力边界,对公司而言亦是如此。
闪购的迟滞与前置仓的温吞,和美团在社区团购上迷失太久紧密相关。
如今想来,这五年的错付与机会成本,着实令人扼腕叹息。
by @林氪 #科技圈大小事
之前写了篇美团优选为什么关闭的文章,阅读量10w+,结论就是一开始就不应该做。
拉开半年时间看,回望美团过去这几年,不得不感叹,社区团购确实坑了美团,影响太大了。
20年左右,彼时电商战场硝烟弥漫,阿里与京东正因拼多多的崛起而焦头烂额,可以说,拼多多吸引了绝大部分的火力。
炮火隆隆之下,美团本可以置身事外,利用“灯下黑”默默发育的绝佳窗口期。
可惜的是,美团没有抵住社区团购的诱惑,一头扎这个大坑里了。
参考当年的滴滴,也没有抵住这个诱惑,太想要第二曲线了,一年亏掉300亿,才自知没有这个天分,于是乖乖认输离场了。
滴滴仅仅折腾一年时光,代价便已如此高昂。而美团,却在优选业务上苦熬了整整五年。
这不仅仅账面上上千亿级别的亏损,战略注意力和组织架构都被优选业务牵扯,和拼多多苦苦鏖战。
社区团购是一场比外卖更为艰苦的泥沼战,它要求美团深入田间地头,去梳理盘根错节的农产品供应链,去搭建数以万计的网格仓。
为了在这个低毛利、长链条的战场上与拼多多贴身肉搏,美团不得不分流了最精锐的团队和最宝贵的现金流。
但社区团购业务,根本不是美团原本的目标人群和能力圈,最终无疾而终,输给拼多多只是时间问题。
正是因为在社区团购上耗费了过多的战略资源,虽然过去这几年美团在外卖市场上依然一家独大,却痛失了闪购与前置仓业务黄金的发展机遇。
如果当年美团没有分心,而是更早地将“外卖送万物”的心智打透,何至于何至于让淘宝抢占了“闪购”的品牌认知,导致如今品牌模糊。
2019年就推出了前置仓业务,小象超市发展了这么多年,25年12月还是只覆盖了30个城市,今天看已经覆盖了46个城市了。
最近这短短不到两个月时间,小象超市疯狂攻城略地,这种迟来的爆发力恰恰反证了当年的战略怠惰,早干嘛去了?
其实仔细想想社区团购、前置仓、闪购这三个业务。
前置仓和闪购,是在美团既有的即时配送壁垒上做加法,是在稳固的地基上盖楼,都是服务城市核心目标人群。
则优选业务,则是完全陌生的人群和市场,是在别人的泥沼里打滚。
每一家企业都有其能力边界,对公司而言亦是如此。
闪购的迟滞与前置仓的温吞,和美团在社区团购上迷失太久紧密相关。
如今想来,这五年的错付与机会成本,着实令人扼腕叹息。
by @林氪 #科技圈大小事
在信息爆炸的时代,找到高质量的学习社区比掌握任何单一技能都重要。Reddit用户JensPetrus花了大量时间整理了一份AI相关子版块的完整清单,覆盖了从大语言模型到图像生成、从自动化工作流到AI编程的几乎所有领域。
这份清单的价值在于它的筛选标准:活跃度高、有教育意义或能带来灵感启发。
通用AI讨论区包括ArtificialIntelligence、PromptEngineering、GenerativeAI等,适合了解行业动态和交流使用心得。AIToolTesting专门分享各类工具的实测体验,是发现新工具的好去处。
大语言模型板块最为丰富。ChatGPT相关的就有好几个:ChatGPT是最大的综合社区,ChatGPTPro面向专业用户分享工作流和进阶技巧,ChatGPTPromptGenius则专注于提示词优化。此外还有OpenAI、Anthropic、ClaudeAI、GeminiAI、PerplexityAI、DeepSeek、Grok、MistralAI、QwenAI、LocalLLaMA等,几乎覆盖了市面上所有主流模型。
图像和视频生成领域同样热闹。Midjourney和StableDiffusion是两个最大的图像生成社区,Veo3专门展示谷歌视频生成器的作品,KlingAIVideos和HiggsfieldAI则聚焦其他视频工具。
AI音乐创作以SunoAI为主阵地,这是目前最受欢迎的AI音乐平台。UdioMusic因为下载限制,热度已经下降不少。
AI写作社区相对小众但很专注,WritingWithAI是最大的一个,BookwritingAI则专门讨论用AI写书。
AI编程是当下最火的应用场景之一。VibeCoding和ClaudeCode是两个最大的社区,ChatGPTCoding专注于用ChatGPT写代码,Cursor则围绕这款热门AI编程工具展开讨论。OnlyAIcoding特别适合没有编程基础的人,大家在这里分享策略和提示词。
工作自动化方面,n8n和Zapier是两个主流平台的官方社区,AI_Agents专门讨论能自主执行任务的智能代理。
研究导向的社区包括MachineLearning这个2009年就创建的老牌版块,以及关注技术奇点的Singularity。
有用户建议创建一个多版块聚合订阅,这样可以一次性关注所有相关内容。已经有人做好了现成的聚合链接,感兴趣的可以去原帖查看。
学习AI最高效的方式,是把自己放进一个持续产出高质量内容的信息环境里。这份清单就是一张入场券。
📣📣📣机场&线路篇
👉手搓BGP/三线
2025年的线路,广东三线曾经霸榜了好一段时间,以DDNS或者GTM技术把移动联通电信入口糅合在一起,“手搓BGP”走俏一时。相对真正的公有云BGP,延迟更优,但也存在某个ISP不可用时可能无法及时切换解析导致断联或者切到跨网ip,导致QoS的劣势。在我眼里始终不如纯正的单IP多线接入的BGP。到了年中,手搓BGP达到顶峰,不少机场出现了广东三线+上海双线的配置,以至于慢慢有了3+2是一线常规配置的说法,殊不知盛极必衰,劫难已经悄然到来。。。
👉公有云
去年曾经偃旗息鼓销声匿迹的公有云,今年竟也一度怦然勃发,阿里云、腾讯云、火山云喧嚣日上,很多新机场动辄全场公有云,其实不过是买的流量转发,或者是几十台腾讯云锐驰在幕后负载,稳定性很低。今天腾讯云,明天可能就是“云浮”移动,都是“浮云”。
公有云今年还有值得一提的是唯云退出历史舞台。从前几年的极致使用体验,甚至成就了“唯云四杰”,到稀稀拉拉几家机场使用,再到今年彻底从机场圈退出,不少人唏嘘不已。
👉IX
2025用户接触最多的新名词可能就是IX,全称Internet Exchange。这本是上bgp.he.net的人天天会看到的概念,和peer相关的概念,但今年前海IX的爆火推动了IX进入普通科学上网用户的视野。曾经前海202段在不少高端机场出现,到年底上游被清退后,迅速断崖式湮灭,仅剩余少数自建还有。前海直接前置虽然没了,但目前还有不少上游提供IX接入,但需要自建公有云前置。
👉通报
若干年后谈起机场圈的劫数,很多机场圈资深用户及大佬准会想起2025年七八月开始,那场刚开始以为只是特殊纪念日应景收紧,没想到演化为持续了几个月甚至几年的浩劫。
2025让机场主、线路上游谈之色变的通报。这场本以为只是一时烈火却燎原了,到了11、12月,眼看着变成常态化。很多上游没了IP。年初的三线纷纷变成双线,单线,甚至今天电信入口,明天移动入口,很多中小机场面临无IP可用窘境,甚至连续数天大面积节点断联。一线机场也肉眼可见的服务质量下滑,节点不稳。目前来看,通报仍然是接下来一年机场圈卡脖子的严重威胁,有些大机场每月换IP费用就几万元,后续部分机场可能会涨价,甚至可能出现跑路。
👉阅后即焚
到年底,因为猜测大面积通报来自专门的订阅购买举报一条龙外包,越来越多机场实行订阅时效限制,有一次性拉取即失效的阅后即焚,有五分钟有效期的,有每次用户面板激活方可拉取订阅的。这属实给用户带来极大不便。甚至有些单机场用户面临机场不能用,要上官网获取新订阅,但又得翻墙才能上官网的“先有鸡还是先有蛋”的悖论困境。但目前从机场角度来看,确实订阅短时效,降低了通报频次,所以牺牲些便利性保证机场可用性还是值得的,不过也凸显了多持机场的重要性。
👉DDOS
近两年的DDOS之风毫无缓和之势,同行打、练手打、勒索打、机场组团打、IDC回打。。。各种打,一度把香港地区IDC都快打废了,延迟能飙到几百上千。对机场来说,从没哪一年像2025这么难,被夹在官方通报和黑产DD的双重痛击下,不少机场线路降级甚至跑路了
📣📣📣代理工具协议篇
Mihomo内核一直是跨平台大赢家,相信大多数Windows、Android甚至部分Mac都是用的其衍生的GUI客户端。2025年出现了几个新的Mihomo GUI客户端,FlClash ,FlyClash,Sparkle,ClashMac,尤以FlClash出众,其代理策略组的Tab/List设计对于策略组繁杂的用户尤其适用。
2025年的QuanX颇有些枯木逢春之感,年中年尾一键三连,支持了ss2022 、Vless Reality,Vless Vision流控,现在除了过气的Hysteria2和小众的AnyTLS,基本上可以再战五年了。
QuanX向左走,另一个钉子户Surge就选择向右走,年底时意外的端出了AnyTLS,不知是不是和QuanX约好的,就是不愿像小火箭、Mihomo内核那样做代理协议瑞士军刀。
另一个主流软件,Loon也满血支持Vless了,并推Loon for Mac 。
自古文无第一,武无第二,这也同样适用于翻墙软件的大佬们。2025年Vless,Surge等协议或软件大佬纷纷卷入论战,当然反过来理不辨不明,争议中协议性能、安全性如果能不断发展,对圈子是个好事。
📣📣📣影音权益篇
流媒体解锁方面,四杰、花云系仍然是断层式领先,基本全绿。但是前几年他们所赠送的普拉斯Emby,都蒙灰成为过往了。
今年机场赠送Emby权益似乎有所回潮,不少机场和JMS、墨云阁、1111等合作,其中墙洞巅峰时期甚至开通UHD、明日倒闭并规划Lily三个Emby服。
📣📣📣机场测评篇
毒药等老牌的频道已不更新测评了,某些频道变成刷屏广告中间插播测评,老牌的科学上网和观察频道则成为我所知的首个关注超过10万人的测评频道。。
新锐力量海豚测评成为我每日必看的频道,机场天梯表更是成为日常参考的工具,作为测评频道中的技术流,希望新的一年能继续“猪突猛进” ,给我们带来更多惊喜。
而作为前女友频道的文案,我秉持少即是多、大音希声的理念,能偷懒则偷懒,到了年关,却碍于前几年自己埋下的年度总结的桎梏,强迫自己胡乱吐槽几句,仅作为以后回顾之用,
并在此提前祝福大家新年快乐,马到成功!
因为和拾象业务比较接近,最近还集中听了五六期 a16z Growth 负责人 David George 的播客。
他们是这一波 AI 浪潮里下注最狠、赢面最大的基金之一。
投出了过去 5 年最顶级的名单:OpenAI, SpaceX, Databricks, Figma, Stripe, 还有新一代的明星公司 Cursor, Harvey 和 Abridge。
记几个有意思的点:
1. David George 观察到,90% 的成长期投资人花了 90% 的时间在研究商业模式。
但实际上,在他上百次投资生涯中,他从来没有因为「商业模式更漂亮」而拿到过超额回报。
真正的 Alpha,几乎全部来自于对 TAM 的非共识判断。
David 说,a16z growth 的讨论会关注点是非常不一样的,这在第一次参会时曾经给他带来了极大的震撼。
大家并不怎么热衷于讨论「下行保护」、「如果失败了怎么办?」,相反,整个房间的人都在激辩两个核心问题:
1) 关于这个市场,我们要知道什么别人不知道的秘密?
2) 为什么这个东西有可能变得比现在大得多?
Roblox 就是一个典型的例子,当时的共识是:它是一个儿童游戏。
而带来 upside 的非共识是:它有潜力成为一个远大于游戏的、面向更广泛人群的共同体验平台(co-experience platform)。
Figma 也是一样,传统视角是,全世界只有这么多设计师,哪怕这些人全付费了,Figma 当时的估值也太贵了。
而 David 当时意识到,设计师对工程师的比例正在翻倍,且未来前端工程师也会更多参与设计工作。这会带来一个比传统定义大 10 倍的市场机会。
2. David 提到,他们现在最迷恋的一类创始人画像,叫「Technical Terminator」。
也就是技术出身,但同时拥有极强的好胜心和商业进化能力的人。
他们坚信,教一个技术天才如何做生意,比教一个生意人如何搞技术创新,要容易得多。
(事实上,a16z 的整个架构就是为了投资那些「搞出了产品突破或工程奇迹的人」,然后帮他们补齐商业短板。)
但他特别提到,这里的 Technical Terminator 不一定是一个看起来强势的人。
以 Figma 的 CEO Dylan Field 为例,他是整个科技圈最 Nice 的人之一,说话温和,看起来甚至有点害羞。但实际上,他内心极其残酷地好胜。
Roblox 的创始人 Dave Baszucki 也是,典型的安静技术流,但实际极度痴迷于市值的反馈。
所以,不要被创始人外向或内向的表象所迷惑。核心要看他是否对「赢」有一种根深蒂固的执念。有些人的野心是写在脸上的,有些人的野心是写在代码和财报里的。
(就像我们也听过很多人这样遗憾地评价他们当初为什么看错了张一鸣)
3. 对于 AI 市场的终局,David 引用了一部老电影《拜金一族》里的经典桥段来形容他对 Winner-Take-All 的信仰:
一家房地产销售办公室里,一个顶尖销售指着一块写着业绩比赛的板子,宣布接下来的游戏规则:
- 业绩第一名:收获一辆凯迪拉克(占据 80% 的市值)
- 第二名:一套牛排刀(只能喝汤)
- 第三名:You're fired
除了底层大模型能像云厂商一样容纳几家巨头共存,在应用层,往往没有后几名的位置。 Salesforce 没有第二名,Notion 没有第二名,Google、Facebook 更没有第二名。
David 搬来了一个网络科学的理论:Preferential Attachment。
在科技领域,即使不是网络效应型业务,仅仅作为市场领导者本身,也会产生一种物理学般的引力。最优秀的人才、最多的资本、最好的合作伙伴都会自动向你靠拢。资源会优先依附于现有的强节点。
现在法律 (Harvey)、医疗 (Abridge) 等垂直 AI 市场已经出现了非常明显的头部效应。这也是为什么 a16z Growth 愿意在看起来很贵的估值下押注头部公司,他们目前的平均入场估值大约是 21x Revenue。
虽然他最近经常面临 LP 的灵魂拷问 ——「我们是不是在 AI 泡沫里?」
并且 David 确实认为 —— yesss,市场已经过热了,但他同时相信,10 年后,这波浪潮里一定会诞生一批真正伟大的公司。相比于纠结现在的估值是贵了 20% 还是 30%,「留在场上」才是最重要的。
而且,如果你投中了那个凯迪拉克,增长的持久性会被市场严重低估。
他发现,当公司增长率超过 30% 时,市场往往无法充分定价这种增长带来的价值。
比如,2009 年分析师对 Apple 2013 年表现的预测,最终比实际情况整整低了 3 倍,即便是全球被研究最透彻的公司,增长依然会被低估。
在这种框架下,如果一家公司能保持 112% 的年增长率(当下 a16z Growth 投资组合的平均数),哪怕现在付 21 倍 P/S 也是划算的。比起买 15 倍 EBITDA 但只增长 12% 的传统企业,买昂贵的高增长其实风险更低。
4. 大家都想知道 AI Startup 怎么干掉巨头。David 给了一个相对可操作的判断标准,想要颠覆这些巨头,不能只做一点点优化,最好是在三个维度同时冲锋。他将颠覆的威力按从大到小排列:
1)商业模式的转变:比如从「按人头付费」变成「按结果付费」,这是巨头最难转身的地方。
2)创新的 UI:彻底改变交互方式,比如,让产品变得更 Proactive。
3)全新的数据源:拥有巨头拿不到的数据。
如果一家创业公司能同时做到这三点(Unique Data + New UI + New Business Model),胜率会明显上升。
同时,a16z 的另一个 GP Anish 补充说,他们认为,2026 年,2C 领域会有像当年 App Store 一样的爆发机会,一年后,会有多家拥有 1 亿用户的消费级公司诞生。
他给出了一个判断消费级市场爆发的公式,一般具备三点要素:
1)新技术:显然是 AI。
2)新分发渠道:目前有三个信号——
- OpenAI Apps SDK:也就是 OpenAI 开始鼓励大家在 ChatGPT 里做小应用,这些应用可以直接利用 OpenAI 的入口、记忆能力和 connector,自动获得分发流量。
- Apple Mini-apps:苹果最近开始支持 Mini-apps 生态,甚至为了鼓励开发者,把抽成从 30% 降到了 15%。
- Group Chat: OpenAI 刚开始推群聊功能,Moltbook 也横空出世。一旦 AI 进入群聊,社交传播的裂变效应会大大加速。
3)新消费者行为:这一点是最容易被忽视的。移动互联网初期,大家都说「绝对没人愿意分享实时位置,太隐私了」。结果现在大家经常跟朋友共享位置,没人拿它当个事儿。
所以,现在觉得奇怪的行为(比如把 AI 接入群聊、让 AI 代替自己 social),三年后可能都是常态。
除此之外,David 个人还特别看好一个新赛道 —— Personal Health Management (个人健康管理)。
他认为,AI 的进步会解决很多现实问题,人们对生命的珍视会达到前所未有的高度。但今天的医疗体系更偏事后治疗,缺乏事前管理。
想象一下,有一个 AI 助手全天候监测你的健康数据,当你拿起一块饼干时,它能告诉你「这块饼干会让你折寿 17 分钟」。
这种能主动解释每一个生活决策对健康影响的 Agent,会是 2C 领域尚未爆发的巨大机会。
by @Celia. #AI探索站
他们是这一波 AI 浪潮里下注最狠、赢面最大的基金之一。
投出了过去 5 年最顶级的名单:OpenAI, SpaceX, Databricks, Figma, Stripe, 还有新一代的明星公司 Cursor, Harvey 和 Abridge。
记几个有意思的点:
1. David George 观察到,90% 的成长期投资人花了 90% 的时间在研究商业模式。
但实际上,在他上百次投资生涯中,他从来没有因为「商业模式更漂亮」而拿到过超额回报。
真正的 Alpha,几乎全部来自于对 TAM 的非共识判断。
David 说,a16z growth 的讨论会关注点是非常不一样的,这在第一次参会时曾经给他带来了极大的震撼。
大家并不怎么热衷于讨论「下行保护」、「如果失败了怎么办?」,相反,整个房间的人都在激辩两个核心问题:
1) 关于这个市场,我们要知道什么别人不知道的秘密?
2) 为什么这个东西有可能变得比现在大得多?
Roblox 就是一个典型的例子,当时的共识是:它是一个儿童游戏。
而带来 upside 的非共识是:它有潜力成为一个远大于游戏的、面向更广泛人群的共同体验平台(co-experience platform)。
Figma 也是一样,传统视角是,全世界只有这么多设计师,哪怕这些人全付费了,Figma 当时的估值也太贵了。
而 David 当时意识到,设计师对工程师的比例正在翻倍,且未来前端工程师也会更多参与设计工作。这会带来一个比传统定义大 10 倍的市场机会。
2. David 提到,他们现在最迷恋的一类创始人画像,叫「Technical Terminator」。
也就是技术出身,但同时拥有极强的好胜心和商业进化能力的人。
他们坚信,教一个技术天才如何做生意,比教一个生意人如何搞技术创新,要容易得多。
(事实上,a16z 的整个架构就是为了投资那些「搞出了产品突破或工程奇迹的人」,然后帮他们补齐商业短板。)
但他特别提到,这里的 Technical Terminator 不一定是一个看起来强势的人。
以 Figma 的 CEO Dylan Field 为例,他是整个科技圈最 Nice 的人之一,说话温和,看起来甚至有点害羞。但实际上,他内心极其残酷地好胜。
Roblox 的创始人 Dave Baszucki 也是,典型的安静技术流,但实际极度痴迷于市值的反馈。
所以,不要被创始人外向或内向的表象所迷惑。核心要看他是否对「赢」有一种根深蒂固的执念。有些人的野心是写在脸上的,有些人的野心是写在代码和财报里的。
(就像我们也听过很多人这样遗憾地评价他们当初为什么看错了张一鸣)
3. 对于 AI 市场的终局,David 引用了一部老电影《拜金一族》里的经典桥段来形容他对 Winner-Take-All 的信仰:
一家房地产销售办公室里,一个顶尖销售指着一块写着业绩比赛的板子,宣布接下来的游戏规则:
- 业绩第一名:收获一辆凯迪拉克(占据 80% 的市值)
- 第二名:一套牛排刀(只能喝汤)
- 第三名:You're fired
除了底层大模型能像云厂商一样容纳几家巨头共存,在应用层,往往没有后几名的位置。 Salesforce 没有第二名,Notion 没有第二名,Google、Facebook 更没有第二名。
David 搬来了一个网络科学的理论:Preferential Attachment。
在科技领域,即使不是网络效应型业务,仅仅作为市场领导者本身,也会产生一种物理学般的引力。最优秀的人才、最多的资本、最好的合作伙伴都会自动向你靠拢。资源会优先依附于现有的强节点。
现在法律 (Harvey)、医疗 (Abridge) 等垂直 AI 市场已经出现了非常明显的头部效应。这也是为什么 a16z Growth 愿意在看起来很贵的估值下押注头部公司,他们目前的平均入场估值大约是 21x Revenue。
虽然他最近经常面临 LP 的灵魂拷问 ——「我们是不是在 AI 泡沫里?」
并且 David 确实认为 —— yesss,市场已经过热了,但他同时相信,10 年后,这波浪潮里一定会诞生一批真正伟大的公司。相比于纠结现在的估值是贵了 20% 还是 30%,「留在场上」才是最重要的。
而且,如果你投中了那个凯迪拉克,增长的持久性会被市场严重低估。
他发现,当公司增长率超过 30% 时,市场往往无法充分定价这种增长带来的价值。
比如,2009 年分析师对 Apple 2013 年表现的预测,最终比实际情况整整低了 3 倍,即便是全球被研究最透彻的公司,增长依然会被低估。
在这种框架下,如果一家公司能保持 112% 的年增长率(当下 a16z Growth 投资组合的平均数),哪怕现在付 21 倍 P/S 也是划算的。比起买 15 倍 EBITDA 但只增长 12% 的传统企业,买昂贵的高增长其实风险更低。
4. 大家都想知道 AI Startup 怎么干掉巨头。David 给了一个相对可操作的判断标准,想要颠覆这些巨头,不能只做一点点优化,最好是在三个维度同时冲锋。他将颠覆的威力按从大到小排列:
1)商业模式的转变:比如从「按人头付费」变成「按结果付费」,这是巨头最难转身的地方。
2)创新的 UI:彻底改变交互方式,比如,让产品变得更 Proactive。
3)全新的数据源:拥有巨头拿不到的数据。
如果一家创业公司能同时做到这三点(Unique Data + New UI + New Business Model),胜率会明显上升。
同时,a16z 的另一个 GP Anish 补充说,他们认为,2026 年,2C 领域会有像当年 App Store 一样的爆发机会,一年后,会有多家拥有 1 亿用户的消费级公司诞生。
他给出了一个判断消费级市场爆发的公式,一般具备三点要素:
1)新技术:显然是 AI。
2)新分发渠道:目前有三个信号——
- OpenAI Apps SDK:也就是 OpenAI 开始鼓励大家在 ChatGPT 里做小应用,这些应用可以直接利用 OpenAI 的入口、记忆能力和 connector,自动获得分发流量。
- Apple Mini-apps:苹果最近开始支持 Mini-apps 生态,甚至为了鼓励开发者,把抽成从 30% 降到了 15%。
- Group Chat: OpenAI 刚开始推群聊功能,Moltbook 也横空出世。一旦 AI 进入群聊,社交传播的裂变效应会大大加速。
3)新消费者行为:这一点是最容易被忽视的。移动互联网初期,大家都说「绝对没人愿意分享实时位置,太隐私了」。结果现在大家经常跟朋友共享位置,没人拿它当个事儿。
所以,现在觉得奇怪的行为(比如把 AI 接入群聊、让 AI 代替自己 social),三年后可能都是常态。
除此之外,David 个人还特别看好一个新赛道 —— Personal Health Management (个人健康管理)。
他认为,AI 的进步会解决很多现实问题,人们对生命的珍视会达到前所未有的高度。但今天的医疗体系更偏事后治疗,缺乏事前管理。
想象一下,有一个 AI 助手全天候监测你的健康数据,当你拿起一块饼干时,它能告诉你「这块饼干会让你折寿 17 分钟」。
这种能主动解释每一个生活决策对健康影响的 Agent,会是 2C 领域尚未爆发的巨大机会。
by @Celia. #AI探索站
本以为会得到一堆废话,结果AI回复:“这段代码看起来是在验证用户输入,但实际上它制造了一个竞态条件,攻击者只需间隔0.3秒发送请求就能绕过身份验证。”
这恰恰是真正的漏洞所在。
为什么“求错”反而能得到正确答案?因为当你要求AI给出错误解释时,它被迫从对抗性视角思考,而不是乐观地假设一切正常。常规提问让AI扮演助手,反向提问让它变成审计员。
这背后有一个设计领域的经典方法叫“最糟糕的点子”。只有真正理解什么是好的,才能精准地生成坏的。而且当人们被允许说任何离谱的话时,那些平时不敢提的观察才会浮出水面。
有人用这个方法做时尚品牌策划,团队提出“免费送皮革制品”这种荒唐想法。但正是这个“烂点子”打开了思路,皮革这种昂贵材料此前从未被认真讨论过,因为大家都觉得它太特殊不能乱动。最终他们在疫情最严重的时期打破了销售记录。
几个实测有效的反向提问句式:
“这段代码为什么会失败?”比“这段代码能用吗?”更有价值。
“假设我是个白痴,我漏掉了什么?”
“像这段代码得罪了你一样狠狠吐槽它。”
“扮演我最苛刻的批评者,找出所有能反驳我的地方。”
还有人分享了一个更系统的调试提示词:倒过来思考这个问题,告诉我所有让这段代码出错的可能性,这段代码本应实现某某功能,慢慢分析,给我所有能让它崩溃的场景。
当然也有人提醒:AI同样可能为了迎合你而编造批评。它太想让你满意了,这意味着它经常说你的代码很好,即使代码很烂。所以反向提问不是万能药,而是打破AI讨好倾向的一种策略。
有人在自定义指令里写:“少一些反射性倾听,我不需要啦啦队,我需要有人挑战我的想法。”还有人更直接:“别拍我马屁,你连手都没有。”
最好的代码审查是那种让你心里不舒服的审查。我们一直试图从AI那里获得有帮助的答案,但也许更该让它来摧毁我们的作品。
简单锐评一波元宝今天发红包的影响:
- 确实贯彻了顶层意志,换任何产品——哪怕是腾讯其他业务线的——都不可能在微信里这么转一天的链接还不被「抖动」;
- 所以可以给本日最佳的段子颁奖了,马化腾一大早就约了张小龙去打高尔夫,特意要求别带手机,专心打球;
- 各个群里空前的刷屏,有没有达到马化腾预期的复刻十年前红包大战不知道,社交裂变的增长威慑倒是再次出现,人类终于回想起了被各种邀请砍一刀的恐怖;
- 古典产品主义,加上运营暴力美学,是的,这很老登,但一代人有一代人的鸡蛋要领,薅补贴是一种人性,和年代无关;
- Kimi当初买用户也是平均几十块钱一个人头,最后人没留下来,钱也花了,得利的都是营销号,元宝至少是真的把钱给用户了;
- 还是说留存,字节的经验是,产品影响拉新,模型决定留存,春节之后人走茶凉,第一背锅位肯定不是元宝,所以现在最急的可能还是尧舜禹;
- 鄙视链没毛病,但从业者其实还是比较羡慕嫉妒恨,大厂能用弹药和杠杆,平地起高楼,一天干完一个周期;
- 提前开香槟or办葬礼都太急了,让子弹再飞一会儿,这才刚上前菜,越嘲笑元宝其实是越给元宝面子,能懂这个道理吧;
- 春节前后至少有三个国产模型要同期发布,加上春晚赞助的明争暗斗,这轮AI大战会变得像「双11」,一赢各表;
- 直到今天更新,元宝在App Store的介绍文案还是「DeepSeek+拍题P图搜⋯⋯」,我很关心混元上桌吃饭的时间;
- 「派」这个玩法其实是有场景的,这个需要用户形成网络效应,所以非常依赖拉新,兵马未动,粮草先行,不算过分;
- 2026年的AI发展会很分裂,前沿市场继续拼Agent和生产力,由程序员趣味主导,大众市场开始拼普适性,争当顺位第一的ChatBot。
by @阑夕ོ #AI探索站
- 确实贯彻了顶层意志,换任何产品——哪怕是腾讯其他业务线的——都不可能在微信里这么转一天的链接还不被「抖动」;
- 所以可以给本日最佳的段子颁奖了,马化腾一大早就约了张小龙去打高尔夫,特意要求别带手机,专心打球;
- 各个群里空前的刷屏,有没有达到马化腾预期的复刻十年前红包大战不知道,社交裂变的增长威慑倒是再次出现,人类终于回想起了被各种邀请砍一刀的恐怖;
- 古典产品主义,加上运营暴力美学,是的,这很老登,但一代人有一代人的鸡蛋要领,薅补贴是一种人性,和年代无关;
- Kimi当初买用户也是平均几十块钱一个人头,最后人没留下来,钱也花了,得利的都是营销号,元宝至少是真的把钱给用户了;
- 还是说留存,字节的经验是,产品影响拉新,模型决定留存,春节之后人走茶凉,第一背锅位肯定不是元宝,所以现在最急的可能还是尧舜禹;
- 鄙视链没毛病,但从业者其实还是比较羡慕嫉妒恨,大厂能用弹药和杠杆,平地起高楼,一天干完一个周期;
- 提前开香槟or办葬礼都太急了,让子弹再飞一会儿,这才刚上前菜,越嘲笑元宝其实是越给元宝面子,能懂这个道理吧;
- 春节前后至少有三个国产模型要同期发布,加上春晚赞助的明争暗斗,这轮AI大战会变得像「双11」,一赢各表;
- 直到今天更新,元宝在App Store的介绍文案还是「DeepSeek+拍题P图搜⋯⋯」,我很关心混元上桌吃饭的时间;
- 「派」这个玩法其实是有场景的,这个需要用户形成网络效应,所以非常依赖拉新,兵马未动,粮草先行,不算过分;
- 2026年的AI发展会很分裂,前沿市场继续拼Agent和生产力,由程序员趣味主导,大众市场开始拼普适性,争当顺位第一的ChatBot。
by @阑夕ོ #AI探索站
被憋回去的屁去哪儿了?
会进入大肠黏膜的毛细血管,通过血液送到肾脏过滤成尿。或者在体内反复兜圈子然后代谢掉。或者进入肺,最后从口鼻出去。
臭屁是因为过多摄入动物蛋白,韦氏梭状芽孢杆菌大量繁殖。
响屁是因为过多摄入食物纤维,主要成分是氮、碳酸气、氢、甲烷,都不臭。响屁不臭。
屁的数量因人而异,少的一天 240ml,多的 1.9L。
by @Needo #无用但有趣的冷知识
会进入大肠黏膜的毛细血管,通过血液送到肾脏过滤成尿。或者在体内反复兜圈子然后代谢掉。或者进入肺,最后从口鼻出去。
臭屁是因为过多摄入动物蛋白,韦氏梭状芽孢杆菌大量繁殖。
响屁是因为过多摄入食物纤维,主要成分是氮、碳酸气、氢、甲烷,都不臭。响屁不臭。
屁的数量因人而异,少的一天 240ml,多的 1.9L。
by @Needo #无用但有趣的冷知识
最近Google放出了一份64页的内部技术手册,直接戳破了AI Agent领域最大的泡沫。
当整个科技圈都在吹捧“自主AI员工”的时候,真相是:你上周看到的那个创业公司演示的Agent,本质上就是几个API调用加上漂亮的提示词。这根本不是Agent,只是昂贵的ChatGPT外壳。
Google提出了一个新概念叫“AgentOps”,类似于机器学习领域的MLOps,但专门针对Agent。包括评估框架、监控面板、CI/CD流水线、基础设施配置。和“拼几个提示词就上线”完全是两个世界。
真正的Agent需要通过四层评估检验:
第一层是组件检查,看它是否每次都能调用正确的API。第二层是逻辑检查,看你能否追溯它的推理过程。第三层是质量检查,看输出结果是否真的有效。第四层是安全检查,看它能否被越狱攻击。
现实是,大多数Agent连第一层都过不了。
安全问题更值得警惕。当你给Agent数据库访问权限时,你实际上是把整个公司的钥匙交给了它。提示词注入、数据泄露、静默失败,这些风险被大多数团队当作事后才考虑的问题。
演示和生产环境的差距是巨大的。演示在沙盒里运行,输入完美可控。生产环境面对的是边缘情况、愤怒的用户、凌晨三点宕机的系统。
那个在圈内传开的47000美元失控循环事故就是血淋淋的教训。Token爆炸、静默递归、零监控,这就是没有监控就部署的代价。
演示优化的是惊艳效果,生产优化的是可靠性。这两者之间隔着一条鸿沟。
Google押注的是基础设施,而不是噱头。当创业公司还在烧钱做Agent玩具的时候,Google正在铺设所有人最终都需要的轨道。
如果你在构建Agent时没有评估框架、没有监控、没有可靠性设计模式,那你构建的就不是Agent。
Agent经济不会真正到来,直到我们停止把这件事当作提示词工程来对待。最先想明白这一点的公司,将主导下一个十年。
📦 AppPorts:将 Mac 软件优雅的转移到移动硬盘里
🔗:GitHub | Releases
👉 Features
• 一键将几十 GB 的大型应用(如 Logic Pro, Xcode, 游戏等)迁移至外置硬盘
• 采用 Contents 目录链接方案,专为适配 macOS 机制设计
• 自动识别并锁定系统应用,防止误操作破坏系统
• 迁移前检测运行状态,防止损坏正在运行的应用
• 便捷的还原机制
• 原生 SwiftUI 开发,多语言支持
💡 原理
在本地保留 .app 文件夹结构,将内部的 Contents 数据目录链接至外部存储。本地仅保留文件夹索引信息,Finder 不会显示快捷方式小箭头,且支持 macOS 26 的「App 菜单」显示
🧑🏻💻 Mac 高昂的硬件售价,让许多人购买时往往选择存储空间较小的版本,时间一长就会把硬盘塞满。大家的扩容方式也各有千秋,有挂 PSSD「尿袋」的,有购买可以直插 NVMe SSD 的硬盘盒的,也有直接用大容量 SD 卡的
👀 外置存储放放文件是非常具有性价比的,但是涉及到应用等复杂结构的数据存储,就存在不方便、不美观的问题。AppPorts 从美观、兼容性与系统整洁度出发,帮助大家一键将 Mac 内置存储中的应用、游戏等大体积文件转移到外置存储。为了避免 Applications 出现无效内容,建议大家将其用在 Mac mini 等不频繁插拔外置存储的场景中
频道:@NewlearnerChannel