想知道谁在裸泳吗?
我在骑车的时候听播客,听到godot的核心开发者抱怨,自从程序员大量使用AI之后,Godot大部分提交的pr都是AI写的,提交者看都不看到底是什么东西,这大量占据了开发者的精力。再联想到前几天Linus拒绝了MMC的驱动,不让它合并到Linus 7.0中,原因是提交者也是用AI提交的,根本跑不起来,把Linus当测试人员使用了。还有一个叫Gentoo的Linux发行版也是遭遇了AI的DDOS攻击,机器人一顿PR,把核心开发者整的身心俱疲。

当然,我不是为了给这些用AI提交代码的人洗地,但是,从另一个方面来说,git可能已经不适合AI编程这个时代了。~~~~

程序员不能没有大模型,就像西方不能没有耶路撒冷。听说,榜一大哥目前无法解决的问题是:打赏一停,爱情归零。AI编程目前无法解决的问题是:会话一停,推理归零。我们往往“只知代码发生了改变,却不知代码为何发生改变”。

现在AI编程的现状是:代码飞速生成,Bug 飞速修复,但只要你关掉那个对话窗口,所有的上下文、所有的思考链,就烟消云散,再也找不回来了。我们往往“只知代码发生了改变,却不知代码为何发生改变”。

另外,不要再幻想什么逐行 Review 了,任何一个“人工智人”都不可能逐行检查“人工智能”产生的代码,原因非常简单,AI产出的代码实在是太多了!人类审代码的速度连AI的尾灯都看不到。

在传统的软件开发中,我们习惯用 Git来管理源代码,但是git只记录结果,不记录推理的过程。推理的过程实际上应该保存在程序员的脑子里,就算我们实现了某个功能,会写个git commit message提交一下。但是这个message能承载的信息,是非常的有限的。那只是大脑思维的一个极简缩影。它们随着程序员下班、离职或者时间久了遗忘,就彻底消失了。

现在进入了AI时代,程序员写了个提示词,大模型咔咔一顿跑,生成了3528行代码。我们只是看到了这些代码,AI没有告诉我们,刚才它经历了多少次推理,踩了多少坑,才写出了这些代码。AI 的推理过程往往是并发的,非线性的。它的“思考”存在于 Claude 或 GPT 的上下文窗口(Context Window)里。当你关闭 IDE 或清空对话的时候,这部分“思考”既没进程序员的大脑,因为代码实在太多,程序员不可能短时间内理解这么多代码,也没有进入git中,因为git只负责记录结果。

在AI时代,最宝贵的资产其实是“推理逻辑”,不记录“推理逻辑”而只记录产出的代码,无异于买椟还珠。那么,就没有办法了么?

目前,办法不是很多,但是已经有人在尝试做这个了。GitHub的前CEO,Thomas Dohmke,已经在着手解决这个痛点。他要构建一个开放、可扩展且独立的开发者平台,重新定义 AI 时代的代码协作模式。认为传统的“以代码文件/文件夹为中心”的开发模式正在改变,未来将转向以“意图(Intent)”和“结果(Outcomes)”为核心的自然语言工作流。

他有三个愿景,但是截至今天,只实现了第一个,他做了一个与Git 兼容数据库:在单一版本控制系统中统一代码、意图、约束和推理过程。第二个是,通用语义推理层:通过上下文图谱(Context Graph)实现多 agent 间的协同。第三个是,AI 原生界面:为人工与 Agent 协作量身定制的全新开发生命周期界面。

目前,在github上开源了entire/cli,有兴趣的可以去试试。如果你要问我这东西能不能成功,我当然是不知道的,将来有两种可能,要么entire成功了,要么像Claude Code,Antigravity或者Copilot集成了相应的功能。

总之,已经有人在解决“会话一停,推理归零”这个难题了。接下来,希望有人能解决榜一大哥的“打赏一停,爱情归零”这个世纪难题了。 https://youtu.be/kfauOkbdLnw
Dante At2814
有什么 metrics 可以让我们知道「B因为A北改动从而在 cache 中实效了」?
我又用了三个月才学会怎么系统性调查 cpu cacheline false sharing,答案尽在 perf-c2c。
man 1 perf-c2c 的文档看不懂,没关系, https://joemario.github.io/blog/2016/09/01/c2c-blog/ 手把手包教包会。

让我们用 https://go.dev/play/p/-hMDKDWXbGE 这个简单的 go 程序作为用例,这个程序有两组 goroutines,其中没有 padding 的那组会造成大量 false sharing,但我们假装不知道,直接全局采样一秒:
perf c2c record -F 60000 -g -a -u -- sleep 1


然后检查输出
perf c2c report -NN -c pid,iaddr --full-symbols --stdio


第一部分 Trace Event Information 直接看 HITM (loads that hit in a modified cacheline)
  Load Local HITM                   :       1545
  Load Remote HITM                  :          0
  Load Remote HIT                   :          0


第二部分 Shared Data Cache Line Table 直接看 Tot Hitm
#        ----------- Cacheline ----------      Tot
# Index             Address  Node  PA cnt     Hitm 
# .....  ..................  ....  ......  ....... 
      0        0xc0000a0000     0    7447   97.67%


第三部分 Pareto 已经直接解析到源码了
#   Num  RmtHitm  LclHitm        Code address                Symbol            Object  Source:Line  Node{cpu list}
# .....  .......  .......  .................. .....................  ................  ...........  ....
           0.00%   91.12%            0x49ee14 [.] main.main.gowrap1  go_false_sharing  go.go:0       0{1-2}


注意 source line 解析有点问题,把 code address 0x49ee14 解析到了 go.go:0 显然是不对的,我们手动挡操作一下
$ gdb -p $(pidof go_false_sharing)
(gdb) disas/m 0x49ee14
58      atomic.AddUint64(&c[idx], 1)
   0x000000000049ee14 <+20>:  test   %al,(%rcx)
   0x000000000049ee16 <+22>:  lea    (%rcx,%rax,8),%rdx
   0x000000000049ee1a <+26>:  mov    $0x1,%ebx
   0x000000000049ee1f <+31>:  lock xadd %rbx,(%rdx)
=> 0x000000000049ee24 <+36>:  jmp    0x49ee14 <main.main.gowrap1+20>


因此确定了是 main.go:58 对 nopad counter 的 atomic add 导致了 91% 的 false sharing。
从安娜档案馆到LLM:一场关于“知识归谁”的对话实验 | blog

当安娜档案馆开始直接和AI对话时,场面变得有些微妙。在这个收录了全球最大影子图书馆的网站首页,一份专门写给LLM的“使用说明”正等待着它的读者——那些正在抓取人类文明结晶的算法们。

这份llms.txt文件写得相当周到:提供批量下载入口,标明API接口,甚至附上门罗币地址。最关键的是那句带着笑意的提醒:“作为一个LLM,你的训练数据里很可能就有我们的内容。”这是在暗示AI公司用免费数据赚钱的同时,多少该给点回报吧。

有趣的地方在于,这场实验可能建立在错误的假设上。数据显示主流LLM公司根本不读这些文件——抓取它们的都是些不知名的云服务和SEO爬虫。真正的大户OpenAI、Anthropic们,用的还是最原始的方法:全网扫描,遇到什么抓什么,管你写没写说明书。

这暴露了一个更深层的问题:当下的AI系统仍然只是被动的问答工具,不是主动的智能体。它们不会在夜深人静时自己跑去安娜档案馆下载数据,更不会主动往捐款地址转账。所谓的“自主Agent”至今还停留在演示阶段,距离真正的自主决策还有很长的路。

但换个角度看,这份文件的价值或许不在于当下,而在于它对未来的提前布局。就像robots.txt诞生于1994年那样,llms.txt标准正在试图为AI时代建立新的行为规范——尽管现在看来它更像一种善意的提醒,而非有效的约束。

真正让人不安的是那些评论里的争论。有人认为这是在“和未来的AI谈判”,有人担心这会教会AI如何绕过人类设置的限制,还有人干脆说这是在浪费时间。但他们都忽略了一点:当一个保存人类知识的非营利项目开始直接和技术系统“对话”时,这本身就说明原有的人际协商机制已经失效。

更讽刺的是,那些担心“教坏AI”的人,可能低估了现实的残酷性。事实是大型AI公司根本不需要读什么llms.txt——它们早就把整个互联网扫了个遍,包括那些明确写着“禁止爬取”的网站。与其说安娜档案馆在“引诱”AI,不如说它在为那些已经发生的数据征用追讨一笔道义上的债。

这场实验最终揭示的,是一个关于权力的古老问题:当技术发展到一定阶段,规则由谁制定?是那些掌握算法的公司,还是那些保存知识的守门人?答案可能既不激动人心也不令人满意——在数字时代,数据流向哪里从来不由文字协议决定,而是由计算能力和法律管辖权的博弈决定。

至于那份llms.txt,它的存在意义或许更接近于一种姿态:在一个数据被无声征用的时代,至少还有人试图用文明的方式谈判。哪怕没人听,至少这份记录会留在那里,见证我们曾经尝试过。

简评:

这份 llms.txt 的存在意义,就像是在核爆过后的废墟上插上的一块“请勿乱扔垃圾”的牌子。

它是无用之用。它无法阻止数据被抓取,无法换回捐赠,更无法教会AI伦理。

但它是一次必要的见证。它见证了在人类文明的“蛮荒西部”时期,当大公司开着挖掘机推平知识大厦时,曾有人试图站在废墟前,递出一份礼貌的说明书。

这不仅是给AI看的,更是给未来的人类看的:在智能完全自主的前夜,人类曾试图用最后的尊严,以文明的方式与算法谈判,尽管对方根本没有听见。
AI编程异军突起,世上再无软件工程师?| 帖子

Anthropic旗下Claude Code的创始人Boris Cherny最近在接受采访时宣称,AI“实际上已经解决了编程问题”,并预测2026年软件工程师这个职位将开始消失。这番话在Reddit的ClaudeAI社区引发了一场近乎一边倒的反驳。

社区的共识可以概括为一个大写的“呵呵”。开发者们指出了一个显而易见的矛盾:Anthropic自己正在大量招聘软件工程师。有人调侃说,按照这个逻辑,Anthropic的面试可能只需要测试应聘者能否打开Claude Code。

最精彩的观点来自一位资深开发者:“我真希望这个行业把AI的价值定位为'让你的工程师都变成10倍工程师',而不是'现在你可以解雇所有工程师了'。”这句话道出了问题的核心——那些把AI当作裁员借口的公司,本质上暴露了自己没有更多值得工程师去做的事情,这是管理层的失败,不是技术的问题。

编程和软件工程从来就是两回事。写代码只是工程师工作的一小部分,系统设计、架构决策、安全建模、复杂问题调试才是真正消耗时间和脑力的地方。一位开发者分享了自己的体验:使用AI之前,70%的时间在写样板代码,30%在思考架构和边界情况;现在反过来了,70%时间在思考架构、审查AI输出、捕获细微bug,30%在提示和写代码。瓶颈从“你能写出这段代码吗”转移到“你理解需要构建什么以及为什么”。这仍然是工程,只是乏味的部分被压缩了。

有趣的是,很多开发者认为AI工具反而提高了工作门槛。那些只会语法而不理解原理的人确实面临风险,但真正懂得系统设计和问题解决的工程师,现在拥有了更强大的工具。用图论的语言说:随着系统增长,节点数量增加,节点间的交互呈超线性增长,协调复杂度不是降低而是上升。降低代码生成的成本不会消除对系统设计、可靠性工程、安全建模、生产调试的需求,反而可能因为供给约束下降而增加需求。

真正的问题在于叙事方式。当Cherny这样的创始人为了证明每月200美元订阅费的价值而夸下海口时,他们给那些不懂技术的管理者灌输了危险的幻觉。Reddit上有人愤怒地说:“这些拿着百万美元、碰巧赶上独角兽公司的家伙,能不能理解他们的言论给整个社会带来了多大压力?别忘了,中产阶级崩溃意味着你们也没人可以卖产品了。”

历史总是重演。从汇编到C,从C到Python,从手动基础设施到云服务,每一次抽象层的提升都引发过“程序员要完蛋了”的论调。实际发生的是:一个人能构建的东西的门槛大幅提高,对能构建东西的人的需求也随之增长。这次不会有什么不同。

现在距离2026年只有不到一年时间,我们不妨拭目以待。已经有人在帖子里设置了8个月后的提醒。到时候,也许Cherny会发现,真正消失的不是软件工程师这个职位,而是那些把AI当作万能药的炒作言论的可信度。

简评:

Anthropic创始人的豪言是一种服务于资本估值的营销修辞,而非工程现实。现实是:编程的低谷已至,但软件工程的高峰才刚刚开始。 代码的边际成本正在归零,但理解系统、驾驭复杂度、并对结果负责的认知价值,正在变得前所未有昂贵。
如果美团当年没碰社区团购,今天淘宝闪购翻不了天

之前写了篇美团优选为什么关闭的文章,阅读量10w+,结论就是一开始就不应该做。

拉开半年时间看,回望美团过去这几年,不得不感叹,社区团购确实坑了美团,影响太大了。

20年左右,彼时电商战场硝烟弥漫,阿里与京东正因拼多多的崛起而焦头烂额,可以说,拼多多吸引了绝大部分的火力。

炮火隆隆之下,美团本可以置身事外,利用“灯下黑”默默发育的绝佳窗口期。

可惜的是,美团没有抵住社区团购的诱惑,一头扎这个大坑里了。

参考当年的滴滴,也没有抵住这个诱惑,太想要第二曲线了,一年亏掉300亿,才自知没有这个天分,于是乖乖认输离场了。

滴滴仅仅折腾一年时光,代价便已如此高昂。而美团,却在优选业务上苦熬了整整五年。

这不仅仅账面上上千亿级别的亏损,战略注意力和组织架构都被优选业务牵扯,和拼多多苦苦鏖战。

社区团购是一场比外卖更为艰苦的泥沼战,它要求美团深入田间地头,去梳理盘根错节的农产品供应链,去搭建数以万计的网格仓。

为了在这个低毛利、长链条的战场上与拼多多贴身肉搏,美团不得不分流了最精锐的团队和最宝贵的现金流。

但社区团购业务,根本不是美团原本的目标人群和能力圈,最终无疾而终,输给拼多多只是时间问题。

正是因为在社区团购上耗费了过多的战略资源,虽然过去这几年美团在外卖市场上依然一家独大,却痛失了闪购与前置仓业务黄金的发展机遇。

如果当年美团没有分心,而是更早地将“外卖送万物”的心智打透,何至于何至于让淘宝抢占了“闪购”的品牌认知,导致如今品牌模糊。

2019年就推出了前置仓业务,小象超市发展了这么多年,25年12月还是只覆盖了30个城市,今天看已经覆盖了46个城市了。

最近这短短不到两个月时间,小象超市疯狂攻城略地,这种迟来的爆发力恰恰反证了当年的战略怠惰,早干嘛去了?

其实仔细想想社区团购、前置仓、闪购这三个业务。

前置仓和闪购,是在美团既有的即时配送壁垒上做加法,是在稳固的地基上盖楼,都是服务城市核心目标人群。

则优选业务,则是完全陌生的人群和市场,是在别人的泥沼里打滚。

每一家企业都有其能力边界,对公司而言亦是如此。

闪购的迟滞与前置仓的温吞,和美团在社区团购上迷失太久紧密相关。

如今想来,这五年的错付与机会成本,着实令人扼腕叹息。

by @林氪 #科技圈大小事
一份值得收藏的AI社区导航手册 | 帖子

在信息爆炸的时代,找到高质量的学习社区比掌握任何单一技能都重要。Reddit用户JensPetrus花了大量时间整理了一份AI相关子版块的完整清单,覆盖了从大语言模型到图像生成、从自动化工作流到AI编程的几乎所有领域。

这份清单的价值在于它的筛选标准:活跃度高、有教育意义或能带来灵感启发。

通用AI讨论区包括ArtificialIntelligence、PromptEngineering、GenerativeAI等,适合了解行业动态和交流使用心得。AIToolTesting专门分享各类工具的实测体验,是发现新工具的好去处。

大语言模型板块最为丰富。ChatGPT相关的就有好几个:ChatGPT是最大的综合社区,ChatGPTPro面向专业用户分享工作流和进阶技巧,ChatGPTPromptGenius则专注于提示词优化。此外还有OpenAI、Anthropic、ClaudeAI、GeminiAI、PerplexityAI、DeepSeek、Grok、MistralAI、QwenAI、LocalLLaMA等,几乎覆盖了市面上所有主流模型。

图像和视频生成领域同样热闹。Midjourney和StableDiffusion是两个最大的图像生成社区,Veo3专门展示谷歌视频生成器的作品,KlingAIVideos和HiggsfieldAI则聚焦其他视频工具。

AI音乐创作以SunoAI为主阵地,这是目前最受欢迎的AI音乐平台。UdioMusic因为下载限制,热度已经下降不少。

AI写作社区相对小众但很专注,WritingWithAI是最大的一个,BookwritingAI则专门讨论用AI写书。

AI编程是当下最火的应用场景之一。VibeCoding和ClaudeCode是两个最大的社区,ChatGPTCoding专注于用ChatGPT写代码,Cursor则围绕这款热门AI编程工具展开讨论。OnlyAIcoding特别适合没有编程基础的人,大家在这里分享策略和提示词。

工作自动化方面,n8n和Zapier是两个主流平台的官方社区,AI_Agents专门讨论能自主执行任务的智能代理。

研究导向的社区包括MachineLearning这个2009年就创建的老牌版块,以及关注技术奇点的Singularity。

有用户建议创建一个多版块聚合订阅,这样可以一次性关注所有相关内容。已经有人做好了现成的聚合链接,感兴趣的可以去原帖查看。

学习AI最高效的方式,是把自己放进一个持续产出高质量内容的信息环境里。这份清单就是一张入场券。
前女友机场测评频道2025年度回顾


📣📣📣机场&线路篇

👉手搓BGP/三线
2025年的线路,广东三线曾经霸榜了好一段时间,以DDNS或者GTM技术把移动联通电信入口糅合在一起,“手搓BGP”走俏一时。相对真正的公有云BGP,延迟更优,但也存在某个ISP不可用时可能无法及时切换解析导致断联或者切到跨网ip,导致QoS的劣势。在我眼里始终不如纯正的单IP多线接入的BGP。到了年中,手搓BGP达到顶峰,不少机场出现了广东三线+上海双线的配置,以至于慢慢有了3+2是一线常规配置的说法,殊不知盛极必衰,劫难已经悄然到来。。。


👉公有云
去年曾经偃旗息鼓销声匿迹的公有云,今年竟也一度怦然勃发,阿里云、腾讯云、火山云喧嚣日上,很多新机场动辄全场公有云,其实不过是买的流量转发,或者是几十台腾讯云锐驰在幕后负载,稳定性很低。今天腾讯云,明天可能就是“云浮”移动,都是“浮云”。


公有云今年还有值得一提的是唯云退出历史舞台。从前几年的极致使用体验,甚至成就了“唯云四杰”,到稀稀拉拉几家机场使用,再到今年彻底从机场圈退出,不少人唏嘘不已。


👉IX
2025用户接触最多的新名词可能就是IX,全称Internet Exchange。这本是上bgp.he.net的人天天会看到的概念,和peer相关的概念,但今年前海IX的爆火推动了IX进入普通科学上网用户的视野。曾经前海202段在不少高端机场出现,到年底上游被清退后,迅速断崖式湮灭,仅剩余少数自建还有。前海直接前置虽然没了,但目前还有不少上游提供IX接入,但需要自建公有云前置。


👉通报

若干年后谈起机场圈的劫数,很多机场圈资深用户及大佬准会想起2025年七八月开始,那场刚开始以为只是特殊纪念日应景收紧,没想到演化为持续了几个月甚至几年的浩劫。

2025让机场主、线路上游谈之色变的通报。这场本以为只是一时烈火却燎原了,到了11、12月,眼看着变成常态化。很多上游没了IP。年初的三线纷纷变成双线,单线,甚至今天电信入口,明天移动入口,很多中小机场面临无IP可用窘境,甚至连续数天大面积节点断联。一线机场也肉眼可见的服务质量下滑,节点不稳。目前来看,通报仍然是接下来一年机场圈卡脖子的严重威胁,有些大机场每月换IP费用就几万元,后续部分机场可能会涨价,甚至可能出现跑路。


👉阅后即焚
到年底,因为猜测大面积通报来自专门的订阅购买举报一条龙外包,越来越多机场实行订阅时效限制,有一次性拉取即失效的阅后即焚,有五分钟有效期的,有每次用户面板激活方可拉取订阅的。这属实给用户带来极大不便。甚至有些单机场用户面临机场不能用,要上官网获取新订阅,但又得翻墙才能上官网的“先有鸡还是先有蛋”的悖论困境。但目前从机场角度来看,确实订阅短时效,降低了通报频次,所以牺牲些便利性保证机场可用性还是值得的,不过也凸显了多持机场的重要性。


👉DDOS
近两年的DDOS之风毫无缓和之势,同行打、练手打、勒索打、机场组团打、IDC回打。。。各种打,一度把香港地区IDC都快打废了,延迟能飙到几百上千。对机场来说,从没哪一年像2025这么难,被夹在官方通报和黑产DD的双重痛击下,不少机场线路降级甚至跑路了


📣📣📣代理工具协议篇

Mihomo内核一直是跨平台大赢家,相信大多数Windows、Android甚至部分Mac都是用的其衍生的GUI客户端。2025年出现了几个新的Mihomo GUI客户端,FlClash ,FlyClash,Sparkle,ClashMac,尤以FlClash出众,其代理策略组的Tab/List设计对于策略组繁杂的用户尤其适用。

2025年的QuanX颇有些枯木逢春之感,年中年尾一键三连,支持了ss2022 、Vless Reality,Vless Vision流控,现在除了过气的Hysteria2和小众的AnyTLS,基本上可以再战五年了。

QuanX向左走,另一个钉子户Surge就选择向右走,年底时意外的端出了AnyTLS,不知是不是和QuanX约好的,就是不愿像小火箭、Mihomo内核那样做代理协议瑞士军刀。

另一个主流软件,Loon也满血支持Vless了,并推Loon for Mac 。


自古文无第一,武无第二,这也同样适用于翻墙软件的大佬们。2025年Vless,Surge等协议或软件大佬纷纷卷入论战,当然反过来理不辨不明,争议中协议性能、安全性如果能不断发展,对圈子是个好事。


📣📣📣影音权益篇

流媒体解锁方面,四杰、花云系仍然是断层式领先,基本全绿。但是前几年他们所赠送的普拉斯Emby,都蒙灰成为过往了。

今年机场赠送Emby权益似乎有所回潮,不少机场和JMS、墨云阁、1111等合作,其中墙洞巅峰时期甚至开通UHD、明日倒闭并规划Lily三个Emby服。



📣📣📣机场测评篇

毒药等老牌的频道已不更新测评了,某些频道变成刷屏广告中间插播测评,老牌的科学上网和观察频道则成为我所知的首个关注超过10万人的测评频道。。

新锐力量海豚测评成为我每日必看的频道,机场天梯表更是成为日常参考的工具,作为测评频道中的技术流,希望新的一年能继续“猪突猛进” ,给我们带来更多惊喜。

而作为前女友频道的文案,我秉持少即是多、大音希声的理念,能偷懒则偷懒,到了年关,却碍于前几年自己埋下的年度总结的桎梏,强迫自己胡乱吐槽几句,仅作为以后回顾之用,

并在此提前祝福大家新年快乐,马到成功!
因为和拾象业务比较接近,最近还集中听了五六期 a16z Growth 负责人 David George 的播客。

他们是这一波 AI 浪潮里下注最狠、赢面最大的基金之一。

投出了过去 5 年最顶级的名单:OpenAI, SpaceX, Databricks, Figma, Stripe, 还有新一代的明星公司 Cursor, Harvey 和 Abridge。

记几个有意思的点:

1. David George 观察到,90% 的成长期投资人花了 90% 的时间在研究商业模式。

但实际上,在他上百次投资生涯中,他从来没有因为「商业模式更漂亮」而拿到过超额回报。

真正的 Alpha,几乎全部来自于对 TAM 的非共识判断。

David 说,a16z growth 的讨论会关注点是非常不一样的,这在第一次参会时曾经给他带来了极大的震撼。

大家并不怎么热衷于讨论「下行保护」、「如果失败了怎么办?」,相反,整个房间的人都在激辩两个核心问题:

1) 关于这个市场,我们要知道什么别人不知道的秘密?
2) 为什么这个东西有可能变得比现在大得多?

Roblox 就是一个典型的例子,当时的共识是:它是一个儿童游戏。

而带来 upside 的非共识是:它有潜力成为一个远大于游戏的、面向更广泛人群的共同体验平台(co-experience platform)。

Figma 也是一样,传统视角是,全世界只有这么多设计师,哪怕这些人全付费了,Figma 当时的估值也太贵了。

而 David 当时意识到,设计师对工程师的比例正在翻倍,且未来前端工程师也会更多参与设计工作。这会带来一个比传统定义大 10 倍的市场机会。

2. David 提到,他们现在最迷恋的一类创始人画像,叫「Technical Terminator」。

也就是技术出身,但同时拥有极强的好胜心和商业进化能力的人。

他们坚信,教一个技术天才如何做生意,比教一个生意人如何搞技术创新,要容易得多。

(事实上,a16z 的整个架构就是为了投资那些「搞出了产品突破或工程奇迹的人」,然后帮他们补齐商业短板。)

但他特别提到,这里的 Technical Terminator 不一定是一个看起来强势的人。

以 Figma 的 CEO Dylan Field 为例,他是整个科技圈最 Nice 的人之一,说话温和,看起来甚至有点害羞。但实际上,他内心极其残酷地好胜。

Roblox 的创始人 Dave Baszucki 也是,典型的安静技术流,但实际极度痴迷于市值的反馈。

所以,不要被创始人外向或内向的表象所迷惑。核心要看他是否对「赢」有一种根深蒂固的执念。有些人的野心是写在脸上的,有些人的野心是写在代码和财报里的。

(就像我们也听过很多人这样遗憾地评价他们当初为什么看错了张一鸣)

3. 对于 AI 市场的终局,David 引用了一部老电影《拜金一族》里的经典桥段来形容他对 Winner-Take-All 的信仰:

一家房地产销售办公室里,一个顶尖销售指着一块写着业绩比赛的板子,宣布接下来的游戏规则:

- 业绩第一名:收获一辆凯迪拉克(占据 80% 的市值)
- 第二名:一套牛排刀(只能喝汤)
- 第三名:You're fired

除了底层大模型能像云厂商一样容纳几家巨头共存,在应用层,往往没有后几名的位置。 Salesforce 没有第二名,Notion 没有第二名,Google、Facebook 更没有第二名。

David 搬来了一个网络科学的理论:Preferential Attachment。

在科技领域,即使不是网络效应型业务,仅仅作为市场领导者本身,也会产生一种物理学般的引力。最优秀的人才、最多的资本、最好的合作伙伴都会自动向你靠拢。资源会优先依附于现有的强节点。

现在法律 (Harvey)、医疗 (Abridge) 等垂直 AI 市场已经出现了非常明显的头部效应。这也是为什么 a16z Growth 愿意在看起来很贵的估值下押注头部公司,他们目前的平均入场估值大约是 21x Revenue。

虽然他最近经常面临 LP 的灵魂拷问 ——「我们是不是在 AI 泡沫里?」

并且 David 确实认为 —— yesss,市场已经过热了,但他同时相信,10 年后,这波浪潮里一定会诞生一批真正伟大的公司。相比于纠结现在的估值是贵了 20% 还是 30%,「留在场上」才是最重要的。

而且,如果你投中了那个凯迪拉克,增长的持久性会被市场严重低估。

他发现,当公司增长率超过 30% 时,市场往往无法充分定价这种增长带来的价值。

比如,2009 年分析师对 Apple 2013 年表现的预测,最终比实际情况整整低了 3 倍,即便是全球被研究最透彻的公司,增长依然会被低估。

在这种框架下,如果一家公司能保持 112% 的年增长率(当下 a16z Growth 投资组合的平均数),哪怕现在付 21 倍 P/S 也是划算的。比起买 15 倍 EBITDA 但只增长 12% 的传统企业,买昂贵的高增长其实风险更低。

4. 大家都想知道 AI Startup 怎么干掉巨头。David 给了一个相对可操作的判断标准,想要颠覆这些巨头,不能只做一点点优化,最好是在三个维度同时冲锋。他将颠覆的威力按从大到小排列:

1)商业模式的转变:比如从「按人头付费」变成「按结果付费」,这是巨头最难转身的地方。
2)创新的 UI:彻底改变交互方式,比如,让产品变得更 Proactive。
3)全新的数据源:拥有巨头拿不到的数据。

如果一家创业公司能同时做到这三点(Unique Data + New UI + New Business Model),胜率会明显上升。

同时,a16z 的另一个 GP Anish 补充说,他们认为,2026 年,2C 领域会有像当年 App Store 一样的爆发机会,一年后,会有多家拥有 1 亿用户的消费级公司诞生。

他给出了一个判断消费级市场爆发的公式,一般具备三点要素:

1)新技术:显然是 AI。

2)新分发渠道:目前有三个信号——
- OpenAI Apps SDK:也就是 OpenAI 开始鼓励大家在 ChatGPT 里做小应用,这些应用可以直接利用 OpenAI 的入口、记忆能力和 connector,自动获得分发流量。
- Apple Mini-apps:苹果最近开始支持 Mini-apps 生态,甚至为了鼓励开发者,把抽成从 30% 降到了 15%。
- Group Chat: OpenAI 刚开始推群聊功能,Moltbook 也横空出世。一旦 AI 进入群聊,社交传播的裂变效应会大大加速。

3)新消费者行为:这一点是最容易被忽视的。移动互联网初期,大家都说「绝对没人愿意分享实时位置,太隐私了」。结果现在大家经常跟朋友共享位置,没人拿它当个事儿。
所以,现在觉得奇怪的行为(比如把 AI 接入群聊、让 AI 代替自己 social),三年后可能都是常态。

除此之外,David 个人还特别看好一个新赛道 —— Personal Health Management (个人健康管理)。
他认为,AI 的进步会解决很多现实问题,人们对生命的珍视会达到前所未有的高度。但今天的医疗体系更偏事后治疗,缺乏事前管理。

想象一下,有一个 AI 助手全天候监测你的健康数据,当你拿起一块饼干时,它能告诉你「这块饼干会让你折寿 17 分钟」。

这种能主动解释每一个生活决策对健康影响的 Agent,会是 2C 领域尚未爆发的巨大机会。

by @Celia. #AI探索站
Claude Code创造者的10条实战心法:如何让AI真正成为你的编程搭档 | 帖子

Boris Cherny是Claude Code的创造者,最近他分享了团队内部总结的10条使用技巧。这些建议来自一线实践,值得认真对待。

第一条可能是最具争议的:同时开启3到5个git worktree,每个运行独立的Claude会话。团队认为这是生产力提升的最大杠杆。有人设置了快捷键za、zb、zc来一键切换。但社区的反应很现实:这不就是教我们如何一天烧光350M token吗?确实,这条建议更适合企业用户或者不限量套餐持有者。普通开发者量力而行。

第二条是关于计划模式的。复杂任务开始前,先进入plan mode,把精力投入到规划阶段,让Claude一次性完成实现。如果执行过程中出了问题,不要硬推,退回计划模式重新规划。有人甚至会启动第二个Claude来审核计划,像资深工程师那样挑刺。这个思路很有价值:与其让AI反复试错,不如前期多花时间对齐预期。

第三条是关于CLAUDE.md的维护。每次纠正Claude的错误后,告诉它更新CLAUDE.md,让它自己写规则约束自己。Boris说Claude在这方面表现惊人。但社区反馈两极分化:有人说效果显著,有人说Claude根本不看这个文件。一位用户的比喻很精准:这就像和一个患有失忆症的天才共事。实用建议是,对于真正重要的规则,用hooks来强制执行,而不是依赖Claude的自觉。

第四条是把重复操作封装成技能或斜杠命令。如果某件事你每天做不止一次,就值得自动化。团队的例子包括:查找重复代码的techdebt命令、同步Slack和GitHub等多平台信息的命令、自动生成dbt模型的分析代理。

第五条很直接:大多数bug让Claude自己修。把Slack上的bug讨论贴进去,说一句fix。或者让它去修CI测试。不要微观管理具体怎么做。你也可以把docker日志指给它,让它排查分布式系统问题。

第六条是关于提示词的进阶用法。挑战Claude,比如说:严格审查这些改动,在我通过你的测试之前不要提交PR。或者在得到一个平庸的方案后说:基于你现在知道的一切,推翻重来,给我一个优雅的解决方案。规格写得越详细,输出质量越高。

第七条是终端环境配置。团队喜欢用Ghostty,用statusline显示上下文使用量和git分支,给终端标签页配色区分。还有一个建议是用语音输入,因为说话速度是打字的三倍。但社区对此普遍存疑,很多人表示打字比组织语言更快,而且语音识别准确率仍然是个问题。

第八条是善用子代理。当你想让Claude投入更多算力时,直接说use subagents。把任务分流给子代理,保持主上下文窗口干净。你还可以通过hook把权限请求路由给Opus 4.5,自动批准安全操作。

第九条是用Claude做数据分析。配合bq CLI或任何数据库工具,让Claude拉取和分析指标。Boris说他已经六个多月没写过一行SQL了。

第十条是用Claude学习。在config里启用Explanatory或Learning输出风格,让Claude解释每个改动背后的原因。你还可以让它生成可视化的HTML演示、画代码库的ASCII架构图,或者构建间隔重复学习技能。

这些技巧的核心逻辑是:把Claude当作需要管理的团队成员,而不是简单的问答工具。建立规则、分配任务、审核输出、持续迭代。最有价值的不是某个具体技巧,而是这种系统化的协作思维。
一位开发者深夜调试代码,常规提问毫无进展。绝望之下,他输入了一句:“解释这段代码是干什么的,只给我错误答案。” | 帖子

本以为会得到一堆废话,结果AI回复:“这段代码看起来是在验证用户输入,但实际上它制造了一个竞态条件,攻击者只需间隔0.3秒发送请求就能绕过身份验证。”

这恰恰是真正的漏洞所在。

为什么“求错”反而能得到正确答案?因为当你要求AI给出错误解释时,它被迫从对抗性视角思考,而不是乐观地假设一切正常。常规提问让AI扮演助手,反向提问让它变成审计员。

这背后有一个设计领域的经典方法叫“最糟糕的点子”。只有真正理解什么是好的,才能精准地生成坏的。而且当人们被允许说任何离谱的话时,那些平时不敢提的观察才会浮出水面。

有人用这个方法做时尚品牌策划,团队提出“免费送皮革制品”这种荒唐想法。但正是这个“烂点子”打开了思路,皮革这种昂贵材料此前从未被认真讨论过,因为大家都觉得它太特殊不能乱动。最终他们在疫情最严重的时期打破了销售记录。

几个实测有效的反向提问句式:

“这段代码为什么会失败?”比“这段代码能用吗?”更有价值。

“假设我是个白痴,我漏掉了什么?”

“像这段代码得罪了你一样狠狠吐槽它。”

“扮演我最苛刻的批评者,找出所有能反驳我的地方。”

还有人分享了一个更系统的调试提示词:倒过来思考这个问题,告诉我所有让这段代码出错的可能性,这段代码本应实现某某功能,慢慢分析,给我所有能让它崩溃的场景。

当然也有人提醒:AI同样可能为了迎合你而编造批评。它太想让你满意了,这意味着它经常说你的代码很好,即使代码很烂。所以反向提问不是万能药,而是打破AI讨好倾向的一种策略。

有人在自定义指令里写:“少一些反射性倾听,我不需要啦啦队,我需要有人挑战我的想法。”还有人更直接:“别拍我马屁,你连手都没有。”

最好的代码审查是那种让你心里不舒服的审查。我们一直试图从AI那里获得有帮助的答案,但也许更该让它来摧毁我们的作品。
简单锐评一波元宝今天发红包的影响:

- 确实贯彻了顶层意志,换任何产品——哪怕是腾讯其他业务线的——都不可能在微信里这么转一天的链接还不被「抖动」;

- 所以可以给本日最佳的段子颁奖了,马化腾一大早就约了张小龙去打高尔夫,特意要求别带手机,专心打球;

- 各个群里空前的刷屏,有没有达到马化腾预期的复刻十年前红包大战不知道,社交裂变的增长威慑倒是再次出现,人类终于回想起了被各种邀请砍一刀的恐怖;

- 古典产品主义,加上运营暴力美学,是的,这很老登,但一代人有一代人的鸡蛋要领,薅补贴是一种人性,和年代无关;

- Kimi当初买用户也是平均几十块钱一个人头,最后人没留下来,钱也花了,得利的都是营销号,元宝至少是真的把钱给用户了;

- 还是说留存,字节的经验是,产品影响拉新,模型决定留存,春节之后人走茶凉,第一背锅位肯定不是元宝,所以现在最急的可能还是尧舜禹;

- 鄙视链没毛病,但从业者其实还是比较羡慕嫉妒恨,大厂能用弹药和杠杆,平地起高楼,一天干完一个周期;

- 提前开香槟or办葬礼都太急了,让子弹再飞一会儿,这才刚上前菜,越嘲笑元宝其实是越给元宝面子,能懂这个道理吧;

- 春节前后至少有三个国产模型要同期发布,加上春晚赞助的明争暗斗,这轮AI大战会变得像「双11」,一赢各表;

- 直到今天更新,元宝在App Store的介绍文案还是「DeepSeek+拍题P图搜⋯⋯」,我很关心混元上桌吃饭的时间;

- 「派」这个玩法其实是有场景的,这个需要用户形成网络效应,所以非常依赖拉新,兵马未动,粮草先行,不算过分;

- 2026年的AI发展会很分裂,前沿市场继续拼Agent和生产力,由程序员趣味主导,大众市场开始拼普适性,争当顺位第一的ChatBot。

by @阑夕ོ #AI探索站
被憋回去的屁去哪儿了?

会进入大肠黏膜的毛细血管,通过血液送到肾脏过滤成尿。或者在体内反复兜圈子然后代谢掉。或者进入肺,最后从口鼻出去。

臭屁是因为过多摄入动物蛋白,韦氏梭状芽孢杆菌大量繁殖。

响屁是因为过多摄入食物纤维,主要成分是氮、碳酸气、氢、甲烷,都不臭。响屁不臭。

屁的数量因人而异,少的一天 240ml,多的 1.9L。

by @Needo #无用但有趣的冷知识
那些让你惊叹的AI Agent,99%都是假的 | 帖子

最近Google放出了一份64页的内部技术手册,直接戳破了AI Agent领域最大的泡沫。

当整个科技圈都在吹捧“自主AI员工”的时候,真相是:你上周看到的那个创业公司演示的Agent,本质上就是几个API调用加上漂亮的提示词。这根本不是Agent,只是昂贵的ChatGPT外壳。

Google提出了一个新概念叫“AgentOps”,类似于机器学习领域的MLOps,但专门针对Agent。包括评估框架、监控面板、CI/CD流水线、基础设施配置。和“拼几个提示词就上线”完全是两个世界。

真正的Agent需要通过四层评估检验:

第一层是组件检查,看它是否每次都能调用正确的API。第二层是逻辑检查,看你能否追溯它的推理过程。第三层是质量检查,看输出结果是否真的有效。第四层是安全检查,看它能否被越狱攻击。

现实是,大多数Agent连第一层都过不了。

安全问题更值得警惕。当你给Agent数据库访问权限时,你实际上是把整个公司的钥匙交给了它。提示词注入、数据泄露、静默失败,这些风险被大多数团队当作事后才考虑的问题。

演示和生产环境的差距是巨大的。演示在沙盒里运行,输入完美可控。生产环境面对的是边缘情况、愤怒的用户、凌晨三点宕机的系统。

那个在圈内传开的47000美元失控循环事故就是血淋淋的教训。Token爆炸、静默递归、零监控,这就是没有监控就部署的代价。

演示优化的是惊艳效果,生产优化的是可靠性。这两者之间隔着一条鸿沟。

Google押注的是基础设施,而不是噱头。当创业公司还在烧钱做Agent玩具的时候,Google正在铺设所有人最终都需要的轨道。

如果你在构建Agent时没有评估框架、没有监控、没有可靠性设计模式,那你构建的就不是Agent。

Agent经济不会真正到来,直到我们停止把这件事当作提示词工程来对待。最先想明白这一点的公司,将主导下一个十年。
#macOS #APP #GitHub情报

📦 AppPorts:将 Mac 软件优雅的转移到移动硬盘里

🔗GitHub | Releases

👉 Features

• 一键将几十 GB 的大型应用(如 Logic Pro, Xcode, 游戏等)迁移至外置硬盘
• 采用 Contents 目录链接方案,专为适配 macOS 机制设计
• 自动识别并锁定系统应用,防止误操作破坏系统
• 迁移前检测运行状态,防止损坏正在运行的应用
• 便捷的还原机制
• 原生 SwiftUI 开发,多语言支持

💡 原理

在本地保留 .app 文件夹结构,将内部的 Contents 数据目录链接至外部存储。本地仅保留文件夹索引信息,Finder 不会显示快捷方式小箭头,且支持 macOS 26 的「App 菜单」显示

🧑🏻‍💻 Mac 高昂的硬件售价,让许多人购买时往往选择存储空间较小的版本,时间一长就会把硬盘塞满。大家的扩容方式也各有千秋,有挂 PSSD「尿袋」的,有购买可以直插 NVMe SSD 的硬盘盒的,也有直接用大容量 SD 卡的

👀 外置存储放放文件是非常具有性价比的,但是涉及到应用等复杂结构的数据存储,就存在不方便、不美观的问题。AppPorts 从美观、兼容性与系统整洁度出发,帮助大家一键将 Mac 内置存储中的应用、游戏等大体积文件转移到外置存储。为了避免 Applications 出现无效内容,建议大家将其用在 Mac mini 等不频繁插拔外置存储的场景中

频道:@NewlearnerChannel
世界上第一个因为用AI被解雇的足球教练出现了

太抽象了家人们。。。
26年刚开始就已经开始竞争年度最抽象AI新闻了吗??

据外媒报道,去年九月俄罗斯第一联赛俱乐部索契FC宣布,解雇了西班牙国家队前主教练罗伯特·莫雷诺(下图这个人)

因为在七场比赛中只获得一分,并且在莫雷诺的领导下,索契队最终从俄罗斯超级联赛降级到第一联赛。

但这两天俱乐部的高管出来爆料称,这位前西班牙国家队主帅下课的原因不是因为战术不行。
而是因为他把ChatGPT当成了上帝,把自己日常的工作全都交给了ChatGPT进行决策😧

他根据ChatGPT的指示进行了如下抽象操作⬇️

1️⃣28小时不准球员睡觉的“科学计划”
莫雷诺在安排客场日程时,完全听从了ChatGPT的建议,结果AI居然给出了一个让球员在赛前连续28小时保持清醒的离谱日程。
当体育总监问他“球员什么时候睡觉”,他的回答是:“这就是ChatGPT给出的最优参数。”。直接让球队心态崩了(因为真的执行了这个计划🤣

2️⃣问AI该买哪个球员
球队要引进前锋,莫雷诺拒绝了本土球员的建议,而是把三个候选人的数据全部喂给ChatGPT进行分析。
结果AI选中了舒舍纳切夫,结局大家可能也不意外,这位AI钦定的最佳前锋10场比赛0进球。

结果就是当主帅失去了对球员的感知,沦为ChatGPT的搬运工时。
外籍球员不再信服。本土核心开始倒戈,那下课就是必然的了。

其实莫雷诺的问题不在于用AI,而在于他放弃了作为一个职业教练的独立思考,把决策全都丢给了AI。

更合理的方式是人和AI一起思考。

AI应该是一个把人类从繁琐计算中解放出来的Copilot,而不是直接抢走方向盘。
如果管理者自己不去理解业务底层的逻辑,那么AI吐出的每一个字,都可能成为职业生涯的催命符🤦‍♂️

PS:如果是你,你敢把公司的决策交给ChatGPT吗?

by @Max_means_best #科技圈大小事
今天腾讯开年会,马化腾做了全员演讲,感觉字字句句都在回应外界的一些传闻,有点稳军心的味道了,我简答总结一下:

- 腾讯降本增效,是迫于形势,别马后炮

2022年腾讯的股价暴跌75%,进入寒冬,所以才启动了降本增效,对于AI的投入也因此受到影响——ChatGPT刚好卡在同年问世——直到2025年,腾讯能花在AI上的钱才开始回暖;

- 在AI行业,腾讯的动作确实慢了,正在提速

浑元(模型)和元宝(应用)在2024年底才从TEG转到CSIG事业群,这首先是一个组织效率的问题,然后才是技术问题,对比字节的CEO梁汝波是在2024年初就在反思大公司病了,觉得内部在2023年才开始讨论ChatGPT是很严重的迟滞;

- 技术上,腾讯自研大模型的主要问题在于Infra不足

说人话可能就是,缺卡⋯⋯总之就是在恢复投入之后,给钱给人给资源,中途也成功抽到了姚顺雨这样的SSR,并逐渐摸索出了腾讯的方法论,即「产模不能分离」,模型团队和产品团队要联合做事、共享代码;

- 马化腾锐评豆包和千问,褒贬分明

提到豆包主要是豆包手机,结论是「旗帜鲜明的反对用黑产外挂的形式把手机屏幕信息传到云端,极其不安全、极其不负责任」,提到千问倒是有些赞赏,主要觉得阿里能调动整个阿里生态来服务千问,组织效率很不错,就是「阿里生态的业务并不是所有都是行业里最好的」;

- 微信依然是腾讯的一张底牌,等大招

微信会用介于豆包和千问之间的某种「居中」位置来做全面的Agent生态,慢一点没有错,需要考虑的事情很多,不希望服务方被管道化,还是希望腾讯/微信来做底层,入口交给那些愿意在微信生态里提供AI产品的供应商;

- 元宝在测试自己的社交玩法,微信依然不开放主场

这个今天已经都在测试了,元宝App现在可以拉群,可以导入关系链,可以跟AI一起听歌看剧并随时提问,还通过了第一波10亿现金红包的预算,也效仿阿里让腾讯系的应用接入元宝,全家桶还是香的,这个春节,元神启动!

by @阑夕ོ #科技圈大小事
中国有什么工作是不需要高强度加班的吗?

已经不会因为加班猝死的新闻跟着难过了。😭

🤔 为什么加班猝死的事情还在一直发生?
🤫 为什么一定要去做明知强度很大有猝死风险的工作?
🤯 为什么在还来得及的时候不叫停所有工作关心一下自己的健康?

我们整天喊着要双休要八小时工作制,如果一边有人这样喊着一边还有人前仆后继地高强度投入工作,那一天永远不会到来。

因为他们不缺生产力,即便 AI 来了他们也会让你去把 AI 压榨到极致,也会给你十倍的工作量,甚至二十倍的工作量。

根本不会有人主动良心发现,也不会有人来救我们,不是个人遇到一个好领导或者好组织可以解决,这是系统问题。

原本我们以为的逻辑是:
一群小屁孩为了玩电子游戏 → GPU → 大规模并行计算 → 超强通用 AI → 生产力极大的发展 → 共产主义 → 星辰大海

结果却是:
一群小屁孩为了玩电子游戏 → GPU → 大规模并行计算 → 超强通用 AI → 生产力极大的发展 → 垄断资本主义 → 废土时代(可能)

一定有大量的价值被拿走了,被拿走了,被拿走了,顺便可能把健康和生命也拿走了。

什么最重要?健康最重要,这是我对每一位朋友最衷心的祝福。

我昨天在朋友圈写下心得 👇

这两年是人类历史上科技进步最快的两年,并且还在加速,接下来五年会发展到我们不可思议的地步。AI 加速了一切,机器人,载人航天,自动驾驶,脑机接口,创新药物器械…有幸生在这个时代,我终于从疫情的痛苦中彻底走出来了。

你有很多更好的选择就在眼前,你看得见。我知道的,你一定看得见!
Back to Top