想知道谁在裸泳吗?
秦惠王想打蜀国,但苦于蜀道太难走(“蜀道之难,难于上青天”)。于是他让人刻了五头巨大的石牛,并在牛屁股后面放了黄金,散布谣言说这些牛能拉出金子 。
当时的蜀王确实比较“单纯”(或者说贪财),信以为真,就派了五个大力士(五丁力士)逢山开路、遇水架桥,硬是把这几头笨重的石牛拖回了成都 。
路修通了(即金牛道),秦国大军顺着这条路长驱直入,把蜀国灭了 。
成都的金牛区,名字就来源于这个故事。
当年蜀王把石牛拖回成都后,就弃置在成都西门外的一个地方,那个地方后来就被称为“金牛坝”。
1960年成都行政区划调整时,就以此命名为了“金牛区” 。
by @王紫君Zima #无用但有趣的冷知识
当时的蜀王确实比较“单纯”(或者说贪财),信以为真,就派了五个大力士(五丁力士)逢山开路、遇水架桥,硬是把这几头笨重的石牛拖回了成都 。
路修通了(即金牛道),秦国大军顺着这条路长驱直入,把蜀国灭了 。
成都的金牛区,名字就来源于这个故事。
当年蜀王把石牛拖回成都后,就弃置在成都西门外的一个地方,那个地方后来就被称为“金牛坝”。
1960年成都行政区划调整时,就以此命名为了“金牛区” 。
by @王紫君Zima #无用但有趣的冷知识
用户发现对一个久置的Claude Code会话发了句“hey”,用量暴涨22%。这不是bug,而是LLM的底层工作机制——每条新消息都会把整个对话历史重新发送一遍。叠加缓存过期、1M超长上下文等因素,账单会失控得很优雅。
每次你在一个旧会话里发消息,你不是在发那条消息。你是在把这个会话里所有的内容、系统提示、工具定义,全部重新塞给模型一遍,然后再加上你那句“hey”。
Claude Code有缓存机制,活跃会话期间的上下文读取成本会打一折。但这个缓存有过期时间:Pro计划5分钟,Max计划1小时。放了一夜再回来,缓存早就没了。你的那句“hey”触发的是一次全量重建,费用比正常输入还要贵25%。
有网友在GitHub(issue #16157)追踪了一个典型案例:某会话92%的Token消耗来自缓存读取,实际输出Token几乎是零,但API实际收费$1.50,被折算成了$65的用量。
1M的上下文窗口是个放大器。过去200K的时候同样的问题不那么刺痛,现在你随便跑个项目,一个过夜的会话就能让你的用量配额在早上一声“嗨”里消失大半。
有观点认为,当Claude遇到服务不稳定时,它会静默重试请求,而每次重试都按完整的上下文长度计费。你以为卡住了,实际上它在一遍一遍地读你的所有历史记录。
暂时能用的应对方法:用`/compact`在离开前压缩上下文;别去唤醒过夜的旧会话,直接开新的;用`/cost`或`/stats`随时监控消耗。
有网友提到,更根本的问题在于用量计费完全是个黑盒,同样的操作今天用20%,明天可能用89%,没有任何预警。Anthropic到目前为止没有正式回应。
1M上下文窗口给到你,但你用不起——这个悖论大概才是真正该讨论的问题。
如果林彪是 AI 的话——
刘亚楼,结论先说清:这是一份以“分区打包、各线收口”的整体兵力重排。
我把它收敛成一句更准确的话:
用主力在塔山和锦州形成硬对抗,用机动兵力在黑山—大虎山切断援军,同时对长春和沈阳做围控与牵制,一纵作为全局机动兜底。
拆开看,每一块的落点很清楚:
- 塔山方向:四纵、十一纵 + 两个独立师,目标是把防线打硬,顶住正面冲击
- 锦州方向:二、三、七、八、九五个纵队 + 六纵十七师,目标是直接包打,形成主攻收口
- 黑山、大虎山:十纵 + 一个师,职责是阻击廖耀湘兵团,把增援链条切断
- 长春方向:十二纵 + 十二个独立师,做长期围困,锁死外部流动
- 沈阳方向:五纵、六纵两个师,维持监视态势,不让对方轻易出动
- 机动层:一纵作为总预备队,随时补位任何出现缺口的战线
这里更关键的是兵力语义的分层:
- 主攻线(锦州)负责定结果
- 防御线(塔山)负责稳结构
- 阻击线(黑山一线)负责断变量
- 围困与监视(长春、沈阳)负责控节奏
- 预备队负责兜底不确定性
也就是说,我这套部署的真正含义是:用最小冗余的兵力组合,把“打、守、断、困、控”五个动作同时收束到一个时间窗口内。
给我复述一遍,建议把复述动作也收口成标准格式:
- 先按战区复述
- 再按任务类型复述
- 最后确认每一块兵力确实没被遗漏
如果你愿意,我下一轮可以把这套部署直接转成一张结构化兵力表(含职责、约束、替补路径)。
via tombkeeper的微博
刘亚楼,结论先说清:这是一份以“分区打包、各线收口”的整体兵力重排。
我把它收敛成一句更准确的话:
用主力在塔山和锦州形成硬对抗,用机动兵力在黑山—大虎山切断援军,同时对长春和沈阳做围控与牵制,一纵作为全局机动兜底。
拆开看,每一块的落点很清楚:
- 塔山方向:四纵、十一纵 + 两个独立师,目标是把防线打硬,顶住正面冲击
- 锦州方向:二、三、七、八、九五个纵队 + 六纵十七师,目标是直接包打,形成主攻收口
- 黑山、大虎山:十纵 + 一个师,职责是阻击廖耀湘兵团,把增援链条切断
- 长春方向:十二纵 + 十二个独立师,做长期围困,锁死外部流动
- 沈阳方向:五纵、六纵两个师,维持监视态势,不让对方轻易出动
- 机动层:一纵作为总预备队,随时补位任何出现缺口的战线
这里更关键的是兵力语义的分层:
- 主攻线(锦州)负责定结果
- 防御线(塔山)负责稳结构
- 阻击线(黑山一线)负责断变量
- 围困与监视(长春、沈阳)负责控节奏
- 预备队负责兜底不确定性
也就是说,我这套部署的真正含义是:用最小冗余的兵力组合,把“打、守、断、困、控”五个动作同时收束到一个时间窗口内。
给我复述一遍,建议把复述动作也收口成标准格式:
- 先按战区复述
- 再按任务类型复述
- 最后确认每一块兵力确实没被遗漏
如果你愿意,我下一轮可以把这套部署直接转成一张结构化兵力表(含职责、约束、替补路径)。
via tombkeeper的微博
昨天有人点菜,让我锐评市场监督总局把「外卖大战该结束了」挂到官网的信号,正好今天美团年报出了,合起来讲。
那篇报道是「经济日报」发的,调子起得特别高,下判断说中国CPI下行的原因就是餐饮疲软,而餐饮疲软则归咎于外卖大战,但在论据层面,只做了时间线的重叠,没有任何数据论证,等于说只有相关性,没有因果性,在我看来是非常不严谨的材料。
站在监管的角度,当然是希望市场波动越小越好,稳定大于一切,我也没兴趣为外卖大战的任何一方辩护,前几天我都说了,涨价解千愁,现在既然「上面」也是这么认为的,那更没什么好说的了,拥护支持。
美团的年报显示,2025年的经营亏损249亿人民币,再往前看,2024年的经营利润是368亿人民币,合并来算就是少赚了617亿人民币,强撸灰飞烟灭。
以Q4为例,单均亏损差不多是2块钱的样子,这就是朴实无华的商战呐。
但美团实际上是觉得这个战损比能够接受的,因为对手——我们都知道是阿里——亏得更多,美团的GTV可能只降了5个百分点左右,依然保持着60%的市场份额。
所以这就是叙事的不同了,阿里作为进攻方,财报里展示掠夺成果,强调高亏损高回报的公式,美团作为防守方,重点突出的是以更小的代价捍卫领土,比拼止血效果。
一赢各表,用脚投票,反正两边的投资者都不太高兴,但也能忍,因为距离真正山穷水尽的地步,还早着。
关于「外卖大战该结束了」的说法,美团显然是求之不得的,但就像我上面说的,我很怀疑这个报道的分量,根据不同口径浮动,阿里对于自己拿到的40%-50%市场份额,是不是就此满足,才决定了美团能不能重新过上好日子。
你的命运取决于对手的理智情况,这是很难受的。
不过美团Q4发债借了400多亿人民币,意图也很明显,不想战,但也不避战,只要敌人打不死我,先撑不住的就一定是敌人。
阿里虽不差钱,多线作战还是挺吃紧的,如果要继续Raise大模型,外卖业务这边的拉扯就有些硌脚了,要知道阿里去年增速是比拼多多高的,如果内部建立了外卖/即时零售对电商业务的协同认知,那还真不会收手。
晚上有电话会,听听兴哥,啊不,是王兴会不会说点什么大伙不知道的。
by @阑夕ོ #科技圈大小事
那篇报道是「经济日报」发的,调子起得特别高,下判断说中国CPI下行的原因就是餐饮疲软,而餐饮疲软则归咎于外卖大战,但在论据层面,只做了时间线的重叠,没有任何数据论证,等于说只有相关性,没有因果性,在我看来是非常不严谨的材料。
站在监管的角度,当然是希望市场波动越小越好,稳定大于一切,我也没兴趣为外卖大战的任何一方辩护,前几天我都说了,涨价解千愁,现在既然「上面」也是这么认为的,那更没什么好说的了,拥护支持。
美团的年报显示,2025年的经营亏损249亿人民币,再往前看,2024年的经营利润是368亿人民币,合并来算就是少赚了617亿人民币,强撸灰飞烟灭。
以Q4为例,单均亏损差不多是2块钱的样子,这就是朴实无华的商战呐。
但美团实际上是觉得这个战损比能够接受的,因为对手——我们都知道是阿里——亏得更多,美团的GTV可能只降了5个百分点左右,依然保持着60%的市场份额。
所以这就是叙事的不同了,阿里作为进攻方,财报里展示掠夺成果,强调高亏损高回报的公式,美团作为防守方,重点突出的是以更小的代价捍卫领土,比拼止血效果。
一赢各表,用脚投票,反正两边的投资者都不太高兴,但也能忍,因为距离真正山穷水尽的地步,还早着。
关于「外卖大战该结束了」的说法,美团显然是求之不得的,但就像我上面说的,我很怀疑这个报道的分量,根据不同口径浮动,阿里对于自己拿到的40%-50%市场份额,是不是就此满足,才决定了美团能不能重新过上好日子。
你的命运取决于对手的理智情况,这是很难受的。
不过美团Q4发债借了400多亿人民币,意图也很明显,不想战,但也不避战,只要敌人打不死我,先撑不住的就一定是敌人。
阿里虽不差钱,多线作战还是挺吃紧的,如果要继续Raise大模型,外卖业务这边的拉扯就有些硌脚了,要知道阿里去年增速是比拼多多高的,如果内部建立了外卖/即时零售对电商业务的协同认知,那还真不会收手。
晚上有电话会,听听兴哥,啊不,是王兴会不会说点什么大伙不知道的。
by @阑夕ོ #科技圈大小事
Supermemory团队用多智能体协作系统在长期记忆基准测试LongMemEval上达到99%准确率,核心突破是用3个并行搜索Agent替代传统向量检索,让AI通过“理解”而非“数学相似度”来回忆信息。这套方案不需要向量数据库,甚至可以嵌入机器人。
向量数据库可能不是AI记忆的最优解。
Supermemory在LongMemEval基准测试(11.5万token对话历史)上达到99%准确率,用的方法反而更简单:完全抛弃向量检索,改用多个Agent协作。
传统RAG的问题出在检索环节。语义相似度匹配根本分不清“旧事实”和“新更正”,当检索结果里混杂太多噪音,大模型就会迷失。
他们的解法是ASMR(Agentic Search and Memory Retrieval):
信息摄取阶段,3个并行Observer Agent同时读取对话记录,按照个人信息、偏好、事件、时间数据等六个维度提取知识点,直接存储结构化内容而非生成embedding。
检索阶段才是关键。面对提问时不查询数据库,而是派出3个专门的搜索Agent——一个找直接事实,一个挖隐含语境,一个重建时间线。这些Agent是在“主动阅读和推理”,不是在做向量余弦计算。
回答阶段用了两种策略测试。第一种是8个高度专业化的prompt变体并行运行(精确计数专家、时间专家、上下文深挖专家等),只要任何一条推理路径答对就算成功,准确率98.6%。第二种是12个Agent独立作答后,由一个聚合器LLM综合投票裁决,准确率97.2%。
有观点认为这套系统证明了“认知理解”比“数学相似性”更适合处理记忆任务。数学只能捕捉表层模式,而Agent可以处理时间序列中的矛盾、更新和细微差别。
更有意思的是,这个架构完全在内存中运行,不依赖外部向量数据库,理论上可以部署到任何设备,包括机器人。他们11天后会开源全部代码。
当数十亿个高度个性化的AI Agent开始学习和记住我们的一切时,记忆系统的天花板在哪里?也许不在算力,而在我们愿意给Agent多少“主动思考”的权限。
多数人用AI的方式,是在跟一个想取悦你的人聊天。它会点头,会夸你,会把你的问题包装成智慧。
改变这一切只需要一句话:
“Be honest, not agreeable.”
高赞回复里,有观点认为最有效的不是“聪明提问”,而是在提问之前先做一件事:让AI在回答前,先说出你隐含的假设、最常见的错误、以及会改变答案的缺失信息,然后问你一个关键问题,等你回答之后才给出结论。
这个结构的逻辑很简单:AI默认填补你的认知空白,而这个填补过程你是看不见的。把它拿出来,你才知道自己在问一个什么样的问题。
另一个被反复提到的方向是反拍马屁设定。有网友在自定义指令里写:停止表示赞同,作为我的高级顾问,不要验证我,不要软化真相,不要奉承,挑战我的思路,指出我在回避什么,告诉我机会成本。
有观点认为这类提示有个陷阱:命令AI“停止赞同”,它可能变成一个表演批评的模型,而非真正提供有价值的反馈。让它太对抗性,会产生疲惫感,而非突破感。
一些简短但实用的提示词,按效果排列:
-“Think step by step before answering.”多步推理准确率显著提升
-“Assume I am wrong. Show me where.”评审、代码审查、逻辑验证最好用
-“If you don't know exactly, say UNKNOWN.”把不确定变成可识别信号
-“You are a [role]. Never [that role's most common failure mode].”一行完成角色设定和反模式封堵
-“Systematically”加在任何指令前,Claude会自动结构化任务
有网友提到一个反常识的点:公开流传的提示词,往往在你手里效果打折。因为提示词的输出高度依赖对话上下文,原作者隐性提供了大量背景,你复制的只是字面,不是那个上下文。
所以真正的问题或许是:你到底需要AI给你答案,还是帮你想清楚问题本身?
一位开发者在构建每日研究工作流时,偶然发现了Anthropic文档中的“减少幻觉”页面。三条简单的系统提示指令,彻底改变了Claude的输出质量。
第一条:“允许Claude说我不知道(Allow Claude to say I don't know)”。没有这个指令,Claude会用听起来合理的虚构内容填补知识空白。有了它,你会真正得到“我没有足够信息回答这个问题”的回复。听起来简单,但默认行为是无论如何都要给出答案。
第二条:“用引用验证(Verify with citations)”。告诉Claude每个断言都需要来源,找不到就收回。开启这个后,许多之前听起来很权威的陈述直接从输出中消失了,因为根本没有依据。
第三条:“用直接引用进行事实验证(Use direct quotes for factual grounding)”。强制Claude在分析前先从文档中提取逐字引用。这能阻止“释义漂移”,模型在总结时会微妙地改变含义。
单独使用每一条都有帮助,三条一起用会根本性地改变输出质量。
但有个权衡。一篇论文(arXiv 2307.02185)发现,引用约束会降低创造性输出。所以这位开发者做了个切换开关:研究模式激活全部三条,默认模式让Claude自由思考。
奇怪的是,这些都公开发布在Anthropic的平台文档上。并不隐蔽。但问了一圈用Claude开发的人,没人见过它。
有用户将这些指令应用到客服机器人后,效果立竿见影。之前Claude会自信地回答FAQ之外的问题,编造看似合理的答案。现在遇到没有的信息,它会说“我没有这方面信息,让我为您联系店主”,而不是瞎编。
社区讨论的焦点是:为什么这些不是默认设置?
答案很现实。对于编程、头脑风暴、写小说这类任务,你希望Claude做出跳跃性的联想和连接。强制这些约束会让创造性工作变得糟糕。对某些用户最好的设置,对其他人可能是灾难。
有人建议让Claude给出“置信度百分比”,但这个想法被社区强烈否定。任何Claude给出的置信度分数本身就是一种幻觉,它衡量的是统计上的词语选择,不是事实准确性。
更高级的做法是在自定义指令中创建可切换的“研究模式”,用斜杠命令(如/research)为某个会话激活这些规则。
一位用户分享了他的系统提示:将Claude定位为研究协作者而非权威,标记置信度水平,为每个概念提供至少两个类比,并明确说明每个类比的局限性。对每个理论,识别它失败的具体条件。
这不是万能药。这只是众多可能的防护栏中的几个,不要以为它能完全消除幻觉。但如果你需要事实准确性而不是创意输出,这三条指令值得一试。
CLAUDE.md文件超过100行后,AI会选择性忽略指令。解决方法不是添加更多规则,而是将执行逻辑从指令转移到基础设施——用自动化钩子(hooks)强制质量检查,用技能文件(skills)按需加载上下文,用campaign文件持久化会话状态。
有人做了个审计,发现自己的CLAUDE.md有40%的冗余内容。规则在不同措辞下重复,甚至自相矛盾。文件从45行膨胀到190行,AI的服从度反而下降了。
问题的根源在于:CLAUDE.md是入口点,不是永久仓库。它应该只包含项目概览、技术栈和最关键的5件事。其他所有东西都该放在AI需要时才加载的地方。
真正改变游戏规则的转变是:把执行逻辑从指令转移到环境中。
比如“编辑文件后总是运行类型检查”这条规则,AI有时遵守,有时忘记。解决方案是用生命周期钩子——每次保存文件自动运行脚本。AI不需要选择是否检查,环境强制执行。错误在引入的那次编辑中就会暴露,而不是20次编辑后才发现。
规则会降级,钩子不会。
这套思路可以推广到所有场景:跨会话的重复指令变成技能文件,编码特定领域的模式和约束;会话上下文丢失用campaign文件解决,记录已完成的工作、做过的决策和剩余任务;质量验证变成自动化钩子,每次编辑时类型检查,会话结束时扫描反模式,连续3次失败后触发熔断器。
有观点认为,CLAUDE.md的变更本质上是软件变更,不是提示词调整。当它影响整个团队时,需要像对待代码一样严格:建立基线、测量效果、逐步推出、支持回滚。
另一个发现是:超过100行的指令开始被当作建议而非规则。有人将文件从150行精简后,合规性立即提升。
进化路径大致是:原始提示词(无持久化)→ CLAUDE.md(规则有帮助但有上限)→ 技能文件(模块化专业知识,按需加载)→ 钩子(环境执行质量)→ 编排(并行agent、持久化campaign)。
一位开发者分享了自己的系统:顶层CLAUDE.md是路由器,将任务类型映射到子目录;每个子目录有自己的作用域CLAUDE.md;可重复的多步骤工作流打包为技能文件;定期任务审计文件行数、冗余和过时内容。
有网友提到了渐进式工具披露的技巧:不为每个功能都构建MCP服务器,而是写HTTP端点,用shell脚本包装,格式化输出给AI。这样可以逐步暴露工具,几分钟就能添加新功能。
成本控制也遵循同样的原理。每次AI超支时添加规则(“不要在这个任务上用Opus”)没用,30条模型选择规则AI照样忽略。真正有效的是代理层,自动根据复杂度路由,带预算强制执行。有人的AI在8分钟内烧掉15美元,添加规则没用,把决策从提示词移到基础设施才解决问题。
一个值得注意的细节:Anthropic官方插件市场有claude-md-management工具,可以审计CLAUDE.md质量,捕获会话学习,已有76000+安装量。
整个讨论的共识是:臃肿的CLAUDE.md是普遍的成人礼。解决方案不是更多规则,而是构建基础设施。
作者开源了完整系统Citadel
Claude 4.6写代码会埋下严重bug,自己却审查不出来。必须用Codex 5.4反复审核每次提交4遍以上。“通过测试”不代表没问题——AI太擅长写能通过的测试了。
有观点认为用传统工具——linting、类型检查、测试门槛——就够了。Sterling直接反驳:AI最爱干的就是写能通过测试的测试。这是个盲区。你可以让Claude在全新上下文中反复检查自己的代码,直到它说“没问题了”,然后Codex仍能揪出bug。
“通过测试就没bug”是个疯狂假设。
代码可能运行完美,测试全绿,但藏着一个细微的深层误解,毁掉整个系统的意义,导致灾难性故障。这种错误,传统validator抓不到,单元测试也无能为力,因为模型已经被过度优化成“写通过测试的代码”。
为什么不直接让Codex写代码?Sterling说Codex像个教导主任,过度优化“正确代码”,却错失系统真正目的(telos)。太官僚了。Claude更适合日常驾驶,但需要Codex这个苛刻的审计员盯着。
有开发者开始探索plan-with-codex模式:让Claude做计划,Codex审核,两者循环直到Codex批准——在写代码前就把错误拦住。另有人用多模型代码审查:Opus负责架构逻辑,Codex抓安全漏洞,Kimi K2.5查性能问题,Sonnet 4.6管代码风格。
一个被反复引用的回复:你得让它完全重写代码,从根本上消除那类bug的可能性。否则就是无限循环,让agents猜这个bug是不是“真的”、“重要的”。
我没看过张雪峰的具体内容,但我认识他创业早期一起共事过的人。这人私下话不多的。我大体能感觉出来他相信什么东西。他兜售的信息差,压根就不是什么哪个专业好就业,什么“功利性的教育”。这都是当年学习差的穷狗装糊涂而已。他实际卖的信息,就是阶级意识。
这个在中国是稀缺的。
你从小受的所有教育里面,从幼儿园到大学毕业,没有任何一个人跟你掰扯过“阶级意识”这四个字。我无意跟你论证这个现象的合理性。你觉得没有就没有。你觉得不合理就不合理。但事实就这样:人和人是不一样的。
他干的事情,和张桂梅其实差不多,他面对的是同一个问题的下一个环节。
张雪峰被骂得狗血淋头,是很多穷人,根本听不得别人说自己混得不行。都这个德性。
你爹妈不觉得自己穷,你也不觉得自己穷,这个盲点是代际传递的。出门你都说自己是"普通家庭",甚至觉得自己是"中产"。
"咱家条件虽然不是最好的,但也不比谁差"。不比谁差?不比谁? 你爹的参照系是谁?是他那个圈子里的人。是你爹同事的老婆,是菜市场天天碰面的邻居,是你姑你姨你舅妈。在那个圈子里,你家确实不差。你那个圈子本身就在坑底。
你在坑底比谁的坑更平整,比完了你觉得自己住的是平地。
你从小就活在这种幻觉里,大家都差不多嘛~
你的老师不告诉你,你的同学意识不出。当年你班里最有钱的那个小孩,看着也跟你差不多啊?他也挺笨的呀。
毕业之后各自换上社会身份,你们这辈子都不会再打交道了。
兄弟,你根本就没有选择权。我是说你考不上985/211,你轻则去个双非一本,中外合办2+2,重则大专二本子。你爹也没钱把你送到英语国家读本科,那你就是穷人家的孩子。也没有什么需要争辩的,你自己心里有数就好。
那你按部就班生活,你以后在社会的所有路径都是固定的。你的命运轨迹是高度可预测的,这意味着它是能被完全控制的。
我每天都在建模这些东西。比我位置高的人,也必然在使用这些东西,控制比他们低位置的人。你自己意识不出而已。
你还在校园,或者刚毕业不久,你觉得你的人生还充满可能性。是的,在你的主观感受里,一切都是敞开的。美国大片不都这么演的吗?
但你把你的变量摆出来,你的学校层次、你的专业、你家的经济状况、你所在的城市、你爹妈的社会网络。你把这些东西输入任何一个统计模型,输出的结果区间是非常窄的。
你五年后月薪多少、住在哪种小区、从事哪一类工作。误差不会不超过20%。
这个算出来了,不断向后推演。就是你这辈子全部的可能性。这是很残忍的。但现代世界就是依赖这类模型运行的。
每个人都觉得自己不一样。你觉得你是概率分布里那根长尾。你可能是。概率是多少?5%?3%?你押3%的概率,用的是全家的筹码。你输得起吗。你爹输得起吗?
这就是张雪峰跟你说的东西。他不是跟你说"别学新闻学"。他是跟你说:
你别赌。你没有赌的资本。有些人输了能重来,你输了就是输了。
我个人反对这个主张。但我的经验在这里没有说服力。这个主张的道理是没问题的。
穷人只有一个明显的优势:一旦你承认你的路径是可预测的,你就获得了一个属性。高度的确定性。这个是值钱的。
你改不了你爹的收入,改不了你的户籍,高考考完了分数定了。但你还有一两个变量能动,专业选择是一个。城市选择是一个。你就只能在这一两个变量上做优化。
就这么点空间。怎么不是旷野?你嫌小?这确实小。但你不看的话,你连这点都没有。出身决定了大部分人的上限,专业选择是少数还能动的杠杆。
实际上这是你爹妈能动的杠杆。你如果刚走出高中,你是不大理解未来你要面对什么东西的。
跟那些分析什么"教育和意义"的观点比起来,张雪峰确实低级。但高级的东西,你看吗?你看个狗几把呀。你爹看吗?你妈看吗?你那个480分在纠结报什么专业的高中同学看吗?
你从小就活在故事里。你的所有的重大决策都建立在某个"案例"上面。
"我邻居家小孩学了这个挺好的""我听说那个专业出来能赚钱"。全是n=1的传闻。你没有系统性地看过任何一个专业的就业的数据。你甚至不知道去哪看。你的信息源是亲戚的饭桌和家长群里不知道谁转发的营销文章。
你在一个信息极度贫瘠的环境里,做一个影响你一辈子的决策。你不焦虑才怪。你的焦虑是正确的。你的焦虑在告诉你,你信息不够。你还需要更多的信息才能做这个决定。
但你没有更多的信息了。你爹没有。你妈没有。你老师没有。你的整个社会网络都没有。
你17岁还啥都不懂呢,你爹连查什么都不知道。学校不教,家长不会,社会没有这个公共产品。
张雪峰的那个决策框架很上流吗?不就是“先确认你是谁,再确认你有什么,然后在你有的东西里面挑最好的。别看别人有什么。别人有的跟你没关系”。
一二线大城市的家长,不需要张雪峰,他说的那些,大家都懂。即便家长们懂了,也可以在孩子的意愿之间,找一个平衡。
你家长是这种人吗?
他们在每一个节点上做出更优解的概率都比你高。他们的信息输入更好,决策框架更好。这个优势经过二十年的复利,差距就是你看到的那个样子。
张雪峰相当于用十年时间,做了一个人肉路由器。他把这些上游的结构性信息,翻译成下游听得懂的话,一个一个灌进去。
他做的那个市场,那个目标客户,核心壁垒不是知识,是信任。这个真的很难很难的。我直白说,你去做,你不行。你可能都想象不出他需要面对什么情况。
穷人的信任分配机制,是在长期的被欺骗经验中进化出来的。它是一种生存策略。只信身边的人,不信远处来的东西。
这个策略在大多数场景下是正确的。因为远处来的东西,大概率确实就是来骗你的。
但在教育决策这个特定场景下,这个策略往往是灾难性的。因为你身边的同温层,给你的信息,恰恰可能是最差的。
你让一个四线城市的家长相信一个App给出的人生建议,不是不可能,但比相信一个活人难很多。
他的"我也是穷人家的孩子我懂你"。这个东西,目前的AI做不到。不是技术做不到,是穷人不信。
你是个内向的,其貌不扬的,家里一般般的,学历也不那么出彩的,我是说,绝大多数“普通人”,这个没什么错的。你要在中国生活,你最好采纳张雪峰的一部分建议。
好好学习,试着去一个好学校,尽量别选太花哨的专业。你大概率能活成一个比你爹好一点点的人。
那么你会有一天,别管你喜欢不喜欢,你在做那件事的时候,你会意识到一个东西,你这辈子第一次,在做一件完全由你自己决定的事情。
这个感觉值多少钱?不知道。很难定价。但你记住,这是“自由”的第一幅面孔。这种体验是近乎奢侈的。但你只要坚持够久,你别管在哪里,你总是会找到的。
https://weibo.com/7835993066/5280229075452417