暴论:互联网 99% 的内容都是狗屎;数据集就是在富集狗屎,规模越大、富集越多;训练的本质是反刍这一大坨狗屎、得到的 LLM 只有一个用途,基于反刍的狗屎 有预测性地吐出新的狗屎;用户 C+V LLM 吐出的狗屎到互联网上,新的狗屎与旧的狗屎再被新的数据集富集、训练能吐出更多狗屎的 LLM,周而复始。
 
 
Back to Top