2017 年,Google 发表了那篇改变世界的论文——“Attention Is All You Need”。八位作者可能没想到,这篇论文不仅催生了 GPT、Claude、Gemini 等一系列大模型,也在某种意义上揭示了一个关于人类自身的深刻隐喻:不论是大模型还是人,决定产出质量的底层机制都是注意力(Attention)。
专注力是人做事质量和效率的基础。这不是心灵鸡汤,而是一个可以从技术原理出发、严肃论证的观点。
[Read More]2017 年,Google 发表了那篇改变世界的论文——“Attention Is All You Need”。八位作者可能没想到,这篇论文不仅催生了 GPT、Claude、Gemini 等一系列大模型,也在某种意义上揭示了一个关于人类自身的深刻隐喻:不论是大模型还是人,决定产出质量的底层机制都是注意力(Attention)。
专注力是人做事质量和效率的基础。这不是心灵鸡汤,而是一个可以从技术原理出发、严肃论证的观点。
[Read More]最近我一直在思考一个问题:在 AI 时代,个人生产力的本质到底是什么?经过大半年高强度使用各类 AI 工具的实践,我得出了一个公式:
个人生产力 = 思考深度 × 资源调度广度
这不是一个数学公式,而是一个思维框架。它帮我重新理解了"人应该做什么"和"AI 应该做什么"这个根本问题。
[Read More]最近看到很多文章在教人如何"省 Token"——压缩 prompt、缩短上下文、用更小的模型替代、砍掉 system prompt……这些技巧看似精明,但我越来越确信一个观点:任何以省 Token 为目标的做法,都不是大模型的最佳实践。
这不是因为我不在乎成本。恰恰相反,正是因为我在乎投入产出比,所以我认为"省 Token"是一个错误的优化方向。
[Read More]