这两天,一个“看起来很技术”的参数突然变得和普通人也有关:多家媒体报道 DeepSeek 的聊天机器人把上下文窗口从 12.8 万 tokens 扩展到“超过 100 万”。直白点说:它一次对话能处理的资料量,从长文章级别,跃迁到“整本资料/整段项目文档”级别。

如果你用 AI 写方案、看合同、整理纪要,这个变化的意义很实际:它更像把“聊天”推向“能先读懂材料再帮你干活”。

要点(看懂这 4 条就够了)

  • 100 万 token 是什么?token 不是字数,但可以理解为“可输入内容容量”。容量越大,越不需要你把资料切成很多段反复补充。
  • 长对话少“失忆”。在同一任务里,它更可能持续遵守你的约束(格式、字段、人物关系),减少中途跑偏。
  • 长文档更好用。把关键段落集中给它,更可能在一轮里完成“提取—对比—总结—给结论”。
  • 对代码/知识库更实用。当文档、需求、接口约束放在同一轮对话里,它更像先通读背景再回答。

为什么重要:能力上限开始被“资料规模”重塑

过去很多人觉得 AI 不靠谱,常见原因不是它不会推理,而是它“看不完”。窗口变大后,很多工作会从“反复分段、来回校对”,变成“给一次完整材料,让它先读懂再输出”。

但别误会:窗口变大不等于永远准确。更稳妥的用法是让它在回答里标注引用原句(或段落位置),关键数字再人工复核。

谁最适合现在就关注

  • 内容工作者/运营:长稿件、系列选题、采访整理,能减少“补充资料”的来回。
  • 职场写作者:方案、周报、竞品分析、纪要合并,适合用“大窗口 + 清晰模板”一次成型。
  • 做产品/写代码的人:把 repo 文档和约束一次性给足,更容易得到可落地的边界条件与实现建议。

来源:
South China Morning Post
CNBC

我会在 wuxing.name 持续把 AI 新变化翻译成可用的场景与方法。想看我下一篇拆解哪类用法(写作/学习/职场/工具实操)?欢迎留言。

Categorized in:

个人日志,

Last Update: 13 2 月, 2026

Tagged in: