RAG 精准检索胜过 1M 注意力稀释
马良用 RAG 从图谱抽取"当前章节相关的前情",比塞整本书更精准、更便宜、更快。
Read more in the comparison →Gemini 2.5 Pro 可以接入 100 万 token 上下文,看起来"一次塞进全书"很美好。但注意力稀释、成本失控、动态设定更新缺失使得"塞全文"不等于长篇工作流。马良用 RAG + 图谱 + Agent 解决这三点。
Gemini 2.5 Pro 的 1M 上下文是工程奇迹,但"长上下文"只能解决"读",解决不了"写"。长篇写作需要"读→写→校验→迭代",必须靠工作流。马良在 Gemini 之上加了 RAG、图谱、Agent 使其变得可用。
作者 B 把写了 80 万字的小说全部塞进 Gemini 2.5 Pro 的 1M 窗口。第一次生成的章节出奇好——但每次调用花费 $1-2。写到 100 章时发现个新问题:前几章改了设定,要再把全文更新 + 重塞,循环 300 次后月费破万美元。长 context 不是免费的。
| 对比维度 | 马良写作 | Gemini | 说明 |
|---|---|---|---|
| 最大上下文 | ✅ 取决于所选模型(Gemini 1M 可用) | ✅ 1,048,576 tokens | |
| 长篇工作流 | ✅ 7 Agent + 三级大纲 | ❌ 无 | |
| 知识图谱 | ✅ 自动 | ❌ 无 | |
| 节奏分析 | ✅ 有 | ❌ 无 | |
| 多模型 | ✅ 15+ | ⚠️ Gemini 一系 | |
| 多模态 | ⚠️ 文本为主 | ✅ 文本 / 图像 / 视频 / 音频 | |
| 中文文笔 | ✅ 多模型覆盖 | ✅ Gemini 2.5 Pro 中文在持续优化 | |
| 成本(长篇) | ✅ 多模型混合 | ⚠️ 1M token 写作成本高 | |
| 中国大陆访问 | ✅ 直连 | ❌ 需代理 | |
| 动态设定更新 | ✅ 图谱实时更新 | ⚠️ 每次重塞全文 | |
| 检索精度 | ✅ RAG(精准 top-k) | ⚠️ 整窗口 attention | |
| API 稳定性 | ✅ 多路冗余 | ✅ 官方 SLA |
✅ 明显领先 ⚠️ 持平或部分差距 ❌ 明显短板 · 数据基于公开官方文档 / 公共知识库样本 / 主流评测。
马良用 RAG 从图谱抽取"当前章节相关的前情",比塞整本书更精准、更便宜、更快。
Read more in the comparison →用 Gemini Flash 做一致性校验,用 DeepSeek V3 做生成,用 Claude 做设定,一次调用只需 10-30k token。成本是裸 Gemini 1M 的 1/30。
Read more in the comparison →图谱自增量 vs 整包重塞。每次章节完成后图谱更新,无需重刷长 context。
Read more in the comparison →Gemini 2.5 Pro 的 1M 上下文在"一次读完整本小说"类问答分析场景极有用(适合写编辑报告 / 文本审校)。多模态能力独步业界。作为"辅助分析工具"非常好;作为"写作主工作流"则不足。
我们不否定任何一款产品,只按"中文长篇写作"这一场景做选型建议。
在长篇写作场景里是。因为写作需要"此刻需要哪些前情",而不是"把所有前情都摆上桌"。
用。Gemini 2.5 Pro / Flash 都可选为任意 Agent 的底模。
Google 在持续优化;当前建议做一致性 / 推理 / 大纲规划等结构型任务。
好,但不能解决"写"的问题,只能解决"读"的问题。
长 context 后半段细节在生成时容易被忽略,表现为"前情回忆错"。
以 50 万字长篇一年 120 次迭代计,纯 Gemini 1M 可能 $1500-3000,马良混合成本 $200-500。
一致性校验、节奏分析的"打分"类 Agent。
主流程以文本为主;图像辅助可接入 Gemini Vision 作独立工具。
和小说无关,更适合工程师。
马良推荐生成阶段 8k-24k token 单次窗口,靠 RAG + 图谱补前情,避免长 context 稀释。
Kimi 擅长"读长文档",200k token 窗口很适合做论文阅读 / 长文理解。但写长篇小说是"读 + 写 + 校验"的闭环,单靠长 context 不够。
Read the comparison →Claude 4.6 文笔优秀、200k 上下文宽裕,但"文笔强 ≠ 长篇强"。马良写作在 Claude 之上加了大纲层级、知识图谱、一致性 Agent、节奏分析,把 Claude 真正变成可用于长篇的"写作流水线"。
Read the comparison →ChatGPT 是优秀的通用模型,但不是写长篇小说的"工作流"。直接用它写小说会在结构 / 一致性 / 长度 / 节奏 / 场景任一环节崩盘。马良在 GPT / Claude / DeepSeek 等模型之上加了小说工作流层,才是长篇的正确打开方式。
Read the comparison →马良写作注册送500积分(约10万字),每日免费刷新300积分,支持 GPT / Claude / DeepSeek / Gemini 多模型按场景切换;你可以先用公共知识库样本感受多智能体工作流,再决定要不要迁移你正在写的长篇。