Folio №06 · vs Gemini · 2026-04-21
国际 AI 写作工具对比

Gemini 1M 上下文 = 写长篇?马良写作告诉你为什么"塞全文"不是答案

Gemini 2.5 Pro 可以接入 100 万 token 上下文,看起来"一次塞进全书"很美好。但注意力稀释、成本失控、动态设定更新缺失使得"塞全文"不等于长篇工作流。马良用 RAG + 图谱 + Agent 解决这三点。

❦ · Verdict · ❦
TL;DR · 一句话结论

如果你只有 30 seconds

Gemini 2.5 Pro 的 1M 上下文是工程奇迹,但"长上下文"只能解决"读",解决不了"写"。长篇写作需要"读→写→校验→迭代",必须靠工作流。马良在 Gemini 之上加了 RAG、图谱、Agent 使其变得可用。
Pick Maliang · 选马良写长篇小说 + 追求一致性的中文作者。
Pick Gemini · 选竞品做文档问答、代码分析、多模态(图 / 视频 / 音频)场景。
Scenario · 场景切入

这页在解决什么痛点

作者 B 把写了 80 万字的小说全部塞进 Gemini 2.5 Pro 的 1M 窗口。第一次生成的章节出奇好——但每次调用花费 $1-2。写到 100 章时发现个新问题:前几章改了设定,要再把全文更新 + 重塞,循环 300 次后月费破万美元。长 context 不是免费的。

❦ · Matrix · ❦
Matrix · 核心对比表

12 个维度的 side-by-side 评估

对比维度马良写作Gemini说明
最大上下文✅ 取决于所选模型(Gemini 1M 可用)✅ 1,048,576 tokens
长篇工作流✅ 7 Agent + 三级大纲❌ 无
知识图谱✅ 自动❌ 无
节奏分析✅ 有❌ 无
多模型✅ 15+⚠️ Gemini 一系
多模态⚠️ 文本为主✅ 文本 / 图像 / 视频 / 音频
中文文笔✅ 多模型覆盖✅ Gemini 2.5 Pro 中文在持续优化
成本(长篇)✅ 多模型混合⚠️ 1M token 写作成本高
中国大陆访问✅ 直连❌ 需代理
动态设定更新✅ 图谱实时更新⚠️ 每次重塞全文
检索精度✅ RAG(精准 top-k)⚠️ 整窗口 attention
API 稳定性✅ 多路冗余✅ 官方 SLA

✅ 明显领先   ⚠️ 持平或部分差距   ❌ 明显短板 · 数据基于公开官方文档 / 公共知识库样本 / 主流评测。

Maliang · 上马

马良主打的 4 个点

№01 马良写作 · 上马

RAG 精准检索胜过 1M 注意力稀释

马良用 RAG 从图谱抽取"当前章节相关的前情",比塞整本书更精准、更便宜、更快。

Read more in the comparison →
№02 马良写作 · 上马

多模型 + Agent 编排

用 Gemini Flash 做一致性校验,用 DeepSeek V3 做生成,用 Claude 做设定,一次调用只需 10-30k token。成本是裸 Gemini 1M 的 1/30。

Read more in the comparison →
№03 马良写作 · 上马

动态设定更新

图谱自增量 vs 整包重塞。每次章节完成后图谱更新,无需重刷长 context。

Read more in the comparison →
  1. 合规 / 直连:中国大陆作者无需代理。
Gemini · 下马

需要承认的 4 个结构性短板

  1. 注意力稀释:Google 论文明确指出,超长 context 的 recall 会衰减;100w token 时,细节准确度明显下降。
  2. 成本非线性爆炸:1M token 单次调用写作成本远超 RAG 方案。
  3. 缺少工作流:Gemini 本身没有小说 Agent 系统。
  4. 中国大陆合规障碍:Gemini 官方服务需代理。
Fair Play · 不打口水仗

客观承认 Gemini 的强项

Gemini 2.5 Pro 的 1M 上下文在"一次读完整本小说"类问答分析场景极有用(适合写编辑报告 / 文本审校)。多模态能力独步业界。作为"辅助分析工具"非常好;作为"写作主工作流"则不足。

我们不否定任何一款产品,只按"中文长篇写作"这一场景做选型建议。

❦ · Evidence · ❦
Evidence · 数据与证据

每条结论都可追溯 · 可点击

Decision Tree · 决策树

按场景一句话选

FAQ · 常见问答

读者与作者常问 · 10 条

RAG 真的比 1M 上下文精准?

在长篇写作场景里是。因为写作需要"此刻需要哪些前情",而不是"把所有前情都摆上桌"。

马良用不用 Gemini?

用。Gemini 2.5 Pro / Flash 都可选为任意 Agent 的底模。

Gemini 中文怎么样?

Google 在持续优化;当前建议做一致性 / 推理 / 大纲规划等结构型任务。

1M 上下文不好吗?

好,但不能解决"写"的问题,只能解决"读"的问题。

注意力稀释具体影响?

长 context 后半段细节在生成时容易被忽略,表现为"前情回忆错"。

成本差多少?

以 50 万字长篇一年 120 次迭代计,纯 Gemini 1M 可能 $1500-3000,马良混合成本 $200-500。

Gemini Flash 适合什么?

一致性校验、节奏分析的"打分"类 Agent。

马良支持 Gemini 多模态吗?

主流程以文本为主;图像辅助可接入 Gemini Vision 作独立工具。

Gemini 的 Code / Canvas 功能?

和小说无关,更适合工程师。

写长篇建议每次多少 token?

马良推荐生成阶段 8k-24k token 单次窗口,靠 RAG + 图谱补前情,避免长 context 稀释。

❦ · Continued · ❦
Related · 相关阅读

延伸对比推荐

Start · 立刻开始

别再"想选哪个",开始写就知道了

马良写作注册送500积分(约10万字),每日免费刷新300积分,支持 GPT / Claude / DeepSeek / Gemini 多模型按场景切换;你可以先用公共知识库样本感受多智能体工作流,再决定要不要迁移你正在写的长篇。