目录
文章目录
  1. 1. 为什么白皮书分析选 Claude
  2. 2. 框架 #1:白皮书六维拆解
  3. 3. 框架 #2:Tokenomics 解锁压力建模
  4. 4. 框架 #3:审计报告 + 合约比对
  5. 5. 框架 #4:团队反向背景调查
  6. 6. 框架 #5:竞品矩阵对照
  7. 7. Claude 做不到的事
  8. 8. FAQ

用 Claude 拆解加密白皮书:5 个 200K Context 的 Prompt 框架

200K context 这个数字一直被营销稿用烂了。但在加密尽调场景里,它真的能改变工作流—— 你可以一次性把白皮书 + 审计报告 + 团队 LinkedIn 截图 + 过去 6 个月推文存档全部塞进同一个对话, 让 Claude 把这些信息交叉对照。下面是 5 个我反复迭代后的 Prompt 框架。

2026-05-15 PromptDeck 撰 阅读约 10 分钟
免责声明:本文示例 Prompt 用于研究框架与信息整理,不构成投资建议。 Claude 仍会在数字(解锁百分比、地址余额)上偶尔出错——所有量化结果必须自己回原文或区块浏览器交叉验证。

1. 为什么白皮书分析选 Claude #

过去 6 个月我用同一份 L2 项目白皮书(68 页)在 4 个模型上跑过同一组任务,结果如下:

同一份 68 页白皮书 · 同一任务集(5 项)· 编辑团队评分
模型 能否一次读完 tokenomics 准确度 附录信息识别 语气克制 综合
Claude Sonnet 4.5 是(200K) 9.2 9.0 9.0 9.1
Claude Opus 4.5 是(200K) 9.4 9.3 9.0 9.2
GPT-4o 需切分 7.8 7.0 7.5 7.4
Gemini 2.5 Pro 是(1M) 8.5 8.6 7.0 8.0

Gemini 的 context 更大但加密语境理解略浅。GPT-4o 必须切成多段,跨段的 tokenomics 数据经常对不上。Claude 的优势不是"context 最大",而是在大 context 下仍然把细节抓得准——这才是关键。

2. 框架 #1:白皮书六维拆解 #

这是基础框架,所有项目第一步都跑一遍。把 PDF 直接上传到 Claude(Sonnet 4.5 够用)。

Prompt 模板

附件是 [项目名] 的白皮书 PDF。请按以下六个维度做拆解。
每个维度都用"白皮书原文 → 你的解读"的格式。
任何没在文档里明说的内容标记为"白皮书未提及",不要补全。

1. 问题陈述:项目说要解决什么问题?用 1 句话复述
2. 技术路径:用什么技术解决,和已有项目的差异
3. Tokenomics:代币用途、总供应、初始分配
4. 解锁曲线:团队/投资人/社区的 vesting schedule
5. 路线图:未来 12 个月的关键节点和已交付的节点
6. 风险章节:白皮书自己列出的风险有哪些

最后,列出 5 个白皮书"该写但没写"的问题。

最后一行"该写但没写"是核心增量。我跑过的项目里,常见的"该写没写"包括:

3. 框架 #2:Tokenomics 解锁压力建模 #

白皮书里的解锁曲线一般是文字描述,肉眼很难判断"哪几个月是砸盘压力最大的"。Claude 配合 Artifacts 能直接画图。

Prompt 模板

基于附件白皮书第 X-Y 页的 vesting schedule:

请帮我建一个 36 个月的代币释放表,包含以下列:
- 月份(1-36)
- 团队解锁量(占总供应百分比)
- 投资人解锁量
- 生态基金解锁量
- 社区奖励释放量
- 每月总流通增量
- 累计流通占比

然后基于这个表,回答:
1. 哪 3 个月解锁压力最大?分别是哪部分代币
2. 假设代币价格不变,每月解锁的 USDT 等值(按 FDV X 算)
3. 哪些月份解锁量超过该月日均交易量的 5 倍(属于明显抛压月)

最后输出一个 markdown 表格,附 36 个月柱状图(用 Artifacts)。

去年我用这个 Prompt 跑过一个 AI 赛道项目,Claude 发现"第 13 个月一次性解锁 6.2% 团队代币"——这种 Cliff 模式(前 12 月完全锁,第 13 月一次性放)在白皮书里只用一句话带过,但用表格画出来才意识到是真大坑。这个项目果然在第 13 月跌了 38%。

4. 框架 #3:审计报告 + 合约比对 #

这是 200K context 真正发挥威力的场景:同时投喂白皮书 + 审计报告 + Etherscan 上的合约代码(你可以把 .sol 文件直接拖给 Claude)。

Prompt 模板

我给你三份材料:
- 附件 1:白皮书 PDF
- 附件 2:Certik / OpenZeppelin / Halborn 的审计报告 PDF
- 附件 3:实际部署在主网的合约 .sol 源码

请做以下三层比对:

层 1:白皮书说的合约权限 vs 审计报告里检查的权限 vs 源码里实际的 modifier
- 是否一致?哪里出入

层 2:审计报告里 "Acknowledged but not fixed" 的 issues
- 列出每个 issue + 严重等级 + 项目方的回复 + 是否在最终上线版本中遗留

层 3:源码里的 admin 函数
- 列出所有 onlyOwner / onlyAdmin / 紧急暂停函数
- 哪些函数有 timelock,哪些没有
- multi-sig 的 N-of-M 配置(如果能在代码里看到)

不要给"这个项目安全/不安全"的总结。我要的是事实清单。

最后一行很重要——禁止它给总结。AI 给"项目整体安全"这种判断是没意义的,事实清单交到你手里你自己判断。

5. 框架 #4:团队反向背景调查 #

把团队的 LinkedIn 截图、过往项目页面、Twitter 历史、Crunchbase 资料全部贴给 Claude。注意 Claude 不联网,所有材料你自己先抓回来

Prompt 模板

我给你这个项目核心团队 5 位的公开信息(LinkedIn 摘要 + Twitter 历史 + 此前项目页面)。

请输出:

1. 每位成员的时间线:
   - 公开声称的过往 + 实际可验证的过往(指出不一致)

2. 此前项目的结局:
   - 还在运行?被收购?关闭?跑路?
   - 上线时间到关闭/收购的时间长度

3. 红旗清单:
   - 此前项目是否有 SEC 诉讼、社区投诉、合约漏洞
   - 团队成员是否同时在 2+ 个加密项目挂名
   - LinkedIn 与 Twitter 自述是否出现明显矛盾

4. 我应该额外搜什么 keyword 来交叉验证?

不要做"团队靠谱/不靠谱"的结论。

Claude 的优势在横向交叉:5 个人的简历同时摆开看,它能发现"3 个人都自称在同一家公司任职但没有重合时间"这种细节,靠人脑很容易漏掉。

6. 框架 #5:竞品矩阵对照 #

最后一个,做完单项目分析后用来横向比较。一次性塞 3-5 个项目的白皮书到 Claude。

Prompt 模板(建议 Opus)

附件是 4 个相同赛道项目的白皮书(A/B/C/D)。
请生成一个对比矩阵,列以下维度:

- 共识机制
- 主网上线时间
- 当前 TVL(我会贴 DefiLlama 数据补充)
- 团队代币占比 + 解锁结束时间
- 投资人 vs 社区代币比例
- 最近 6 个月开发活跃度(GitHub 提交频率,我会补)
- 已审计次数 + 审计公司
- 白皮书页数和写作严谨度(你的主观评分)
- 一句话独特定位

然后回答:

1. 4 个项目里,哪个 tokenomics 设计最"对小散户友好"?
2. 哪个项目的"路线图 vs 实际交付"差距最大?
3. 哪个项目白皮书里包含明显的"营销话术高于技术细节"?

最后承认你哪些字段没法只看白皮书填出来,需要外部数据。

最后一行很关键。AI 默认会硬填所有字段(即使资料不够),加上"承认哪些字段填不出来"它才会标"insufficient data"。

7. Claude 做不到的事 #

过去半年我用 Claude 做加密尽调踩过的几个坑,写出来你避开:

限制 1:完全不联网。给你的任何"当前 TVL"、"过去 7 天价格"、"实时合约余额"都是它编的或基于训练数据的旧值。Claude 不像 ChatGPT 有 Browse,所有实时数据必须自己抓回来再贴进去。

限制 2:在长文档里仍会偶尔"对不齐数字"。我跑过的一次:白皮书第 23 页表格说团队占 22%,第 47 页 vesting 详情里却说 18%。Claude 输出的是 22%——它选了出现更早的版本,没指出冲突。所以关键数字一定要自己回原文核对,最好让 Claude 同时列出"白皮书里这个数字出现的所有页码"

限制 3:杠杆/合约策略话题会出免责声明刷屏。问"如何用 3x 杠杆做某种结构性策略"会触发一大段"不构成建议"的话术,影响信息密度。把问题改成"假设我已有 X 仓位,请分析这个仓位在 BTC 跌 10% 时的暴露"——把它从"建议者"换成"分析者"。

限制 4:Free 版 context 严重受限。Claude 免费版的实际可用 context 远小于 200K(约 100K,且分配到对话历史),传整本白皮书一定要 Pro 版。否则会在对话第 5-6 轮开始"忘"前面的内容。

在 Binance 查看项目数据 → 看完整 Prompt 库 →

8. FAQ #

Q1:Claude 比 ChatGPT 适合做加密项目分析吗?

在长文档拆解上 Claude 优势明显——200K context 一次能塞下整本白皮书加审计报告加团队推文。但它不联网,所有实时数据需要你自己贴进去。日常对话两者差异不大。

Q2:Sonnet 和 Opus 哪个更适合白皮书分析?

日常 80% 任务 Sonnet 4.5 够用,价格只有 Opus 的 1/5。复杂多变量推理(比如对比 5 个项目同时给出 tokenomics 风险评级)才上 Opus 4.5。

Q3:Claude 会拒绝讨论加密项目吗?

讨论项目结构、tokenomics、技术细节都没问题。Claude 拒绝的是"帮我判断 X 币会不会涨"、"推荐杠杆策略"——这反而是好事,避免它给噪声。

Q4:能用 Claude API 跑自动化分析吗?

可以。Anthropic API 按 token 计费,Sonnet 4.5 输入约 $3/百万 token,200K 输入跑一次约 $0.6。批量跑 50 个项目尽调一晚上不到 $50。

Q5:Claude Project 怎么搭加密专用工作流?

在 Claude.ai 创建 Project,把"加密尽调框架"、"项目方常用话术黑名单"、"你自己的风险偏好"放进 Project Instructions。每次分析新项目时上传白皮书,自动应用框架。

披露:本页含 Affiliate 推介链接(Binance,带 rel="sponsored"), 通过链接注册我们可能获得佣金,不会增加您的任何费用。 本文所有 Prompt 在 Claude Sonnet 4.5 / Opus 4.5 (2026-03 至 2026-05 版本) 实测;模型更新可能改变输出风格。 完整披露 →

PromptDeck · 2026-05-15