内容哈希文件缓存模式(Content-Hash File Cache Pattern)

中级 Intermediate 流程型 Process ⚡ Claude Code 专属 ⚡ Claude Code Optimized
3 min read · 160 lines

SHA-256 内容哈希缓存,文件移动重命名后仍然有效

内容哈希文件缓存模式(Content-Hash File Cache Pattern)

概述

使用 SHA-256 内容哈希作为缓存键,缓存昂贵的文件处理结果(PDF 解析、文本提取、图像分析)。与基于路径的缓存不同,这种方法在文件移动/重命名后仍然有效,且在内容变更时自动失效。

何时使用

  • 构建文件处理管道(PDF、图像、文本提取)
  • 处理成本高且同一文件会被反复处理
  • 需要 --cache/--no-cache CLI 选项
  • 想在不修改现有纯函数的情况下添加缓存

核心模式

1. 基于内容哈希的缓存键

使用文件内容(而非路径)作为缓存键:

import hashlib
from pathlib import Path

_HASH_CHUNK_SIZE = 65536  # 64KB 分块处理大文件

def compute_file_hash(path: Path) -> str:
    """计算文件内容的 SHA-256(大文件分块处理)。"""
    if not path.is_file():
        raise FileNotFoundError(f"文件未找到:{path}")
    sha256 = hashlib.sha256()
    with open(path, "rb") as f:
        while True:
            chunk = f.read(_HASH_CHUNK_SIZE)
            if not chunk:
                break
            sha256.update(chunk)
    return sha256.hexdigest()

为什么使用内容哈希? 文件重命名/移动 = 缓存命中。内容变更 = 自动失效。无需索引文件。

2. 冻结数据类(Frozen Dataclass)作为缓存条目

from dataclasses import dataclass

@dataclass(frozen=True, slots=True)
class CacheEntry:
    file_hash: str
    source_path: str
    document: ExtractedDocument  # 缓存的结果

3. 基于文件的缓存存储

每个缓存条目存储为 {hash}.json — O(1) 按哈希查找,无需索引文件。

import json
from typing import Any

def write_cache(cache_dir: Path, entry: CacheEntry) -> None:
    cache_dir.mkdir(parents=True, exist_ok=True)
    cache_file = cache_dir / f"{entry.file_hash}.json"
    data = serialize_entry(entry)
    cache_file.write_text(json.dumps(data, ensure_ascii=False), encoding="utf-8")

def read_cache(cache_dir: Path, file_hash: str) -> CacheEntry | None:
    cache_file = cache_dir / f"{file_hash}.json"
    if not cache_file.is_file():
        return None
    try:
        raw = cache_file.read_text(encoding="utf-8")
        data = json.loads(raw)
        return deserialize_entry(data)
    except (json.JSONDecodeError, ValueError, KeyError):
        return None  # 将损坏视为缓存未命中

4. 服务层包装(遵循单一职责原则 SRP)

保持处理函数纯净,将缓存作为独立的服务层添加。

def extract_with_cache(
    file_path: Path,
    *,
    cache_enabled: bool = True,
    cache_dir: Path = Path(".cache"),
) -> ExtractedDocument:
    """服务层:缓存检查 -> 提取 -> 缓存写入。"""
    if not cache_enabled:
        return extract_text(file_path)  # 纯函数,不感知缓存

    file_hash = compute_file_hash(file_path)

    # 检查缓存
    cached = read_cache(cache_dir, file_hash)
    if cached is not None:
        logger.info("缓存命中:%s(hash=%s)", file_path.name, file_hash[:12])
        return cached.document

    # 缓存未命中 -> 提取 -> 存储
    logger.info("缓存未命中:%s(hash=%s)", file_path.name, file_hash[:12])
    doc = extract_text(file_path)
    entry = CacheEntry(file_hash=file_hash, source_path=str(file_path), document=doc)
    write_cache(cache_dir, entry)
    return doc

关键设计决策

决策 理由
SHA-256 内容哈希 路径无关,内容变更时自动失效
{hash}.json 文件命名 O(1) 查找,无需索引文件
服务层包装 单一职责原则:提取保持纯净,缓存是独立关注点
手动 JSON 序列化 完全控制冻结数据类的序列化
损坏返回 None 优雅降级,下次运行时重新处理
cache_dir.mkdir(parents=True) 首次写入时延迟创建目录

最佳实践

  • 哈希内容而非路径 — 路径会变,内容标识不会
  • 大文件分块哈希 — 避免将整个文件加载到内存
  • 保持处理函数纯净 — 它们不应该知道缓存的存在
  • 用截断的哈希值记录缓存命中/未命中 — 便于调试
  • 优雅处理损坏 — 将无效缓存条目视为未命中,永不崩溃

应避免的反模式

# 错误:基于路径的缓存(文件移动/重命名后失效)
cache = {"/path/to/file.pdf": result}

# 错误:在处理函数内部添加缓存逻辑(违反单一职责原则)
def extract_text(path, *, cache_enabled=False, cache_dir=None):
    if cache_enabled:  # 现在这个函数有两个职责
        ...

# 错误:对嵌套冻结数据类使用 dataclasses.asdict()
# (复杂嵌套类型可能导致问题)
data = dataclasses.asdict(entry)  # 应使用手动序列化

适用场景

  • 文件处理管道(PDF 解析、OCR、文本提取、图像分析)
  • 受益于 --cache/--no-cache 选项的 CLI 工具
  • 同一文件跨多次运行出现的批处理
  • 在不修改现有纯函数的情况下添加缓存

不适用场景

  • 必须始终获取最新数据的场景(实时数据流)
  • 缓存条目会非常大的场景(考虑使用流式处理代替)
  • 结果依赖于文件内容之外的参数(例如不同的提取配置)

相关技能 Related Skills