OpenAI Privacy Filter:把 PII 偵測做成本地隱私預處理層,在資料進 LLM 前先脫敏

這篇 Threads 提到 OpenAI 開源的 Privacy Filter,方向很值得收進知識庫:在資料送進大模型之前,先用一個專門模型把個人隱私資訊(PII)偵測與脫敏,讓 LLM workflow 多一層本地隱私預處理。

原文提到它像是一個「隱私預處理層」:醫療、法律、客服、金融等場景,在把文本交給大模型前,先把姓名、電話、email、地址等敏感資訊替換成 placeholder,降低資料外洩風險。

不過我補查 OpenAI GitHub / Hugging Face README 後,有幾個細節要校正:

  • 官方 README 寫的是 Apache 2.0 license,不是 MIT。
  • 模型是 1.5B total parameters、50M active parameters,不是單純 0.6B。
  • 它偵測 8 類 privacy span,不是只有 4 類。
  • 模型定位是 bidirectional token-classification model with span decoding,不是一般生成式小模型。

Privacy Filter 做什麼

OpenAI Privacy Filter 是用來偵測與遮罩 personally identifiable information 的模型。它不是逐 token 生成文字,而是在一次 forward pass 中對輸入序列做 token classification,然後用 constrained Viterbi procedure 解碼成 coherent spans。

官方列出的 8 類 privacy span 包括:

  1. account_number
  2. private_address
  3. private_email
  4. private_person
  5. private_phone
  6. private_url
  7. private_date
  8. secret

每一類會被展開成 BIOES boundary labels,所以 token-level output classes 共 33 類。

為什麼這比規則引擎有價值

傳統 PII 偵測常靠 regex 或規則引擎,例如 email、電話、身分證格式。但真實資料常會有:

  • 中英文混雜
  • 空白、符號、全半形干擾
  • 姓名與地址沒有固定格式
  • 同一欄位有上下文才知道是不是 PII
  • 使用者故意打散敏感資訊

專門訓練的 token-classification model 比純規則更能看上下文,也更適合處理非標準格式。這也是 Threads 原文強調 robustness 的原因。

使用方式

官方 repo 提供 CLI:

pip install -e .
opf "Alice was born on 1990-01-02."
opf --device cpu "Alice was born on 1990-01-02."
opf -f /path/to/file
cat /path/to/file | grep -e 'some_pattern' | opf

Hugging Face 也支援 Transformers pipeline:

from transformers import pipeline

classifier = pipeline(
    task="token-classification",
    model="openai/privacy-filter",
)
classifier("My name is Alice Smith")

也支援 Transformers.js / WebGPU,代表它可以跑在瀏覽器或本地端,這對隱私預處理特別重要。

真正的產品意義

這類模型的定位不是取代 LLM,而是放在 LLM 前面當防線:

  1. 使用者輸入原始資料
  2. Privacy Filter 偵測 PII
  3. 系統替換成 placeholder
  4. 脫敏文本送進 LLM
  5. 必要時再把 placeholder 映射回原始資料

這讓 sensitive workflow 可以多一層控制,例如:

  • 客服工單摘要
  • 醫療病歷整理
  • 法律文件分析
  • 金融交易描述
  • 企業內部文件 RAG
  • log / transcript 清洗

我的判斷

這篇最值得保留的觀念是:隱私保護不應該只靠「要求使用者不要貼敏感資訊」,而應該被做成 pipeline 裡的預設層。

Privacy Filter 的價值不只在 PII 偵測,而是示範一個很實用的架構模式:用小型、專項、可本地部署的模型,先處理高風險資料,再交給大型通用模型。

這也是一個更大的趨勢:未來 LLM 應用不會只是一個大模型 API,而會是多層模型 pipeline。大模型負責推理與生成,小模型負責分類、過濾、抽取、脫敏、政策檢查。特定任務上,小模型 + 專項訓練往往比大模型更便宜、更快、更可控。

對 BigIntTech 來說,如果之後做客服、醫療、法務、財務文件、企業知識庫或 Agent log 處理,這類 PII redaction layer 值得列入標準架構。

來源:

OpenAI Privacy Filter:把 PII 偵測做成本地隱私預處理層,在資料進 LLM 前先脫敏 | Allen 知識庫 | Allen 知識庫