Flink + Kafka 数据血缘追踪与审计机制实战
一、引言
在实时数据系统中,“我的数据从哪来?去往何处?” 是业务方最关心的问题之一。
尤其在以下场景下:
-
📉 金融风控:模型出现预警,需回溯数据源链路。
-
🧾 合规审计:监管要求提供数据全流程路径。
-
🛠 运维排查:Kafka Topic 数据乱序或错发后快速定位来源。
因此,构建一套数据血缘追踪与审计机制,对稳定、高可用、可观测的实时数据平台至关重要。
二、实时数仓中常见的数据血缘诉求
场景 | 血缘粒度 | 举例 |
---|---|---|
数据来源标识 | 数据级别 | 明确某条日志来自哪个设备、哪种业务 |
加工链路记录 | 算子级别 | 记录 Flink 中每道转换过程(如字段计算、过滤) |
多层 Topic 血缘 | 表级别 | 明确某指标来源于哪些 Topic/表 |
稽核审计支持 | 时间戳/任务级别 | 支持特定时间段的数据回溯 |