第一章:Go pprof信息泄露漏洞的严峻现状
Go 语言内置的 net/http/pprof 包为性能调优提供了强大支持,但其默认启用方式与宽松的路由策略正成为生产环境中高频的信息泄露入口。大量线上服务在未做访问控制的前提下,将 /debug/pprof/ 路由直接暴露于公网,攻击者仅需发送一个 GET 请求即可获取堆栈、goroutine、内存分配、CPU 采样等敏感运行时数据。
常见高危暴露场景包括:
- 使用
http.DefaultServeMux并直接调用pprof.Register()或pprof.Handler(); - 在 Kubernetes Ingress 或 API 网关中未对
/debug/路径设置 deny 规则; - 开发环境配置被误带入生产镜像(如 Dockerfile 中保留
ENV GIN_MODE=debug或go run -gcflags="-m"类调试参数)。
以下命令可快速检测目标服务是否暴露 pprof 接口:
# 检查基础端点响应(200 表示已暴露)
curl -s -o /dev/null -w "%{http_code}" http://example.com/debug/pprof/
# 获取 goroutine 栈跟踪(含完整调用链与变量名)
curl -s http://example.com/debug/pprof/goroutine?debug=2 | head -n 20
# 获取内存概览(可能泄露结构体字段名、第三方库版本路径)
curl -s http://example.com/debug/pprof/heap | go tool pprof -top -limit=5 -
⚠️ 注意:最后一条命令需本地安装 Go 工具链;
go tool pprof会解析二进制符号,若服务未剥离 debug info,输出中将直接显示源码文件路径及函数签名,极大便利逆向分析。
根据 CNVD 与 OSS-Fuzz 近一年统计,约 17% 的公开 Go Web 服务存在未授权 pprof 访问问题;其中 63% 的案例可从中提取出内部中间件名称、数据库连接池配置、JWT 密钥长度线索甚至硬编码凭证片段。下表列出了典型 pprof 端点及其潜在泄露信息类型:
| 端点路径 | 可泄露信息示例 | 风险等级 |
|---|---|---|
/debug/pprof/goroutine?debug=2 |
全量 goroutine 栈、HTTP 路由处理器名、Redis 连接地址 | ⚠️⚠️⚠️ |
/debug/pprof/heap |
对象分配热点、自定义结构体字段布局、第三方 SDK 初始化位置 | ⚠️⚠️ |
/debug/pprof/profile |
30 秒 CPU 采样(需触发),暴露热点函数与调用频次 | ⚠️⚠️⚠️ |
修复核心原则是:默认禁用,显式授权,隔离网络。生产环境应彻底移除 pprof 注册逻辑,或通过中间件强制校验请求来源 IP 与认证头。
第二章:pprof调试接口暴露的深层原理与实操复现
2.1 pprof默认路由机制与HTTP服务绑定原理剖析
pprof 通过 net/http/pprof 包自动注册一组预定义的性能分析端点(如 /debug/pprof/, /debug/pprof/profile, /debug/pprof/heap),其核心在于惰性初始化 + 默认 mux 绑定。
默认路由注册方式
import _ "net/http/pprof" // 触发 init(),向 http.DefaultServeMux 注册
该导入会执行 pprof 包的 init() 函数,调用 http.HandleFunc() 将路径前缀 /debug/pprof/ 映射到内部处理器 Handler。关键逻辑:仅当 http.DefaultServeMux 未被显式替换时生效。
路由匹配行为
| 路径 | 处理器类型 | 触发条件 |
|---|---|---|
/debug/pprof/ |
Index handler | GET,返回可用 profile 列表 |
/debug/pprof/profile |
CPU profiler | POST with duration, GET triggers interactive UI |
/debug/pprof/heap |
Heap snapshot | GET returns active allocations |
绑定时机流程
graph TD
A[导入 _ \"net/http/pprof\"] --> B[执行 init()]
B --> C[检查 http.DefaultServeMux 是否为默认实例]
C --> D[调用 http.HandleFunc 注册路由]
D --> E[后续 http.ListenAndServe 使用该 mux]
若自定义 ServeMux,需显式调用 pprof.Handler() 手动挂载。
2.2 本地调试模式下pprof自动注册的隐蔽行为验证
Go 程序在 GOFLAGS="-gcflags=all=-l" 或启用 debug 构建时,若导入 "net/http/pprof" 但未显式调用 http.HandleFunc,仍可能触发自动注册——关键在于 init() 函数的副作用。
触发条件验证
// main.go
import _ "net/http/pprof" // 仅此导入即触发 init()
func main() {
http.ListenAndServe("localhost:6060", nil) // 默认路由树含 /debug/pprof/*
}
该导入会执行 pprof 包的 init(),内部调用 http.DefaultServeMux.Handle("/debug/pprof/", Handler())。注意:DefaultServeMux 是全局变量,一旦注册不可撤销,且无日志提示。
注册路径对比表
| 场景 | 是否注册 /debug/pprof/ |
是否需 http.ListenAndServe 启动 |
|---|---|---|
仅 import _ "net/http/pprof" |
✅(自动) | ❌(注册即生效,启动后才可访问) |
| 未导入 pprof | ❌ | — |
隐蔽性验证流程
graph TD
A[启动程序] --> B{导入 net/http/pprof?}
B -->|是| C[执行 init→注册到 DefaultServeMux]
B -->|否| D[无注册]
C --> E[监听时自动暴露端点]
2.3 通过curl+net/http模拟攻击者探测pprof端点的完整链路
探测基础端点
攻击者常首先尝试访问默认 pprof 路径:
curl -s http://localhost:6060/debug/pprof/
该请求触发 net/http 默认注册的 pprof.Handler,返回 HTML 列表。-s 静默错误输出,避免暴露客户端环境;HTTP 状态码 200 表明端点存活且未鉴权。
枚举关键 profile 类型
常见可导出 profile 包括:
/debug/pprof/profile?seconds=3(CPU 采样)/debug/pprof/heap(堆内存快照)/debug/pprof/goroutine?debug=2(阻塞 goroutine 栈)
请求链路时序示意
graph TD
A[curl 发起 HTTP GET] --> B[net/http.ServeMux 路由匹配]
B --> C[pprof.IndexHandler 或 ProfileHandler]
C --> D[调用 runtime/pprof API 采集数据]
D --> E[序列化为 protobuf/plain text 返回]
响应特征对比表
| 端点 | Content-Type | 是否含敏感信息 | 典型响应大小 |
|---|---|---|---|
/debug/pprof/ |
text/html | 否(仅目录) | ~1.2 KB |
/debug/pprof/heap |
application/octet-stream | 是(内存引用链) | 10 KB–5 MB |
/debug/pprof/goroutine?debug=2 |
text/plain | 是(全栈+变量值) | 可达数 MB |
2.4 利用pprof/profile接口触发CPU密集型采样实现拒绝服务延伸
Go 程序默认启用 /debug/pprof/profile 接口,接受 ?seconds=N 参数启动 CPU 采样。攻击者可并发发起多轮长时采样(如 ?seconds=30),迅速耗尽 CPU 资源。
攻击原理
- pprof CPU 采样基于
perf_event_open或信号中断(SIGPROF),每毫秒触发一次栈采集; - 多个并发采样会叠加中断频率,引发上下文切换风暴;
- Go runtime 无法限制采样并发数或配额。
典型恶意请求
# 并发 50 轮、每轮 30 秒 CPU 采样
for i in {1..50}; do curl -s "http://localhost:8080/debug/pprof/profile?seconds=30" > /dev/null & done
此命令触发 50 个独立
runtime/pprof.StartCPUProfile实例,每个持续采集 30 秒栈帧。Go 不校验已有采样状态,导致cpuProfile.add()高频写入共享环形缓冲区,引发锁竞争与缓存行颠簸。
防御建议
- 使用反向代理(如 Nginx)拦截
/debug/pprof/路径; - 生产环境禁用 pprof:
import _ "net/http/pprof"→ 移除; - 或通过中间件鉴权 + 速率限制(如 1 次/分钟/IP)。
| 风险维度 | 默认行为 | 安全加固 |
|---|---|---|
| 接口暴露 | 全开放 | IP 白名单 + Basic Auth |
| 采样并发 | 无限制 | 自定义 handler 加锁互斥 |
| 采样时长 | 最大 30s | 重写 profileHandler 截断 seconds > 5 |
2.5 基于GODEBUG环境变量与runtime.SetMutexProfileFraction的组合信息提取实验
Go 运行时提供双通道互斥锁分析能力:GODEBUG=mutexprofilerate=N 控制全局采样率,runtime.SetMutexProfileFraction(n) 在运行时动态调整,二者协同可实现细粒度诊断。
启动时配置与运行时覆盖
GODEBUG=mutexprofilerate=1:强制记录每次锁竞争(仅用于调试,性能开销极大)runtime.SetMutexProfileFraction(5):将采样率设为 1/5(即约 20% 的阻塞事件被记录)
实验代码示例
package main
import (
"runtime"
"time"
)
func main() {
runtime.SetMutexProfileFraction(5) // 启用互斥锁采样,分母为5
// ... 并发逻辑(如 sync.Mutex 争用场景)
time.Sleep(10 * time.Millisecond)
}
该调用使
pprof.MutexProfile()可获取有效样本;若设为则禁用,负值等效于1(全采样)。GODEBUG环境变量优先级低于SetMutexProfileFraction,后者可覆盖前者。
采样行为对比表
| 设置方式 | 采样逻辑 | 典型用途 |
|---|---|---|
GODEBUG=mutexprofilerate=0 |
完全禁用 | 生产默认 |
SetMutexProfileFraction(1) |
每次阻塞均记录 | 精确复现竞争路径 |
SetMutexProfileFraction(10) |
约 10% 阻塞事件采样 | 平衡精度与开销 |
graph TD
A[程序启动] --> B{GODEBUG=mutexprofilerate=N?}
B -->|是| C[初始化采样率]
B -->|否| D[使用 runtime 默认值 0]
C --> E[runtime.SetMutexProfileFraction 调用]
E --> F[最终生效采样率 = max(N, 调用值)]
第三章:线上服务“裸奔”的三大典型配置缺陷
3.1 未隔离pprof路由至内网或管理网络的真实案例分析
某云原生平台因调试便利性,将 net/http/pprof 未加鉴权直接挂载于管理服务的 /debug/pprof 路径,并暴露在内网网关后:
// 错误示例:无鉴权、无网络策略限制
import _ "net/http/pprof"
http.ListenAndServe(":8080", nil) // 内网可直连
该配置导致攻击者通过内网扫描获取 goroutine stack、heap profile 及运行时环境变量,进而定位敏感凭证注入点。
暴露面对比表
| 暴露路径 | 访问权限 | 可获取信息 |
|---|---|---|
/debug/pprof/ |
未认证 | CPU/heap/goroutine/trace 元数据 |
/debug/pprof/heap?debug=1 |
未授权 | 内存中明文 token、密钥片段 |
攻击链路示意
graph TD
A[内网扫描器] --> B[发现 :8080/debug/pprof]
B --> C[GET /debug/pprof/goroutine?debug=2]
C --> D[解析堆栈中的 config.LoadPath]
D --> E[读取 /etc/secrets/app.yaml]
根本原因在于混淆“开发便利”与“运行时安全边界”,未按最小权限原则实施网络层(如 NetworkPolicy)与应用层(如 HTTP 中间件鉴权)双重隔离。
3.2 使用默认/pprof路径且缺乏身份鉴权的K8s Service配置反模式
安全风险本质
/debug/pprof 是 Go 程序内置的性能分析端点,暴露 CPU、heap、goroutine 等敏感运行时数据。在 Kubernetes 中,若 Service 直接透传至该路径且无认证授权,等同于向集群内外公开进程级调试接口。
典型错误配置示例
# ❌ 危险:Ingress 暴露默认 pprof 路径且无鉴权
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: unsafe-pprof-ingress
spec:
rules:
- http:
paths:
- path: /debug/pprof/ # 默认路径,未重写或拦截
pathType: Prefix
backend:
service:
name: app-service
port: {number: 8080}
该配置使任意网络可达方(含公网)可执行
curl https://example.com/debug/pprof/goroutine?debug=2获取完整协程栈,泄露内部逻辑、连接状态甚至凭证残留。
防御措施对比
| 方案 | 是否阻断未授权访问 | 是否隐藏路径 | 运维复杂度 |
|---|---|---|---|
删除 import _ "net/http/pprof" |
✅ | ✅ | 低 |
使用 pprof.Register() 自定义注册 + 路径混淆 |
✅ | ✅ | 中 |
Istio EnvoyFilter 拦截 /debug/pprof/** |
✅ | ⚠️(路径仍存在) | 高 |
修复流程示意
graph TD
A[Service 暴露 8080 端口] --> B{是否启用 pprof?}
B -- 是 --> C[移除 import 或禁用 handler]
B -- 否 --> D[通过 RBAC+NetworkPolicy 限制访问]
C --> E[验证 curl -I /debug/pprof 返回 404]
3.3 Go 1.21+中net/http/pprof包与ServeMux自动注册引发的隐式暴露
自 Go 1.21 起,net/http/pprof 在首次导入时自动向 http.DefaultServeMux 注册 /debug/pprof/* 路由,无需显式调用 pprof.Register()。
隐式注册行为示例
import _ "net/http/pprof" // 触发 init() → 自动注册到 DefaultServeMux
该 init() 函数内部调用 http.HandleFunc("/debug/pprof/", pprof.Index),无任何环境校验或开关控制,只要二进制含此导入,且使用 http.ListenAndServe("", nil),即暴露完整性能分析接口。
暴露路径与风险等级
| 路径 | 敏感度 | 说明 |
|---|---|---|
/debug/pprof/ |
⚠️ 高 | 列出所有端点 |
/debug/pprof/goroutine?debug=2 |
🔥 极高 | 泄露完整协程栈与局部变量 |
/debug/pprof/heap |
⚠️ 高 | 内存快照可能含敏感数据 |
防御建议(必选)
- ✅ 使用自定义
ServeMux并避免nil参数 - ✅ 生产环境移除
_ "net/http/pprof"导入 - ✅ 若需调试,仅在特定路由下按需挂载:
mux.Handle("/admin/pprof/", http.StripPrefix("/admin/pprof", pprof.Handler()))
graph TD
A[导入 net/http/pprof] --> B[执行 init()]
B --> C[调用 http.HandleFunc]
C --> D[注册到 http.DefaultServeMux]
D --> E[ListenAndServe 时暴露]
第四章:防御纵深构建:从配置加固到运行时防护
4.1 通过自定义ServeMux显式禁用非必要pprof端点的代码级修复方案
默认 net/http/pprof 会注册 /debug/pprof/ 下全部端点(如 /goroutine?debug=2、/heap、/trace),存在信息泄露与拒绝服务风险。最安全的做法是不调用 pprof.Register(),而仅按需显式挂载必需端点。
构建最小化 pprof 路由
mux := http.NewServeMux()
// 仅启用安全审计所需的 /debug/pprof/profile(CPU profile)
mux.HandleFunc("/debug/pprof/profile", pprof.Profile)
// 可选:保留符号表查询(无敏感数据)
mux.HandleFunc("/debug/pprof/cmdline", pprof.Cmdline)
逻辑分析:
pprof.Profile是唯一支持POST的端点,用于交互式 CPU 采样;pprof.Cmdline仅返回启动参数(通常无敏感信息)。其余端点(/goroutine、/heap、/block)均被彻底排除。
禁用对比表
| 端点 | 默认启用 | 本方案状态 | 风险说明 |
|---|---|---|---|
/debug/pprof/ |
✅ | ❌(404) | 主入口,暴露所有子端点列表 |
/debug/pprof/goroutine |
✅ | ❌ | 泄露完整 goroutine 栈与锁状态 |
/debug/pprof/heap |
✅ | ❌ | 暴露内存分配快照,助攻击者构造利用链 |
安全路由流程
graph TD
A[HTTP Request] --> B{Path Match?}
B -->|/debug/pprof/profile| C[pprof.Profile Handler]
B -->|/debug/pprof/cmdline| D[pprof.Cmdline Handler]
B -->|其他 /debug/pprof/*| E[404 Not Found]
4.2 基于HTTP中间件(如JWT、IP白名单)对/pprof路径实施细粒度访问控制
/pprof 是 Go 运行时性能分析接口,默认暴露于 /debug/pprof,生产环境必须严格管控。
访问控制策略组合
- ✅ JWT 校验:验证
admin权限声明(scope: "pprof:read") - ✅ IP 白名单:仅允许运维网段
10.10.0.0/16和跳板机192.168.5.100 - ❌ 禁用基础认证(易被爆破,且与服务网格身份不统一)
中间件链式校验逻辑
func PprofAuthMiddleware(next http.Handler) http.Handler {
return http.HandlerFunc(func(w http.ResponseWriter, r *http.Request) {
if r.URL.Path == "/debug/pprof" || strings.HasPrefix(r.URL.Path, "/debug/pprof/") {
// 1. IP 白名单检查
clientIP := net.ParseIP(getRealIP(r))
if !isInWhitelist(clientIP) {
http.Error(w, "Forbidden: IP not allowed", http.StatusForbidden)
return
}
// 2. JWT 权限校验(需提前解析并缓存 claims)
token, err := parseAndValidateJWT(r.Header.Get("Authorization"))
if err != nil || !hasScope(token, "pprof:read") {
http.Error(w, "Unauthorized: missing valid JWT scope", http.StatusUnauthorized)
return
}
}
next.ServeHTTP(w, r)
})
}
逻辑说明:先执行轻量级 IP 检查(避免无效 JWT 解析开销),再校验 JWT 的作用域声明;
getRealIP需兼容X-Forwarded-For与云厂商透传头;parseAndValidateJWT应复用jwk.Set缓存公钥以降低签名验证延迟。
策略对比表
| 控制维度 | 实施方式 | 生产适用性 | 动态更新支持 |
|---|---|---|---|
| IP 白名单 | CIDR + 静态列表 | ⭐⭐⭐⭐ | ⚠️ 需重启 |
| JWT Scope | RFC 8693 授权码 | ⭐⭐⭐⭐⭐ | ✅ 服务端实时生效 |
graph TD
A[HTTP Request] --> B{Path == /debug/pprof*?}
B -->|Yes| C[IP Whitelist Check]
C -->|Fail| D[403 Forbidden]
C -->|OK| E[JWT Scope Validation]
E -->|Fail| F[401 Unauthorized]
E -->|OK| G[Pass to pprof Handler]
B -->|No| G
4.3 利用eBPF工具(如bpftrace)实时监控异常pprof访问行为的检测实践
pprof端点(如 /debug/pprof/profile)常被攻击者用于窃取运行时性能快照,暴露内存布局或执行路径。传统日志审计存在延迟,而 eBPF 可在内核态无侵入捕获 HTTP 请求上下文。
核心检测逻辑
通过 bpftrace 监控 http_server_handle(Go net/http)或 accept/read 系统调用链,匹配 URI 中的 pprof 路径及非常规请求特征(如非 GET、高频、非内网源)。
示例 bpftrace 脚本
# 检测非 GET 方法访问 /debug/pprof/*
bpftrace -e '
kprobe:net/http.(*ServeMux).ServeHTTP {
$path = ((struct http_request*)arg1)->url->path;
if ( $path != 0 && strncmp($path, "/debug/pprof/", 13) == 0 &&
((struct http_request*)arg1)->method != "GET" ) {
printf("ALERT: %s %s from %s\n",
((struct http_request*)arg1)->method,
$path,
((struct http_request*)arg1)->remote_addr);
}
}
'
该脚本需配合 Go 运行时符号调试信息(
-gcflags="all=-l"编译);arg1指向*http.Request,实际字段偏移依赖 Go 版本,生产环境建议改用uprobe+libbpf稳定解析。
异常行为判定维度
| 维度 | 正常行为 | 异常信号 |
|---|---|---|
| 请求方法 | 仅 GET | POST/PUT/HEAD |
| 源 IP | 内网/运维白名单 | 外网/未授权 CIDR |
| 频率 | > 5次/30秒(滑动窗口) |
响应流程
graph TD
A[HTTP 请求进入] --> B{URI 匹配 /debug/pprof/}
B -->|是| C[检查 method + src_ip + rate]
C -->|触发阈值| D[记录到 ringbuf + 推送告警]
C -->|否| E[放行]
4.4 在CI/CD流水线中集成go-vet-pprof静态检查与Docker镜像层扫描的自动化防线
静态分析与镜像扫描协同策略
在构建阶段并行执行 go vet 增强版(含 pprof 相关内存/性能误用检测)与 trivy image --scanners vuln,config,secret,实现代码逻辑与容器配置双维度拦截。
流水线关键步骤(GitLab CI 示例)
test:static:
stage: test
script:
- go vet -vettool=$(which pprof) ./... # 启用pprof插件检测runtime/pprof.StartCPUProfile等误用
- go tool pprof -text cpu.pprof 2>/dev/null || true # 防止pprof残留文件阻断流程
go vet -vettool=$(which pprof)实际不生效——此处为常见误区;正确做法是使用golangci-lint集成govet+ 自定义pprof检查器。pprof本身非 vettool,需通过golangci-lint插件桥接。
扫描结果分级响应表
| 风险等级 | 处理动作 | 示例漏洞类型 |
|---|---|---|
| CRITICAL | 阻断合并,通知安全组 | CVE-2023-12345 |
| HIGH | 阻断部署,允许人工覆盖 | 硬编码凭证、root用户 |
graph TD
A[源码提交] --> B[go-vet-pprof静态检查]
A --> C[Docker构建]
C --> D[Trivy镜像层扫描]
B & D --> E{全通过?}
E -->|是| F[推送至镜像仓库]
E -->|否| G[失败并标记MR]
第五章:走向安全优先的Go可观测性新范式
在金融级微服务集群中,某支付网关曾因未加密传输的OpenTelemetry traceID泄露用户会话上下文,导致攻击者构造合法Span链路绕过风控策略。这一事件推动团队重构可观测性栈——不再将指标、日志、链路视为“调试辅助”,而是作为安全控制面的一等公民。
零信任数据采集管道
所有Go服务启动时强制加载otelcol-contrib安全代理,通过双向mTLS认证连接Collector,并启用attribute_filter处理器动态脱敏敏感字段:
// 服务启动时注入安全采集器
sdktrace.NewTracerProvider(
sdktrace.WithSpanProcessor(
sdktrace.NewBatchSpanProcessor(
otlptracehttp.NewClient(
otlptracehttp.WithEndpoint("https://collector.internal:4318"),
otlptracehttp.WithTLSClientConfig(&tls.Config{
RootCAs: caPool,
Certificates: []tls.Certificate{clientCert},
}),
),
),
),
sdktrace.WithSpanProcessor(
// 敏感属性实时过滤
NewAttributeFilterProcessor(map[string]bool{
"http.request.header.authorization": false,
"user.pii.phone": false,
"payment.card.number": false,
}),
),
)
安全增强型指标生命周期管理
采用RBAC+ABAC混合策略控制指标访问权限,Prometheus联邦配置示例如下:
| 指标类型 | 允许访问角色 | 动态标签过滤条件 | 加密要求 |
|---|---|---|---|
http_request_duration_seconds |
SRE、Security-Team | env="prod" AND service!="auth" |
AES-256-GCM |
go_goroutines |
DevOps-ReadOnly | job=~"backend.*" |
无需加密 |
auth_failed_attempts_total |
Security-Team ONLY | status_code="401" |
强制TLS 1.3 |
运行时安全策略注入
通过eBPF探针实时监控Go运行时行为,在runtime.mallocgc调用栈中注入内存指纹校验逻辑,当检测到未签名的pprof profile导出请求时,自动触发SIGUSR2中断并记录审计事件:
flowchart LR
A[HTTP /debug/pprof/heap] --> B{eBPF kprobe<br>on runtime.mallocgc}
B --> C{是否携带有效JWT?<br>issuer=observability-gateway}
C -->|否| D[拒绝响应 + 写入audit.log]
C -->|是| E[生成带HMAC-SHA256签名的profile]
E --> F[返回加密profile文件]
安全可观测性门禁检查
CI流水线集成go-seccheck工具,在每次提交前执行三项强制验证:
- 所有
log.Printf调用必须通过zap.Sugar()封装且禁用%v格式化符 net/http服务端必须配置http.Server.ReadTimeout > 5s且启用StrictTransportSecurity- OpenTelemetry资源属性中
service.name必须匹配正则^[a-z0-9]+-[a-z0-9]+-svc$
某次发布前扫描发现order-processor服务存在硬编码os.Getenv("DB_PASSWORD")调用,门禁立即阻断部署并推送告警至Slack #security-observability 频道。运维团队通过Jaeger UI的security_context标签快速定位到该Span所属K8s Pod,结合Falco事件日志确认其处于非生产命名空间,最终回滚错误镜像版本。
审计就绪的日志结构化规范
所有Go服务日志强制采用JSON格式,且必须包含以下安全关键字段:
{
"event_id": "7f3a1b9c-d5e2-4a8f-b0c1-2d8e9f4a5b6c",
"security_level": "L3",
"principal": {"type":"service","id":"payment-gateway-v2"},
"resource": {"type":"k8s_pod","name":"pgw-7f8d9c4b5-xzq2r"},
"action": "metric_export",
"outcome": "success",
"timestamp": "2024-06-15T08:23:41.123Z"
} 