第一章:Go语言混沌工程概述与实践价值
混沌工程是一种通过主动向系统注入故障来验证其韧性与稳定性的实验性方法。在云原生与微服务架构日益普及的今天,Go语言凭借其轻量级并发模型(goroutine + channel)、静态编译、低内存开销和卓越的网络性能,成为构建高可用基础设施与混沌工具链的理想选择。大量主流混沌工程框架如Chaos Mesh、LitmusChaos的控制面组件或自定义实验器(chaos-experiment)均采用Go实现,凸显其在可观测性、快速迭代与跨平台部署方面的综合优势。
为什么选择Go进行混沌工程实践
- 原生支持高并发:可同时调度成千上万的故障注入协程(如模拟大规模Pod延迟或网络分区),而无需复杂线程管理;
- 零依赖二进制:
go build -o chaos-injector main.go编译出的单文件可直接部署至Kubernetes InitContainer或边缘节点,规避运行时环境差异; - 生态成熟:
github.com/chaos-mesh/go-runner等官方SDK提供标准化的实验生命周期接口,大幅降低自定义故障(如HTTP错误率注入、磁盘IO限流)开发门槛。
快速启动一个Go混沌实验
以下是一个最小可行的CPU过载实验示例,使用标准库实现,不依赖外部框架:
package main
import (
"fmt"
"runtime"
"time"
)
func main() {
fmt.Println("🔥 启动CPU混沌实验:占用1个逻辑核100%持续30秒")
runtime.GOMAXPROCS(1) // 限制仅使用1个OS线程
start := time.Now()
// 持续执行空循环,强制CPU满载
for time.Since(start) < 30*time.Second {
// 空操作,触发调度器持续抢占CPU
}
fmt.Println("✅ 实验结束")
}
编译并后台运行:
go build -o cpu-chaos main.go && ./cpu-chaos &
配合kubectl top pod或htop可观测目标节点CPU负载突增,验证系统在资源扰动下的降级能力与自动恢复行为。该模式适用于压力测试、熔断策略验证及监控告警灵敏度校准等典型场景。
第二章:Chaos-Mesh在Go服务中的集成与故障注入实战
2.1 Chaos-Mesh架构原理与Go应用适配性分析
Chaos-Mesh 基于 Kubernetes CRD 构建,核心由 ChaosDaemon(节点侧 agent)、ChaosControllerManager(控制平面)和 Dashboard(可视化层)组成,通过 PodChaos、NetworkChaos 等自定义资源声明式注入故障。
控制面与数据面分离设计
// controller/pkg/chaosdaemon/client.go:gRPC 客户端初始化示例
conn, err := grpc.Dial(
fmt.Sprintf("%s:%d", daemonIP, daemonPort),
grpc.WithTransportCredentials(insecure.NewCredentials()), // 生产需启用 mTLS
grpc.WithTimeout(5*time.Second), // 防止 Daemon 响应阻塞
)
该调用建立控制器与节点上 ChaosDaemon 的双向流式 gRPC 连接,用于下发故障指令(如 InjectNetworkDelayRequest)并接收执行状态。超时参数保障控制面稳定性,insecure 模式仅用于测试环境。
Go 生态深度适配优势
- 原生支持
context.Context实现故障操作的优雅中断与超时控制 k8s.io/client-go无缝集成 Informer 机制,实现 Chaos 对象的实时同步controller-runtime提供标准化 Reconcile 循环,降低扩展新 chaos 类型门槛
| 特性 | 适配表现 |
|---|---|
| 并发模型 | goroutine + channel 天然契合高并发故障调度 |
| 依赖注入 | 使用 go.uber.org/fx 统一管理组件生命周期 |
| 日志与追踪 | 结合 go-logr 与 OpenTelemetry Go SDK |
graph TD
A[ChaosEngine CR] --> B[ChaosControllerManager]
B --> C{Reconcile Loop}
C --> D[Validate & Mutate]
C --> E[Dispatch to ChaosDaemon via gRPC]
E --> F[Node-local eBPF/netem injection]
2.2 基于CRD的网络延迟故障注入:从YAML定义到Go服务可观测性验证
定义延迟故障CRD
首先声明 NetworkChaos 自定义资源,描述目标Pod与注入参数:
apiVersion: chaos-mesh.org/v1alpha1
kind: NetworkChaos
metadata:
name: delay-pod-a
spec:
action: delay
delay:
latency: "100ms" # 固定延迟时长
correlation: "0" # 延迟抖动相关性(0=无相关)
mode: one # 仅影响单个匹配Pod
selector:
namespaces: ["default"]
labels:
app: payment-service
该CRD通过Chaos Mesh Operator监听并调用 tc netem 在目标Pod的pause容器中注入延迟,latency 是核心扰动参数,correlation 控制抖动随机性。
Go服务可观测性验证路径
使用OpenTelemetry SDK采集gRPC调用延迟指标,关键验证点包括:
/metrics端点暴露grpc_client_handled_latency_ms_bucket直方图- Prometheus抓取后,查询
rate(grpc_client_handled_latency_ms_sum[1m]) / rate(grpc_client_handled_latency_ms_count[1m])得到P50延迟 - 对比注入前后P95值跃升是否 ≈100ms
| 指标维度 | 注入前 | 注入后 | 变化幅度 |
|---|---|---|---|
| gRPC P95延迟 | 22ms | 124ms | +464% |
| HTTP 5xx率 | 0.0% | 1.3% | 显著上升 |
验证闭环流程
graph TD
A[Apply NetworkChaos CR] --> B[Chaos Mesh Operator解析]
B --> C[注入tc netem delay规则]
C --> D[Go服务OpenTelemetry上报延迟分布]
D --> E[Prometheus聚合+Grafana告警触发]
2.3 Pod-level CPU干扰与IO压力注入:结合Go runtime.MemStats实现资源扰动量化评估
在Kubernetes集群中,Pod级资源干扰需精准建模。我们通过stress-ng注入可控CPU/IO压力,并同步采集Go应用的runtime.MemStats指标(如HeapSys、NumGC、PauseNs),建立扰动强度与内存行为的映射关系。
数据采集逻辑
func collectMemStats() *runtime.MemStats {
var m runtime.MemStats
runtime.ReadMemStats(&m)
return &m
}
// 每100ms采样一次,避免高频调用影响被测负载
该函数低开销获取运行时内存快照;ReadMemStats为原子读取,无需锁,但频繁调用(
干扰-指标关联维度
| 扰动类型 | 关键MemStats字段 | 敏感度特征 |
|---|---|---|
| CPU争用 | NumGC, PauseNs |
GC暂停时间显著增长 |
| IO阻塞 | HeapAlloc, TotalAlloc |
分配速率下降,缓存失效加剧 |
扰动注入流程
graph TD
A[启动stress-ng --cpu 4 --io 2] --> B[每100ms采集MemStats]
B --> C[滑动窗口计算ΔPauseNs/ΔNumGC]
C --> D[输出扰动敏感度得分]
2.4 DNS劫持与Service Mesh协同:在Istio+Go微服务中精准模拟服务发现异常
场景建模:DNS响应篡改注入点
在Istio环境中,Envoy Sidecar默认信任上游DNS解析结果。通过自定义CoreDNS插件或iptables重定向,可将payment.default.svc.cluster.local的A记录劫持为错误IP(如192.0.2.100)。
Go客户端容错验证代码
// 模拟服务发现超时与fallback逻辑
func resolvePaymentService(ctx context.Context) (string, error) {
resolver := &net.Resolver{ // 使用Pod内默认DNS配置
PreferGo: true,
Dial: func(ctx context.Context, network, addr string) (net.Conn, error) {
return net.DialTimeout(network, "10.96.0.10:53", 2*time.Second) // 强制指定DNS服务器
},
}
ips, err := resolver.LookupHost(ctx, "payment.default.svc.cluster.local")
if err != nil || len(ips) == 0 {
return "backup-payment.default.svc.cluster.local", fmt.Errorf("DNS resolution failed: %w", err)
}
return ips[0], nil
}
逻辑分析:该代码显式控制DNS解析器,绕过glibc缓存;
PreferGo: true启用Go原生解析器以规避/etc/resolv.conf污染;Dial超时设为2s防止阻塞,配合IstioDestinationRule的connectionPool.timeout形成端到端熔断链。
Istio流量治理协同策略
| 组件 | 配置项 | 作用 |
|---|---|---|
ServiceEntry |
resolution: NONE |
禁用K8s DNS自动注册,强制走劫持路径 |
VirtualService |
timeout: 3s |
限制HTTP请求生命周期,避免长连接滞留 |
Sidecar |
egress: [".*/.*"] |
允许DNS查询透出至劫持节点 |
graph TD
A[Go App] -->|DNS Query| B(CoreDNS with hijack plugin)
B -->|Fake A record| C[Envoy Sidecar]
C -->|Upstream connect to 192.0.2.100| D[Connection refused]
D --> E[Retry with backup FQDN]
2.5 混沌实验生命周期管理:使用Chaos-Mesh Dashboard+Go client实现自动化编排与状态回溯
Chaos-Mesh 提供了声明式 API 与成熟 SDK,使混沌实验可编程化、可观测化。
实验创建与状态追踪
通过 Go client 提交 NetworkChaos CRD 后,Dashboard 实时渲染拓扑影响面与执行状态:
client := chaosmesh.NewForConfigOrDie(cfg)
netChaos := &chaosv1alpha1.NetworkChaos{
ObjectMeta: metav1.ObjectMeta{Name: "latency-test", Namespace: "default"},
Spec: chaosv1alpha1.NetworkChaosSpec{
Action: "delay",
Delay: &chaosv1alpha1.DelaySpec{Latency: "100ms", Correlation: "25"},
Selector: chaosv1alpha1.SelectorSpec{Namespaces: []string{"app"}},
},
}
_, err := client.NetworkChaos("default").Create(context.TODO(), netChaos, metav1.CreateOptions{})
该代码构造并提交网络延迟实验:
Latency控制基础延迟值,Correlation引入抖动相关性,Selector精确限定目标 Pod。CR 创建后,Chaos-Mesh Controller 自动注入 ebpf 规则,并上报Phase: Running到 Status 字段。
状态回溯能力
Dashboard 支持按时间轴查看历史实验的 Phase 变迁(Initialized → Running → Paused → Completed → Failed),并关联 Prometheus 指标快照。
| Phase | 触发条件 | 可逆操作 |
|---|---|---|
| Running | CR 创建成功且资源就绪 | Pause() |
| Paused | 手动暂停或自动熔断 | Resume() |
| Completed | duration 超时或手动终止 | 不可恢复 |
自动化编排流程
graph TD
A[CI Pipeline] --> B[生成实验YAML]
B --> C[Go client Create/Update]
C --> D[Chaos-Mesh Controller调度]
D --> E[ebpf规则注入+指标采集]
E --> F[Dashboard实时渲染+历史归档]
第三章:go-chaos轻量级库的嵌入式混沌控制
3.1 go-chaos核心机制解析:基于goroutine hook与unsafe.Pointer的运行时劫持原理
go-chaos 不依赖编译期插桩,而是通过 goroutine 状态钩子 + unsafe.Pointer 运行时内存重写 实现无侵入混沌注入。
goroutine 状态劫持点
Go 运行时在 runtime.gopark/runtime.goready 等关键路径中暴露了可被篡改的函数指针表(如 runtime.park_m)。go-chaos 利用 unsafe.Pointer 定位并覆写这些指针,注入自定义拦截逻辑:
// 示例:劫持 gopark 的入口跳转
parkFn := (*[2]uintptr)(unsafe.Pointer(&runtime_park_m))[0]
newFn := *(*uintptr)(unsafe.Pointer(&my_park_hook))
*(*uintptr)(unsafe.Pointer(&runtime_park_m)) = newFn // 原子覆写
逻辑分析:
runtime_park_m是*func(...)类型的全局变量,其地址可通过符号解析获得;unsafe.Pointer绕过类型系统,直接修改函数指针目标。参数newFn必须符合原函数签名(func(gp *g, traceEv byte, traceskip int, reason string, unlockf func(*g, unsafe.Pointer) bool, lock unsafe.Pointer)),否则触发 panic。
关键机制对比
| 机制 | 是否需 recompile | 是否影响 GC | 是否支持细粒度控制 |
|---|---|---|---|
| 编译期插桩 | 是 | 否 | 弱 |
| eBPF tracepoint | 否 | 否 | 中 |
| goroutine hook | 否 | 是 | 强 |
graph TD
A[goroutine 调度入口] --> B{是否命中 chaos rule?}
B -->|是| C[执行故障注入逻辑]
B -->|否| D[调用原始 runtime 函数]
C --> D
3.2 在Go HTTP Handler中动态注入panic:panic recovery链路完整性验证与错误传播观测
动态panic注入机制
通过http.Handler包装器在运行时按条件触发panic,模拟真实异常场景:
func PanicInjectingHandler(next http.Handler, injectProb float64) http.Handler {
return http.HandlerFunc(func(w http.ResponseWriter, r *http.Request) {
if rand.Float64() < injectProb {
panic(fmt.Sprintf("injected at %s", r.URL.Path))
}
next.ServeHTTP(w, r)
})
}
injectProb控制panic注入概率(如0.1表示10%请求触发),r.URL.Path提供上下文定位;该设计支持灰度验证,避免全量中断。
Recovery中间件链路观测
使用嵌套recover捕获并透传错误元数据:
| 字段 | 类型 | 说明 |
|---|---|---|
panicValue |
interface{} |
原始panic值 |
stackTrace |
string |
运行时goroutine栈快照 |
handlerPath |
string |
触发panic的路由路径 |
错误传播路径
graph TD
A[HTTP Request] --> B[PanicInjectingHandler]
B --> C{Should panic?}
C -->|Yes| D[panic]
C -->|No| E[Next Handler]
D --> F[RecoveryMiddleware]
F --> G[ErrorLogger + Header Injection]
G --> H[500 Response]
验证要点
- 确保recover在defer中紧邻ServeHTTP调用
- panic后ResponseWriter不可写,需提前设置状态码与Header
- 日志中必须保留
runtime.Caller(2)获取原始panic位置
3.3 内存溢出故障的可控触发:利用runtime.GC()与debug.SetGCPercent模拟OOM前兆行为
在压测与稳定性验证中,需主动暴露内存压力下的系统行为。debug.SetGCPercent(-1)可彻底禁用GC,使堆内存持续增长直至OOM;配合手动调用runtime.GC(),则可精确控制GC时机,复现GC停顿加剧、对象晋升加速等OOM前兆。
关键参数说明
debug.SetGCPercent(n):n<0禁用GC;n=0强制每次分配都触发GC;默认n=100表示堆增长100%时触发runtime.GC():阻塞式强制GC,返回后堆已回收(但不保证完全清空)
模拟高内存压力示例
import (
"runtime/debug"
"runtime"
"time"
)
func simulateOOMPremonition() {
debug.SetGCPercent(-1) // 禁用自动GC
var data [][]byte
for i := 0; i < 50; i++ {
data = append(data, make([]byte, 10<<20)) // 每次分配10MB
if i%10 == 0 {
runtime.GC() // 手动触发,观察STW延长趋势
time.Sleep(10 * time.Millisecond)
}
}
}
逻辑分析:禁用GC后,
make([]byte, 10<<20)持续申请大块内存,runtime.GC()在第0/10/20/30/40次循环显式触发,可观测到GC耗时逐轮上升、goroutine调度延迟增大——这正是生产环境OOM前的典型征兆。
GC百分比策略对比
| GCPercent | 行为特征 | 适用场景 |
|---|---|---|
-1 |
完全禁用GC,快速OOM | OOM路径验证 |
|
每次分配即GC,极高开销 | GC敏感性压测 |
100 |
默认策略,平衡吞吐与延迟 | 生产环境基准 |
graph TD
A[启动应用] --> B{SetGCPercent=-1}
B --> C[持续分配大对象]
C --> D[周期性runtime.GC]
D --> E[观测GC耗时/堆增长/STW]
E --> F[识别OOM前兆模式]
第四章:多维度故障组合与Go生态协同治理
4.1 网络分区+etcd leader切换:在Go分布式协调场景下验证Raft一致性边界
数据同步机制
当网络分区发生时,etcd 集群中多数派节点(如3节点集群中的2个)维持 Leader 职责,而少数派节点进入 Candidate 状态并发起新选举。Raft 协议确保仅多数派可提交日志,从而防止脑裂写入。
关键验证代码片段
// 模拟客户端向 etcd 写入带租约的 key,并监听 revision 变化
cli, _ := clientv3.New(clientv3.Config{
Endpoints: []string{"http://localhost:2379"},
DialTimeout: 5 * time.Second,
})
ctx, cancel := context.WithTimeout(context.Background(), 3*time.Second)
_, err := cli.Put(ctx, "config/version", "v1.2.0", clientv3.WithLease(leaseID))
cancel()
// 若 ctx 超时且 Leader 已切换,Put 将返回 ErrNoLeader 或上下文错误
逻辑分析:
WithTimeout强制限制请求生命周期;ErrNoLeader表明当前客户端连接的 endpoint 所在节点已失联或降级为 Follower,需重试或触发故障转移逻辑。DialTimeout控制连接建立耗时,避免阻塞在不可达节点。
Raft 状态迁移关键约束
| 状态 | 允许转换至 | 触发条件 |
|---|---|---|
| Follower | Candidate | 选举超时(election timeout) |
| Candidate | Leader / Follower | 收到多数票 / 新 Leader 心跳 |
| Leader | Follower | 发现更高 term 的 AppendEntries |
graph TD
A[Follower] -->|election timeout| B[Candidate]
B -->|majority votes| C[Leader]
B -->|higher-term heartbeat| A
C -->|timeout/no majority| A
4.2 TLS握手失败+gRPC拦截器注入:面向Go-zero/gRPC-Gateway的加密通信断连仿真
模拟TLS握手失败场景
在开发联调阶段,可通过自定义 tls.Config 强制禁用协商版本或提供空证书链触发 tls: no cipher suite supported 错误:
// 拦截器中主动触发TLS失败(仅用于仿真)
cfg := &tls.Config{
MinVersion: tls.VersionTLS13 + 1, // 超出支持范围
InsecureSkipVerify: true,
}
该配置使客户端在 ClientHello 后立即终止握手,精准复现底层加密层断连。
gRPC拦截器注入点
Go-zero 的 rpcx.ClientOption 与 gRPC-Gateway 的 DialOptions 均支持 UnaryInterceptor 注入:
| 组件 | 注入位置 | 触发时机 |
|---|---|---|
| Go-zero RPC | zrpc.RpcClientConf |
请求序列化前 |
| gRPC-Gateway | grpc.Dial(..., grpc.WithUnaryInterceptor) |
HTTP/2流建立后 |
断连传播路径
graph TD
A[Gateway HTTP请求] --> B[gRPC-Gateway TLS握手]
B -->|失败| C[返回503 Service Unavailable]
B -->|成功| D[转发至Go-zero服务端]
D --> E[服务端拦截器校验证书链]
4.3 Go module依赖注入故障:通过replace指令+go-chaos mock第三方SDK超时与空响应
在微服务集成测试中,真实调用第三方 SDK(如支付网关、短信平台)易引发稳定性风险。Go module 的 replace 指令可将生产依赖临时重定向至本地可控的 mock 模块。
替换依赖实现隔离
// go.mod
replace github.com/example/payment-sdk => ./mocks/payment-sdk
该行强制构建时使用本地 mocks/payment-sdk 替代远程模块,避免网络依赖,是注入可控行为的前提。
使用 go-chaos 注入故障
go-chaos inject --module github.com/example/payment-sdk \
--func DoPay --delay 3000ms --error "context deadline exceeded"
参数说明:--delay 触发模拟超时;--error 返回指定错误,精准复现 context.DeadlineExceeded 场景。
故障响应策略对比
| 场景 | HTTP 状态码 | SDK 返回值 | 客户端应处理方式 |
|---|---|---|---|
| 超时 | — | error ≠ nil | 重试 + 降级日志上报 |
| 空响应(200) | 200 | struct{} | 校验字段完整性并告警 |
graph TD
A[发起支付请求] --> B{go-chaos 是否启用?}
B -->|是| C[注入延迟/空响应]
B -->|否| D[调用真实 SDK]
C --> E[触发超时panic或nil返回]
D --> F[正常业务流]
4.4 混沌指标闭环:Prometheus + Go expvar + chaos-mesh exporter构建SLO影响面分析看板
为精准量化混沌实验对SLO(如错误率、P95延迟)的实际扰动,需打通“注入—暴露—采集—关联”全链路。
数据同步机制
Chaos Mesh 通过 chaos-mesh-exporter 将实验元数据(chaos_uid、scope、start_time)以 Prometheus 格式暴露;同时 Go 服务启用 expvar 并集成 promhttp,将关键 SLO 指标(http_request_duration_seconds_bucket)与 chaos 标签动态绑定:
// 在 HTTP handler 中注入 chaos 上下文标签
prometheus.WithLabelValues(
"GET", "200",
chaosCtx.Value("chaos_uid").(string), // 关键:透传 UID
)
该设计使每个请求指标携带混沌实验指纹,实现指标级影响溯源。
关联分析看板
| Prometheus 查询示例: | 指标维度 | 用途 |
|---|---|---|
rate(http_requests_total{chaos_uid=~".+"}[5m]) |
定位受扰流量占比 | |
histogram_quantile(0.95, sum(rate(http_request_duration_seconds_bucket{chaos_uid=~".+"}[5m])) by (le, chaos_uid)) |
计算各实验下的P95延迟偏移 |
graph TD
A[Chaos Mesh 注入故障] --> B[chaos-mesh-exporter 暴露 UID/状态]
C[Go expvar + promhttp] --> D[请求指标自动打标 chaos_uid]
B & D --> E[Prometheus 联合抓取]
E --> F[Grafana 看板:SLO 偏差 vs chaos_uid]
第五章:生产环境混沌工程落地建议与演进路径
建立分阶段准入机制
在金融核心交易系统落地混沌工程时,某头部券商采用三阶准入模型:第一阶段仅允许在非生产灰度集群对无状态服务注入延迟(如模拟Redis响应超时);第二阶段扩展至生产只读链路(如行情查询服务),且需通过变更窗口审批+熔断阈值双校验;第三阶段覆盖写链路,强制要求前置全链路压测基线对比与15分钟自动回滚能力。该机制使故障注入成功率从初期62%提升至98.7%,平均恢复时间缩短至43秒。
构建可观测性增强闭环
混沌实验必须与现有监控体系深度耦合。以下为某电商大促前混沌演练的SLO验证片段:
| 指标类型 | 监控项 | 阈值 | 实验触发条件 |
|---|---|---|---|
| 业务指标 | 订单创建成功率 | ≥99.95% | 连续3分钟低于阈值自动终止实验 |
| 系统指标 | MySQL主从延迟 | ≤50ms | 超过阈值持续120秒触发告警 |
| 基础设施 | 容器CPU使用率 | 单节点超限自动隔离实验流量 |
制定故障注入黄金清单
基于三年生产事故复盘,提炼出高危但低损的12类注入场景,例如:
network.partition:在Kubernetes Service Mesh中模拟跨AZ网络分区disk.full:通过fallocate -l 95%G /tmp/chaos-disk.img精准填充临时盘process.kill:针对Java应用使用jps -l | grep 'OrderService' | awk '{print $1}' | xargs kill -9
推动组织协同流程化
混沌工程不是技术团队的独角戏。某支付平台建立“红蓝对抗日”制度:每月第三个周四,运维提供基础设施故障模板,开发提交服务降级预案,测试团队设计验证用例,安全团队审计权限边界。所有实验记录自动同步至Confluence并关联Jira缺陷单。
flowchart LR
A[混沌实验申请] --> B{是否涉及核心链路?}
B -->|是| C[架构委员会评审]
B -->|否| D[自动化准入检查]
C --> E[签署SLA承诺书]
D --> F[执行注入脚本]
E --> F
F --> G[实时比对SLO基线]
G --> H{达标?}
H -->|否| I[自动终止+生成根因报告]
H -->|是| J[归档实验数据至知识库]
持续演进技术栈
2023年该平台完成混沌引擎升级:将原有基于Shell脚本的手动注入,迁移至Chaos Mesh + 自研Dashboard组合。新架构支持实验编排DSL定义、多集群并行执行、以及与GitOps流水线集成——当生产发布后自动触发对应服务的依赖链路混沌验证,已累计拦截37次潜在级联故障。
建立成本效益评估模型
每次混沌实验需计算ROI:投入成本=工程师工时×2000元/小时 + 基础设施损耗;收益=避免故障损失×概率(基于历史MTBF推算)。某次对消息队列的重试机制验证,发现未配置死信队列导致积压超10万条,预估可规避单次大促期间230万元资损,ROI达1:8.6。
强化合规与审计能力
在满足等保2.0三级要求下,所有混沌操作需通过堡垒机审计通道执行,操作日志包含完整上下文:发起人数字证书、实验参数哈希值、影响范围拓扑图、SLO对比快照。审计系统每季度生成《混沌工程合规报告》,已通过银保监会现场检查。
