如何自定义Go语言HPA指标实现Golang在K8s中的自动扩缩容策略?
- 内容介绍
- 文章标签
- 相关推荐
本文共计942个文字,预计阅读时间需要4分钟。
由于K8s默认只支持CPU和memory这两种资源指标,你填写了customMetrics或externalMetrics字段,但集群未安装相应适配器,HPA控制器无法理解这些指标——它将静默跳过这些指标,或者报错FailedGetCustomMetric。
实操建议:
立即学习“go语言免费学习笔记(深入)”;
- 先确认是否已部署
metrics-server(仅够用 CPU/memory);自定义指标必须额外部署prometheus-adapter或k8s-prometheus-adapter - 检查 HPA 的
apiVersion:用自定义指标必须是autoscaling/v2或更高,v1版本完全不识别customMetrics - 验证指标是否真正可查:运行
kubectl get --raw "/apis/custom.metrics.k8s.io/v1beta1/namespaces/default/pods/*/http_requests_total",看是否返回数据
Go 服务如何暴露 Prometheus 指标供 HPA 使用
HPA 本身不拉指标,它靠 prometheus-adapter 去查 Prometheus,再把结果转成 K8s API 格式。所以你的 Go 服务只需标准暴露指标,不用对接 HPA。
实操建议:
立即学习“go语言免费学习笔记(深入)”;
- 用
promhttp包注册 handler,路径固定为/metrics(prometheus-adapter默认按此路径抓取) - 关键指标命名要带
namespace、pod标签,例如:http_requests_total{namespace="default",pod="myapp-5c7f9d4b8-xvq9t"},否则prometheus-adapter无法关联到具体 Pod - 避免在指标中使用高基数标签(如
user_id),否则 Prometheus 存储和查询压力剧增,HPA 获取指标延迟升高甚至超时
http.Handle("/metrics", promhttp.Handler())
prometheus-adapter 配置里最常写错的三处
配置写错不会报错,但 HPA 查不到指标——它只是 quietly 返回空列表。
实操建议:
立即学习“go语言免费学习笔记(深入)”;
-
rules[].seriesQuery必须匹配 Prometheus 中真实存在的指标名,大小写、下划线都不能错,比如写成http_request_total(少个 s)就查不到 -
resources下的overrides要对齐:若想按 Pod 扩容,必须设pod: {resource: "pod"},写成pod: {resource: "pods"}会失败 -
name字段定义的是 HPA 里引用的指标名,比如设为http_requests_per_second,那 HPA YAML 里就得写metricName: http_requests_per_second,不能沿用原始指标名
HPA YAML 中 targetAverageValue 和 targetAverageUtilization 别混用
前者用于自定义/外部指标,后者只适用于 cpu 和 memory 这类资源指标。混用会导致 HPA 状态卡在 Waiting for metrics to become available。
实操建议:
立即学习“go语言免费学习笔记(深入)”;
- 自定义指标一律用
targetAverageValue,单位需与 Prometheus 中一致(比如 QPS 就写10表示每秒 10 次) - 别试图对
counter类型指标(如http_requests_total)直接设 target——要用rate()聚合,这一步必须在prometheus-adapter的metricsQuery里完成 - HPA 默认每 15 秒同步一次指标,如果你的业务毛刺短于这个周期,扩缩容会有明显滞后,这不是代码问题,是机制限制
/metrics 有没有值,再查 Prometheus 是否收录,再试 raw API,最后看 HPA event。漏掉任何一环,都会以为是代码写错了。本文共计942个文字,预计阅读时间需要4分钟。
由于K8s默认只支持CPU和memory这两种资源指标,你填写了customMetrics或externalMetrics字段,但集群未安装相应适配器,HPA控制器无法理解这些指标——它将静默跳过这些指标,或者报错FailedGetCustomMetric。
实操建议:
立即学习“go语言免费学习笔记(深入)”;
- 先确认是否已部署
metrics-server(仅够用 CPU/memory);自定义指标必须额外部署prometheus-adapter或k8s-prometheus-adapter - 检查 HPA 的
apiVersion:用自定义指标必须是autoscaling/v2或更高,v1版本完全不识别customMetrics - 验证指标是否真正可查:运行
kubectl get --raw "/apis/custom.metrics.k8s.io/v1beta1/namespaces/default/pods/*/http_requests_total",看是否返回数据
Go 服务如何暴露 Prometheus 指标供 HPA 使用
HPA 本身不拉指标,它靠 prometheus-adapter 去查 Prometheus,再把结果转成 K8s API 格式。所以你的 Go 服务只需标准暴露指标,不用对接 HPA。
实操建议:
立即学习“go语言免费学习笔记(深入)”;
- 用
promhttp包注册 handler,路径固定为/metrics(prometheus-adapter默认按此路径抓取) - 关键指标命名要带
namespace、pod标签,例如:http_requests_total{namespace="default",pod="myapp-5c7f9d4b8-xvq9t"},否则prometheus-adapter无法关联到具体 Pod - 避免在指标中使用高基数标签(如
user_id),否则 Prometheus 存储和查询压力剧增,HPA 获取指标延迟升高甚至超时
http.Handle("/metrics", promhttp.Handler())
prometheus-adapter 配置里最常写错的三处
配置写错不会报错,但 HPA 查不到指标——它只是 quietly 返回空列表。
实操建议:
立即学习“go语言免费学习笔记(深入)”;
-
rules[].seriesQuery必须匹配 Prometheus 中真实存在的指标名,大小写、下划线都不能错,比如写成http_request_total(少个 s)就查不到 -
resources下的overrides要对齐:若想按 Pod 扩容,必须设pod: {resource: "pod"},写成pod: {resource: "pods"}会失败 -
name字段定义的是 HPA 里引用的指标名,比如设为http_requests_per_second,那 HPA YAML 里就得写metricName: http_requests_per_second,不能沿用原始指标名
HPA YAML 中 targetAverageValue 和 targetAverageUtilization 别混用
前者用于自定义/外部指标,后者只适用于 cpu 和 memory 这类资源指标。混用会导致 HPA 状态卡在 Waiting for metrics to become available。
实操建议:
立即学习“go语言免费学习笔记(深入)”;
- 自定义指标一律用
targetAverageValue,单位需与 Prometheus 中一致(比如 QPS 就写10表示每秒 10 次) - 别试图对
counter类型指标(如http_requests_total)直接设 target——要用rate()聚合,这一步必须在prometheus-adapter的metricsQuery里完成 - HPA 默认每 15 秒同步一次指标,如果你的业务毛刺短于这个周期,扩缩容会有明显滞后,这不是代码问题,是机制限制
/metrics 有没有值,再查 Prometheus 是否收录,再试 raw API,最后看 HPA event。漏掉任何一环,都会以为是代码写错了。
