重情义的跑步鞋 · 从《开讲啦》到《叮咚上线》,你对知识类综艺节 ...· 2 天前 · |
聪明伶俐的领带 · 数说诺奖:谁称霸了自然科学的江湖 - 中国日报网· 2 月前 · |
烦恼的核桃 · 无职转生~到了异世界就拿出真本事~ - ...· 3 月前 · |
打酱油的野马 · 王者荣耀:少有人知的英雄技能冷知识,张良大招 ...· 4 月前 · |
6 .2 配置 Prometheus与Alertmanager 通信 36
示例 44监控Kubernetes资源与应用 51
监控 方案 51
监视应用程序的当前状态是预测问题和发现生产环境中瓶颈的最有效方法之一。
监控是整个产品周期中最重要的一环,及时预警减少故障影响免扩大,而且能根据历史数据追溯问题。
u 对系统不间断实时监控
u 实时反馈系统当前状态
u 保证业务持续性运行
• 监控工具
• free
• vmstat
• df
• top
• ss
• iftop
• ...
适合临时性分析性能 及排查故障。少量的服务器。
目前业内有很多不错的开源产品可供选择,利用开源产品很容易能做到这一点。
• 监控系统
• Zabbix
• Open-Falcon
• Prometheus
1)可以利用Nginx+ Lua 实现WAF功能 , 并 存储到 ES, 通过 K ibana可视化展示不同的攻击类型。
2)用户 登录数,passwd文件 变化, 其他 关键 文件改动
API 监控
收集API接口操作方法(GET、POST等)请求,分析负载、可用性、正确性、响应时间
业务 监控
例如电商网站,每分钟产生多少订单、注册多少用户、多少活跃用户、推广活动效果(产生多少用户、多少利润)
流量 分析
根据流量获取用户相关信息,例如用户地理位置、某页面访问状况、页面停留时间等。监控各地区访问业务网络情况,优化用户体验和 提升收益
Prometheus (普罗米修斯)是一个最初在 SoundCloud 上构建的监控系统。自 2012 年成为社区开源项目,拥有非常活跃的开发人员和用户社区。为强调开源及独立维护, Prometheus 于 2016 年加入云原生云计算基金会( CNCF ),成为继 Kubernetes 之后的第二个托管项目。
https://prometheus.io
https://github.com/prometheus
作为新一代的监控 框架 , Prometheus 具有以下特点:
• 多维数据模型:由度量名称和键值对标识的时间序列数据
• PromSQL :一种灵活的查询语言,可以利用多维数据完成复杂的查询
• 不依赖分布式存储,单个服务器节点可直接工作
• 基于 HTTP 的 pull 方式采集时间序列数据
• 推送时间序列数据通过 PushGateway 组件支持
• 通过服务发现或静态配置发现目标
• 多种图形模式及仪表盘支持
Prometheus 适用于以机器为中心的监控以及高度动态面向服务架构的监控。
Prometheus 由多个组件组成,但是其中许多组件是可选的:
l Prometheus Server: 用于收集指标和存储时间序列数据,并提供查询接口
l client Library : 客户端库 (例如 Go , P ython , J ava 等) , 为 需要监控的服务产生相应的 / metrics并暴露给 P rometheus Server。目前已经有很多的软件原生就支持 Prometheus,提供/metrics,可以直接使用。对于像操作系统已经不提供/metrics,可以使用exporter,或者自己开发exporter来提供/metrics服务。
l push gateway: 主要用于 临时性 的 jobs。由于这类 jobs 存在时间较短,可能在 Prometheus 来 pull 之前就消失了。对此 Jobs定时将指标push到pushgateway,再由 Prometheus Server从Pushgateway上pull。
这种方式主要用于服务层面的 metrics
l exporter: 用于暴露已有的第三方服务的 metrics 给 Prometheus。
l alertmanager: 从 Prometheus server 端接收到 alerts 后,会进行去除重复数据,分组,并路由到对收的接受方式,发出报警。常见的接收方式有:电子邮件,pagerduty,OpsGenie, webhook
l Web UI: Prometheus内置一个简单的Web控制台,可以查询指标,查看配置信息或者Service Discovery等,实际工作中,查看指标或者创建仪表盘通常使用Grafana,Prometheus作为Grafana的数据源;
Prometheus 组件都是用 Go 编写的,因此很容易构建和部署为静态的二进制文件。
• Prometheus Server :收集指标和存储时间序列数据,并提供查询接口
• ClientLibrary :客户端库
• Push Gateway :短期存储指标数据。主要用于临时性的任务
• Exporters :采集已有的第三方服务监控指标并暴露 metrics
• Alertmanager :告警
• Web UI :简单的 Web 控制台
Prometheus 将所有数据存储为时间序列;具有相同度量名称以及标签属于同一个指标。
每个时间序列都由度量标准名称和一组键值对(也成为标签)唯一标识。
时间序列格式:
<metric name>{<label name>=<label value>, ...}
示例: api_http_requests_total{method="POST", handler="/messages"}
• Counter :递增的计数器
• Gauge :可以任意变化的数值
• Histogram :对一段时间范围内数据进行采样,并对所有数值求和与统计数量
• Summary :与 Histogram 类似
实例:可以抓取的目标称为实例( Instances )
作业:具有相同目标的实例集合称为作业( Job )
scrape_configs:
- job_name: 'prometheus'
static_configs:
- targets: ['localhost:9090']
- job_name: 'node'
static_configs:
- targets: ['192.168.1.10:9090']
https://blog.gmem.cc/prometheus-study-note
为您的平台 下载最新版本 的 Prometheus,然后解压缩并运行它:
https://prometheus.io/download/
https://prometheus.io/docs/prometheus/latest/getting_started/
[root@controlnode tools]# tar -xzf prometheus-2.18.1.linux-amd64.tar.gz
[root@controlnode tools]# cp -a prometheus-2.18.1.linux-amd64 /usr/local/
[root@controlnode tools]# cd /usr/local/
[root@controlnode local]# ln -s /usr/local/prometheus-2.18.1.linux-amd64/ /usr/local/prometheus
1. 注册 为服务
[root@controlnode local]# cd /usr/lib/systemd/system
[root@controlnode system]# cat prometheus.service
[Unit]
Description=https://prometheus.io
[Service]
Restart=on-failure
ExecStart=/usr/local/prometheus/prometheus --config.file=/usr/local/prometheus/prometheus.yml
[Install]
WantedBy=multi-user.target
#重新加载systemd
[root@controlnode system]# systemctl daemon-reload
2. 启动 Prometheus
[root@controlnode system]# systemctl start prometheus.service
[root@controlnode system]# systemctl enable prometheus.service
[root@controlnode system]# netstat -tunlp | grep prometheus
tcp6 0 0 :::9090 :::* LISTEN 1592/prometheus
[root@controlnode prometheus]# ./prometheus --version
prometheus, version 2.18.1 (branch: HEAD, revision: ecee9c8abfd118f139014cb1b174b08db3f342cf)
build user: root@2117a9e64a7e
build date: 20200507-16:51:47
go version: go1.14.2
https://prometheus.io/docs/prometheus/latest/installation/
prometheus.yml 通过运行以下命令将您从主机绑定:
docker run -p 9090:9090 -v /tmp/prometheus.yml:/etc/prometheus/prometheus.yml \
prom/prometheus
或者为配置使用额外的卷:
docker run -p 9090:9090 -v /prometheus-data
prom/prometheus --config.file=/prometheus-data/prometheus.yml
http:// 172.16.1.70 :9090访问自己的状态页面
可以通过访问 172.16.1.70:9090验证 Prometheus自身的指标: 172.16.1.70:9090/metrics
Prometheus从目标机上通过http方式拉取采样点数据, 它也可以拉取自身服务数据并监控自身的健康状况
当然 Prometheus服务拉取自身服务采样数据,并没有多大的用处,但是它是一个好的DEMO。保存下面的Prometheus配置,并命名为:prometheus.yml:
[root@controlnode prometheus]# pwd
/usr/local/prometheus
[root@controlnode prometheus]# vim prometheus.yml
# my global config
global:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
# Alertmanager configuration
alerting:
alertmanagers:
- static_configs:
- targets:
alertmanager:9093
# Load rules once and periodically evaluate them according to the global 'evaluation_interval'.
# - "first_rules.yml"
# - "second_rules.yml"
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
# The job name is added as a label `job=<job_name>` to any timeseries scraped from this config.
- job_name: 'prometheus'
# metrics_path defaults to '/metrics'
# scheme defaults to 'http'.
static_configs:
- targets: ['localhost:9090']
参数说明:
scrape_interval: 15s
# 默认情况下,每15s拉取一次目标采样点数据 ,如果在 “ scrape_configs: ”
中配置会 覆盖 global的采样点,拉取时间间隔5s。
evaluation_interval: 15s
#没1 5 秒评估一次告警规则
alerting:
#告警配置
rule_files:
#告警规则配置
scrape_configs:
#数据采集配置
- job_name: 'prometheus'
job名称会增加到拉取到的所有采样点上,同时还有一个instance目标服务的host:port标签也会增加到采样点上
static_configs:
- targets: ['localhost:9090']
#采集的具体实例,连接地址配置
配置文件的格式是 YAML,使用--config.file指定配置文件的位置。本节列出重要的配置项。
有关配置选项的完整 , 请参阅 : https://prometheus.io/docs/prometheus/latest/configuration/configuration/
Prometheus以scrape _interval规则周期性从监控目标上收集数据 , 然后将数据存储到本地存储上 。 scrape_interval可以设定全局也可以设定单个metrics 。
Prometheus以evaluation _interval规则周期性对告警规则做计算 , 然后更新告警状态 。 evaluation _interval只有设定在全局 。
l global: 全局配置
l alerting : 告警配置
l rule_files:告警 规则
l scrape_configs :配置 数据 源,称为 target , 每个 target用job_name 命名。 又分为静态配置和服务发现
global:
# 默认抓取周期,可用单位ms、smhdwy #设置每15 s采集数据一次,默认 1分钟
[ scrape_interval: <duration> | default = 1m ]
# 默认抓取超时
[ scrape_timeout: <duration> | default = 10s ]
# 估算规则的默认周期 # 每 15秒 计算一次规则。默认 1分钟
[ evaluation_interval: <duration> | default = 1m ]
和外部系统(例如AlertManager)通信时为时间序列或者警情(Alert)强制添加的标签列表
external_labels:
[ <labelname>: <labelvalue> ... ]
# 规则文件列表
rule_files:
[ - <filepath_glob> ...
# 抓取配置列表
scrape_configs:
[ - <scrape_config> ...
# Alertmanager相关配置
alerting:
alert_relabel_configs:
[ - <relabel_config> ...
alertmanagers:
[ - <alertmanager_config> ... ]
# 远程读写特性相关的配置
remote_write:
[ - <remote_write> ...
remote_read:
[ - <remote_read> ...
根据配置的任务( job)以http/s周期性的收刮(scrape/pull)
指定目标( target)上的指标(metric)。目标(target)
可以以静态方式或者自动发现方式指定。 Prometheus将收刮(scrape)的指标(metric)保存在本地或者远程存储上。
使用 scrape_configs定义采集目标
配置一系列的目标,以及如何抓取它们的参数。一般情况下,每个 scrape_config对应单个Job。
目标可以在 scrape_config中静态的配置,也 可以使用某种服务发现机制动态发现 。
# 任务名称,自动作为抓取到的指标的一个标签
job_name: <job_name>
# 抓取周期
[ scrape_interval: <duration> | default = <global_config.scrape_interval> ]
# 每次抓取的超时
[ scrape_timeout: <duration> | default = <global_config.scrape_timeout> ]
# 从目标抓取指标的URL路径
[ metrics_path: <path> | default = /metrics
# 当添加标签发现指标已经有同名标签时,是否保留原有标签不覆盖
[ honor_labels: <boolean> | default = false
# 抓取协议
[ scheme: <scheme> | default = http
# HTTP请求参数
params:
[ <string>: [<string>, ...]
# 身份验证信息
basic_auth:
[ username: <string>
[ password: <secret>
[ password_file: <string>
# Authorization请求头取值
[ bearer_token: <secret> ]
# 从文件读取Authorization请求头
[ bearer_token_file: /path/to/bearer/token/file
# TLS配置
tls_config:
[ <tls_config> ]
# 代理配置
[ proxy_url: <string> ]
# DNS服务发现配置
dns_sd_configs:
[ - <dns_sd_config> ...
# 文件服务发现配置
file_sd_configs:
[ - <file_sd_config> ...
# K8S服务发现配置
kubernetes_sd_configs:
[ - <kubernetes_sd_config> ...
# 此Job的静态配置的目标列表
static_configs:
[ - <static_config> ...
# 目标重打标签配置
relabel_configs:
[ - <relabel_config> ...
# 指标重打标签配置
metric_relabel_configs:
[ - <relabel_config> ... 每次抓取允许的最大样本数量,如果在指标重打标签后,样本数量仍然超过限制,则整个抓取认为失败
# 0表示不限制
[ sample_limit: <int> | default = 0 relabel _configs
relabel_configs :允许在采集之前对任何目标及其标签进行修改
重新标签的意义?
• 重命名标签名
• 删除标签
• 过滤目标
action:重新标签动作
• replace:默认,通过regex匹配source_label的值,使用replacement来引用表达式匹配的分组
• keep:删除regex与连接不匹配的目标 source_labels
• drop:删除regex与连接匹配的目标 source_labels
• labeldrop:删除regex匹配的标签
• labelkeep:删除regex不匹配的标签
• hashmod:设置target_label为modulus连接的哈希值source_labels
• labelmap:匹配regex所有标签名称。然后复制匹配标签的值进行分组,replacement分组引用(${1},${2},…)替代
支持服务发现的来源:
• azure_sd_configs
• consul_sd_configs
• dns_sd_configs
• ec2_sd_configs
• openstack_sd_configs
• file_sd_configs
• gce_sd_configs
• kubernetes_sd_configs
• marathon_sd_configs
• nerve_sd_configs
• serverset_sd_configs
• triton_sd_configs
Prometheus也提供了服务发现功能,可以从consul,dns,kubernetes,file等等多种来源发现新的目标。
其中最简单的是从文件发现服务 。
https://github.com/prometheus/prometheus/tree/master/discovery
服务 发现支持: endpoints , ingress,kubernetes,node , pod,service
1、监控实例标签的添加、重命名、过滤、删除操作
( 1)编辑配置文件( scrape_configs 部分 )
[root@controlnode prometheus]# vim /usr/local/prometheus/prometheus.yml
scrape_configs:
# The job name is added as a label `job=<job_name>` to any timeseries scraped from this config.
- job_name: 'prometheus'
# metrics_path defaults to '/metrics'
# scheme defaults to 'http'.
static_configs:
- targets: ['localhost:9090']
labels:
zone:
#添加标签:为监控实例增加 zone = bj
relabel_configs:
- action: replace
source_labels: ['job']
regex:
replacement:
target_label:
#重命名标签:重命名监控实例 job 标签名为 idc(会添加一个 idc 标签),原 job 标签因没有被删除也会被保存下来
- action:
source_labels: ['job']
#标签过滤:监控实例中含有 job 标签的数据被采集,drop与keep相反
- action: labeldrop
regex:
#删除标签:删除监控实例中的 job
( 2)检查配置文件是否配置正确
[root@controlnode prometheus]# /usr/local/prometheus/promtool check config /usr/local/prometheus/prometheus.yml
Checking /usr/local/prometheus/prometheus.yml
SUCCESS: 0 rule files found
( 3)重新加载配置文件
#查看prometheus的进程id
[root@controlnode prometheus]# ps -ef | grep prometheus
root 1592 1 0 21:41 ? 00:00:13 /usr/local/prometheus/prometheus --config.file=/usr/local/prometheus/prometheu
s.yml
#重新加载配置文件
[root@controlnode prometheus]# kill -hup
( 4)在web页面中查看prometheus收集到的数据
2 、基于文件的服务发现的配置
( 1)编辑配置文件( scrape_configs 部分 )
[root@controlnode prometheus]# vim /usr/local/prometheus/prometheus.yml
s crape_configs:
# The job name is added as a label `job=<job_name>` to any timeseries scraped from this config.
- job_name: 'prometheus'
# metrics_path defaults to '/metrics'
# scheme defaults to 'http'.
# static_configs:
# - targets: ['localhost:9090']
# labels:
# zone:
file_sd_configs:
- files: ['/usr/local/prometheus/sd_config/*.yml']
#配置文件的路径,不存在时需要创建
refresh_interval:
#文件服务发现刷新的频率,单位是秒
( 2)创建配置文件目录
[root@controlnode prometheus]# mkdir -p /usr/local/prometheus/sd_config/
( 3)创建配置文件
[root@controlnode prometheus]# cat sd_config/localhost.yml
- targets:
- localhost:9090
labels:
zone: sz
#以后在该配置文件中添加监控实例或其它参数时不需要执行 ”kill -hup <prometheus进程id号 >
# ” 重新加载配置文件,因为在主配置文件中配置了加载该文件的扫描间隔为 5s,这样设计有助于简
#化操作。
( 4)检查配置文件是否配置正确
[root@controlnode prometheus]# /usr/local/prometheus/promtool check config /usr/local/prometheus/prometheus.yml
Checking /usr/local/prometheus/prometheus.yml
SUCCESS: 0 rule files found
( 5)重新加载配置文件
[root@controlnode prometheus]# kill -hup
( 6 )在 web页面中查看prometheus收集到的数据
node_exporter :用于 * NIX 系统监控,使用 Go 语言编写的收集器。
使用文档: https ://prometheus.io/docs/guides/node-exporter/
GitHub : https ://github.com/prometheus/node_exporter
exporter 列表: https ://prometheus.io/docs/instrumenting/exporters/
1、 在被监控的节点上操作
( 1)安装节点导出器
[root@slavenode1 tools]# tar -xzf node_exporter-1.0.0.linux-amd64.tar.gz
[root@slavenode1 tools]# cp -a node_exporter-1.0.0.linux-amd64 /usr/local/
[root@slavenode1 tools]# cd /usr/local/
[root@slavenode1 local]# ln -s /usr/local/node_exporter-1.0.0.linux-amd64/ /usr/local/node_exporter
( 2)将服务加入system d
[root@slavenode1 local]# cd /usr/lib/systemd/system/
[root@slavenode1 system]# vim node_exporter.service
[Unit]
Description=https://prometheus.io
[Service]
Restart=on-failure
ExecStart=/usr/local/node_exporter/node_exporter
[Install]
WantedBy=multi-user.target
#重新加载systemd
[root@slavenode1 system]# systemctl daemon-reload
( 3)启动服务并加入开机自启动
[root@slavenode1 system]# systemctl start node_exporter.service
[root@slavenode1 system]# systemctl enable node_exporter.service
[root@slavenode1 system]# netstat -tunlp | grep node_exporter
tcp6 0 0 :::9100 :::* LISTEN 1462/node_exporter
#查看版本
[root@slavenode1 system]# /usr/local/node_exporter/node_exporter --version
node_exporter, version 1.0.0 (branch: HEAD, revision: b9c96706a7425383902b6143d097cf6d7cfd1960)
build user: root@3e55cc20ccc0
build date: 20200526-06:01:48
go version: go1.14.3
2、在控制节点进行操作
( 1)将被监控的节点加入监控
在 scrape_configs: 下加入如下内容
[root@controlnode prometheus]# vim prometheus.yml
scrape_configs:
- job_name: 'node'
static_configs:
- targets: ['172.16.1.71:9100']
( 2)检查配置,并重新加载配置文件
[root@controlnode prometheus]# ./promtool check config prometheus.yml
Checking prometheus.yml
SUCCESS: 0 rule files found
[root@controlnode prometheus]# kill -hup
( 3)在web中查看
#查询数据关键字是node
收集到 node_exporter 的数据后,我们可以使用 PromQL 进行一些业务查询和监控,下面是一些比较常见的查询。
注意:以下查询均以单个节点作为例子,如果大家想查看所有节点,将 instance="xxx" 去掉即可。
CPU使用率:
100 - (avg(irate(node_cpu_seconds_total{mode="idle"}[5m])) by (instance) *
内存使用率:
100 - (node_memory_MemFree_bytes+node_memory_Cached_bytes+node_memory_Buffers_bytes) / node_memory_MemTotal_bytes * 100
磁盘使用率:
100 - (node_filesystem_free_bytes{mountpoint="/",fstype=~"ext4|xfs"} / node_filesystem_size_bytes{mountpoint="/",fstype=~"ext4|xfs"} *
使用 systemd 收集器 :
--collector.systemd.unit-whitelist=".+"
从
systemd中循环
正则
匹配单元
--collector.systemd.unit-whitelist="(docker|sshd|nginx).service"
白名单
,
收集目标
/usr/bin/node_exporter --collector.systemd --collector.systemd.unit-whitelist=(docker|sshd|nginx).service
node_systemd_unit_state{name= "docker.service"}
# 只查询 docker服务
node_systemd_unit_state{name= "docker.service",state= "active"}
# 返回活动状态 , 值 是 1
node_systemd_unit_state{name= "docker.service"} == 1
#当前 服务状态
#获取sshd的监控数据
Grafana 是一个开源的度量分析和可视化系统。
https://grafana.com/grafana/download
Grafana
支持查询普罗米修斯。自
Grafana
2.5.0(2015-10-28)以来,包含了Prometheus的Grafana数据源。
Grafana.com维护着 一组共享仪表板 ,可以下载并与Grafana的独立实例一起使用。使
https://grafana.com/dashboards/9276
1、在控制节点安装
( 1)安装依赖包
[root@controlnode tools]# yum install fontconfig urw-fonts -y
( 2)安装grafana
[root@controlnode tools]# rpm -ivh grafana-7.0.3-1.x86_64.rpm
( 3)将grafana启动并加入到开机自启动
[root@controlnode tools]# systemctl start grafana-server.service
[root@controlnode tools]# systemctl enable grafana-server.service
[root@controlnode tools]# netstat -tunlp | grep grafana
tcp6 0 0 :::3000 :::* LISTEN 2008/grafana-server
( 4)在web界面中访问
在浏览其中输入 url地址: http://172.16.1.70:3000/ 进行访问
默认登录用户名和密码都是 admin,登录后需要立即更改密码
2、 grafana web界面操作
(1) 添加 prometheus 库
cAdvisor支持将统计信息导出到各种存储插件。有关更多详细信息和示例,请参阅 文档
cAdvisor在其端口公开Web UI: http://<hostname>:<port>/
使用 Prometheus监控cAdvisor
cAdvisor将容器统计信息公开为 Prometheus 指标。默认情况下,这些指标在 /metrics HTTP端点下提供。可以通过设置-prometheus_endpoint命令行标志来自定义此端点。
要使用 Prometheus监控cAdvisor,只需在Prometheus中配置一个或多个作业,这些作业会在该指标端点处刮取相关的cAdvisor流程。
( 1) 运行单个 cAdvisor来监控整个 D ocker 主机
[root@slavenode1 tools]#
docker run \
--volume=/:/rootfs:ro \
--volume=/var/run:/var/run:ro
--volume=/sys:/sys:ro \
--volume=/var/lib/docker/:/var/lib/docker:ro
--volume=/dev/disk/:/dev/disk:ro
--publish=8080:8080 \
--detach=true \
--name=cadvisor \
--privileged \
--device=/dev/kmsg \
(2) 通过 http://172.16.1.71:8080/ 地址访问 cadvisor 的 web UI
[root@controlnode prometheus]# . /promtool check config prometheus.yml
Checking prometheus.yml
SUCCESS: 0 rule files found
[root@controlnode prometheus]# kill -hup
(3) 在 web中查看
#查询数据关键字是 container
#在grafana中设置模板
mysql_exporter :用于收集 MySQL 性能信息。
https://github.com/prometheus/mysqld_exporter
https://grafana.com/dashboards/7362
1、在从节点上进行操作
( 1 )安装 mariadb数据库
[root@slavenode1 ~]# yum install mariadb-server
[root@slavenode1 ~]# systemctl start mariadb.service
[root@slavenode1 ~]# systemctl enable mariadb.service
[root@slavenode1 ~]# mysql_secure_installation
( 2 )登录 mysql为exporter创建账号:
[root@slavenode1 ~]# mysql -uroot -p123456
MariaDB [(none)]> CREATE USER 'exporter'@'localhost' IDENTIFIED BY '123456';
# mysql支持 WITH MAX_USER_CONNECTIONS 3
MariaDB [(none)]> GRANT PROCESS, REPLICATION CLIENT, SELECT ON *.* TO 'exporter'@'localhost';
MariaDB [(none)]> exit ;
( 3 )安装 mysql 的导出器
[root@slavenode1 tools]# tar -xzf mysqld_exporter-0.12.1.linux-amd64.tar.gz
[root@slavenode1 tools]# cp -a mysqld_exporter-0.12.1.linux-amd64 /usr/local/
[root@slavenode1 tools]# ln -s /usr/local/mysqld_exporter-0.12.1.linux-amd64/ /usr/local/mysqld_exporter
( 4)创建 .my.cnf 文件 (方便mysql导出器与mysql数据库之间进行无交互访问 )
[root@slavenode1 tools ]# vim /usr/local/mysqld_exporter/.my.cnf
[client]
user=exporter
password=123456
( 5 )将 mysql导出器加入到system d
[root@slavenode1 tools]# cd /usr/lib/systemd/system
[root@slavenode1 system]# vim mysql d _exporter.service
[Unit]
Description=https://prometheus.io
[Service]
Restart=on-failure
ExecStart=/usr/local/mysqld_exporter/mysqld_exporter --config.my-cnf=/usr/local/mysqld_exporter/.my.cnf
[Install]
WantedBy=multi-user.target
#重新加载 systemd
[root@slavenode1 system]# systemctl daemon-reload
( 6)启动 mysql 导出器
[root@slavenode1 tools]# systemctl start mysqld_exporter.service
[root@slavenode1 tools]# systemctl enable mysqld_exporter.service
[root@slavenode1 tools]# netstat -tunlp | grep mysqld_exporte
tcp6 0 0 :::9104 :::* LISTEN 3942/mysqld_exporte
#查看版本
[root@slavenode1 tools]# /usr/local/mysqld_exporter/mysqld_exporter --version
mysqld_exporter, version 0.12.1 (branch: HEAD, revision: 48667bf7c3b438b5e93b259f3d17b70a7c9aff96)
build user: root@0b3e56a7bc0a
build date: 20190729-12:35:58
go version: go1.12.7
( 1)将被监控的节点加入监控
在 scrape_configs: 下加入如下内容
[root@controlnode prometheus]# vim prometheus.yml
scrape_configs:
- job_name: 'mysql'
static_configs:
- targets: ['172.16.1.71:9104']
( 2)检查配置,并重新加载配置文件
[root@controlnode prometheus]# . /promtool check config prometheus.yml
Checking prometheus.yml
SUCCESS: 0 rule files found
[root@controlnode prometheus]# kill -hup
( 3)在web中查看
#查询数据关键字是mysql
#在grafana中设置模板
告警无疑是监控中非常重要的环节,虽然监控数据可视化了,也非常容易观察到运行状态。但我们很难做到时刻盯着监控,所以程序来帮巡检并自动告警,这个程序是幕后英雄,保障业务稳定性就靠它了。
前面讲到过 Prometheus的报警功能主要是利用Alertmanager这个组件。 当 Alertmanager 接收到 Prometheus 端发送过来的 Alerts 时,Alertmanager 会对 Alerts 进行去重复,分组, 按标签内容发送不同报警组, 包括: 邮件,微信, webhook。
使用 prometheus进行告警分为两部分 : P rometheus Server中的告警规则会向 A lertmanager发送 。 然后 , A lertmanager管理这些 告警,包括进行重复数据删除,分组和路由,以及告警的静默和抑制。
在 Prometheus平台中,警报由独立的组件Alertmanager处理。通常情况下,我们首先告诉Prometheus Alertmanager所在的位置,然后在Prometheus配置中创建警报规则,最后配置Alertmanager来处理警报并发送给接收者(邮件,webhook、slack等)。
地址 1 : https://prometheus.io/download/
地址 2 : https://github.com/prometheus/alertmanager/releases
设置 告警 和通知的主要步骤如下:
1. 部署 Alertmanager
2. 配置 Prometheus与Alertmanager通信
3. 在 Prometheus中创建告警规则
# vi prometheus.yml
alerting:
alertmanagers:
- static_configs:
- targets:
127.0.0.1:9093
# vi prometheus.yml
rule_files:
- "rules/*.yml"
# vi rules/node.yml
groups:
- name: example # 报警规则组名称
rules:
# 任何实例5分钟内无法访问发出告警
- alert: InstanceDown
expr: up ==
for: 5m #持续时间 , 表示持续一分钟获取不到信息,则触发报警
labels:
severity: page # 自定义标签
annotations:
summary: "Instance {{ $labels.instance }} down" # 自定义摘要
description: "{{ $labels.instance }} of job {{ $labels.job }} has been down for more than 5 minutes." # 自定义具体描述
https://prometheus.io/docs/prometheus/latest/configuration/alerting_rules/
一旦这些警报存储在 Alertmanager,它们可能处于以下任何状态:
· Inactive:这里什么都没有发生。
· Pending: 已 触发阈值,但 未 满足告警持续时间 (即 rule中的for字段 )
· Firing: 已触发阈值 且满足告警持续时间。警报发送到 Notification Pipeline, 经过 处理,发送给接受者。
这样目的是多次判断失败才发告警 , 减少邮件 。
route 属性用来设置报警的分发策略,它是一个树状结构,按照深度优先从左向右的顺序进行匹配。
route:
receiver: 'default-receiver'
group_wait: 30s
group_interval: 5m
repeat_interval: 4h
group_by: [cluster, alertname]
# 所有不匹配以下子路由的告警都将保留在根节点 , 并发送到 “default -receiver ”
routes:
# 所有 service = mysql或者service =cassandra的告警分配到数据库接收端
- receiver: 'database-pager'
group_wait:
match_re:
service: mysql|cassandra
# 所有带有 team=frontend标签的告警都与此子路由匹配
# 它们是按产品和环境分组的 , 而不是集群
- receiver: 'frontend-pager'
group_by: [product, environment]
match:
team: frontend
group_by : 报警分组依据
group_wait : 为一个组发送通知的初始等待时间 , 默认 30s
group_interval :在发送新告警前的等待时间。通常 5m或以上
repeat_interval :发送重复告警的周期。 如果已经发送了通知 , 再次发送之前需要等待多长时间 。 通常 3小时或以上
主要处理流程 :
1. 接收到 Alert,根据labels判断属于哪些Route(可存在多个Route,一个Route有多个Group,一个Group有多个Alert) 。
2. 将 Alert分配到Group中,没有则新建Group 。
3. 新的 Group等待group_wait指定的时间(等待时可能收到同一Group的Alert),根据resolve_timeout判断Alert是否解决,然后发送通知 。
4. 已有的 Group等待group_interval指定的时间,判断Alert是否解决,当上次发送通知到现在的间隔大于repeat_interval或者Group有更新时会发送通知 。
告警面临最大问题,是警报太多,相当于狼来了的形式。收件人很容易麻木,不再继续理会。关键的告警常常被淹没。在一问题中, alertmanger在一定程度上得到很好解决。
Prometheus 成功的把一条告警发给了 Altermanager,而Altermanager并不是简简单单的直接发送出去,这样就会导致告警信息过多,重要告警被淹没。所以需要对告警做合理的收敛。
告警收敛手段 :
分组( group): 将类似性质的警报分类为单个通知
抑制( Inhibition): 当警报发出后,停止重复发送由此警报引发的其他警报
静默( Silences): 是一种简单的特定时间静音提醒的机制
报警处理流程如下:
1. Prometheus Server监控目标主机上暴露的http接口(这里假设接口A),通过上述Promethes配置的'scrape_interval'定义的时间间隔,定期采集目标主机上监控数据。
2. 当接口 A不可用的时候,Server端会持续的尝试从接口中取数据,直到"scrape_timeout"时间后停止尝试。这时候把接口的状态变为“DOWN”。
3. Prometheus同时根据配置的 "evaluation_interval" 的时间间隔,定期(默认 1min)的对 Alert Rule 进行评估;当到达评估周期的时候,发现接口 A为DOWN,即UP=0为真,激活Alert,进入 “PENDING” 状态,并记录当前 active的时间;
4. 当下一个 alert rule的评估周期到来的时候,发现UP=0继续为真,然后判断警报 Active 的时间是否已经超出 rule里的 ‘for’ 持续时间,如果未超出,则进入下一个评估周期;如果时间超出,则alert的状态变为 “FIRING” ;同时调用 Alertmanager接口,发送相关报警数据。
5. AlertManager收到报警数据后,会将警报信息进行分组,然后根据alertmanager配置的 “group_wait” 时间先进行等待。等 wait时间过后再发送报警信息。
6. 属于同一个 Alert Group的警报,在等待的过程中可能进入新的alert,如果之前的报警已经成功发出,那么间隔 “group_interval” 的时间间隔后再重新发送报警信息。比如配置的是邮件报警,那么同属一个 group的报警信息会汇总在一个邮件里进行发送。
7. 如果 Alert Group里的警报一直没发生变化并且已经成功发送,等待‘repeat_interval’时间间隔之后再重复发送相同的报警邮件;如果之前的警报没有成功发送,则相当于触发第6条条件,则需要等待group_interval时间间隔后重复发送。
8.
同时最后至于警报信息具体发给谁,满足什么样的条件下指定警报接收人,设置不同报警发送频率,这里有
alertmanager的route路由规则进行配置。
# cat rules/general.yml
groups:
- name: general.rules
rules:
- alert: InstanceDown
expr: up ==
for: 2m
labels:
severity: error
annotations:
summary: "Instance {{ $labels.instance }} 停止工作"
description: "{{ $labels.instance }}: job {{ $labels.job }} 已经停止5分钟以上."
# cat rules/node.yml
groups:
- name: node.rules
rules:
- alert: NodeFilesystemUsage
expr: 100 - (node_filesystem_free_bytes{fstype=~"ext4|xfs"} / node_filesystem_size_bytes{fstype=~"ext4|xfs"} * 100) > 80
for: 2m
labels:
severity: warning
annotations:
summary: "{{$labels.instance}}: {{$labels.mountpoint }} 分区使用过高"
description: "{{$labels.instance}}: {{$labels.mountpoint }} 分区使用大于 80% (当前值: {{ $value
- alert: NodeMemoryUsage
expr: 100 - (node_memory_MemFree_bytes+node_memory_Cached_bytes+node_memory_Buffers_bytes) / node_memory_MemTotal_bytes * 100 > 80
for: 2m
labels:
severity: warning
annotations:
summary: "{{$labels.instance}}: 内存使用过高"
description: "{{$labels.instance}}: 内存使用大于 80% (当前值: {{ $value }})"
- alert: NodeCPUUsage
expr: 100 - (avg(irate(node_cpu_seconds_total{mode="idle"}[5m])) by (instance) * 100) >
for: 2m
labels:
severity: warning
annotations:
summary: "{{$labels.instance}}: CPU使用过高"
description: "{{$labels.instance}}: CPU使用大于 80% (当前值: {{ $value }})"
# cat rules/reload.yml
groups:
- name: prometheus.rules
rules:
- alert: AlertmanagerReloadFailed
expr: alertmanager_config_last_reload_successful == 0
for: 10m
labels:
severity: warning
annotations:
summary: "{{$labels.instance}}: Alertmanager配置重新加载失败"
description: "{{$labels.instance}}: Alertmanager配置重新加载失败"
- alert: PrometheusReloadFailed
expr: prometheus_config_last_reload_successful == 0
for: 10m
labels:
severity: warning
annotations:
summary: "{{$labels.instance}}: Prometheus配置重新加载失败"
description: "{{$labels.instance}}: Prometheus配置重新加载失败"
在主节点进行操作
( 1)安装 Alertmanager
[root@controlnode tools]# tar -xzf alertmanager-0.21.0-rc.0.linux-amd64.tar.gz
[root@controlnode tools]# mv alertmanager-0.21.0-rc.0.linux-amd64 /usr/local/
[root@controlnode tools]# cd /usr/local/
[root@controlnode local]# ln -s /usr/local/alertmanager-0.21.0-rc.0.linux-amd64/ /usr/local/alertmanager
( 2)alert manager.yml 配置文件如下 (发送邮箱和接收者 )
[root@controlnode local]# vim alertmanager/alertmanager.yml
global:
resolve_timeout: 5m
# 解析的超时时间
smtp_smarthost: 'smtp.163.com:25'
smtp_from: 'hyjy2504164765@163.com'
smtp_auth_username: 'hyjy2504164765'
smtp_auth_password: 'linux123'
smtp_require_tls: false
# 配置邮件发送的smtp服务器
route:
# 路由规则
group_by: ['alertname']
# 报警分组依据,以报警名称为分组依据
group_wait: 10s
# 为一个组发送通知的初始等待时间
group_interval: 10s
# 在发送新告警前的等待时间
repeat_interval: 1h
# 发送重复告警的周期
receiver: 'mail'
# 邮件接收者
receivers:
# 报警接收者
- name: 'mail'
email_configs:
- to: 'hyjy2504164765@163.com'
# 给谁发送邮件
#inhibit_rules:
# - source_match:
# severity: 'critical'
# target_match:
# severity: 'warning'
# equal: ['alertname', 'dev', 'instance']
# inhibit_rules: 表示报警抑制规则
( 3)检查alertmanager配置文件
[root@controlnode local]# alertmanager/amtool check-config alertmanager/alertmanager.yml
Checking 'alertmanager/alertmanager.yml' SUCCESS
Found:
- global config
- route
- 0 inhibit rules
- 1 receivers
- 0 templates
( 4 )将 alertmanager 加入 systemd
[root@controlnode local]# cd /usr/lib/systemd/system
[root@controlnode system]# vim alertmanager.service
[Unit]
Description=https://prometheus.io
[Service]
Restart=on-failure
ExecStart=/usr/local/alertmanager/alertmanager --config.file=/usr/local/alertmanager/alertmanager.yml
[Install]
WantedBy=multi-user.target
#重新加载 systemd
[root@controlnode system]# systemctl daemon-reload
( 5 )启动 alertmanager
[root@controlnode system]# systemctl start alertmanager.service
[root@controlnode system]# systemctl enable alertmanager.service
[root@controlnode system]# netstat -tunlp | grep alertmanager
tcp6 0 0 :::9093 :::* LISTEN 3864/alertmanager
#查看版本信息
[root@controlnode system]# /usr/local/alertmanager/alertmanager --version
alertmanager, version 0.21.0-rc.0 (branch: HEAD, revision: 4346e1a51cf3d1226d3c44e28c7b25ff48f7b6b2)
build user: root@a89e5ee3c12c
build date: 20200605-11:03:01
go version: go1.14.4
( 6 )配置 prometheus与alertmanager通信、prometheus报警规则、alertmanager加入监控
#在 alerting: 、 rule_files: 、 scrape_configs 修改如下内容
[root@controlnode system]# cd /usr/local/prometheus
[root@controlnode prometheus]# vim prometheus.yml
# Alertmanager configuration
alerting:
alertmanagers:
- static_configs:
- targets:
- 127.0.0.1:9093
# Load rules once and periodically evaluate them according to the global 'evaluation_interval'.
rule_files:
"/usr/local/prometheus/rules/*.yml"
# - "second_rules.yml"
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
- job_name: 'alertmanager'
static_configs:
- targets: ['172.16.1.70:9093']
( 7)创建告警规则文件
[root@controlnode prometheus]# mkdir -p /usr/local/prometheus/rules/
#告警规则内容如下
[root@controlnode prometheus]# vim rules/node_down.yml
groups:
- name: node_down.rules
# 报警规则组名称
rules:
# 报警规则配置
- alert: InstanceDown
# 报警名称(alertname)
expr: up ==
# 判断的 promsql 语句,0 单表不存活
for: 2m
持续时间,任何实例5分钟内无法访问则触发报警
labels:
severity: critical
自定义标签(error)
annotations:
summary: "Instance {{ $labels.instance }} down"
自定义摘要
description: "{{ $labels.instance }} of job {{ $labels.job }} has been down for more than 2 minutes."
自定义具体描述
( 8 )检查 prometheus配置,并重新加载配置文件
[root@controlnode prometheus]# ./promtool check config prometheus.yml
Checking prometheus.yml
SUCCESS: 1 rule files found
Checking /usr/local/prometheus/rules/node_down.yml
SUCCESS: 1 rules found
[root@controlnode prometheus]# kill -hup
( 9)在web页面中查看
1)查看监控目标
2)查看告警规则
3)查看告警
( 1 0 )报警测试 (停掉docker服务 )
1)在从节点上停掉docker服务
[root@slavenode1 tools]# docker stop cadvisor
2)在web页面上查看
# docker 的导出器已经 down 掉了
# 查看告警状态 (pending状态还没有发送邮件 )
# 2 分钟后出现 firing状态后发送邮件
# 查看告警邮件信息
对于非容器化业务来说 , 像 Zabbix,open-falcon已经在企业深入使用。
而 Prometheus新型的监控系统的兴起来源容器领域,所以重点是放在怎么监控容器。
随着容器化大势所趋 ,如果传统技术不随着改变,将会被淘汰,基础架构也会发生新的技术栈组合。
c Advisor+InfluxDB+Grafana
cAdvisor : 是谷歌开源的一个容器监控工具,采集主机上容器相关的性能指标数据。比如 CPU、内存、网络、文件系统等。
Heapster是谷歌开源的集群监控数据收集工具, 会所有节点监控数据 , Heapster作为一个pod在集群中运行,通过API获得集群中的所有节点,然后从节点kubelet暴露 的 10255汇总 数据。 目前 社区用 Metrics Server 取代 Heapster。
InfluxDB :时序数据库,存储监控数据。
Grafana :可视化展示。 Grafana提供一个易于配置的仪表盘UI,可以轻松定制和扩展。
l 功能单一 ,无法做到对 K8S资源 对象监控
l 告警 单一 , 利用 Grafana 基本 告警
l 依赖 Influxdb , 而 I nfluxdb 单点(高可用 商业才支持 ) ,缺少开源精神
l heapster 在 1.8 + 弃用, metrics-server取代
c Advisor/exporter+Prometheus+Grafana
Prometheus+Grafana是监控告警解决方案里的后起之秀
通过各种 expor ter 采集不同维度的监控指标,并通过 Prometheus支持的数据格式暴露出来,Prometheus定期pull数据并用Grafana展示,异常情况使用AlertManager告警。
n 通过 cadvisor采集容器、Pod相关的性能指标数据,并通过暴露的/metrics接口用prometheus抓取
n 通过 prometheus-node-exporter采集主机的性能指标数据,并通过暴露的/metrics接口用prometheus抓取
n 应用侧自己采集容器中进程主动暴露的指标数据(暴露指标的功能由应用自己实现,并添加平台侧约定的 annotation,平台侧负责根据annotation实现通过Prometheus的抓取)
n 通过 kube-state-metrics采集k8s资源对象的状态指标数据,并通过暴露的/metrics接口用prometheus抓取
n 通过 etcd、kubelet、kube-apiserver、kube-controller-manager、kube-scheduler自身暴露的/metrics获取节点上与k8s集群相关的一些特征指标数据。
Kubernetes本身监控
• Node资源利用率
• Node数量
• Pods数量(Node)
• 资源对象状态
Pod监控
• Pod数量(项目)
• 容器资源利用率
• 应用程序
https://github.com/kubernetes/kubernetes/tree/master/cluster/addons/prometheus
源码目录 : kubernetes/cluster/addons/prometheus
grafana 是一个可视化面板,有着非常漂亮的图表和布局展示,功能齐全的度量仪表盘和图形编辑器,支持 Graphite、zabbix、InfluxDB、Prometheus、OpenTSDB、Elasticsearch 等作为数据源,比 Prometheus 自带的图表展示功能强大太多,更加灵活,有丰富的插件,功能更加强大。
https://grafana.com/grafana/download
推荐模板:
• 集群资源监控: 3119
• 资源状态监控 : 6417
• Node监控 :9276
Prometheus社区提供的 NodeExporter 项目可以对主机的关键度量指标进行监控,通过 Kubernetes的DeamonSet可以在各个主机节点上部署有且仅有一个NodeExporter实例,实现对主机性能指标数据的监控 , 但由于容器隔离原因,使用容器 N odeExporter并不能正确获取到宿主机磁盘信息, 故此 本课程将 N odeExporter部署到宿主机。
使用文档: https ://prometheus.io/docs/guides/node-exporter/
GitHub : https ://github.com/prometheus/node_exporter
exporter 列表: https ://prometheus.io/docs/instrumenting/exporters/
node-exporter所采集的指标主要有:
node_cpu_*
node_disk_*
node_entropy_*
node_filefd_*
node_filesystem_*
node_forks_*
node_intr_total_*
node_ipvs_*
node_load_*
node_memory_*
node_netstat_*
node_network_*
node_nf_conntrack_*
node_scrape_*
node_sockstat_*
node_time_seconds_*
node_timex _*
node_xfs_*
目前 cAdvisor集成到了kubelet组件内,可以在kubernetes集群中每个启动了 kubelet的节点使用cAdvisor提供的metrics接口获取该节点所有容器相关的性能指标数据。
cAdvisor对外提供服务的默认端口为***4194***,主要提供两种接口:
l Prometheus格式指标接口:nodeIP:4194/metrics(或者通过kubelet暴露的cadvisor接口 nodeIP:10255/metrics/cadvisor );
l WebUI界面接口:nodeIP:4194/containers/
以上接口的数据都是按 prometheus的格式输出的。
https://github.com/kubernetes/kube-state-metrics
kube-state-metrics是一个简单的服务,它监听Kubernetes API服务器并生成有关对象状态的指标。它不关注单个Kubernetes组件的运行状况,而是关注内部各种对象的运行状况,例如部署,节点和容器。
kube-state-metrics 采集了 k8s 中各种资源对象的状态信息:
kube_daemonset_*
kube_deployment_*
kube_job_*
kube_namespace_*
kube_node_*
kube_persistentvolumeclaim_*
kube_pod_container_*
kube_pod_*
kube_replicaset_*
kube_service_*
kube_statefulset_*
设置 告警 和通知的主要步骤如下:
1. 部署 Alertmanager
2. 配置 Prometheus与Alertmanager通信
3. 配置告警
1. prometheus 指定 rules 目录
2. configmap 存储告警规则
3. configmap 挂载到容器 rules 目录
4. 增加 alertmanager 告警配置
聪明伶俐的领带 · 数说诺奖:谁称霸了自然科学的江湖 - 中国日报网 2 月前 |