vPrometheus特点作为新一代的监控框架,Prometheus具有以下特点: 1. 强大的多维度数据模型: (1) 时间序列数据通过metric名和键值对来区分。 (2) 所有的metrics都可以设置任意的多维标签。 (3) 数据模型更随意,不需要刻意设置为以点分隔的字符串。 (4) 可以对数据模型进行聚合,切割和切片操作。 (5) 支持双精度浮点类型,标签可以设为全unicode。 2. 灵活而强大的查询语句(PromQL):在同一个查询语句,可以对多个metrics进行乘法、加法、连接、取分数位等操作。 3. 易于管理: Prometheus server是一个单独的二进制文件,可直接在本地工作,不依赖于分布式存储。 4. 高效:平均每个采样点仅占 3.5 bytes,且一个Prometheus server可以处理数百万的metrics。 5. 使用 pull 模式采集时间序列数据,这样不仅有利于本机测试而且可以避免有问题的服务器推送坏的metrics。 6. 可以采用push gateway的方式把时间序列数据推送至Prometheus server 端。 7. 可以通过服务发现或者静态配置去获取监控的targets。 8. 有多种可视化图形界面。 9. 易于伸缩。 需要指出的是,由于数据采集可能会有丢失,所以Prometheus不适用对采集数据要100%准确的情形。但如果用于记录时间序列数据,Prometheus具有很大的查询优势,此外,Prometheus适用于微服务的体系架构。 vPrometheus组成及架构Prometheus官方文档中的架构图: 从上图可以看出,Prometheus的主要模块包括:Prometheus server, exporters, Pushgateway, PromQL, Alertmanager 以及图形界面。 Prometheus生态圈中包含了多个组件,其中许多组件是可选的: 1. Prometheus Server: 用于收集和存储时间序列数据。 2. Client Library: 客户端库,为需要监控的服务生成相应的metrics并暴露给Prometheus server。当Prometheus server来 pull 时,直接返回实时状态的metrics。 3. Push Gateway: 主要用于短期的jobs。由于这类jobs存在时间较短,可能在Prometheus来pull之前就消失了。为此,这次jobs可以直接向Prometheus server端推送它们的metrics。这种方式主要用于服务层面的metrics,对于机器层面的metrices,需要使用node exporter。 4. Exporters: 用于暴露已有的第三方服务的metrics给Prometheus。 5. Alertmanager: 从Prometheus server端接收到alerts后,会进行去除重复数据,分组,并路由到对收的接受方式,发出报警。常见的接收方式有:电子邮件,pagerduty,OpsGenie, webhook等。 6. 一些其他的工具。 其大概的工作流程是: 1. Prometheus server定期从配置好的jobs或者exporters中拉metrics,或者接收来自Pushgateway发过来的metrics,或者从其他的Prometheus server中拉metrics。 2. Prometheus server在本地存储收集到的metrics,并运行已定义好的alert.rules,记录新的时间序列或者向Alertmanager推送警报。 3. Alertmanager根据配置文件,对接收到的警报进行处理,发出告警。 4. 在图形界面中,可视化采集数据。 vPrometheus相关概念下面将对Prometheus中的数据模型,metric类型以及instance和job等概念进行介绍,以便读者在Prometheus的配置和使用中可以有一个更好的理解。 数据模型 Prometheus中存储的数据为时间序列,是由metric的名字和一系列的标签(键值对)唯一标识的,不同的标签则代表不同的时间序列。
四种Metric类型 Prometheus 客户端库主要提供四种主要的 metric 类型: 1. Counter一种累加的 metric,典型的应用如:请求的个数,结束的任务数, 出现的错误数等等。 例子:查询 2. Gauge一种常规的metric,典型的应用如:温度,运行的goroutines的个数;可以任意加减。 例子: 3. Histogram可以理解为柱状图,典型的应用如:请求持续时间,响应大小;可以对观察结果采样,分组及统计。 例子:查询 4. Summary类似于Histogram, 典型的应用如:请求持续时间,响应大小;提供观测值的count和sum功能;提供百分位的功能,即可以按百分比划分跟踪结果。 instance和jobs instance: 一个单独scrape的目标, 一般对应于一个进程。 jobs: 一组同种类型的instances(主要用于保证可扩展性和可靠性),例如: job和instance的关系: job: api-server
instance 1: 1.2.3.4:5670
instance 2: 1.2.3.4:5671
instance 3: 5.6.7.8:5670
instance 4: 5.6.7.8:5671
当scrape目标时,Prometheus会自动给这个scrape的时间序列附加一些标签以便更好的分别,例如: instance,job。 注意:以上段落均出自《Prometheus入门与实践》, 感兴趣的可以看看原文。 vPrometheus安装1. 下载所需镜像 docker pull prom/node-exporter docker pull prom/prometheus docker pull grafana/grafana 2. 启动node-exporter docker run -d -p 9100:9100 -v "/proc:/host/proc:ro" -v "/sys:/host/sys:ro" -v "/:/rootfs:ro" --net="host" prom/node-exporter 3. 验证node-exporter url访问 Node exporter主要用于暴露metrics给Prometheus,其中metrics包括:cpu的负载,内存的使用情况,网络等。有了这些就可以做数据展示了 4. 启动prometheus mkdir /data/prometheus
mkdir config
cd /data/prometheus/config
vim prometheus.yml
# 全局设置,可以被覆盖
global:
# 默认值为 15s,用于设置每次数据收集的间隔
scrape_interval: 15s
# 估算规则的默认周期 每15秒计算一次规则
evaluation_interval: 15s
# 设置报警规则
#rule_files:
#- "first_rules.yml"
#抓取配置列表
scrape_configs:
# 一定要全局唯一, 采集 Prometheus 自身的 metrics
- job_name: prometheus
# 静态目标的配置
static_configs:
#这个自带的默认监控prometheus所在机器的prometheus状态
- targets: ['localhost:9090']
labels:
instance: prometheus
# 一定要全局唯一, 采集 Prometheus 自身的 metrics
- job_name: linux
static_configs:
# 本机 node_exporter 的 endpoint
- targets: ['localhost:9100']
labels:
# 新添加的标签,可以自定义
instance: toutoudemo
docker run -d -p 9090:9090 -v /data/prometheus/config/prometheus.yml:/etc/prometheus/prometheus.yml --name pr prom/prometheus
5. 验证prometheus url访问 vGrafana安装1. 上文中已经拉取了grafana的镜像,这里直接启动即可 创建/data/app/grafana/data文件夹存储数据,创建好了以后启动grafana。 docker run -d -p 3000:3000 --name=grafana -v /data/app/grafana/data:/var/lib/grafana grafana/grafana
我们发现运行以后,docker实例并没有起来,于是我们用 [root@localhost data]# docker logs grafana
GF_PATHS_DATA='/var/lib/grafana' is not writable.
You may have issues with file permissions, more information here: http://docs./installation/docker/#migration-from-a-previous-version-of-the-docker-container-to-5-1-or-later
mkdir: can't create directory '/var/lib/grafana/plugins': Permission denied
因为grafana用户会在这个目录写入文件,所以需要设置权限 2. /data/app/grafana/data设置权限
3. 验证grafana url访问 打开之后的登录界面用默认账号/密码admin登录即可,会引导你修改密码,这里由于是本地测试的,就不设置了,直接skip跳过。 4. Add data source 点开Configuration(齿轮图标)->Data Source,然后点击Add data source按钮。然后选择Prometheus则进入到Prometheus数据源配置。
注意,access中选择Browser,配置好Prometheus点击save & test,弹出提示"Data source is working"即可。 4. Create Dashboard 回到首页,在创建(加号图标)中点击Dashboard,然后点击Add new panel按钮。然后点击Panel Title,点击标题下拉框中的Edit。
这里我们添加内存和cpu信息,点击保存,输入dashboard名称---cpu&memory(自定义)。回到首页即可看到我们保存的cpu&memory。 vSpringboot整合Prometheus+Grafana监控1. 添加引用 <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-actuator</artifactId> </dependency> <dependency> <groupId>io.micrometer</groupId> <artifactId>micrometer-registry-prometheus</artifactId> </dependency> 2. 添加application.properties management.endpoints.web.exposure.include=prometheus 3. 验证效果 注意:开启actuator后要注意要防护,开启actuator的服务千万不能直接对外。常见的方法可以新增一个过滤器对 如果不知道如何在springboot过滤拦截的话,可以看看这个。传送门:SpringBoot入门教程(十一)过滤器和拦截器 4. 部署springboot 部署好了以后,重启docker实例,并查看效果。 如果不知道如何部署springboot的话,可以看看这个。传送门:SpringBoot入门教程(二)CentOS部署SpringBoot项目从0到1 5. prometheus.yml中添加job global: # 全局设置,可以被覆盖 scrape_interval: 15s # 默认值为 15s,用于设置每次数据收集的间隔 external_labels: # 所有时间序列和警告与外部通信时用的外部标签 monitor: 'codelab-monitor' rule_files: # 警告规则设置文件 - '/etc/prometheus/alert.rules' # 用于配置 scrape 的 endpoint 配置需要 scrape 的 targets 以及相应的参数 scrape_configs: # The job name is added as a label `job=<job_name>` to any timeseries scraped from this config. - job_name: 'prometheus' # 一定要全局唯一, 采集 Prometheus 自身的 metrics # 覆盖全局的 scrape_interval scrape_interval: 5s static_configs: # 静态目标的配置 - targets: ['localhost:9090'] - job_name: 'node' # 一定要全局唯一, 采集本机的 metrics,需要在本机安装 node_exporter scrape_interval: 10s static_configs: - targets: ['127.0.0.1:9100'] - job_name: 'hellolearn' # 一定要全局唯一, 采集本机的 metrics,需要在本机安装 node_exporter scrape_interval: 10s metrics_path: /actuator/prometheus #params: #format: ["prometheus"] static_configs: - targets: ['127.0.0.1:8301'] 6. import模板 上文中我们已经演示了如何在dashboard中逐条添加指标,逐条添加就是熟悉一下指标格式。同样的,Grafana也提供了很多功能强大的模板(更多模板可以在这找),这里我们直接引入一个酷炫一点的模板。更多模板可以在这里找到。
点击+号 --> Import --> 输入模板链接或ID --> 点击Load。
Name和Unique identifier (uid)可以自定义,也可以用默认的。 点击import,效果如下: 7. 配置多个应用 若是想配置多个应用,在prometheus.yml中添加job_name,添加好了之后重启docker即可。 - job_name: 'hellolearn' # 一定要全局唯一, 采集本机的 metrics,需要在本机安装 node_exporter
scrape_interval: 10s
metrics_path: /actuator/prometheus
#params:
#format: ["prometheus"]
static_configs:
- targets: ['127.0.0.1:8301']
- job_name: 'hellolearn-6' # 一定要全局唯一, 采集本机的 metrics,需要在本机安装 node_exporter
scrape_interval: 10s
metrics_path: /actuator/prometheus
#params:
#format: ["prometheus"]
static_configs:
- targets: ['127.0.0.1:8306']
在Grafana的dashboard直接切换即可。 其他参考/学习资料: v源码地址https://github.com/toutouge/javademosecond/tree/master/hellolearn |
|