夜莺-Nightingale
夜莺V8
前言必读
安装
采集器
快速体验
监控实践
功能详解
说明文档
夜莺V7
项目介绍
功能概览
部署升级
数据接入
告警管理
数据查看
功能介绍
告警管理
通知管理
通知规则介绍
阿里云短信
Relabel 事件处理
Event Drop 事件处理
Event Update 事件处理
Callback 事件处理
Script 事件处理
Label Enrich 事件处理
AI Summary 事件处理
模板函数
仪表盘
数据源
时序指标
日志分析
告警自愈
基础设施
集成中心
人员组织
系统配置
数据库表结构
users
notify_tpl
board
users
target
target
user_group
user_group_member
task_tpl
task_tpl_host
task_record
sso_config
role
role_operation
recording_rule
notify_tpl
metric_view
datasource
configs
chart_share
busi_group
busi_group_member
builtin_cate
builtin_cate
builtin_cate
builtin_cate
board
board_payload
alerting_engines
alert_subscribe
alert_rule
alert_mute
alert_his_event
alert_cur_event
alert_aggr_view
API
FAQ
夜莺V6
项目介绍
架构介绍
快速开始
黄埔营
安装部署
升级
采集器
使用手册
API
数据库表结构
users
notify_tpl
board
users
target
target
user_group
user_group_member
task_tpl
task_tpl_host
task_record
sso_config
role
role_operation
recording_rule
notify_tpl
metric_view
datasource
configs
chart_share
busi_group
busi_group_member
builtin_cate
builtin_cate
builtin_cate
builtin_cate
board
board_payload
alerting_engines
alert_subscribe
alert_rule
alert_mute
alert_his_event
alert_cur_event
alert_aggr_view
FAQ
转发数据给多个时序库
机器列表数据异常
数据流图
监控数据时有时无
查询原始监控数据
快捷视图详解
告警自愈模块使用
仪表盘里只展示我的机器
仪表盘里图表数据缺失
设置自定义告警通知方式
target_up指标的问题
夜莺可以监控 x 么
夜莺告警常见问题排查思路
告警和恢复的判断逻辑
容量规划问题
connection refused
登录与认证
数据采集器Categraf
日志写到`/var/log/messages`
告警规则&告警模板如何引用变量
采集到的数据是字符串怎么处理
管理员密码忘记了
制作大盘如何添加图片
添加loki数据源报错
v6小版本升级有什么 sql 要执行吗
机器列表有展示,但采集数据查询不到
n9e 启动异常报错
n9e集群部署配置修改
推送 Promethus 报错 OOO
机器列表怎么忽略云资源
告警规则仅在本业务组生效失败
categraf 启动 oracle 插件报错
告警自愈不生效
n9e查询时序库EOF报错
手动编译项目报错
promQL 使用函数标签信息丢失
内存使用率+可用率不等于100
夜莺仪表盘有哪些内置变量
categraf配置文件支持热加载吗
导入 Grafana 仪表盘无效数据源
如何查看报错消息
采集器-Categraf
插件配置
插件综述
基础指标采集插件
Netstat 采集插件
Netstat_Filter 采集插件
Procstat 采集插件
HTTP_Response
MySQL 插件
Redis 插件
SNMP_Zabbix插件
SNMP 插件
IPMI 采集插件
DNS_Query 插件
DCGM 采集插件
NVIDIA_SMI 插件
cAdvisor 采集插件
Huatuo 托管插件
SSHD 采集插件
Systemd 采集插件
S.M.A.R.T.采集插件
PostgreSQL 插件
MongoDB 插件
Elasticsearch 采集插件
EXEC 采集插件
EMQX 采集插件
阿里云指标采集插件
Zabbix 指标转换插件
CloudWatch 指标采集插件
Google Cloud 指标采集插件
Mtail 日志采集插件
Prometheus 采集插件
开启采集配置控制台下发
贡献新插件
Flashcat 企业版
开源生态
Telegraf
Prometheus
版权声明
第1章:天降奇兵
第2章:探索PromQL
开篇
理解时间序列
Metrics类型
初识PromQL
PromQL操作符
PromQL聚合操作
PromQL内置函数
在HTTP API中使用PromQL
最佳实践:4个黄金指标和USE方法
小结
第3章:Prometheus告警处理
开篇
Prometheus告警简介
自定义Prometheus告警规则
部署Alertmanager
Alertmanager配置概述
基于标签的告警处理路由
使用Receiver接收告警信息
告警模板详解
屏蔽告警通知
使用Recoding Rules优化性能
小结
第4章:Exporter详解
第5章:数据与可视化
第6章:集群与高可用
第7章:Prometheus服务发现
第8章:监控Kubernetes
开篇
初识Kubernetes
在Kubernetes下部署Prometheus
Kubernetes下的服务发现
使用Prometheus监控Kubernetes集群
基于Prometheus的弹性伸缩
小结
第9章:Prometheus Operator
参考资料
Categraf 总体介绍
简介
Categraf 是一个开源的 all-in-one 的监控数据采集器,由快猫星云开源和维护。
Categraf 的定位类似于 Telegraf、Grafana-agent、Datadog-agent,期望使用一个统一的采集器对所有常见监控对象提供开箱即用的监控数据采集能力,涵盖指标和日志,遵循 OpenTelemetry 标准,兼容 Prometheus 生态,并简化维护成本。
特点
- 代码开源,遵循 OpenTelemetry 标准,超过 100 万次下载,广受信赖;
- 性能优异,日志采集相比 filebeat 性能提升 25%;
- 插件机制,可扩展性强,100 多种插件,插件内置了仪表盘模板、监控策略模板,开箱即用;
对比
Categraf 和 Telegraf、Prometheus exporters、Grafana-agent、Datadog-agent 等的区别与联系
- Telegraf 是 InfluxDB 生态的默认采集器,因为 InfluxDB 是支持字符串数据的,所以 Telegraf 采集的很多 field 是字符串类型,另外 InfluxDB 的设计,允许 labels 是非稳态结构,比如 result_code 标签,有时其 value 是 0,有时其 value 是 1,在 Influxdb 中都可以接受。但是上面两点,在类似 Prometheus 的时序库中,处理起来就很麻烦,且非常容易引入高基数问题;
- Prometheus 生态有各种现成的 exporters,但是其设计逻辑都是一种监控对象一个 exporter,甚至于一个实例对应一个 exporter,导致在生产环境可能会部署特别多的 exporter 进程,管理成本很高,不易维护;
- Grafana-agent 则 import 了大量 exporters 的代码,好处是复用程度高,与 Prometheus 生态兼容,但是在import 代码的过程中没有裁剪,没有优化,没有最佳实践;对于一些中间件,仍然存在一个 grafana-agent 对应着一个目标实例的现象,管理起来很不方便;
- Datadog-agent 确实是集大成者,采集插件很丰富,质量高,但是大量代码是 Python 编写的,导致在目标机器上部署依赖复杂,发布包也比较大,有不少历史包袱,而且生态上是自成一派,和社区相对割裂;
所以,Categraf 确实又是一个轮子:
- 支持 remote_write 写入协议,支持将数据写入 Promethues、M3DB、VictoriaMetrics、InfluxDB 等目标时序数据库;
- 指标数据只采集数值,不采集字符串,标签维持稳态结构;
- 采用 all-in-one 的设计,所有的采集工作用一个 agent 搞定,涵盖指标和日志(traces 数据的采集推荐使用 OTEL SDK + OTEL Collector);
- 使用 Go 语言编写,静态编译依赖少,容易分发,易于安装;
- 尽可能落地最佳实践,不需要采集的数据无需采集,针对可能会对时序库造成高基数的问题在采集侧做出处理;
- 常用的采集器,不但提供采集能力,还要整理出监控大盘和告警规则,用户可以直接导入使用,开箱即用;
- 支持服务发现、relabel 等机制,支持日志采集时脱敏、多行日志识别等能力;
- 开源运作,由快猫星云技术团队提供支持,持续迭代,希望更多的公司、更多人研发人员参与共建,做成国内最开放、最好用的采集器;