OpenTSDBReader 插件实现了从 OpenTSDB 读取数据。OpenTSDB 是主要由 Yahoo 维护的、可扩展的、分布式时序数据库,与阿里巴巴自研 TSDB 的关系与区别详见阿里云官网:《相比 OpenTSDB 优势》
在底层实现上,OpenTSDBReader 通过 HTTP 请求链接到 OpenTSDB 实例,利用 /api/config
接口获取到其底层存储 HBase 的连接信息,再利用 AsyncHBase 框架连接 HBase,通过 Scan 的方式将数据点扫描出来。整个同步的过程通过 metric 和时间段进行切分,即某个 metric 在某一个小时内的数据迁移,组合成一个迁移 Task。
配置一个从 OpenTSDB 数据库同步抽取数据到本地的作业:
{
"job": {
"content": [
{
"reader": {
"name": "opentsdbreader",
"parameter": {
"endpoint": "http://localhost:4242",
"column": [
"m"
],
"beginDateTime": "2019-01-01 00:00:00",
"endDateTime": "2019-01-01 03:00:00"
}
},
"writer": {
"name": "streamwriter",
"parameter": {
"encoding": "UTF-8",
"print": true
}
}
}
],
"setting": {
"speed": {
"channel": 1
}
}
}
}
name
parameter
默认值:无
beginDateTime
yyyy-MM-dd HH:mm:ss
endDateTime
yyyy-MM-dd HH:mm:ss
DataX 内部类型 | TSDB 数据类型 |
---|---|
String | TSDB 数据点序列化字符串,包括 timestamp、metric、tags 和 value |
从 Metric、时间线、Value 和 采集周期 四个方面来描述:
固定指定一个 metric 为 m
。
前四个 tagkv 全排列,形成 10 * 20 * 100 * 100 = 2000000
条时间线,最后 IP 对应 2000000 条时间线从 1 开始自增。
tag_k | tag_v |
---|---|
zone | z1~z10 |
cluster | c1~c20 |
group | g1~100 |
app | a1~a100 |
ip | ip1~ip2000000 |
度量值为 [1, 100] 区间内的随机值
采集周期为 10 秒,持续摄入 3 小时,总数据量为 3 * 60 * 60 / 10 * 2000000 = 2,160,000,000
个数据点。
OpenTSDB Reader 机型: 64C256G
HBase 机型: 8C16G * 5
"-Xms4096m -Xmx4096m"
通道数 | DataX 速度 (Rec/s) | DataX 流量 (MB/s) |
---|---|---|
1 | 215428 | 25.65 |
2 | 424994 | 50.60 |
3 | 603132 | 71.81 |
具体缘由详见 6.1
-j
参数调整 JVM 内存大小考虑到下游 Writer 如果写入速度不及 OpenTSDB reader 的查询数据,可能会存在积压的情况,因此需要适当地调整 JVM 参数。以"从 OpenTSDB 数据库同步抽取数据到本地的作业"为例,启动命令如下:
python datax/bin/datax.py opentsdb2stream.json -j "-Xms4096m -Xmx4096m"
指定起止时间会自动被转为整点时刻,例如 2019-4-18 的 [3:35, 3:55)
会被转为 [3:00, 4:00)
其他版本暂不保证兼容
Q:为什么需要连接 OpenTSDB 的底层存储,为什么不直接使用 /api/query
查询获取数据点?
A:因为通过 OpenTSDB 的 HTTP 接口(/api/query
)来读取数据的话,经内部压测发现,在大数据量的情况下,会导致 OpenTSDB 的异步框架会报 CallBack 过多的问题;所以,采用了直连底层 HBase 存储,通过 Scan 的方式来扫描数据点,来避免这个问题。另外,还考虑到,可以通过指定 metric 和时间范围,可以顺序地 Scan HBase 表,提高查询效率。