387 lines
17 KiB
Markdown
387 lines
17 KiB
Markdown
---
|
||
sidebar_label: Kafka
|
||
title: TDengine Kafka Connector
|
||
description: 使用 TDengine Kafka Connector 的详细指南
|
||
---
|
||
|
||
TDengine Kafka Connector 包含两个插件: TDengine Source Connector 和 TDengine Sink Connector。用户只需提供简单的配置文件,就可以将 Kafka 中指定 topic 的数据(批量或实时)同步到 TDengine, 或将 TDengine 中指定数据库的数据(批量或实时)同步到 Kafka。
|
||
|
||
## 什么是 Kafka Connect?
|
||
|
||
Kafka Connect 是 [Apache Kafka](https://kafka.apache.org/) 的一个组件,用于使其它系统,比如数据库、云服务、文件系统等能方便地连接到 Kafka。数据既可以通过 Kafka Connect 从其它系统流向 Kafka, 也可以通过 Kafka Connect 从 Kafka 流向其它系统。从其它系统读数据的插件称为 Source Connector, 写数据到其它系统的插件称为 Sink Connector。Source Connector 和 Sink Connector 都不会直接连接 Kafka Broker,Source Connector 把数据转交给 Kafka Connect。Sink Connector 从 Kafka Connect 接收数据。
|
||
|
||

|
||
|
||
TDengine Source Connector 用于把数据实时地从 TDengine 读出来发送给 Kafka Connect。TDengine Sink Connector 用于 从 Kafka Connect 接收数据并写入 TDengine。
|
||
|
||

|
||
|
||
## 前置条件
|
||
|
||
运行本教程中示例的前提条件。
|
||
|
||
1. Linux 操作系统
|
||
2. 已安装 Java 8 和 Maven
|
||
3. 已安装 Git、curl、vi
|
||
4. 已安装并启动 TDengine。如果还没有可参考[安装和卸载](../../get-started/)
|
||
|
||
## 安装 Kafka
|
||
|
||
在任意目录下执行:
|
||
|
||
```shell
|
||
curl -O https://downloads.apache.org/kafka/3.4.0/kafka_2.13-3.4.0.tgz
|
||
tar xzf kafka_2.13-3.4.0.tgz -C /opt/
|
||
ln -s /opt/kafka_2.13-3.4.0 /opt/kafka
|
||
```
|
||
|
||
然后需要把 `$KAFKA_HOME/bin` 目录加入 PATH。
|
||
|
||
```title=".profile"
|
||
export KAFKA_HOME=/opt/kafka
|
||
export PATH=$PATH:$KAFKA_HOME/bin
|
||
```
|
||
|
||
以上脚本可以追加到当前用户的 profile 文件(~/.profile 或 ~/.bash_profile)
|
||
|
||
## 安装 TDengine Connector 插件
|
||
|
||
### 编译插件
|
||
|
||
```shell
|
||
git clone --branch 3.0 https://github.com/taosdata/kafka-connect-tdengine.git
|
||
cd kafka-connect-tdengine
|
||
mvn clean package -Dmaven.test.skip=true
|
||
unzip -d $KAFKA_HOME/components/ target/components/packages/taosdata-kafka-connect-tdengine-*.zip
|
||
```
|
||
|
||
以上脚本先 clone 项目源码,然后用 Maven 编译打包。打包完成后在 `target/components/packages/` 目录生成了插件的 zip 包。把这个 zip 包解压到安装插件的路径即可。上面的示例中使用了内置的插件安装路径: `$KAFKA_HOME/components/`。
|
||
|
||
### 配置插件
|
||
|
||
将 kafka-connect-tdengine 插件加入 `$KAFKA_HOME/config/connect-distributed.properties` 配置文件 plugin.path 中
|
||
|
||
```properties
|
||
plugin.path=/usr/share/java,/opt/kafka/components
|
||
```
|
||
|
||
## 启动 Kafka
|
||
|
||
```shell
|
||
zookeeper-server-start.sh -daemon $KAFKA_HOME/config/zookeeper.properties
|
||
|
||
kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties
|
||
|
||
connect-distributed.sh -daemon $KAFKA_HOME/config/connect-distributed.properties
|
||
```
|
||
|
||
### 验证 kafka Connect 是否启动成功
|
||
|
||
输入命令:
|
||
|
||
```shell
|
||
curl http://localhost:8083/connectors
|
||
```
|
||
|
||
如果各组件都启动成功,会得到如下输出:
|
||
|
||
```txt
|
||
[]
|
||
```
|
||
|
||
## TDengine Sink Connector 的使用
|
||
|
||
TDengine Sink Connector 的作用是同步指定 topic 的数据到 TDengine。用户无需提前创建数据库和超级表。可手动指定目标数据库的名字(见配置参数 connection.database), 也可按一定规则生成(见配置参数 connection.database.prefix)。
|
||
|
||
TDengine Sink Connector 内部使用 TDengine [无模式写入接口](../../connector/cpp#无模式写入-api)写数据到 TDengine,目前支持三种格式的数据:[InfluxDB 行协议格式](/develop/insert-data/influxdb-line)、 [OpenTSDB Telnet 协议格式](/develop/insert-data/opentsdb-telnet) 和 [OpenTSDB JSON 协议格式](/develop/insert-data/opentsdb-json)。
|
||
|
||
下面的示例将主题 meters 的数据,同步到目标数据库 power。数据格式为 InfluxDB Line 协议格式。
|
||
|
||
### 添加 Sink Connector 配置文件
|
||
|
||
```shell
|
||
mkdir ~/test
|
||
cd ~/test
|
||
vi sink-demo.json
|
||
```
|
||
|
||
sink-demo.json 内容如下:
|
||
|
||
```json title="sink-demo.json"
|
||
{
|
||
"name": "TDengineSinkConnector",
|
||
"config": {
|
||
"connector.class":"com.taosdata.kafka.connect.sink.TDengineSinkConnector",
|
||
"tasks.max": "1",
|
||
"topics": "meters",
|
||
"connection.url": "jdbc:TAOS://127.0.0.1:6030",
|
||
"connection.user": "root",
|
||
"connection.password": "taosdata",
|
||
"connection.database": "power",
|
||
"db.schemaless": "line",
|
||
"data.precision": "ns",
|
||
"key.converter": "org.apache.kafka.connect.storage.StringConverter",
|
||
"value.converter": "org.apache.kafka.connect.storage.StringConverter",
|
||
"errors.tolerance": "all",
|
||
"errors.deadletterqueue.topic.name": "dead_letter_topic",
|
||
"errors.deadletterqueue.topic.replication.factor": 1
|
||
}
|
||
}
|
||
```
|
||
|
||
关键配置说明:
|
||
|
||
1. `"topics": "meters"` 和 `"connection.database": "power"`, 表示订阅主题 meters 的数据,并写入数据库 power。
|
||
2. `"db.schemaless": "line"`, 表示使用 InfluxDB Line 协议格式的数据。
|
||
|
||
### 创建 Sink Connector 实例
|
||
|
||
```shell
|
||
curl -X POST -d @sink-demo.json http://localhost:8083/connectors -H "Content-Type: application/json"
|
||
```
|
||
|
||
若以上命令执行成功,则有如下输出:
|
||
|
||
```json
|
||
{
|
||
"name": "TDengineSinkConnector",
|
||
"config": {
|
||
"connection.database": "power",
|
||
"connection.password": "taosdata",
|
||
"connection.url": "jdbc:TAOS://127.0.0.1:6030",
|
||
"connection.user": "root",
|
||
"connector.class": "com.taosdata.kafka.connect.sink.TDengineSinkConnector",
|
||
"data.precision": "ns",
|
||
"db.schemaless": "line",
|
||
"key.converter": "org.apache.kafka.connect.storage.StringConverter",
|
||
"tasks.max": "1",
|
||
"topics": "meters",
|
||
"value.converter": "org.apache.kafka.connect.storage.StringConverter",
|
||
"name": "TDengineSinkConnector",
|
||
"errors.tolerance": "all",
|
||
"errors.deadletterqueue.topic.name": "dead_letter_topic",
|
||
"errors.deadletterqueue.topic.replication.factor": "1",
|
||
},
|
||
"tasks": [],
|
||
"type": "sink"
|
||
}
|
||
```
|
||
|
||
### 写入测试数据
|
||
|
||
准备测试数据的文本文件,内容如下:
|
||
|
||
```txt title="test-data.txt"
|
||
meters,location=California.LosAngeles,groupid=2 current=11.8,voltage=221,phase=0.28 1648432611249000000
|
||
meters,location=California.LosAngeles,groupid=2 current=13.4,voltage=223,phase=0.29 1648432611250000000
|
||
meters,location=California.LosAngeles,groupid=3 current=10.8,voltage=223,phase=0.29 1648432611249000000
|
||
meters,location=California.LosAngeles,groupid=3 current=11.3,voltage=221,phase=0.35 1648432611250000000
|
||
```
|
||
|
||
使用 kafka-console-producer 向主题 meters 添加测试数据。
|
||
|
||
```shell
|
||
cat test-data.txt | kafka-console-producer.sh --broker-list localhost:9092 --topic meters
|
||
```
|
||
|
||
:::note
|
||
如果目标数据库 power 不存在,那么 TDengine Sink Connector 会自动创建数据库。自动创建数据库使用的时间精度为纳秒,这就要求写入数据的时间戳精度也是纳秒。如果写入数据的时间戳精度不是纳秒,将会抛异常。
|
||
:::
|
||
|
||
### 验证同步是否成功
|
||
|
||
使用 TDengine CLI 验证同步是否成功。
|
||
|
||
```sql
|
||
taos> use power;
|
||
Database changed.
|
||
|
||
taos> select * from meters;
|
||
_ts | current | voltage | phase | groupid | location |
|
||
===============================================================================================================================================================
|
||
2022-03-28 09:56:51.249000000 | 11.800000000 | 221.000000000 | 0.280000000 | 2 | California.LosAngeles |
|
||
2022-03-28 09:56:51.250000000 | 13.400000000 | 223.000000000 | 0.290000000 | 2 | California.LosAngeles |
|
||
2022-03-28 09:56:51.249000000 | 10.800000000 | 223.000000000 | 0.290000000 | 3 | California.LosAngeles |
|
||
2022-03-28 09:56:51.250000000 | 11.300000000 | 221.000000000 | 0.350000000 | 3 | California.LosAngeles |
|
||
Query OK, 4 row(s) in set (0.004208s)
|
||
```
|
||
|
||
若看到了以上数据,则说明同步成功。若没有,请检查 Kafka Connect 的日志。配置参数的详细说明见[配置参考](#配置参考)。
|
||
|
||
## TDengine Source Connector 的使用
|
||
|
||
TDengine Source Connector 的作用是将 TDengine 某个数据库某一时刻之后的数据全部推送到 Kafka。TDengine Source Connector 的实现原理是,先分批拉取历史数据,再用定时查询的策略同步增量数据。同时会监控表的变化,可以自动同步新增的表。如果重启 Kafka Connect, 会从上次中断的位置继续同步。
|
||
|
||
TDengine Source Connector 会将 TDengine 数据表中的数据转换成 [InfluxDB Line 协议格式](/develop/insert-data/influxdb-line/) 或 [OpenTSDB JSON 协议格式](/develop/insert-data/opentsdb-json), 然后写入 Kafka。
|
||
|
||
下面的示例程序同步数据库 test 中的数据到主题 tdengine-test-meters。
|
||
|
||
### 添加 Source Connector 配置文件
|
||
|
||
```shell
|
||
vi source-demo.json
|
||
```
|
||
|
||
输入以下内容:
|
||
|
||
```json title="source-demo.json"
|
||
{
|
||
"name":"TDengineSourceConnector",
|
||
"config":{
|
||
"connector.class": "com.taosdata.kafka.connect.source.TDengineSourceConnector",
|
||
"tasks.max": 1,
|
||
"connection.url": "jdbc:TAOS://127.0.0.1:6030",
|
||
"connection.username": "root",
|
||
"connection.password": "taosdata",
|
||
"connection.database": "test",
|
||
"connection.attempts": 3,
|
||
"connection.backoff.ms": 5000,
|
||
"topic.prefix": "tdengine",
|
||
"topic.delimiter": "-",
|
||
"poll.interval.ms": 1000,
|
||
"fetch.max.rows": 100,
|
||
"topic.per.stable": true,
|
||
"topic.ignore.db": false,
|
||
"out.format": "line",
|
||
"key.converter": "org.apache.kafka.connect.storage.StringConverter",
|
||
"value.converter": "org.apache.kafka.connect.storage.StringConverter"
|
||
}
|
||
}
|
||
```
|
||
|
||
### 准备测试数据
|
||
|
||
准备生成测试数据的 SQL 文件。
|
||
|
||
```sql title="prepare-source-data.sql"
|
||
DROP DATABASE IF EXISTS test;
|
||
CREATE DATABASE test;
|
||
USE test;
|
||
CREATE STABLE meters (ts TIMESTAMP, current FLOAT, voltage INT, phase FLOAT) TAGS (location BINARY(64), groupId INT);
|
||
|
||
INSERT INTO d1001 USING meters TAGS('California.SanFrancisco', 2) VALUES('2018-10-03 14:38:05.000',10.30000,219,0.31000) \
|
||
d1001 USING meters TAGS('California.SanFrancisco', 2) VALUES('2018-10-03 14:38:15.000',12.60000,218,0.33000) \
|
||
d1001 USING meters TAGS('California.SanFrancisco', 2) VALUES('2018-10-03 14:38:16.800',12.30000,221,0.31000) \
|
||
d1002 USING meters TAGS('California.SanFrancisco', 3) VALUES('2018-10-03 14:38:16.650',10.30000,218,0.25000) \
|
||
d1003 USING meters TAGS('California.LosAngeles', 2) VALUES('2018-10-03 14:38:05.500',11.80000,221,0.28000) \
|
||
d1003 USING meters TAGS('California.LosAngeles', 2) VALUES('2018-10-03 14:38:16.600',13.40000,223,0.29000) \
|
||
d1004 USING meters TAGS('California.LosAngeles', 3) VALUES('2018-10-03 14:38:05.000',10.80000,223,0.29000) \
|
||
d1004 USING meters TAGS('California.LosAngeles', 3) VALUES('2018-10-03 14:38:06.500',11.50000,221,0.35000);
|
||
```
|
||
|
||
使用 TDengine CLI, 执行 SQL 文件。
|
||
|
||
```shell
|
||
taos -f prepare-source-data.sql
|
||
```
|
||
|
||
### 创建 Source Connector 实例
|
||
|
||
```shell
|
||
curl -X POST -d @source-demo.json http://localhost:8083/connectors -H "Content-Type: application/json"
|
||
```
|
||
|
||
### 查看 topic 数据
|
||
|
||
使用 kafka-console-consumer 命令行工具监控主题 tdengine-test-meters 中的数据。一开始会输出所有历史数据, 往 TDengine 插入两条新的数据之后,kafka-console-consumer 也立即输出了新增的两条数据。 输出数据 InfluxDB line protocol 的格式。
|
||
|
||
```shell
|
||
kafka-console-consumer.sh --bootstrap-server localhost:9092 --from-beginning --topic tdengine-test-meters
|
||
```
|
||
|
||
输出:
|
||
|
||
```txt
|
||
......
|
||
meters,location="California.SanFrancisco",groupid=2i32 current=10.3f32,voltage=219i32,phase=0.31f32 1538548685000000000
|
||
meters,location="California.SanFrancisco",groupid=2i32 current=12.6f32,voltage=218i32,phase=0.33f32 1538548695000000000
|
||
......
|
||
```
|
||
|
||
此时会显示所有历史数据。切换到 TDengine CLI, 插入两条新的数据:
|
||
|
||
```sql
|
||
USE test;
|
||
INSERT INTO d1001 VALUES (now, 13.3, 229, 0.38);
|
||
INSERT INTO d1002 VALUES (now, 16.3, 233, 0.22);
|
||
```
|
||
|
||
再切换回 kafka-console-consumer, 此时命令行窗口已经打印出刚插入的 2 条数据。
|
||
|
||
### unload 插件
|
||
|
||
测试完毕之后,用 unload 命令停止已加载的 connector。
|
||
|
||
查看当前活跃的 connector:
|
||
|
||
```shell
|
||
curl http://localhost:8083/connectors
|
||
```
|
||
|
||
如果按照前述操作,此时应有两个活跃的 connector。使用下面的命令 unload:
|
||
|
||
```shell
|
||
curl -X DELETE http://localhost:8083/connectors/TDengineSinkConnector
|
||
curl -X DELETE http://localhost:8083/connectors/TDengineSourceConnector
|
||
```
|
||
|
||
## 配置参考
|
||
|
||
### 通用配置
|
||
|
||
以下配置项对 TDengine Sink Connector 和 TDengine Source Connector 均适用。
|
||
|
||
1. `name`: connector 名称。
|
||
2. `connector.class`: connector 的完整类名, 如: com.taosdata.kafka.connect.sink.TDengineSinkConnector。
|
||
3. `tasks.max`: 最大任务数, 默认 1。
|
||
4. `topics`: 需要同步的 topic 列表, 多个用逗号分隔, 如 `topic1,topic2`。
|
||
5. `connection.url`: TDengine JDBC 连接字符串, 如 `jdbc:TAOS://127.0.0.1:6030`。
|
||
6. `connection.user`: TDengine 用户名, 默认 root。
|
||
7. `connection.password` :TDengine 用户密码, 默认 taosdata。
|
||
8. `connection.attempts` :最大尝试连接次数。默认 3。
|
||
9. `connection.backoff.ms` : 创建连接失败重试时间隔时间,单位为 ms。 默认 5000。
|
||
|
||
### TDengine Sink Connector 特有的配置
|
||
|
||
1. `connection.database`: 目标数据库名。如果指定的数据库不存在会则自动创建。自动建库使用的时间精度为纳秒。默认值为 null。为 null 时目标数据库命名规则参考 `connection.database.prefix` 参数的说明
|
||
2. `connection.database.prefix`: 当 connection.database 为 null 时, 目标数据库的前缀。可以包含占位符 '${topic}'。 比如 kafka_${topic}, 对于主题 'orders' 将写入数据库 'kafka_orders'。 默认 null。当为 null 时,目标数据库的名字和主题的名字是一致的。
|
||
3. `batch.size`: 分批写入每批记录数。当 Sink Connector 一次接收到的数据大于这个值时将分批写入。
|
||
4. `max.retries`: 发生错误时的最大重试次数。默认为 1。
|
||
5. `retry.backoff.ms`: 发送错误时重试的时间间隔。单位毫秒,默认为 3000。
|
||
6. `db.schemaless`: 数据格式,可选值为:
|
||
1. line :代表 InfluxDB 行协议格式
|
||
2. json : 代表 OpenTSDB JSON 格式
|
||
3. telnet :代表 OpenTSDB Telnet 行协议格式
|
||
7. `data.precision`: 使用 InfluxDB 行协议格式时,时间戳的精度。可选值为:
|
||
1. ms : 表示毫秒
|
||
2. us : 表示微秒
|
||
3. ns : 表示纳秒。默认为纳秒。
|
||
|
||
### TDengine Source Connector 特有的配置
|
||
|
||
1. `connection.database`: 源数据库名称,无缺省值。
|
||
2. `topic.prefix`: 数据导入 kafka 时使用的 topic 名称的前缀。默认为空字符串 ""。
|
||
3. `timestamp.initial`: 数据同步起始时间。格式为'yyyy-MM-dd HH:mm:ss',若未指定则从指定 DB 中最早的一条记录开始。
|
||
4. `poll.interval.ms`: 检查是否有新建或删除的表的时间间隔,单位为 ms。默认为 1000。
|
||
5. `fetch.max.rows` : 检索数据库时最大检索条数。 默认为 100。
|
||
6. `query.interval.ms`: 从 TDengine 一次读取数据的时间跨度,需要根据表中的数据特征合理配置,避免一次查询的数据量过大或过小;在具体的环境中建议通过测试设置一个较优值,默认值为 0,即获取到当前最新时间的所有数据。
|
||
7. `out.format` : 结果集输出格式。`line` 表示输出格式为 InfluxDB Line 协议格式,`json` 表示输出格式是 json。默认为 line。
|
||
8. `topic.per.stable`: 如果设置为 true,表示一个超级表对应一个 Kafka topic,topic的命名规则 `<topic.prefix><topic.delimiter><connection.database><topic.delimiter><stable.name>`;如果设置为 false,则指定的 DB 中的所有数据进入一个 Kafka topic,topic 的命名规则为 `<topic.prefix><topic.delimiter><connection.database>`
|
||
9. `topic.ignore.db`: topic 命名规则是否包含 database 名称,true 表示规则为 `<topic.prefix><topic.delimiter><stable.name>`,false 表示规则为 `<topic.prefix><topic.delimiter><connection.database><topic.delimiter><stable.name>`,默认 false。此配置项在 `topic.per.stable` 设置为 false 时不生效。
|
||
10. `topic.delimiter`: topic 名称分割符,默认为 `-`。
|
||
11. `read.method`: 从 TDengine 读取数据方式,query 或是 subscription。默认为 subscription。
|
||
12. `subscription.group.id`: 指定 TDengine 数据订阅的组 id,当 `read.method` 为 subscription 时,此项为必填项。
|
||
13. `subscription.from`: 指定 TDengine 数据订阅起始位置,latest 或是 earliest。默认为 latest。
|
||
|
||
## 其他说明
|
||
|
||
1. 关于如何在独立安装的 Kafka 环境使用 Kafka Connect 插件, 请参考官方文档:<https://kafka.apache.org/documentation/#connect>。
|
||
|
||
## 问题反馈
|
||
|
||
无论遇到任何问题,都欢迎在本项目的 Github 仓库反馈:<https://github.com/taosdata/kafka-connect-tdengine/issues>。
|
||
|
||
## 参考
|
||
|
||
1. <https://kafka.apache.org/documentation/>
|