homework-jianmu/docs/zh/06-advanced/05-data-in/05-opcua.md

222 lines
22 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

---
title: "OPC-UA"
sidebar_label: "OPC-UA"
---
本节讲述如何通过 Explorer 界面创建数据迁移任务,从 OPC-UA 服务器同步数据到当前 TDengine 集群。
## 功能概述
OPC 是工业自动化领域和其他行业中安全可靠地交换数据的互操作标准之一。
OPC-UA 是经典 OPC 规范的下一代标准,是一个平台无关的面向服务的架构规范,集成了现有 OPC Classic 规范的所有功能,提供了一条迁移到更安全和可扩展解决方案的路径。
TDengine 可以高效地从 OPC-UA 服务器读取数据并将其写入 TDengine以实现实时数据入库。
## 创建任务
### 1. 新增数据源
在数据写入页面中,点击 **+新增数据源** 按钮,进入新增数据源页面。
![add.png](./pic/opcua-01-add.png)
### 2. 配置基本信息
**名称** 中输入任务名称,例如针对环境温湿度监控的任务,取名为 **environment-monitoring**
**类型** 下拉列表中选择 **OPC-UA**
**代理** 是非必填项,如有需要,可以在下拉框中选择指定的代理,也可以先点击右侧的 **+创建新的代理** 按钮
**目标数据库** 下拉列表中选择一个目标数据库,也可以先点击右侧的 **+创建数据库** 按钮
![basic.png](./pic/opcua-01-basic.png)
### 3. 配置连接信息
**连接配置** 区域填写 **OPC-UA 服务地址**,例如:`127.0.0.1:5000`,并配置数据传输安全模式,有三种安全模式可选:
1. None通信数据以明文形式传输。
2. Sign使用数字签名对通信数据进行验证保护数据完整性。
3. SignAndEncrypt使用数字签名对通信数据进行验证并使用加密算法对数据进行加密以保证数据的完整性、真实性和保密性。
如果安全模式选择了 Sign 或者 SignAndEncrypt则必须选择有效的安全策略。安全策略定义了如何实现安全模式中的加密和验证机制包括使用的加密算法、密钥长度、数字证书等。可选的安全策略有
1. None只能在安全模式为 None 时可选。
2. Basic128Rsa15使用 RSA 算法和128位的密钥长度对通信数据进行签名或加密。
3. Basic256使用 AES 算法和256位的密钥长度对通信数据进行签名或加密。
4. Basic256Sha256使用 AES 算法和256位的密钥长度并使用 SHA-256 算法对数字签名进行加密。
5. Aes128Sha256RsaOaep使用 AES-128 算法进行通信数据的加解密,并使用 SHA-256 算法对数字签名进行加密,并使用 RSA 算法和 OAEP 模式用于加解密对称通信密钥。
6. Aes256Sha256RsaPss使用 AES-256 算法进行通信数据的加解密,并使用 SHA-256 算法对数字签名进行加密,并使用 RSA 算法和 PSS 模式用于加解密对称通信密钥。
![endpoint.png](./pic/opcua-02-endpoint.png)
### 4. 选择认证方式
如下图所示,切换 tab 可选择不同的认证方式,可选的认证方式有:
1. 匿名
2. 用户名
3. 证书访问:可以和安全通信证书相同,也可以用不同的证书。
![auth](./pic/opcua-04-auth.png)
配置好连接属性和认证方式后,点击 **连通性检查** 按钮,检查数据源是否可用。如果使用安全通信证书或认证证书,则证书必须在 OPC UA 服务端被信任,否则依然无法通过。
### 5. 配置点位集
**点位集** 可选择使用 CSV 文件模板或 **选择所有点位**
#### 5.1. 上传 CSV 配置文件
您可以下载 CSV 空模板并按模板配置点位信息,然后上传 CSV 配置文件来配置点位;或者根据所配置的筛选条件下载数据点位,并以 CSV
模板所制定的格式下载。
CSV 文件有如下规则:
1. 文件编码
用户上传的 CSV 文件的编码格式必须为以下格式中的一种:
(1) UTF-8 with BOM
(2) UTF-8UTF-8 without BOM
2. Header 配置规则
Header 是 CSV 文件的第一行,规则如下:
(1) CSV 的 Header 中可以配置以下列:
| 序号 | 列名 | 描述 | 是否必填 | 默认行为 |
| ---- | ----------------------- | -------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -------- | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| 1 | point_id | 数据点位在 OPC UA 服务器上的 id | 是 | 无 |
| 2 | stable | 数据点位在 TDengine 中对应的超级表 | 是 | 无 |
| 3 | tbname | 数据点位在 TDengine 中对应的子表 | 是 | 无 |
| 4 | enable | 是否采集该点位的数据 | 否 | 使用统一的默认值`1`作为 enable 的值 |
| 5 | value_col | 数据点位采集值在 TDengine 中对应的列名 | 否 | 使用统一的默认值`val` 作为 value_col 的值 |
| 6 | value_transform | 数据点位采集值在 taosX 中执行的变换函数 | 否 | 统一不进行采集值的 transform |
| 7 | type | 数据点位采集值的数据类型 | 否 | 统一使用采集值的原始类型作为 TDengine 中的数据类型 |
| 8 | quality_col | 数据点位采集值质量在 TDengine 中对应的列名 | 否 | 统一不在 TDengine 添加 quality 列 |
| 9 | ts_col | 数据点位的原始时间戳在 TDengine 中对应的时间戳列 | 否 | ts_col 和 received_ts_col 都非空时使用前者作为时间戳列ts_col 和 received_ts_col 有一列非空时使用不为空的列作时间戳列ts_col 和 received_ts_col 都为空时,使用数据点位原始时间戳作 TDengine 中的时间戳列,且列名为默认值`ts`。 |
| 10 | received_ts_col | 接收到该点位采集值时的时间戳在 TDengine 中对应的时间戳列 | 否 | 同上 |
| 11 | ts_transform | 数据点位时间戳在 taosX 中执行的变换函数 | 否 | 统一不进行数据点位原始时间戳的 transform |
| 12 | received_ts_transform | 数据点位接收时间戳在 taosX 中执行的变换函数 | 否 | 统一不进行数据点位接收时间戳的 transform |
| 13 | tag::VARCHAR(200)::name | 数据点位在 TDengine 中对应的 Tag 列。其中`tag` 为保留关键字,表示该列为一个 tag 列;`VARCHAR(200)` 表示该 tag 的类型,也可以是其它合法的类型;`name` 是该 tag 的实际名称。 | 否 | 配置 1 个以上的 tag 列,则使用配置的 tag 列;没有配置任何 tag 列,且 stable 在 TDengine 中存在,使用 TDengine 中的 stable 的 tag没有配置任何 tag 列,且 stable 在 TDengine 中不存在,则默认自动添加以下 2 个 tag 列tag::VARCHAR(256)::point_id 和 tag::VARCHAR(256)::point_name |
(2) CSV Header 中,不能有重复的列;
(3) CSV Header 中,类似`tag::VARCHAR(200)::name`这样的列可以配置多个,对应 TDengine 中的多个 Tag但 Tag 的名称不能重复。
(4) CSV Header 中,列的顺序不影响 CSV 文件校验规则;
(5) CSV Header 中,可以配置不在上表中的列,例如:序号,这些列会被自动忽略。
3. Row 配置规则
CSV 文件中的每个 Row 配置一个 OPC 数据点位。Row 的规则如下:
(1) 与 Header 中的列有如下对应关系
| 序号 | Header 中的列 | 值的类型 | 值的范围 | 是否必填 | 默认值 |
| ---- | ----------------------- | -------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -------- | ------------------------ |
| 1 | point_id | String | 类似`ns=3;i=1005`这样的字符串,要满足 OPC UA 的 ID 的规范,即:包含 ns 和 id 部分 | 是 | |
| 2 | enable | int | 0不采集该点位且在 OPC DataIn 任务开始前,删除 TDengine 中点位对应的子表1采集该点位在 OPC DataIn 任务开始前,不删除子表。 | 否 | 1 |
| 3 | stable | String | 符合 TDengine 超级表命名规范的任何字符串;如果存在特殊字符`.`,使用下划线替换如果存在`{type}`CSV 文件的 type 不为空,使用 type 的值进行替换CSV 文件的 type 为空,使用采集值的原始类型进行替换 | 是 | |
| 4 | tbname | String | 符合 TDengine 子表命名规范的任何字符串;如果存在特殊字符`.`,使用下划线替换对于 OPC UA如果存在`{ns}`,使用 point_id 中的 ns 替换如果存在`{id}`,使用 point_id 中的 id 替换对于 OPC DA如果存在`{tag_name}`,使用 tag_name 替换 | 是 | |
| 5 | value_col | String | 符合 TDengine 命名规范的列名 | 否 | val |
| 6 | value_transform | String | 符合 Rhai 引擎的计算表达式,例如:`(val + 10) / 1000 * 2.0``log(val) + 10`等; | 否 | None |
| 7 | type | String | 支持类型包括b/bool/i8/tinyint/i16/small/inti32/int/i64/bigint/u8/tinyint unsigned/u16/smallint unsigned/u32/int unsigned/u64/bigint unsigned/f32/float/f64/double/timestamp/timestamp(ms)/timestamp(us)/timestamp(ns)/json | 否 | 数据点位采集值的原始类型 |
| 8 | quality_col | String | 符合 TDengine 命名规范的列名 | 否 | None |
| 9 | ts_col | String | 符合 TDengine 命名规范的列名 | 否 | ts |
| 10 | received_ts_col | String | 符合 TDengine 命名规范的列名 | 否 | rts |
| 11 | ts_transform | String | 支持 +、-、*、/、% 操作符例如ts / 1000 * 1000将一个 ms 单位的时间戳的最后 3 位置为 0ts + 8 * 3600 * 1000将一个 ms 精度的时间戳,增加 8 小时ts - 8 * 3600 * 1000将一个 ms 精度的时间戳,减去 8 小时; | 否 | None |
| 12 | received_ts_transform | String | 否 | None | |
| 13 | tag::VARCHAR(200)::name | String | tag 里的值,当 tag 的类型是 VARCHAR 时,可以是中文 | 否 | NULL |
(2) point_id 在整个 DataIn 任务中是唯一的,即:在一个 OPC DataIn 任务中,一个数据点位只能被写入到 TDengine 的一张子表。如果需要将一个数据点位写入多张子表,需要建多个 OPC DataIn 任务;
(3) 当 point_id 不同,但 tbname 相同时value_col 必须不同。这种配置能够将不同数据类型的多个点位的数据写入同一张子表中不同的列。这种方式对应“OPC 数据入 TDengine 宽表”的使用场景。
4. 其他规则
(1) 如果 Header 和 Row 的列数不一致,校验失败,提示用户不满足要求的行号;
(2) Header 在首行,且不能为空;
(3) 至少有一个数据点;
#### 5.2. 选择数据点位
可以通过配置 **根节点ID**、**命名空间**、**节点ID**、**节点名称** 等条件,对点位进行筛选。
通过配置 **超级表名**、**表名称**,指定数据要写入的超级表、子表。
配置**主键列**,选择 origin_ts 表示使用 OPC 点位数据的原始时间戳作 TDengine 中的主键;选择 received_ts 表示使用数据的接收时间戳作 TDengine 中的主键。配置**主键别名**,指定 TDengine 时间戳列的名称。
![point.png](./pic/opcua-06-point.png)
### 6. 采集配置
在采集配置中,配置当前任务的采集模式、采集间隔、采集超时等选项。
![connect](./pic/opcua-07-collect.png)
如上图所示,其中:
- **采集模式**:可使用 `subscribe``observe` 模式。
- `subscribe`:订阅模式,变更时上报数据并写入 TDengine。
- `observe`:按照`采集间隔`时长,轮询读取点位最新值并写入 TDengine。
- **采集间隔**:默认为 10 秒,数据点位采集间隔,从上次采集数据结束后开始计时,轮询读取点位最新值并写入 TDengine。仅在 **采集模式**`observe` 时可配置。
- **采集超时**:向 OPC 服务器读取点位数据时如果超过设定时间未返回数据,则读取失败,默认为 10 秒。仅在 **采集模式**`observe` 时可配置。
**点位集** 中使用 **选择数据点位** 方式时,采集配置中可以配置 **点位更新模式****点位更新间隔** 来启用动态点位更新。**动态点位更新** 是指在任务运行期间OPC Server增加或删除了点位后符合条件的点位会自动添加到当前任务中不需要重启 OPC 任务。
- 点位更新模式:可选择 `None`、`Append`、`Update`三种。
- None不开启动态点位更新
- Append开启动态点位更新但只追加
- Update开启动态点位更新追加或删除
- 点位更新间隔:在“点位更新模式”为 `Append``Update` 时生效。单位:秒,默认值是 600最小值60最大值2147483647。
### 7. 高级选项
![advance options](./pic/opcua-07-advance.png)
如上图所示,配置高级选项对性能、日志等进行更加详尽的优化。
**日志级别** 默认为 `info`,可选项有 `error`、`warn`、`info`、`debug`、`trace`。
**最大写入并发数** 中设置写入 taosX 的最大并发数限制。默认值0表示 auto自动配置并发数。
**批次大小** 中设置每次写入的批次大小,即:单次发送的最大消息数量。
**批次延时** 中设置单次发送最大延时(单位为秒),当超时结束时,只要有数据,即使不满足**批次大小**,也立即发送。
**保存原始数据** 中选择是否保存原始数据。默认值:否。
当保存原始数据时,以下 2 个参数配置生效。
**最大保留天数** 中设置原始数据的最大保留天数。
**原始数据存储目录** 中设置原始数据保存路径。若使用 Agent ,则存储路径指的是 Agent 所在服务器上路径,否则是 taosX 服务器上路径。路径中可使用占位符 `$DATA_DIR``:id` 作为路径中的一部分。
- Linux 平台,$DATA_DIR 为 /var/lib/taos/taosx默认情况下存储路径为 `/var/lib/taos/taosx/tasks/<task_id>/rawdata`
- Widonws 平台, $DATA_DIR 为 C:\TDengine\data\taosx默认情况下存储路径为 `C:\TDengine\data\taosx\tasks\<task_id>\rawdata`
### 8. 创建完成
点击 **提交** 按钮,完成创建 OPC UA 到 TDengine 的数据同步任务,回到**数据源列表**页面可查看任务执行情况。
## 增加数据点位
在任务运行中,点击 **编辑**,点击 **增加数据点位** 按钮,追加数据点位到 CSV 文件中。
![增加数据点位](./pic/opc-08-add-point.png)
在弹出的表单中,填写数据点位的信息。
![数据点位表单](./pic/opc-09-add-point.png)
点击 **确定** 按钮,完成数据点位的追加。