diff --git a/docs/zh/06-advanced/05-data-in/11-csv.md b/docs/zh/06-advanced/05-data-in/11-csv.md
index 79fbb40740..4924ed2fbd 100644
--- a/docs/zh/06-advanced/05-data-in/11-csv.md
+++ b/docs/zh/06-advanced/05-data-in/11-csv.md
@@ -2,86 +2,123 @@
title: "CSV"
sidebar_label: "CSV"
---
-本节讲述如何通过 Explorer 界面创建数据迁移任务, 从 CSV 迁移数据到当前 TDengine 集群。
+本节讲述如何通过 Explorer 界面创建数据迁移任务,从 CSV 迁移数据到当前 TDengine 集群。
## 功能概述
导入一个或多个 CSV 文件数据到 TDengine。
## 创建任务
### 1. 新增数据源
-在数据写入页面中,点击 **+新增数据源** 按钮,进入新增数据源页面。
+在数据写入任务列表页面中,点击 **+新建任务** 按钮,进入新建任务页面。

### 2. 配置基本信息
-在 **名称** 中输入任务名称,如:“test_csv”;
+在 **名称** 中输入任务名称,如:“test_csv”。
在 **类型** 下拉列表中选择 **CSV**。
-在 **目标数据库** 下拉列表中选择一个目标数据库,也可以先点击右侧的 **+创建数据库** 按钮
+在 **目标数据库** 下拉列表中选择一个目标数据库,也可以先点击右侧的 **+创建数据库** 按钮。

### 3. 配置 CSV 选项
-在 **包含表头** 区域点击开启或关闭,如果包含表头,则第一行将被视为列信息。
+在 **包含表头** 区域点击开启或关闭,如果包含表头,则 CSV 文件内容第一行将被视为列信息。
-在 **忽略前 N 行** 区域填写 N,表示忽略 CSV 文件的前 N 行。
+在 **忽略前 N 行** 区域填写数字 N,表示忽略 CSV 文件的前 N 行。
-在 **字段分隔符** 区域进行选择,CSV 字段之间的分隔符,默认是 “,” 。
+在 **字段分隔符** 区域选择 CSV 字段分隔符,用于分隔行内容为多个字段,默认是 `,`。
-在 **字段引用符** 区域进行选择,当 CSV 字段中包含分隔符或换行符时,用于包围字段内容,以确保整个字段被正确识别,默认是 "“"。
+在 **字段引用符** 区域选择 CSV 字段引用符,当 CSV 字段中包含分隔符或换行符时,用于包围字段内容,以确保整个字段被正确识别,默认是 `"`。
-在 **注释前缀符** 区域进行选择,当 CSV 文件中某行以此处指定的字符开头,则忽略该行默认是 “#”。
+在 **注释前缀符** 区域选择 CSV 行注释前缀符,当 CSV 文件中某行以此处指定的字符开头,则忽略该行,默认是 `#`。

### 4. 配置解析 CSV 文件
-在本地上传 CSV 文件,例如:test-json.csv,之后会使用这条示例 csv 文件来配置提取和过滤条件。
-#### 4.1 解析
+#### 4.1 配置数据源
-点击 **选取文件** 后,选择 test-json.csv,点击 **解析** 预览识别的列。
+包含“上传 CSV 文件”与“监听文件目录”两种方式,“上传 CSV 文件”是指将本地文件通过浏览器上传到 taosx 所在服务器作为数据源,“监听文件目录”是指配置一个 taosx 所在服务器的绝对路径作为数据源,以下将分别进行介绍:
+
+##### 4.1.1 上传 CSV 文件
+
+在“上传 CSV 文件”标签页中:
+
+点击 **选取文件** 按钮,选取一个或多个本地文件,上传到服务器作为数据源。
+
+在 **保留已处理文件** 区域点击开启或关闭,如果开启,则文件被处理完成后仍会保留在服务器中,如果关闭,则将被删除。

-**预览解析结果**
+##### 4.1.2 监听文件目录
+
+在“监听文件目录”标签页中:
+
+在 **文件监听目录** 中输入一个 taosx 所在服务器的绝对路径,路径中包含的文件及子目录文件将作为数据源。
+
+在 **匹配模式** 中输入一个正则表达式,用于筛选过滤目录中的文件。
+
+在 **监听新文件** 区域点击开启或关闭,如果开启,则任务永不停止,且持续处理目录中新增的文件,如果关闭,则不处理新增文件,且初始文件处理结束后任务变为完成状态。
+
+在 **监听间隔** 中输入一个数字,用于配置监听新文件的时间间隔。
+
+在 **文件处理顺序** 区域选择“正序”或“倒序”,用于指定文件列表的处理先后顺序,“正序”将按照文件名的字典序正序处理,“倒序”将按照文件名的字典序倒序处理,与此同时,程序总是保持先处理文件后处理同级子目录的顺序。

-#### 4.2 字段拆分
+#### 4.2 解析
-在 **从列中提取或拆分** 中填写从消息体中提取或拆分的字段,例如:将 message 字段拆分成 `text_0` 和 `text_1` 这2个字段,选择 split 提取器,seperator 填写 -, number 填写2。
-点击 **删除**,可以删除当前提取规则。
-点击 **新增**,可以添加更多提取规则。
+上传文件或配置监听目录后,点击解析按钮,页面将获取文件中的示例数据,同时得到识别的列与示例数据解析结果:
-
+
-点击 **放大镜图标** 可预览提取或拆分结果。
+#### 4.2 从列中提取或拆分
+
+在 **从列中提取或拆分** 中填写从消息体中提取或拆分规则,例如:将 `desc` 字段拆分为 `desc_0` 与 `desc_1` 两个字段,可以选择 split 规则,separator 填写 `,`,number 填写 2 即可。
+
+点击 **删除** 可以删除当前提取规则。
+
+点击 **预览** 可以预览提取或拆分结果。
+
+点击 **新增提取/拆分** 可以添加更多提取规则。

-
-
-#### 4.3 表映射
+#### 4.4 映射
在 **目标超级表** 的下拉列表中选择一个目标超级表,也可以先点击右侧的 **创建超级表** 按钮
-在 **映射** 中,填写目标超级表中的子表名称,例如:`t_${groupid}`。
+在映射规则中,填写目标超级表中的子表名称,例如:`csv_meter_${id}`,同时配置映射到超级表的列。
-
-
-点击 **预览**,可以预览映射的结果。
-
-
+点击 **预览** 可以预览映射的结果。
+
### 5. 创建完成
-点击 **提交** 按钮,完成创建 CSV 到 TDengine 的数据同步任务,回到**数据源列表**页面可查看任务执行情况。
+点击 **提交** 按钮,完成创建 CSV 到 TDengine 的数据同步任务,回到数据写入任务列表页面,可查看任务执行情况,也可以进行任务的“启动/停止”操作与“查看/编辑/删除/复制”操作。
+
+
+
+### 6. 查看运行指标
+
+点击 **查看** 按钮,查看任务的运行指标,同时也可以查看任务中所有文件的处理情况。
+
+
+
+
+
+
\ No newline at end of file
diff --git a/docs/zh/06-advanced/05-data-in/csv-01.png b/docs/zh/06-advanced/05-data-in/csv-01.png
index a183e0dcef..f1494f5c20 100644
Binary files a/docs/zh/06-advanced/05-data-in/csv-01.png and b/docs/zh/06-advanced/05-data-in/csv-01.png differ
diff --git a/docs/zh/06-advanced/05-data-in/csv-02.png b/docs/zh/06-advanced/05-data-in/csv-02.png
index 909e7ff27c..05972c6810 100644
Binary files a/docs/zh/06-advanced/05-data-in/csv-02.png and b/docs/zh/06-advanced/05-data-in/csv-02.png differ
diff --git a/docs/zh/06-advanced/05-data-in/csv-03.png b/docs/zh/06-advanced/05-data-in/csv-03.png
index 1e0bd97a51..bf5a939fe4 100644
Binary files a/docs/zh/06-advanced/05-data-in/csv-03.png and b/docs/zh/06-advanced/05-data-in/csv-03.png differ
diff --git a/docs/zh/06-advanced/05-data-in/csv-04.png b/docs/zh/06-advanced/05-data-in/csv-04.png
index 189bdfa263..2fb0bed47e 100644
Binary files a/docs/zh/06-advanced/05-data-in/csv-04.png and b/docs/zh/06-advanced/05-data-in/csv-04.png differ
diff --git a/docs/zh/06-advanced/05-data-in/csv-05.png b/docs/zh/06-advanced/05-data-in/csv-05.png
index d7e2b51ccb..ec36377c9e 100644
Binary files a/docs/zh/06-advanced/05-data-in/csv-05.png and b/docs/zh/06-advanced/05-data-in/csv-05.png differ
diff --git a/docs/zh/06-advanced/05-data-in/csv-06.png b/docs/zh/06-advanced/05-data-in/csv-06.png
index 398d1dd903..0a3f794b33 100644
Binary files a/docs/zh/06-advanced/05-data-in/csv-06.png and b/docs/zh/06-advanced/05-data-in/csv-06.png differ
diff --git a/docs/zh/06-advanced/05-data-in/csv-07.png b/docs/zh/06-advanced/05-data-in/csv-07.png
index 7fd5ca4a89..ac9a4c1a2c 100644
Binary files a/docs/zh/06-advanced/05-data-in/csv-07.png and b/docs/zh/06-advanced/05-data-in/csv-07.png differ
diff --git a/docs/zh/06-advanced/05-data-in/csv-08.png b/docs/zh/06-advanced/05-data-in/csv-08.png
new file mode 100644
index 0000000000..0cd525dc98
Binary files /dev/null and b/docs/zh/06-advanced/05-data-in/csv-08.png differ
diff --git a/docs/zh/06-advanced/05-data-in/csv-09.png b/docs/zh/06-advanced/05-data-in/csv-09.png
new file mode 100644
index 0000000000..706d959a8d
Binary files /dev/null and b/docs/zh/06-advanced/05-data-in/csv-09.png differ
diff --git a/docs/zh/06-advanced/05-data-in/csv-10.png b/docs/zh/06-advanced/05-data-in/csv-10.png
index c0bb68f373..fcb82af87c 100644
Binary files a/docs/zh/06-advanced/05-data-in/csv-10.png and b/docs/zh/06-advanced/05-data-in/csv-10.png differ
diff --git a/docs/zh/06-advanced/05-data-in/csv-11.png b/docs/zh/06-advanced/05-data-in/csv-11.png
index 268e4788ab..352ae3dcdc 100644
Binary files a/docs/zh/06-advanced/05-data-in/csv-11.png and b/docs/zh/06-advanced/05-data-in/csv-11.png differ
diff --git a/docs/zh/06-advanced/05-data-in/csv-12.png b/docs/zh/06-advanced/05-data-in/csv-12.png
index 5a9f312b01..92fd670adf 100644
Binary files a/docs/zh/06-advanced/05-data-in/csv-12.png and b/docs/zh/06-advanced/05-data-in/csv-12.png differ
diff --git a/docs/zh/06-advanced/05-data-in/csv-13.png b/docs/zh/06-advanced/05-data-in/csv-13.png
index ed5108d3eb..a475bf6660 100644
Binary files a/docs/zh/06-advanced/05-data-in/csv-13.png and b/docs/zh/06-advanced/05-data-in/csv-13.png differ
diff --git a/docs/zh/06-advanced/05-data-in/csv-14.png b/docs/zh/06-advanced/05-data-in/csv-14.png
deleted file mode 100644
index e98d8ce334..0000000000
Binary files a/docs/zh/06-advanced/05-data-in/csv-14.png and /dev/null differ
diff --git a/docs/zh/06-advanced/06-data-analysis/management.md b/docs/zh/06-advanced/06-TDgpt/02-management.md
similarity index 99%
rename from docs/zh/06-advanced/06-data-analysis/management.md
rename to docs/zh/06-advanced/06-TDgpt/02-management.md
index 3f814f68f0..b507b79890 100644
--- a/docs/zh/06-advanced/06-data-analysis/management.md
+++ b/docs/zh/06-advanced/06-TDgpt/02-management.md
@@ -3,7 +3,6 @@ title: "安装部署"
sidebar_label: "安装部署"
---
-## 安装部署
### 环境准备
ANode 要求节点上准备有 Python 3.10 及以上版本,以及相应的 Python 包自动安装组件 Pip,同时请确保能够正常连接互联网。
diff --git a/docs/zh/06-advanced/06-TDgpt/03-preprocess.md b/docs/zh/06-advanced/06-TDgpt/03-preprocess.md
new file mode 100644
index 0000000000..62646f6ce0
--- /dev/null
+++ b/docs/zh/06-advanced/06-TDgpt/03-preprocess.md
@@ -0,0 +1,26 @@
+---
+title: "数据分析预处理"
+sidebar_label: "数据分析预处理"
+---
+
+## 时序数据分析功能
+
+在针对时序数据进行高级分析之前,首先进行数据的白噪声检查(White Noise Data check, WND)。白噪声时序数据可以简单地认为是随机数构成的时序数据序列,这种类型的序列没有分析的价值,因此会直接返回空的结果。整体的流程如下图所示。
+
+
+
+### 白噪声检查
+白噪声检查采用 `Ljung-Box` 检验,`Ljung-Box` 统计量的计算过程需遍历整个输入时间序列。
+如果用户能够明确输入序列一定不是白噪声序列,那么可以通过增加参数 `wncheck=0` 要求分析平台忽略白噪声输入时间序列检查,从而节省 CPU 计算资源。
+TDgpt 暂不提供独立的时间序列白噪声检测功能。
+
+
+### 数据重采样和时间戳对齐
+
+对于输入的时间序列数据,在对齐进行预测分析之前需要进行必要的预处理流程。预处理解决以下两个方面的问题:
+
+- 真实时间序列数据时间戳未对齐。由于数据生成的原因或者网关给时间序列数据赋值时间戳并不能保证按照严格的时间间隔赋值,此时 分析平台会自动将输入数据按照用户指定的采样频率对时间戳进行对齐处理。例如输入时间序列 [11, 22, 29, 41],用户指定时间间隔为 10,该时间序列的时间戳将被自动重整为以下时间戳序列 [10, 20, 30, 40]。
+- 数据时间重采样。用户输入时间序列的采样频率超过了输出结果的频率,例如输入时间序列的采样频率是 5,输出结果的频率是 10,输入时间序列 [0, 5, 10, 15, 20, 25, 30] 将被重采用为间隔 为 10 的序列 [0, 10, 20,30],[5, 15, 25] 处的数据将被丢弃。
+
+需要注意的是,数据输入平台不支持缺失数据补齐后进行的预测分析,如果输入时间序列数据 [11, 22, 29, 49],并且用户要求的时间间隔为 10,重整对齐后的序列是 [10, 20, 30, 50] 那么该序列进行预测分析将返回错误。
+
diff --git a/docs/zh/06-advanced/06-data-analysis/01-arima.md b/docs/zh/06-advanced/06-TDgpt/04-forecast/02-arima.md
similarity index 100%
rename from docs/zh/06-advanced/06-data-analysis/01-arima.md
rename to docs/zh/06-advanced/06-TDgpt/04-forecast/02-arima.md
diff --git a/docs/zh/06-advanced/06-data-analysis/02-holtwinters.md b/docs/zh/06-advanced/06-TDgpt/04-forecast/03-holtwinters.md
similarity index 100%
rename from docs/zh/06-advanced/06-data-analysis/02-holtwinters.md
rename to docs/zh/06-advanced/06-TDgpt/04-forecast/03-holtwinters.md
diff --git a/docs/zh/06-advanced/06-TDgpt/04-forecast/intro.md b/docs/zh/06-advanced/06-TDgpt/04-forecast/intro.md
new file mode 100644
index 0000000000..d8fd4d83f6
--- /dev/null
+++ b/docs/zh/06-advanced/06-TDgpt/04-forecast/intro.md
@@ -0,0 +1,73 @@
+---
+title: 预测算法
+description: 预测算法
+---
+
+#### 时序数据预测
+数据预测以一段训练数据作为输入,预测接下来一个连续时间区间内,时序数据的趋势。
+
+##### 语法
+```SQL
+FORECAST(column_expr, option_expr)
+
+option_expr: {"
+algo=expr1
+[,wncheck=1|0]
+[,conf=conf_val]
+[,every=every_val]
+[,rows=rows_val]
+[,start=start_ts_val]
+[,expr2]
+"}
+
+```
+1. `column_expr`:预测的时序数据列。与异常检测相同,只支持数值类型输入。
+2. `options`:异常检测函数的参数,使用规则与 anomaly_window 相同。预测还支持 `conf`, `every`, `rows`, `start`, `rows` 几个参数,其含义如下:
+
+**参数说明**
+
+|参数|含义|默认值|
+|---|---|---|
+|algo|预测分析使用的算法|holtwinters|
+|wncheck|白噪声(white noise data)检查|默认值为 1,0 表示不进行检查|
+|conf|预测数据的置信区间范围 ,取值范围 [0, 100]|95|
+|every|预测数据的采样间隔|输入数据的采样间隔|
+|start|预测结果的开始时间戳|输入数据最后一个时间戳加上一个采样时间段|
+|rows|预测结果的记录数|10|
+
+1. 预测查询结果新增了三个伪列,具体如下:`_FROWTS`:预测结果的时间戳、`_FLOW`:置信区间下界、`_FHIGH`:置信区间上界, 对于没有置信区间的预测算法,其置信区间同预测结果
+2. 更改参数 `START`:返回预测结果的起始时间,改变起始时间不会影响返回的预测数值,只影响起始时间。
+3. `EVERY`:可以与输入数据的采样频率不同。采样频率只能低于或等于输入数据采样频率,不能**高于**输入数据的采样频率。
+4. 对于某些不需要计算置信区间的算法,即使指定了置信区间,返回的结果中其上下界退化成为一个点。
+
+**示例**
+
+```SQL
+--- 使用 arima 算法进行预测,预测结果是 10 条记录(默认值),数据进行白噪声检查,默认置信区间 95%.
+SELECT _flow, _fhigh, _frowts, FORECAST(i32, "algo=arima")
+FROM ai.ftb;
+
+--- 使用 arima 算法进行预测,输入数据的是周期数据,每 10 个采样点是一个周期。返回置信区间是 95%.
+SELECT _flow, _fhigh, _frowts, FORECAST(i32, "algo=arima,alpha=95,period=10")
+FROM ai.ftb;
+```
+```
+taos> select _flow, _fhigh, _frowts, forecast(i32) from ai.ftb;
+ _flow | _fhigh | _frowts | forecast(i32) |
+========================================================================================
+ 10.5286684 | 41.8038254 | 2020-01-01 00:01:35.001 | 26 |
+ -21.9861946 | 83.3938904 | 2020-01-01 00:01:36.001 | 30 |
+ -78.5686035 | 144.6729126 | 2020-01-01 00:01:37.001 | 33 |
+ -154.9797363 | 230.3057709 | 2020-01-01 00:01:38.001 | 37 |
+ -253.9852905 | 337.6083984 | 2020-01-01 00:01:39.001 | 41 |
+ -375.7857971 | 466.4594727 | 2020-01-01 00:01:40.001 | 45 |
+ -514.8043823 | 622.4426270 | 2020-01-01 00:01:41.001 | 53 |
+ -680.6343994 | 796.2861328 | 2020-01-01 00:01:42.001 | 57 |
+ -868.4956665 | 992.8603516 | 2020-01-01 00:01:43.001 | 62 |
+ -1076.1566162 | 1214.4498291 | 2020-01-01 00:01:44.001 | 69 |
+```
+
+
+**可用预测算法**
+- arima
+- holtwinters
diff --git a/docs/zh/06-advanced/06-data-analysis/03-anomaly-detection.md b/docs/zh/06-advanced/06-TDgpt/05-anomaly-detection/02-anomaly-detection.md
similarity index 100%
rename from docs/zh/06-advanced/06-data-analysis/03-anomaly-detection.md
rename to docs/zh/06-advanced/06-TDgpt/05-anomaly-detection/02-anomaly-detection.md
diff --git a/docs/zh/06-advanced/06-TDgpt/05-anomaly-detection/intro.md b/docs/zh/06-advanced/06-TDgpt/05-anomaly-detection/intro.md
new file mode 100644
index 0000000000..b29e9a320e
--- /dev/null
+++ b/docs/zh/06-advanced/06-TDgpt/05-anomaly-detection/intro.md
@@ -0,0 +1,69 @@
+---
+title: 异常检测算法
+description: 异常检测算法
+---
+
+#### 时序数据异常检测
+异常检测是针对输入的时序数据,使用预设或用户指定的算法确定时间序列中**可能**出现异常的时间序列点,对于时间序列中若干个连续的异常点,将自动合并成为一个连续的(闭区间)异常窗口。对于只有单个点的场景,异常窗口窗口退化成为一个起始时间和结束时间相同的点。
+异常检测生成的异常窗口受检测算法和算法参数的共同影响,对于异常窗口范围内的数据,可以应用 TDengine 提供的聚合和标量函数进行查询或变换处理。
+对于输入时间序列 (1, 20), (2, 22), (3, 91), (4, 120), (5, 18), (6, 19)。系统检测到 (3, 91), (4, 120) 为异常点,那么返回的异常窗口是闭区间 [3, 4]。
+
+
+
+##### 语法
+
+```SQL
+ANOMALY_WINDOW(column_name, option_expr)
+
+option_expr: {"
+algo=expr1
+[,wncheck=1|0]
+[,expr2]
+"}
+```
+
+1. `column`:进行时序数据异常检测的输入数据列,当前只支持单列,且只能是数值类型,不能是字符类型(例如:`NCHAR` `VARCHAR` `VARBINARY`等类型),**不支持函数表达式**。
+2. `options`:字符串。其中使用 K=V 调用异常检测算法及与算法相关的参数。采用逗号分隔的 K=V 字符串表示,其中的字符串不需要使用单引号、双引号、或转义号等符号,不能使用中文及其他宽字符。例如:`algo=ksigma,k=2` 表示进行异常检测的算法是 ksigma,该算法接受的输入参数是 2。
+3. 异常检测的结果可以作为外层查询的子查询输入,在 `SELECT` 子句中使用的聚合函数或标量函数与其他类型的窗口查询相同。
+4. 输入数据默认进行白噪声检查,如果输入数据是白噪声,将不会有任何(异常)窗口信息返回。
+
+**参数说明**
+|参数|含义|默认值|
+|---|---|---|
+|algo|异常检测调用的算法|iqr|
+|wncheck|对输入数据列是否进行白噪声检查|取值为 0 或者 1,默认值为 1,表示进行白噪声检查|
+
+异常检测的返回结果以窗口形式呈现,因此窗口查询相关的伪列在这种场景下仍然可用。可以使用的伪列如下:
+1. `_WSTART`: 异常窗口开始时间戳
+2. `_WEND`:异常窗口结束时间戳
+3. `_WDURATION`:异常窗口持续时间
+
+**示例**
+```SQL
+--- 使用 iqr 算法进行异常检测,检测列 i32 列。
+SELECT _wstart, _wend, SUM(i32)
+FROM ai.atb
+ANOMALY_WINDOW(i32, "algo=iqr");
+
+--- 使用 ksigma 算法进行异常检测,输入参数 k 值为 2,检测列 i32 列
+SELECT _wstart, _wend, SUM(i32)
+FROM ai.atb
+ANOMALY_WINDOW(i32, "algo=ksigma,k=2");
+```
+
+```
+taos> SELECT _wstart, _wend, count(*) FROM ai.atb ANOMAYL_WINDOW(i32);
+ _wstart | _wend | count(*) |
+====================================================================
+ 2020-01-01 00:00:16.000 | 2020-01-01 00:00:16.001 | 1 |
+Query OK, 1 row(s) in set (0.028946s)
+```
+
+
+**可用异常检测算法**
+- iqr
+- ksigma
+- grubbs
+- lof
+- shesd
+- tac
diff --git a/docs/zh/06-advanced/06-data-analysis/addins.md b/docs/zh/06-advanced/06-TDgpt/06-addins.md
similarity index 100%
rename from docs/zh/06-advanced/06-data-analysis/addins.md
rename to docs/zh/06-advanced/06-TDgpt/06-addins.md
diff --git a/docs/zh/06-advanced/06-TDgpt/index.md b/docs/zh/06-advanced/06-TDgpt/index.md
new file mode 100644
index 0000000000..1f37fb4815
--- /dev/null
+++ b/docs/zh/06-advanced/06-TDgpt/index.md
@@ -0,0 +1,22 @@
+---
+sidebar_label: TDgpt
+title: TDgpt
+---
+
+## 概述
+
+TDgpt 是 TDengine Enterprise 中针对时序数据提供高级分析功能的企业级组件,能够独立于 TDengine 主进程部署和运行,不消耗和占用 TDengine 主进程的资源,通过内置接口向 TDengine 提供运行时动态扩展的高级时序数据分析功能。TDgpt 具有服务无状态、功能易扩展、快速弹性部署、应用轻量化、高安全性等特点。
+TDgpt 运行在部署于 TDengine 集群中的 Analysis Node (ANode)中。每个 TDengine 集群中可以部署一个或若干个 ANode 节点,不同的 ANode 节点之间不相关,无同步或协同的要求。ANode 注册到 TDengine 集群以后,就可以通过内部接口提供服务。TDgpt 提供的高级时序数据分析服务可分为时序数据异常检测和时序数据预测分析两个类别。
+
+如下是数据分析的技术架构示意图。
+
+
+
+通过注册指令语句,将 ANode 注册到 MNode 中就加入到 TDengine 集群,查询会**按需**向其请求数据分析服务。ANode 不直接接收用户的数据分析请求。用户可通过SQL语句间接使用 ANode 提供的分析服务。
+
+TDgpt 提供的高级数据分析功能分为时序数据异常检测和时序数据预测两类。
+时序数据异常检测的结果采用异常窗口的形式提供,即分析系统自动将连续的异常数据以时间窗口的形式返回,其使用方式与 TDengine 中其他类型的时间窗口类似。特别地,可以将异常时序数据窗口视作为一种特殊的**事件窗口(Event Window)**,因此事件窗口可应用的查询操作均可应用在异常窗口上。如下图所示,分析平台将返回时序数据异常窗口 [10:51:30, 10:54:40] (红色背景部分数据)。
+时序数据预测是基于输入的时间序列数据,采用用户给定(或默认算法)输出输入数据之后的时间序列数据的预测值数据,预测产生的时序数据点需要由用户指定。
+
+
+
diff --git a/docs/zh/06-advanced/06-TDgpt/pic/activity.png b/docs/zh/06-advanced/06-TDgpt/pic/activity.png
new file mode 100644
index 0000000000..2d2a403de5
Binary files /dev/null and b/docs/zh/06-advanced/06-TDgpt/pic/activity.png differ
diff --git a/docs/zh/06-advanced/06-TDgpt/pic/anomaly-detection.png b/docs/zh/06-advanced/06-TDgpt/pic/anomaly-detection.png
new file mode 100644
index 0000000000..7010a4f67f
Binary files /dev/null and b/docs/zh/06-advanced/06-TDgpt/pic/anomaly-detection.png differ
diff --git a/docs/zh/06-advanced/06-data-analysis/pic/data-analysis.png b/docs/zh/06-advanced/06-TDgpt/pic/data-analysis.png
similarity index 100%
rename from docs/zh/06-advanced/06-data-analysis/pic/data-analysis.png
rename to docs/zh/06-advanced/06-TDgpt/pic/data-analysis.png
diff --git a/docs/zh/06-advanced/06-data-analysis/analysis-preprocess.md b/docs/zh/06-advanced/06-data-analysis/analysis-preprocess.md
deleted file mode 100644
index 4d65b247c2..0000000000
--- a/docs/zh/06-advanced/06-data-analysis/analysis-preprocess.md
+++ /dev/null
@@ -1,23 +0,0 @@
----
-title: "数据分析预处理"
-sidebar_label: "数据分析预处理"
----
-
-## 时序数据分析功能
-
-### 白噪声检查
-
-分析平台提供的 Restful 服务要求输入的时间序列不能是白噪声时间序列(White Noise Data, WND)和随机数序列 , 因此针对所有数据均默认进行白噪声检查。当前白噪声检查采用通行的 `Ljung-Box` 检验,`Ljung-Box` 统计量检查过程需要遍历整个输入序列并进行计算。
-如果用户能够明确输入序列一定不是白噪声序列,那么可以通过输入参数,指定预测之前忽略该检查,从而节省分析过程的 CPU 计算资源。
-同时支持独立地针对输入序列进行白噪声检测(该检测功能暂不独立对外开放)。
-
-
-### 数据重采样和时间戳对齐
-
-分析平台支持将输入数据进行重采样预处理,从而确保输出结果按照用户指定的等间隔进行处理。处理过程分为两种类别:
-
-- 数据时间戳对齐。由于真实数据可能并非严格按照查询指定的时间戳输入。此时分析平台会自动将数据的时间间隔按照指定的时间间隔进行对齐。例如输入时间序列 [11, 22, 29, 41],用户指定时间间隔为 10,该序列将被对齐重整为以下序列 [10, 20, 30, 40]。
-- 数据时间重采样。用户输入时间序列的采样频率超过了输出结果的频率,例如输入时间序列的采样频率是 5,输出结果的频率是 10,输入时间序列 [0, 5, 10, 15, 20, 25, 30] 将被重采用为间隔 为 10 的序列 [0, 10, 20,30],[5, 15, 25] 处的数据将被丢弃。
-
-需要注意的是,数据输入平台不支持缺失数据补齐后进行的预测分析,如果输入时间序列数据 [11, 22, 29, 49],并且用户要求的时间间隔为 10,重整对齐后的序列是 [10, 20, 30, 50] 那么该序列进行预测分析将返回错误。
-
diff --git a/docs/zh/06-advanced/06-data-analysis/index.md b/docs/zh/06-advanced/06-data-analysis/index.md
deleted file mode 100644
index c04b0b47bd..0000000000
--- a/docs/zh/06-advanced/06-data-analysis/index.md
+++ /dev/null
@@ -1,153 +0,0 @@
----
-sidebar_label: TDgpt
-title: TDgpt
----
-
-## 概述
-
-TDgpt 是 TDengine Enterprise 中针对时序数据提供高级分析功能的企业级组件,能够独立于 TDengine 主进程部署和运行,不消耗和占用 TDengine 主进程的资源,通过内置接口向 TDengine 提供运行时动态扩展的高级时序数据分析功能。TDgpt 具有服务无状态、功能易扩展、快速弹性部署、应用轻量化、高安全性等特点。
-TDgpt 运行在部署于 TDengine 集群中的 Analysis Node (ANode)中。每个 TDengine 集群中可以部署一个或若干个 ANode 节点,不同的 ANode 节点之间不相关,无同步或协同的要求。ANode 注册到 TDengine 集群以后,就可以通过内部接口提供服务。TDgpt 提供的高级时序数据分析服务可分为时序数据异常检测和时序数据预测分析两个类别。
-
-如下是数据分析的技术架构示意图。
-
-
-
-通过注册指令语句,将 ANode 注册到 MNode 中就加入到 TDengine 集群,查询会按需向其请求数据分析服务。请求服务通过 VNode 直接向 ANode 发起,用户则可以通过 SQL 语句直接调用 ANode 提供的服务。
-
-
-
-
-
-#### 时序数据异常检测
-异常检测是针对输入的时序数据,使用预设或用户指定的算法确定时间序列中**可能**出现异常的时间序列点,对于时间序列中若干个连续的异常点,将自动合并成为一个连续的(闭区间)异常窗口。对于只有单个点的场景,异常窗口窗口退化成为一个起始时间和结束时间相同的点。
-异常检测生成的异常窗口受检测算法和算法参数的共同影响,对于异常窗口范围内的数据,可以应用 TDengine 提供的聚合和标量函数进行查询或变换处理。
-对于输入时间序列 (1, 20), (2, 22), (3, 91), (4, 120), (5, 18), (6, 19)。系统检测到 (3, 91), (4, 120) 为异常点,那么返回的异常窗口是闭区间 [3, 4]。
-
-
-##### 语法
-
-```SQL
-ANOMALY_WINDOW(column_name, option_expr)
-
-option_expr: {"
-algo=expr1
-[,wncheck=1|0]
-[,expr2]
-"}
-```
-
-1. `column`:进行时序数据异常检测的输入数据列,当前只支持单列,且只能是数值类型,不能是字符类型(例如:`NCHAR` `VARCHAR` `VARBINARY`等类型),**不支持函数表达式**。
-2. `options`:字符串。其中使用 K=V 调用异常检测算法及与算法相关的参数。采用逗号分隔的 K=V 字符串表示,其中的字符串不需要使用单引号、双引号、或转义号等符号,不能使用中文及其他宽字符。例如:`algo=ksigma,k=2` 表示进行异常检测的算法是 ksigma,该算法接受的输入参数是 2。
-3. 异常检测的结果可以作为外层查询的子查询输入,在 `SELECT` 子句中使用的聚合函数或标量函数与其他类型的窗口查询相同。
-4. 输入数据默认进行白噪声检查,如果输入数据是白噪声,将不会有任何(异常)窗口信息返回。
-
-**参数说明**
-|参数|含义|默认值|
-|---|---|---|
-|algo|异常检测调用的算法|iqr|
-|wncheck|对输入数据列是否进行白噪声检查|取值为 0 或者 1,默认值为 1,表示进行白噪声检查|
-
-异常检测的返回结果以窗口形式呈现,因此窗口查询相关的伪列在这种场景下仍然可用。可以使用的伪列如下:
-1. `_WSTART`: 异常窗口开始时间戳
-2. `_WEND`:异常窗口结束时间戳
-3. `_WDURATION`:异常窗口持续时间
-
-**示例**
-```SQL
---- 使用 iqr 算法进行异常检测,检测列 i32 列。
-SELECT _wstart, _wend, SUM(i32)
-FROM ai.atb
-ANOMALY_WINDOW(i32, "algo=iqr");
-
---- 使用 ksigma 算法进行异常检测,输入参数 k 值为 2,检测列 i32 列
-SELECT _wstart, _wend, SUM(i32)
-FROM ai.atb
-ANOMALY_WINDOW(i32, "algo=ksigma,k=2");
-```
-
-```
-taos> SELECT _wstart, _wend, count(*) FROM ai.atb ANOMAYL_WINDOW(i32);
- _wstart | _wend | count(*) |
-====================================================================
- 2020-01-01 00:00:16.000 | 2020-01-01 00:00:16.001 | 1 |
-Query OK, 1 row(s) in set (0.028946s)
-```
-
-
-**可用异常检测算法**
-- iqr
-- ksigma
-- grubbs
-- lof
-- shesd
-- tac
-
-
-#### 时序数据预测
-数据预测以一段训练数据作为输入,预测接下来一个连续时间区间内,时序数据的趋势。
-
-##### 语法
-```SQL
-FORECAST(column_expr, option_expr)
-
-option_expr: {"
-algo=expr1
-[,wncheck=1|0]
-[,conf=conf_val]
-[,every=every_val]
-[,rows=rows_val]
-[,start=start_ts_val]
-[,expr2]
-"}
-
-```
-1. `column_expr`:预测的时序数据列。与异常检测相同,只支持数值类型输入。
-2. `options`:异常检测函数的参数,使用规则与 anomaly_window 相同。预测还支持 `conf`, `every`, `rows`, `start`, `rows` 几个参数,其含义如下:
-
-**参数说明**
-
-|参数|含义|默认值|
-|---|---|---|
-|algo|预测分析使用的算法|holtwinters|
-|wncheck|白噪声(white noise data)检查|默认值为 1,0 表示不进行检查|
-|conf|预测数据的置信区间范围 ,取值范围 [0, 100]|95|
-|every|预测数据的采样间隔|输入数据的采样间隔|
-|start|预测结果的开始时间戳|输入数据最后一个时间戳加上一个采样时间段|
-|rows|预测结果的记录数|10|
-
-1. 预测查询结果新增了三个伪列,具体如下:`_FROWTS`:预测结果的时间戳、`_FLOW`:置信区间下界、`_FHIGH`:置信区间上界, 对于没有置信区间的预测算法,其置信区间同预测结果
-2. 更改参数 `START`:返回预测结果的起始时间,改变起始时间不会影响返回的预测数值,只影响起始时间。
-3. `EVERY`:可以与输入数据的采样频率不同。采样频率只能低于或等于输入数据采样频率,不能**高于**输入数据的采样频率。
-4. 对于某些不需要计算置信区间的算法,即使指定了置信区间,返回的结果中其上下界退化成为一个点。
-
-**示例**
-
-```SQL
---- 使用 arima 算法进行预测,预测结果是 10 条记录(默认值),数据进行白噪声检查,默认置信区间 95%.
-SELECT _flow, _fhigh, _frowts, FORECAST(i32, "algo=arima")
-FROM ai.ftb;
-
---- 使用 arima 算法进行预测,输入数据的是周期数据,每 10 个采样点是一个周期。返回置信区间是 95%.
-SELECT _flow, _fhigh, _frowts, FORECAST(i32, "algo=arima,alpha=95,period=10")
-FROM ai.ftb;
-```
-```
-taos> select _flow, _fhigh, _frowts, forecast(i32) from ai.ftb;
- _flow | _fhigh | _frowts | forecast(i32) |
-========================================================================================
- 10.5286684 | 41.8038254 | 2020-01-01 00:01:35.001 | 26 |
- -21.9861946 | 83.3938904 | 2020-01-01 00:01:36.001 | 30 |
- -78.5686035 | 144.6729126 | 2020-01-01 00:01:37.001 | 33 |
- -154.9797363 | 230.3057709 | 2020-01-01 00:01:38.001 | 37 |
- -253.9852905 | 337.6083984 | 2020-01-01 00:01:39.001 | 41 |
- -375.7857971 | 466.4594727 | 2020-01-01 00:01:40.001 | 45 |
- -514.8043823 | 622.4426270 | 2020-01-01 00:01:41.001 | 53 |
- -680.6343994 | 796.2861328 | 2020-01-01 00:01:42.001 | 57 |
- -868.4956665 | 992.8603516 | 2020-01-01 00:01:43.001 | 62 |
- -1076.1566162 | 1214.4498291 | 2020-01-01 00:01:44.001 | 69 |
-```
-
-
-**可用预测算法**
-- arima
-- holtwinters
diff --git a/packaging/smokeTest/test_server.py b/packaging/smokeTest/test_server.py
index 36d86357a3..04231f122f 100644
--- a/packaging/smokeTest/test_server.py
+++ b/packaging/smokeTest/test_server.py
@@ -61,7 +61,7 @@ def setup_module(get_config):
else:
cmd = "mkdir -p ../../debug/build/bin/"
subprocess.getoutput(cmd)
- if config["system"] == "Linux": # add tmq_sim
+ if config["system"] == "Linux" or config["system"] == "Darwin" : # add tmq_sim
cmd = "cp -rf ../../../debug/build/bin/tmq_sim ../../debug/build/bin/."
subprocess.getoutput(cmd)
if config["system"] == "Darwin":
@@ -140,9 +140,11 @@ class TestServer:
if line:
print(line.strip())
if "succeed to write dnode" in line:
- time.sleep(15)
+ time.sleep(5)
# 发送终止信号
- os.kill(process.pid, signal.SIGTERM)
+ os.kill(process.pid, signal.SIGKILL)
+ # Waiting for the process to be completely killed
+ time.sleep(5)
break
@pytest.mark.all