homework-jianmu/2.0/documentation/webdocs/markdowndocs/administrator-ch.md

24 KiB
Raw Blame History

TDengine的运营与维护

容量规划

使用TDengine来搭建一个物联网大数据平台计算资源、存储资源需要根据业务场景进行规划。下面分别讨论系统运行所需要的内存、CPU以及硬盘空间。

内存需求

每个DB可以创建固定数目的vnode默认与CPU核数相同可通过maxVgroupsPerDb配置每个vnode会占用固定大小的内存大小与数据库的配置参数blocks和cache有关)每个Table会占用与标签总长度有关的内存此外系统会有一些固定的内存开销。因此每个DB需要的系统内存可通过如下公式计算

Memory Size = maxVgroupsPerDb * (blocks * cache + 10Mb) + numOfTables * (tagSizePerTable + 0.5Kb)

示例假设是4核机器cache是缺省大小16M, blocks是缺省值6假设有10万张表标签总长度是256字节则总的内存需求为4*(16*6+10) + 100000*(0.25+0.5)/1000 = 499M。

实际运行的系统往往会根据数据特点的不同将数据存放在不同的DB里。因此做规划时也需要考虑。

如果内存充裕可以加大Blocks的配置这样更多数据将保存在内存里提高查询速度。

CPU需求

CPU的需求取决于如下两方面

  • 数据插入 TDengine单核每秒能至少处理一万个插入请求。每个插入请求可以带多条记录一次插入一条记录与插入10条记录消耗的计算资源差别很小。因此每次插入条数越大插入效率越高。如果一个插入请求带200条以上记录单核就能达到每秒插入100万条记录的速度。但对前端数据采集的要求越高因为需要缓存记录然后一批插入。
  • 查询需求 TDengine提供高效的查询但是每个场景的查询差异很大查询频次变化也很大难以给出客观数字。需要用户针对自己的场景写一些查询语句才能确定。

因此仅对数据插入而言CPU是可以估算出来的但查询所耗的计算资源无法估算。在实际运营过程中不建议CPU使用率超过50%,超过后,需要增加新的节点,以获得更多计算资源。

存储需求

TDengine相对于通用数据库有超高的压缩比在绝大多数场景下TDengine的压缩比不会低于5倍有的场合压缩比可达到10倍以上取决于实际场景的数据特征。压缩前的原始数据大小可通过如下方式计算

Raw DataSize = numOfTables * rowSizePerTable * rowsPerTable

示例1000万台智能电表每台电表每15分钟采集一次数据每次采集的数据128字节那么一年的原始数据量是10000000*128*24*60/15*365 = 44851T。TDengine大概需要消耗44851/5=8970T, 8.9P空间。

用户可以通过参数keep设置数据在磁盘中的最大保存时长。为进一步减少存储成本TDengine还提供多级存储最冷的数据可以存放在最廉价的存储介质上应用的访问不用做任何调整只是读取速度降低了。

为提高速度可以配置多快硬盘这样可以并发写入或读取数据。需要提醒的是TDengine采取多副本的方式提供数据的高可靠因此不再需要采用昂贵的磁盘阵列。

物理机或虚拟机台数

根据上面的内存、CPU、存储的预估就可以知道整个系统需要多少核、多少内存、多少存储空间。如果数据副本数不为1总需求量需要再乘以副本数。

因为TDengine具有很好的水平扩展能力根据总量再根据单个物理机或虚拟机的资源就可以轻松决定需要购置多少台物理机或虚拟机了。

容错和灾备

容错

TDengine支持WALWrite Ahead Log机制实现数据的容错能力保证数据的高可用。

TDengine接收到应用的请求数据包时先将请求的原始数据包写入数据库日志文件等数据成功写入数据库数据文件后再删除相应的WAL。这样保证了TDengine能够在断电等因素导致的服务重启时从数据库日志文件中恢复数据避免数据的丢失。

涉及的系统配置参数有两个:

  • walLevelWAL级别0不写wal; 1写wal, 但不执行fsync; 2写wal, 而且执行fsync。
  • fsync当walLevel设置为2时执行fsync的周期。设置为0表示每次写入立即执行fsync。

如果要100%的保证数据不丢失需要将walLevel设置为2fsync设置为0。这时写入速度将会下降。但如果应用侧启动的写数据的线程数达到一定的数量(超过50)那么写入数据的性能也会很不错只会比fsync设置为3000毫秒下降30%左右。

灾备

TDengine的集群通过多个副本的机制来提供系统的高可用性实现灾备能力。

TDengine集群是由mnode负责管理的为保证mnode的高可靠可以配置多个mnode副本副本数由系统配置参数numOfMnodes决定为了支持高可靠需要设置大于1。为保证元数据的强一致性mnode副本之间通过同步方式进行数据复制保证了元数据的强一致性。

TDengine集群中的时序数据的副本数是与数据库关联的一个集群里可以有多个数据库每个数据库可以配置不同的副本数。创建数据库时通过参数replica 指定副本数。为了支持高可靠需要设置副本数大于1。

TDengine集群的节点数必须大于等于副本数否则创建表时将报错。

当TDengine集群中的节点部署在不同的物理机上并设置多个副本数时就实现了系统的高可靠性无需再使用其他软件或工具。TDengine企业版还可以将副本部署在不同机房从而实现异地容灾。

服务端配置

TDengine系统后台服务由taosd提供可以在配置文件taos.cfg里修改配置参数以满足不同场景的需求。配置文件的缺省位置在/etc/taos目录可以通过taosd命令行执行参数-c指定配置文件目录。比如taosd -c /home/user来指定配置文件位于/home/user这个目录。

下面仅仅列出一些重要的配置参数,更多的参数请看配置文件里的说明。各个参数的详细介绍及作用请看前述章节,而且这些参数的缺省配置都是工作的,一般无需设置。注意:配置修改后,需要重启taosd服务才能生效。

  • firstEp: taosd启动时主动连接的集群中第一个dnode的end point, 缺省值为 localhost:6030。
  • secondEp: taosd启动时如果first连接不上尝试连接集群中第二个dnode的end point, 缺省值为空。
  • fqdn数据节点的FQDN。如果为空将自动获取操作系统配置的第一个, 缺省值为空。
  • serverPorttaosd启动后对外服务的端口号默认值为6030。
  • httpPort: RESTful服务使用的端口号所有的HTTP请求TCP都需要向该接口发起查询/写入请求。
  • dataDir: 数据文件目录,所有的数据文件都将写入该目录。默认值:/var/lib/taos。
  • logDir日志文件目录客户端和服务器的运行日志文件将写入该目录。默认值/var/log/taos。
  • tempDir临时文件目录客户端和服务器的临时文件主要是查询时用于保存中间结果的问题将写入该目录。 默认值Linux下为 /tmp/Windows下为环境变量 tmp 或 temp 指向的目录。
  • arbitrator系统中裁决器的end point, 缺省值为空。
  • rolednode的可选角色。0-any; 既可作为mnode也可分配vnode1-mgmt;只能作为mnode不能分配vnode2-dnode;不能作为mnode只能分配vnode
  • debugFlag运行日志开关。131输出错误和警告日志135 输出错误、警告和调试日志143 输出错误、警告、调试和跟踪日志。默认值131或135不同模块有不同的默认值
  • numOfLogLines单个日志文件允许的最大行数。默认值10,000,000行。
  • maxSQLLength单条SQL语句允许最长限制。默认值65380字节。
  • maxBinaryDisplayWidthShell中binary 和 nchar字段的显示宽度上限超过此限制的部分将被隐藏。默认值30。可在 shell 中通过命令 set max_binary_display_width nn动态修改此选项。

**注意:**对于端口TDengine会使用从serverPort起11个连续的TCP和UDP端口号请务必在防火墙打开。因此如果是缺省配置需要打开从6030都6040共11个端口而且必须TCP和UDP都打开。

不同应用场景的数据往往具有不同的数据特征比如保留天数、副本数、采集频次、记录大小、采集点的数量、压缩等都可完全不同。为获得在存储上的最高效率TDengine提供如下存储相关的系统配置参数

  • days一个数据文件存储数据的时间跨度单位为天默认值10。
  • keep数据库中数据保留的天数单位为天默认值3650。
  • minRows: 文件块中记录的最小条数单位为条默认值100。
  • maxRows: 文件块中记录的最大条数单位为条默认值4096。
  • comp: 文件压缩标志位0关闭1:一阶段压缩2:两阶段压缩。默认值2。
  • walLevelWAL级别。1写wal, 但不执行fsync; 2写wal, 而且执行fsync。默认值1。
  • fsync当wal设置为2时执行fsync的周期。设置为0表示每次写入立即执行fsync。单位为毫秒默认值3000。
  • cache: 内存块的大小单位为兆字节MB默认值16。
  • blocks: 每个VNODETSDB中有多少cache大小的内存块。因此一个VNODE的用的内存大小粗略为cache * blocks。单位为块默认值4。
  • replica副本个数取值范围1-3。单位为个默认值1
  • precision时间戳精度标识ms表示毫秒us表示微秒。默认值ms

对于一个应用场景可能有多种数据特征的数据并存最佳的设计是将具有相同数据特征的表放在一个库里这样一个应用有多个库而每个库可以配置不同的存储参数从而保证系统有最优的性能。TDengine允许应用在创建库时指定上述存储参数如果指定该参数就将覆盖对应的系统配置参数。举例有下述SQL

 create database demo days 10 cache 32 blocks 8 replica 3;

该SQL创建了一个库demo, 每个数据文件存储10天数据内存块为32兆字节每个VNODE占用8个内存块副本数为3而其他参数与系统配置完全一致。

TDengine集群中加入一个新的dnode时涉及集群相关的一些参数必须与已有集群的配置相同否则不能成功加入到集群中。会进行校验的参数如下

  • numOfMnodes系统中管理节点个数。默认值3。
  • balance是否启动负载均衡。01是。默认值1。
  • mnodeEqualVnodeNum: 一个mnode等同于vnode消耗的个数。默认值4。
  • offlineThreshold: dnode离线阈值超过该时间将导致该dnode从集群中删除。单位为秒默认值86400*10即10天
  • statusInterval: dnode向mnode报告状态时长。单位为秒默认值1。
  • maxTablesPerVnode: 每个vnode中能够创建的最大表个数。默认值1000000。
  • maxVgroupsPerDb: 每个数据库中能够使用的最大vnode个数。
  • arbitrator: 系统中裁决器的end point缺省为空
  • timezone、locale、charset 的配置见客户端配置。

客户端配置

TDengine系统的前台交互客户端应用程序为taos它与taosd共享同一个配置文件taos.cfg。运行taos时使用参数-c指定配置文件目录如taos -c /home/cfg表示使用/home/cfg/目录下的taos.cfg配置文件中的参数缺省目录是/etc/taos。本节主要说明 taos 客户端应用在配置文件 taos.cfg 文件中使用到的参数。

客户端配置参数列表及解释

  • firstEp: taos启动时主动连接的集群中第一个taosd实例的end point, 缺省值为 localhost:6030。

  • secondEp: taos启动时如果first连接不上尝试连接集群中第二个taosd实例的end point, 缺省值为空。

  • locale

    默认值系统中动态获取如果自动获取失败需要用户在配置文件设置或通过API设置

TDengine为存储中文、日文、韩文等非ASCII编码的宽字符提供一种专门的字段类型nchar。写入nchar字段的数据将统一采用UCS4-LE格式进行编码并发送到服务器。需要注意的是编码正确性是客户端来保证。因此如果用户想要正常使用nchar字段来存储诸如中文、日文、韩文等非ASCII字符需要正确设置客户端的编码格式。

客户端的输入的字符均采用操作系统当前默认的编码格式在Linux系统上多为UTF-8部分中文系统编码则可能是GB18030或GBK等。在docker环境中默认的编码是POSIX。在中文版Windows系统中编码则是CP936。客户端需要确保正确设置自己所使用的字符集即客户端运行的操作系统当前编码字符集才能保证nchar中的数据正确转换为UCS4-LE编码格式。

在 Linux 中 locale 的命名规则为: <语言>_<地区>.<字符集编码> 如zh_CN.UTF-8zh代表中文CN代表大陆地区UTF-8表示字符集。字符集编码为客户端正确解析本地字符串提供编码转换的说明。Linux系统与 Mac OSX 系统可以通过设置locale来确定系统的字符编码由于Windows使用的locale中不是POSIX标准的locale格式因此在Windows下需要采用另一个配置参数charset来指定字符编码。在Linux 系统中也可以使用charset来指定字符编码。

  • charset

    默认值系统中动态获取如果自动获取失败需要用户在配置文件设置或通过API设置

如果配置文件中不设置charset在Linux系统中taos在启动时候自动读取系统当前的locale信息并从locale信息中解析提取charset编码格式。如果自动读取locale信息失败则尝试读取charset配置如果读取charset配置也失败则中断启动过程。

在Linux系统中locale信息包含了字符编码信息因此正确设置了Linux系统locale以后可以不用再单独设置charset。例如

    locale zh_CN.UTF-8

在Windows系统中无法从locale获取系统当前编码。如果无法从配置文件中读取字符串编码信息taos默认设置为字符编码为CP936。其等效在配置文件中添加如下配置

    charset CP936

如果需要调整字符编码,请查阅当前操作系统使用的编码,并在配置文件中正确设置。

在Linux系统中如果用户同时设置了locale和字符集编码charset并且locale和charset的不一致后设置的值将覆盖前面设置的值。

    locale zh_CN.UTF-8
    charset GBK

则charset的有效值是GBK。

    charset GBK
    locale zh_CN.UTF-8

charset的有效值是UTF-8。

日志的配置参数与server 的配置参数完全一样。

  • timezone

    默认值:从系统中动态获取当前的时区设置

客户端运行系统所在的时区。为应对多时区的数据写入和查询问题TDengine 采用 Unix 时间戳(Unix Timestamp)来记录和存储时间戳。Unix 时间戳的特点决定了任一时刻不论在任何时区产生的时间戳均一致。需要注意的是Unix时间戳是在客户端完成转换和记录。为了确保客户端其他形式的时间转换为正确的 Unix 时间戳,需要设置正确的时区。

在Linux系统中客户端会自动读取系统设置的时区信息。用户也可以采用多种方式在配置文件设置时区。例如

    timezone UTC-8
    timezone GMT-8
    timezone Asia/Shanghai

均是合法的设置东八区时区的格式。

时区的设置对于查询和写入SQL语句中非Unix时间戳的内容时间戳字符串、关键词now的解析产生影响。例如

    SELECT count(*) FROM table_name WHERE TS<'2019-04-11 12:01:08';

在东八区SQL语句等效于

    SELECT count(*) FROM table_name WHERE TS<1554955268000;

在UTC时区SQL语句等效于

    SELECT count(*) FROM table_name WHERE TS<1554984068000;

为了避免使用字符串时间格式带来的不确定性也可以直接使用Unix时间戳。此外还可以在SQL语句中使用带有时区的时间戳字符串例如RFC3339格式的时间戳字符串2013-04-12T15:52:01.123+08:00或者ISO-8601格式时间戳字符串2013-04-12T15:52:01.123+0800。上述两个字符串转化为Unix时间戳不受系统所在时区的影响。

用户管理

系统管理员可以在CLI界面里添加、删除用户也可以修改密码。CLI里SQL语法如下

CREATE USER <user_name> PASS <password>;

创建用户,并指定用户名和密码,密码需要用单引号引起来

DROP USER <user_name>;

删除用户限root用户使用

ALTER USER <user_name> PASS <password>;

修改用户密码, 为避免被转换为小写,密码需要用单引号引用

SHOW USERS;

显示所有用户

**注意:**SQL 语法中,< >表示需要用户输入的部分,但请不要输入< >本身

数据导入

TDengine提供多种方便的数据导入功能一种按脚本文件导入一种按数据文件导入一种是taosdump工具导入本身导出的文件。

按脚本文件导入

TDengine的shell支持source filename命令用于批量运行文件中的SQL语句。用户可将建库、建表、写数据等SQL命令写在同一个文件中每条命令单独一行在shell中运行source命令即可按顺序批量运行文件中的SQL语句。以#开头的SQL语句被认为是注释shell将自动忽略。

按数据文件导入

TDengine也支持在shell对已存在的表从CSV文件中进行数据导入。CSV文件只属于一张表且CSV文件中的数据格式需与要导入表的结构相同, 在导入的时候,其语法如下

INSERT INTO <tb_name> FILE <'path/data.csv'>;

注意如果CSV文件首行存在描述信息请手动删除后再导入

例如现在存在一个子表d1001, 其表结构如下:

taos> DESCRIBE d1001
             Field              |        Type        |   Length    |    Note    |
=================================================================================
 ts                             | TIMESTAMP          |           8 |            |
 current                        | FLOAT              |           4 |            |
 voltage                        | INT                |           4 |            |
 phase                          | FLOAT              |           4 |            |
 location                       | BINARY             |          64 | TAG        |
 groupid                        | INT                |           4 | TAG        |

要导入的data.csv的格式如下

'2018-10-04 06:38:05.000',10.30000,219,0.31000
'2018-10-05 06:38:15.000',12.60000,218,0.33000
'2018-10-06 06:38:16.800',13.30000,221,0.32000
'2018-10-07 06:38:05.000',13.30000,219,0.33000
'2018-10-08 06:38:05.000',14.30000,219,0.34000
'2018-10-09 06:38:05.000',15.30000,219,0.35000
'2018-10-10 06:38:05.000',16.30000,219,0.31000
'2018-10-11 06:38:05.000',17.30000,219,0.32000
'2018-10-12 06:38:05.000',18.30000,219,0.31000

那么可以用如下命令导入数据

taos> insert into d1001 file '~/data.csv';
Query OK, 9 row(s) affected (0.004763s)

taosdump工具导入

TDengine提供了方便的数据库导入导出工具taosdump。用户可以将taosdump从一个系统导出的数据导入到其他系统中。具体使用方法请参见博客TDengine DUMP工具使用指南

数据导出

为方便数据导出TDengine提供了两种导出方式分别是按表导出和用taosdump导出。

按表导出CSV文件

如果用户需要导出一个表或一个STable中的数据可在shell中运行

SELECT * FROM <tb_name> >> <data.csv>;

这样表tb_name中的数据就会按照CSV格式导出到文件data.csv中。

用taosdump导出数据

TDengine提供了方便的数据库导出工具taosdump。用户可以根据需要选择导出所有数据库、一个数据库或者数据库中的一张表,所有数据或一时间段的数据,甚至仅仅表的定义。具体使用方法,请参见博客:TDengine DUMP工具使用指南

系统连接、任务查询管理

系统管理员可以从CLI查询系统的连接、正在进行的查询、流式计算并且可以关闭连接、停止正在进行的查询和流式计算。CLI里SQL语法如下

SHOW CONNECTIONS;

显示数据库的连接其中一列显示ip:port, 为连接的IP地址和端口号。

KILL CONNECTION <connection-id>;

强制关闭数据库连接其中的connection-id是SHOW CONNECTIONS中显示的第一列的数字。

SHOW QUERIES;

显示数据查询其中第一列显示的以冒号隔开的两个数字为query-id为发起该query应用连接的connection-id和查询次数。

KILL QUERY <query-id>;

强制关闭数据查询其中query-id是SHOW QUERIES中显示的 connection-id:query-no字串如“105:2”拷贝粘贴即可。

SHOW STREAMS;

显示流式计算其中第一列显示的以冒号隔开的两个数字为stream-id, 为启动该stream应用连接的connection-id和发起stream的次数。

KILL STREAM <stream-id>;

强制关闭流式计算其中的中stream-id是SHOW STREAMS中显示的connection-id:stream-no字串如103:2拷贝粘贴即可。

注意SQL语法中< >表示需要用户输入的部分,但请不要输入< >本身

系统监控

TDengine启动后会自动创建一个监测数据库SYS并自动将服务器的CPU、内存、硬盘空间、带宽、请求数、磁盘读写速度、慢查询等信息定时写入该数据库。TDengine还将重要的系统操作比如登录、创建、删除数据库等日志以及各种错误报警信息记录下来存放在SYS库里。系统管理员可以从CLI直接查看这个数据库也可以在WEB通过图形化界面查看这些监测信息。

这些监测信息的采集缺省是打开的但可以修改配置文件里的选项enableMonitor将其关闭或打开。

文件目录结构

安装TDengine后默认会在操作系统中生成下列目录或文件

目录/文件 说明
/usr/local/taos/bin TDengine可执行文件目录。其中的执行文件都会软链接到/usr/bin目录下。
/usr/local/taos/connector TDengine各种连接器目录。
/usr/local/taos/driver TDengine动态链接库目录。会软链接到/usr/lib目录下。
/usr/local/taos/examples TDengine各种语言应用示例目录。
/usr/local/taos/include TDengine对外提供的C语言接口的头文件。
/etc/taos/taos.cfg TDengine默认[配置文件]
/var/lib/taos TDengine默认数据文件目录,可通过[配置文件]修改位置.
/var/log/taos TDengine默认日志文件目录,可通过[配置文件]修改位置

可执行文件

TDengine的所有可执行文件默认存放在 /usr/local/taos/bin 目录下。其中包括:

  • taosdTDengine服务端可执行文件
  • taos TDengine Shell可执行文件
  • taosdump:数据导入导出工具
  • remove.sh卸载TDengine的脚本, 请谨慎执行,链接到/usr/bin目录下的rmtaos命令。会删除TDengine的安装目录/usr/local/taos但会保留/etc/taos、/var/lib/taos、/var/log/taos。

您可以通过修改系统配置文件taos.cfg来配置不同的数据目录和日志目录。