homework-jianmu/documentation20/webdocs/markdowndocs/cluster-ch.md

13 KiB
Raw Blame History

TDengine 集群安装、管理

多个taosd的运行实例可以组成一个集群以保证TDengine的高可靠运行并提供水平扩展能力。要了解TDengine 2.0的集群管理需要对集群的基本概念有所了解请看TDengine 2.0整体架构一章。而且在安装集群之前,请按照《立即开始》一章安装并体验过单节点功能。

集群的每个节点是由End Point来唯一标识的End Point是由FQDN(Fully Qualified Domain Name)外加Port组成比如 h1.taosdata.com:6030。一般FQDN就是服务器的hostname可通过Linux命令hostname -f获取。端口是这个节点对外服务的端口号缺省是6030但可以通过taos.cfg里配置参数serverPort进行修改。一个节点可能配置了多个hostname, TDengine会自动获取第一个但也可以通过taos.cfg里配置参数fqdn进行指定。如果习惯IP地址直接访问可以将参数fqdn设置为本节点的IP地址。

TDengine的集群管理极其简单除添加和删除节点需要人工干预之外其他全部是自动完成最大程度的降低了运维的工作量。本章对集群管理的操作做详细的描述。

准备工作

第一步如果搭建集群的节点中存有之前的测试数据、装过1.X的版本或者装过其他版本的TDengine请先将其删除并清空所有数据具体步骤请参考博客《TDengine多种安装包的安装和卸载》

第二步建议关闭防火墙至少保证端口6030 - 6042的TCP和UDP端口都是开放的。强烈建议先关闭防火墙,集群搭建完毕之后,再来配置端口;

第三步在所有节点安装TDengine且版本必须是一致的但不要启动taosd

第四步检查、配置所有节点的FQDN

  1. 每个节点上执行命令hostname -f查看和确认所有节点的hostname是不相同的
  2. 每个节点上执行ping host, 其中host是其他节点的hostname, 看能否ping通其它节点; 如果不能ping通需要检查网络设置, 或/etc/hosts文件或DNS的配置。如果无法ping通是无法组成集群的。
  3. 每个节点的FQDN就是输出的hostname外加端口号比如h1.taosdata.com:6030

第五步修改TDengine的配置文件所有节点的文件/etc/taos/taos.cfg都需要修改。假设准备启动的第一个节点End Point为 h1.taosdata.com:6030, 那么以下几个参数与集群相关:

// firstEp 是每个节点启动后连接的第一个节点
firstEp               h1.taosdata.com:6030

// 配置本节点的FQDN如果本机只有一个hostname, 无需配置
fqdn                  h1.taosdata.com

// 配置本节点的端口号缺省是6030
serverPort            6030

// 副本数为偶数的时候需要配置请参考《Arbitrator的使用》的部分
arbitrator            ha.taosdata.com:6042

一定要修改的参数是firstEp, 其他参数可不做任何修改,除非你很清楚为什么要修改。

启动第一个节点

按照《立即开始》里的指示启动第一个节点h1.taosdata.com然后执行taos, 启动taos shell从shell里执行命令"show dnodes;",如下所示:

Welcome to the TDengine shell from Linux, Client Version:2.0.0.0
Copyright (c) 2017 by TAOS Data, Inc. All rights reserved.

taos> show dnodes;
id |       end_point    | vnodes | cores | status | role |      create_time        |
=====================================================================================
1 |  h1.taos.com:6030  |      0 |     2 |  ready |  any | 2020-07-31 03:49:29.202 |
Query OK, 1 row(s) in set (0.006385s)

taos>

上述命令里可以看到这个刚启动的这个节点的End Point是h1.taos.com:6030

启动后续节点

将后续的节点添加到现有集群,具体有以下几步:

  1. 按照"立即开始“一章的方法在每个节点启动taosd。

  2. 在第一个节点使用CLI程序taos, 登录进TDengine系统, 执行命令:

    CREATE DNODE "h2.taos.com:6030" 
    

    将新节点的End Point (准备工作中第四步获知的) 添加进集群的EP列表。"fqdn:port"需要用双引号引起来否则出错。请注意将示例的“h2.taos.com:6030" 替换为这个新节点的End Point。

  3. 然后执行命令

    SHOW DNODES
    

    查看新节点是否被成功加入。如果该被加入的节点处于离线状态,请做两个检查

    • 查看该节点的taosd是否正常工作如果没有正常运行需要先检查为什么
    • 查看该节点taosd日志文件taosdlog.0里前面几行日志(一般在/var/log/taos目录)看日志里输出的该节点fqdn以及端口号是否为刚添加的End Point。如果不一致需要将正确的End Point添加进去。

按照上述步骤可以源源不断的将新的节点加入到集群。

提示:

  • firstEp这个参数仅仅在该节点第一次加入集群时有作用加入集群后该节点会保存最新的mnode的End Point列表不再依赖这两个参数。
  • 两个没有配置firstEp参数的dnode启动后会独立运行起来。这个时候无法将其中一个节点加入到另外一个节点形成集群。无法将两个独立的集群合并成为新的集群

节点管理

添加节点

执行CLI程序taos, 使用root账号登录进系统, 执行:

CREATE DNODE "fqdn:port" 

将新节点的End Point添加进集群的EP列表。"fqdn:port"需要用双引号引起来否则出错。一个节点对外服务的fqdn和port可以通过配置文件taos.cfg进行配置缺省是自动获取。

删除节点

执行CLI程序taos, 使用root账号登录进TDengine系统执行

DROP DNODE "fqdn:port";

其中fqdn是被删除的节点的FQDNport是其对外服务器的端口号

查看节点

执行CLI程序taos,使用root账号登录进TDengine系统执行

SHOW DNODES;

它将列出集群中所有的dnode,每个dnode的fqdn:port, 状态(ready, offline等vnode数目还未使用的vnode数目等信息。在添加或删除一个节点后可以使用该命令查看。

查看虚拟节点组

为充分利用多核技术并提供scalability数据需要分片处理。因此TDengine会将一个DB的数据切分成多份存放在多个vnode里。这些vnode可能分布在多个dnode里这样就实现了水平扩展。一个vnode仅仅属于一个DB但一个DB可以有多个vnode。vnode的是mnode根据当前系统资源的情况自动进行分配的无需任何人工干预。

执行CLI程序taos,使用root账号登录进TDengine系统执行

SHOW VGROUPS;

vnode的高可用性

TDengine通过多副本的机制来提供系统的高可用性包括vnode和mnode的高可用性。

vnode的副本数是与DB关联的一个集群里可以有多个DB根据运营的需求每个DB可以配置不同的副本数。创建数据库时通过参数replica 指定副本数缺省为1。如果副本数为1系统的可靠性无法保证只要数据所在的节点宕机就将无法提供服务。集群的节点数必须大于等于副本数否则创建表时将返回错误“more dnodes are needed"。比如下面的命令将创建副本数为3的数据库demo

CREATE DATABASE demo replica 3;

一个DB里的数据会被切片分到多个vnode groupvnode group里的vnode数目就是DB的副本数同一个vnode group里各vnode的数据是完全一致的。为保证高可用性vnode group里的vnode一定要分布在不同的dnode里实际部署时需要在不同的物理机上只要一个vgroup里超过半数的vnode处于工作状态这个vgroup就能正常的对外服务。

一个dnode里可能有多个DB的数据因此一个dnode离线时可能会影响到多个DB。如果一个vnode group里的一半或一半以上的vnode不工作那么该vnode group就无法对外服务无法插入或读取数据这样会影响到它所属的DB的一部分表的读写操作。

因为vnode的引入无法简单的给出结论“集群中过半dnode工作集群就应该工作”。但是对于简单的情形很好下结论。比如副本数为3只有三个dnode那如果仅有一个节点不工作整个集群还是可以正常工作的但如果有两个节点不工作那整个集群就无法正常工作了。

Mnode的高可用性

TDengine集群是由mnode (taosd的一个模块逻辑节点) 负责管理的为保证mnode的高可用可以配置多个mnode副本副本数由系统配置参数numOfMnodes决定有效范围为1-3。为保证元数据的强一致性mnode副本之间是通过同步的方式进行数据复制的。

一个集群有多个dnode, 但一个dnode至多运行一个mnode实例。多个dnode情况下哪个dnode可以作为mnode呢这是完全由系统根据整个系统资源情况自动指定的。用户可通过CLI程序taos在TDengine的console里执行如下命令

SHOW MNODES;

来查看mnode列表该列表将列出mnode所处的dnode的End Point和角色(master, slave, unsynced 或offline)。 当集群中第一个节点启动时该节点一定会运行一个mnode实例否则该dnode无法正常工作因为一个系统是必须有至少一个mnode的。如果numOfMnodes配置为2启动第二个dnode时该dnode也将运行一个mnode实例。

为保证mnode服务的高可用性numOfMnodes必须设置为2或更大。因为mnode保存的元数据必须是强一致的如果numOfMnodes大于2复制参数quorum自动设为2也就是说至少要保证有两个副本写入数据成功才通知客户端应用写入成功。

**注意:**一个TDengine高可用系统无论是vnode还是mnode, 都必须配置多个副本。

负载均衡

有三种情况,将触发负载均衡,而且都无需人工干预。

  • 当一个新节点添加进集群时,系统将自动触发负载均衡,一些节点上的数据将被自动转移到新节点上,无需任何人工干预。
  • 当一个节点从集群中移除时,系统将自动把该节点上的数据转移到其他节点,无需任何人工干预。
  • 如果一个节点过热数据量过大系统将自动进行负载均衡将该节点的一些vnode自动挪到其他节点。

当上述三种情况发生时,系统将启动一各个节点的负载计算,从而决定如何挪动。

##节点离线处理 如果一个节点离线TDengine集群将自动检测到。有如下两种情况

  • 改节点离线超过一定时间taos.cfg里配置参数offlineThreshold控制时长),系统将自动把该节点删除,产生系统报警信息,触发负载均衡流程。如果该被删除的节点重现上线时,它将无法加入集群,需要系统管理员重新将其添加进集群才会开始工作。
  • 离线后在offlineThreshold的时长内重新上线系统将自动启动数据恢复流程等数据完全恢复后该节点将开始正常工作。

**注意:**如果一个虚拟节点组包括mnode组里每个节点都处于离线或unsynced状态必须等该虚拟节点组里的所有节点都上线、都能交换状态信息后才能选出Master该虚拟节点组才能对外提供服务。比如整个集群有3个节点副本数为3如果3个节点都宕机然后2个节点重启是无法工作的只有等3个节点都重启成功才能对外服务。

Arbitrator的使用

如果副本数为偶数当一个vnode group里一半或超过一半的vnode不工作时是无法从中选出master的。同理一半或超过一半的mnode不工作时是无法选出mnode的master的因为存在“split brain”问题。为解决这个问题TDengine引入了arbitrator的概念。Arbitrator模拟一个vnode或mnode在工作但只简单的负责网络连接不处理任何数据插入或访问。只要包含arbitrator在内超过半数的vnode或mnode工作那么该vnode group或mnode组就可以正常的提供数据插入或查询服务。比如对于副本数为2的情形如果一个节点A离线但另外一个节点B正常而且能连接到arbitrator, 那么节点B就能正常工作。

TDengine安装包里带有一个执行程序tarbitrator, 找任何一台Linux服务器运行它即可。该程序对系统资源几乎没有要求只需要保证有网络连接即可。该应用的命令行参数-p可以指定其对外服务的端口号缺省是6042。配置每个taosd实例时可以在配置文件taos.cfg里将参数arbitrator设置为arbitrator的End Point。如果该参数配置了当副本数为偶数数系统将自动连接配置的arbitrator。