TiDB 安装部署, 以及作为 MySQL Slave 实现实时数据同步 docker mysql


https://hub.docker.com/r/pingcap/tidb/

https://github.com/pingcap/tidb

https://github.com/pingcap/tidb-docker-compose

https://pingcap.com/docs-cn/

https://pingcap.com/docs-cn/op-guide/docker-deployment/

https://abc.htmltoo.com/thread-45024.htm    TiDB编译单机,集群部署

https://abc.htmltoo.com/thread-45025.htm    TiDB集群多主机部署


TiDB 是新一代开源分布式 NewSQL 数据库,模型受 Google Spanner / F1 论文的启发,实现了自动的水平伸缩,强一致性的分布式事务,基于 Raft 算法的多副本复制等重要 NewSQL 特性。TiDB 结合了 RDBMS 和 NoSQL 的优点,部署简单,在线弹性扩容和异步表结构变更不影响业务, 真正的异地多活及自动故障恢复保障数据安全,同时兼容 MySQL 协议,使迁移使用成本降到极低。

TiDB兼容MySQL,而cockroachdb是兼容PostgreSQL。


TiDB

TiDB 是无状态的,推荐至少部署两个实例,前端通过负载均衡组件对外提供服务。当单个实例失效时,会影响正在这个实例上进行的 Session,从应用的角度看,会出现单次请求失败的情况,重新连接后即可继续获得服务。单个实例失效后,可以重启这个实例或者部署一个新的实例。

PD

PD 是一个集群,通过 Raft 协议保持数据的一致性,单个实例失效时,如果这个实例不是 Raft 的 leader,那么服务完全不受影响;如果这个实例是 Raft 的 leader,会重新选出新的 Raft leader,自动恢复服务。PD 在选举的过程中无法对外提供服务,这个时间大约是3秒钟。推荐至少部署三个 PD 实例,单个实例失效后,重启这个实例或者添加新的实例。

TiKV

TiKV 是一个集群,通过 Raft 协议保持数据的一致性(副本数量可配置,默认保存三副本),并通过 PD 做负载均衡调度。单个节点失效时,会影响这个节点上存储的所有 Region。对于 Region 中的 Leader 结点,会中断服务,等待重新选举;对于 Region 中的 Follower 节点,不会影响服务。当某个 TiKV 节点失效,并且在一段时间内(默认 30 分钟)无法恢复,PD 会将其上的数据迁移到其他的 TiKV 节点上。


网络要求

TiDB 作为开源分布式 NewSQL 数据库,其正常运行需要网络环境提供如下的网络端口配置要求,管理员可根据实际环境中 TiDB 组件部署的方案,在网络侧和主机侧开放相关端口:

组件默认端口说明
TiDB4000应用及 DBA 工具访问通信端口
TiDB10080TiDB 状态信息上报通信端口
TiKV20160TiKV 通信端口
PD2379提供 TiDB 和 PD 通信端口
PD2380PD 集群节点间通信端口
Pump8250Pump 通信端口
Drainer8249Drainer 通信端口
Prometheus9090Prometheus 服务通信端口
Pushgateway9091TiDB,TiKV,PD 监控聚合和上报端口
Node_exporter9100TiDB 集群每个节点的系统信息上报通信端口
Blackbox_exporter9115Blackbox_exporter 通信端口,用于 TiDB 集群端口监控
Grafana3000Web 监控服务对外服务和客户端(浏览器)访问端口
Grafana8686grafana_collector 通信端口,用于将 Dashboard 导出为 PDF 格式
Kafka_exporter9308Kafka_exporter 通信端口,用于监控 binlog kafka 集群


部署单机:

应用: db -> 添加服务: tidb
镜像: pingcap/tidb:latest
卷:
/etc/localtime:/etc/localtime:ro
/data/file:/data/file
/data/db/tidb:/data/
端口:3396-4000
保存ip: 升级或替换 不变
主机名: 使用容器名称

apk --update --no-cache add git curl  # 安装git curl
apk update && apk upgrade  #升级整个系统
mysql -h tidb -P 4000 -u root -D test --prompt="tidb> "   # mysql 主机下登陆tidb
show databases;  # 查看所有数据库


部署一个多节点集群

假设我们打算在 6 台主机上部署一个 TiDB 集群:
主机名	IP	部署服务	数据盘挂载
host0	10.42.33.100	TiDB 	/data
host1	10.42.33.101	PD1 	/data
host2	10.42.33.102	PD2	/data
host3	10.42.33.103	PD3	/data
host4	10.42.33.104	TiKV1	/data
host5	10.42.33.105	TiKV2	/data
host6	10.42.33.106	TiKV3	/data

# 启动 PD:

应用: db -> 添加服务: pd1
镜像: pingcap/pd:latest
环境变量:
name = pd1
data-dir = /data/pd1
client-urls = http://0.0.0.0:2379
advertise-client-urls = http://10.42.33.101:2379
peer-urls = http://0.0.0.0:2380
advertise-peer-urls = http://10.42.33.101:2380
initial-cluster = pd1=http://10.42.33.101:2380,pd2=http://10.42.33.102:2380,pd3=http://10.42.33.103:2380
卷:
/etc/localtime:/etc/localtime:ro
/data/file:/home/file
/data/db/tidb:/data

应用: db -> 添加服务: pd2
镜像: pingcap/pd:latest
环境变量:
name = pd2
data-dir = /data/pd2
client-urls = http://0.0.0.0:2379
advertise-client-urls = http://10.42.33.102:2379
peer-urls = http://0.0.0.0:2380
advertise-peer-urls = http://10.42.33.102:2380
initial-cluster = pd1=http://10.42.33.101:2380,pd2=http://10.42.33.102:2380,pd3=http://10.42.33.103:2380
卷:
/etc/localtime:/etc/localtime:ro
/data/file:/home/file
/data/db/tidb:/data

应用: db -> 添加服务: pd3
镜像: pingcap/pd:latest
环境变量:
name = pd3
data-dir = /data/pd3
client-urls = http://0.0.0.0:2379
advertise-client-urls = http://10.42.33.103:2379
peer-urls = http://0.0.0.0:2380
advertise-peer-urls = http://10.42.33.103:2380
initial-cluster = pd1=http://10.42.33.101:2380,pd2=http://10.42.33.102:2380,pd3=http://10.42.33.103:2380
卷:
/etc/localtime:/etc/localtime:ro
/data/file:/home/file
/data/db/tidb:/data

# 启动 TiKV

应用: db -> 添加服务: tikv1
镜像: pingcap/tikv:latest
环境变量:
ulimit nofile = 1000000:1000000
addr = 0.0.0.0:20160
advertise-addr = 10.42.33.104:20160
data-dir = /data/tikv1
pd = 10.42.33.101:2379,10.42.33.102:2379,10.42.33.103:2379
卷:
/etc/localtime:/etc/localtime:ro
/data/file:/home/file
/data/db/tidb:/data

应用: db -> 添加服务: tikv2
镜像: pingcap/tikv:latest
环境变量:
ulimit nofile = 1000000:1000000
addr = 0.0.0.0:20160
advertise-addr = 10.42.33.105:20160
data-dir = /data/tikv2
pd = 10.42.33.101:2379,10.42.33.102:2379,10.42.33.103:2379
卷:
/etc/localtime:/etc/localtime:ro
/data/file:/home/file
/data/db/tidb:/data

应用: db -> 添加服务: tikv3
镜像: pingcap/tikv:latest
环境变量:
ulimit nofile = 1000000:1000000
addr = 0.0.0.0:20160
advertise-addr = 10.42.33.106:20160
data-dir = /data/tikv3
pd = 10.42.33.101:2379,10.42.33.102:2379,10.42.33.103:2379
卷:
/etc/localtime:/etc/localtime:ro
/data/file:/home/file
/data/db/tidb:/data

# 启动 TiDB

应用: db -> 添加服务: tidb
镜像: pingcap/tidb:latest
环境变量:
store = tikv
path = 10.42.33.101:2379,10.42.33.102:2379,10.42.33.103:2379
卷:
/etc/localtime:/etc/localtime:ro
/data/file:/home/file
/data/db/tidb:/data

# 启动 mysql

应用: db -> 添加服务: mysql-c
镜像: mysql:latest

# 使用 MySQL 标准客户端连接 TiDB 测试

https://dev.mysql.com/downloads/mysql/

apt-get install mysql-client -y      # debian安装mysql客户端: 

cd /data/file/soft/src    # centos7安装mysql客户端: 
rpm -ivh mysql-community-client-8.0.12-1.el7.aarch64.rpm  --force --nodeps

mysql -h tidb -P 4000 -u root -D test

mysql> show databases;
+--------------------+
| Database           |
+--------------------+
| INFORMATION_SCHEMA |
| PERFORMANCE_SCHEMA |
| mysql              |
| test               |
+--------------------+
4 rows in set (0.00 sec)

保存ip: 升级或替换 不变
主机名: 使用容器名称


由于 TiDB 本身兼容绝大多数的 MySQL 语法,所以对于绝大多数业务来说,最安全的切换数据库方式就是将 TiDB 作为现有数据库的从库接在主 MySQL 库的后方,这样对业务方实现完全没有侵入性下使用 TiDB 对现有的业务进行备份,应对未来数据量或者并发量增长带来的单点故障风险,如需上线 TiDB,也只需要简单的将业务的主 MySQL 地址指向 TiDB 即可。

下面我们详细介绍了如何将 MySQL 的数据迁移到 TiDB,并将 TiDB 作为 MySQL 的 Slave 进行数据同步。

这里我们假定 MySQL 以及 TiDB 服务信息如下:

+------------------+-------------+----------------------------------------+
| Name             | Address     | Port   |   User    | Password          |
+------------------+-------------+----------------------------------------+
| MySQL            |  127.0.0.1  | 3306   |   root    |                   |
| TiDB             |  127.0.0.1  | 4000   |   root    |                   |
+------------------+-------------+--------+-----------+-------------------+

使用 checker 进行 Schema 检查

在迁移之前,我们可以使用 TiDB 的 checker 工具,checker 是我们开发的一个小工具,用于检测目标 MySQL 库中的表的表结构是否支持无缝的迁移到 TiDB,TiDB 支持绝大多数的 MySQL 常用的原生数据类型,所以大多数情况 checker 的返回应该是 ok。如果 check 某个 table schema 失败,表明 TiDB 当前并不支持,我们不能对该 table 里面的数据进行迁移。 checker 包含在 TiDB 工具集里面,我们可以直接下载。

下载 TiDB 工具集

Linux

# 下载 tool 压缩包
wget http://download.pingcap.org/tidb-tools-latest-linux-amd64.tar.gz
wget http://download.pingcap.org/tidb-tools-latest-linux-amd64.sha256


# 检查文件完整性,返回 ok 则正确
sha256sum -c tidb-tools-latest-linux-amd64.sha256

# 解开压缩包
tar -xzf tidb-tools-latest-linux-amd64.tar.gz
cd tidb-tools-latest-linux-amd64

使用 checker 检查的一个示范

  • 在 MySQL 的 test database 里面创建几张表,并插入数据:
USE test;
CREATE TABLE t1 (id INT, age INT, PRIMARY KEY(id)) ENGINE=InnoDB;
CREATE TABLE t2 (id INT, name VARCHAR(256), PRIMARY KEY(id)) ENGINE=InnoDB;


INSERT INTO t1 VALUES (1, 1), (2, 2), (3, 3);
INSERT INTO t2 VALUES (1, "a"), (2, "b"), (3, "c");
  • 使用 checker 检查 test database 里面所有的 table
./bin/checker -host 127.0.0.1 -port 3306 -user root test
2016/10/27 13:11:49 checker.go:48: [info] Checking database test
2016/10/27 13:11:49 main.go:37: [info] Database DSN: root:@tcp(127.0.0.1:3306)/test?charset=utf8
2016/10/27 13:11:49 checker.go:63: [info] Checking table t1
2016/10/27 13:11:49 checker.go:69: [info] Check table t1 succ
2016/10/27 13:11:49 checker.go:63: [info] Checking table t2
2016/10/27 13:11:49 checker.go:69: [info] Check table t2 succ
  • 使用 checker 检查 test database 里面某一个 table

这里,假设我们只需要迁移 table t1 。

./bin/checker -host 127.0.0.1 -port 3306 -user root test t1
2016/10/27 13:13:56 checker.go:48: [info] Checking database test
2016/10/27 13:13:56 main.go:37: [info] Database DSN: root:@tcp(127.0.0.1:3306)/test?charset=utf8
2016/10/27 13:13:56 checker.go:63: [info] Checking table t1
2016/10/27 13:13:56 checker.go:69: [info] Check table t1 succ
Check database succ!

一个无法迁移的 table 例子

我们在 MySQL 里面创建如下表:

CREATE TABLE t_error (
  c timestamp(3) NOT NULL DEFAULT CURRENT_TIMESTAMP(3) ON UPDATE CURRENT_TIMESTAMP(3)
) ENGINE=InnoDB DEFAULT CHARSET=latin1;

使用 checker 进行检查,会报错,表明我们没法迁移 t_error 这张表。

./bin/checker -host 127.0.0.1 -port 3306 -user root test t_error
2016/10/27 13:19:28 checker.go:48: [info] Checking database test
2016/10/27 13:19:28 main.go:37: [info] Database DSN: root:@tcp(127.0.0.1:3306)/test?charset=utf8
2016/10/27 13:19:28 checker.go:63: [info] Checking table t_error
2016/10/27 13:19:28 checker.go:67: [error] Check table t_error failed with err: line 1 column 56 near ") ON UPDATE CURRENT_TIMESTAMP(3)
) ENGINE=InnoDB DEFAULT CHARSET=latin1"
github.com/pingcap/tidb/parser/yy_parser.go:111:
github.com/pingcap/tidb/parser/yy_parser.go:124:
/home/jenkins/workspace/WORKFLOW_TOOLS_BUILDING/go/src/github.com/pingcap/tidb-tools/checker/checker.go:122:  parse CREATE TABLE `t_error` (
  `c` timestamp(3) NOT NULL DEFAULT CURRENT_TIMESTAMP(3) ON UPDATE CURRENT_TIMESTAMP(3)
) ENGINE=InnoDB DEFAULT CHARSET=latin1 error
/home/jenkins/workspace/WORKFLOW_TOOLS_BUILDING/go/src/github.com/pingcap/tidb-tools/checker/checker.go:114:
2016/10/27 13:19:28 main.go:68: [error] Check database test with 1 errors and 0 warnings.

使用 mydumper / myloader 全量导入数据

我们使用 mydumper 从 MySQL 导出数据,然后用 myloader 将其导入到 TiDB 里面。

注意,虽然我们也支持使用 MySQL 官方的 mysqldump 工具来进行数据的迁移工作,但相比于 mydumper / myloader ,性能会慢很多,对于大量数据的迁移会花费很多时间,这里我们并不推荐。

mydumper / myloader 是一个更强大的数据迁移工具,具体可以参考 https://github.com/maxbube/mydumper 。

下载 Binary

Linux

# 下载 mydumper 压缩包
wget http://download.pingcap.org/mydumper-linux-amd64.tar.gz
wget http://download.pingcap.org/mydumper-linux-amd64.sha256

# 检查文件完整性,返回 ok 则正确
sha256sum -c mydumper-linux-amd64.sha256

# 解开压缩包
tar -xzf mydumper-linux-amd64.tar.gz
cd mydumper-linux-amd64

从 MySQL 导出数据

我们使用 mydumper 从 MySQL 导出数据,如下:

./bin/mydumper -h 127.0.0.1 -P 3306 -u root -t 16 -F 128 -B test -T t1,t2 -o ./var/test

上面,我们使用 -B test 表明是对 test 这个 database 操作,然后用 -T t1,t2表明只导出 t1 , t2 两张表。

-t 16 表明使用 16 个线程去导出数据。 -F 128 是将实际的 table 切分成多大的 chunk,这里就是 128MB 一个 chunk。

注意:在阿里云一些需要 super privilege 的云上面, mydumper 需要加上 --no-locks 参数,否则会提示没有权限操作。

给 TiDB 导入数据

我们使用 myloader 将之前导出的数据导入到 TiDB。

./bin/myloader -h 127.0.0.1 -P 4000 -u root -t 16 -q 1 -d ./var/test

这里 -q 1 表明每个事务包含多少个 query,默认是 1000,我们这里使用 1 就可以了。

导入成功之后,我们可以用 MySQL 官方客户端进入 TiDB,查看:

mysql -h127.0.0.1 -P4000 -uroot

mysql> show tables;
+----------------+
| Tables_in_test |
+----------------+
| t1             |
| t2             |
+----------------+

mysql> select * from t1;
+----+------+
| id | age  |
+----+------+
|  1 |    1 |
|  2 |    2 |
|  3 |    3 |
+----+------+

mysql> select * from t2;
+----+------+
| id | name |
+----+------+
|  1 | a    |
|  2 | b    |
|  3 | c    |
+----+------+

使用 syncer 增量导入数据实现数据和 MySQL 实时同步

上面我们介绍了如何使用 mydumper / myloader 将 MySQL 的数据全量导入到 TiDB,但如果后续 MySQL 的数据有更新,我们仍然希望快速导入,使用全量的方式就不合适了。

TiDB 提供 syncer 工具能方便的将 MySQL 的数据增量的导入到 TiDB 里面。

syncer 也属于 TiDB 工具集,如何获取可以参考。

假设我们之前已经使用 mydumper / myloader 导入了 t1 和 t2 两张表的一些数据,现在我们希望这两张表的任何更新,都是实时的同步到 TiDB 上面。

MySQL 开启 binlog

在使用 syncer 之前,我们必须保证:

  • MySQL 开启 binlog 功能,参考 Setting the Replication Master Configuration
  • Binlog 格式必须使用 row format,这也是 MySQL 5.7 之后推荐的 binlog 格式,可以使用如下语句打开:

bash SET GLOBAL binlog_format = ROW;

获取同步 position

我们通过 show master status 得到当前 binlog 的 position, syncer 的初始同步位置就是从这个地方开始。

show master status;
+------------------+----------+--------------+------------------+-------------------+
| File             | Position | Binlog_Do_DB | Binlog_Ignore_DB | Executed_Gtid_Set |
+------------------+----------+--------------+------------------+-------------------+
| mysql-bin.000003 |     1280 |              |                  |                   |
+------------------+----------+--------------+------------------+-------------------+

我们将 position 相关的信息保存到一个 syncer.meta 文件里面,用于 syncer 的同步:

# cat syncer.meta
binlog-name = "mysql-bin.000003"
binlog-pos = 1280

注意: syncer.meta 只需要第一次使用的时候配置,后续 syncer 同步新的 binlog 之后会自动将其更新到最新的 position。

启动 syncer

syncer 的配置文件 config.toml :

log-level = "info"

server-id = 101

# meta 文件地址
meta = "./syncer.meta"
worker-count = 1
batch = 1

pprof-addr = ":10081"

[from]
host = "127.0.0.1"
user = "root"
password = ""
port = 3306

[to]
host = "127.0.0.1"
user = "root"
password = ""
port = 4000

启动 syncer :

./bin/syncer -config config.toml

2016/10/27 15:22:01 binlogsyncer.go:226: [info] begin to sync binlog from position (mysql-bin.000003, 1280)
2016/10/27 15:22:01 binlogsyncer.go:130: [info] register slave for master server 127.0.0.1:3306
2016/10/27 15:22:01 binlogsyncer.go:552: [info] rotate to (mysql-bin.000003, 1280)
2016/10/27 15:22:01 syncer.go:549: [info] rotate binlog to (mysql-bin.000003, 1280)

在 MySQL 插入新的数据

INSERT INTO t1 VALUES (4, 4), (5, 5);

登录到 TiDB 查看:

mysql -h127.0.0.1 -P4000 -uroot -p
mysql> select * from t1;
+----+------+
| id | age  |
+----+------+
|  1 |    1 |
|  2 |    2 |
|  3 |    3 |
|  4 |    4 |
|  5 |    5 |
+----+------+

syncer 每隔 30s 会输出当前的同步统计,如下

2016/10/27 15:22:31 syncer.go:668: [info] [syncer]total events = 1, insert = 1, update = 0, delete = 0, total tps = 0, recent tps = 0, binlog name = mysql-bin.000003, binlog pos = 1280.
2016/10/27 15:23:01 syncer.go:668: [info] [syncer]total events = 2, insert = 2, update = 0, delete = 0, total tps = 0, recent tps = 0, binlog name = mysql-bin.000003, binlog pos = 1538.

可以看到,使用 syncer ,我们就能自动的将 MySQL 的更新同步到 TiDB。


# tidb-docker-compose 部署    https://github.com/pingcap/tidb-docker-compose

git clone https://github.com/pingcap/tidb-docker-compose.git

cd tidb-docker-compose && docker-compose pull # Get the latest Docker images

docker-compose up -d

mysql -h 127.0.0.1 -P 4000 -u root


参考网址:

https://blog.csdn.net/linuxheik/article/details/52575073

https://blog.csdn.net/feinifi/article/details/79657502

https://blog.csdn.net/wjl7813/article/details/79044158


签名:这个人很懒,什么也没有留下!
最新回复 (0)
返回