DataX从入门实战到精通一文搞定

这篇具有很好参考价值的文章主要介绍了DataX从入门实战到精通一文搞定。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1、概述

1.1、什么是 DataX

DataX 是阿里巴巴开源的一个异构数据源离线同步工具,致力于实现包括关系型数据库(MySQL、Oracle 等)、HDFS、Hive、ODPS、HBase、FTP 等各种异构数据源之间稳定高效的数据同步功能。

1.2、DataX 的设计

为了解决异构数据源同步问题,DataX 将复杂的网状的同步链路变成了星型数据链路,DataX 作为中间传输载体负责连接各种数据源。当需要接入一个新的数据源的时候,只需要将此数据源对接到 DataX,便能跟已有的数据源做到无缝数据同步。

DataX从入门实战到精通一文搞定

1.3、支持的数据源

DataX 目前已经有了比较全面的插件体系,主流的 RDBMS 数据库、NOSQL、大数据计算系统都已经接入。
DataX从入门实战到精通一文搞定

1.4、框架设计

DataX从入门实战到精通一文搞定

  • Reader:数据采集模块,负责采集数据源的数据,将数据发送给Framework。
  • Writer:数据写入模块,负责不断向Framework取数据,并将数据写入到目的端。
  • Framework:用于连接reader和writer,作为两者的数据传输通道,并处理缓冲,流控,并发,数据转换等核心技术问题。

1.5、运行原理

DataX从入门实战到精通一文搞定

  • Job:单个作业的管理节点,负责数据清理、子任务划分、TaskGroup监控管理。
  • Task:由Job切分而来,是DataX作业的最小单元,每个Task负责一部分数据的同步工作。
  • Schedule:将Task组成TaskGroup,单个TaskGroup的并发数量为5。
  • TaskGroup:负责启动Task。

举例来说,用户提交了一个 DataX 作业,并且配置了 20 个并发,目的是将一个 100 张分表的 mysql 数据同步到 odps 里面。 DataX 的调度决策思路是:

  1. DataXJob 根据分库分表切分成了 100 个 Task。
  2. 根据 20 个并发,DataX 计算共需要分配 4 个 TaskGroup。
  3. 4个 TaskGroup 平分切分好的 100 个 Task,每一个 TaskGroup 负责以 5 个并发共计运行 25 个 Task。

1.6、与 Sqoop 的对比

DataX从入门实战到精通一文搞定

2、快速入门

2.1、官方地址

下载地址:
添源码地址:

2.2、前置要求

  • Linux
  • JDK(1.8 以上,推荐 1.8)
  • Python(推荐 Python2.6.X)

2.3、安装

  1. 将下载好的 datax.tar.gz 上传到 hadoop102 的/opt/software
  2. 解压 datax.tar.gz 到/opt/model
[song@hadoop102 software]$ tar -zxvf datax.tar.gz -C /opt/model/
  1. 运行自检脚本
[song@hadoop102 bin]$ cd /opt/model/datax/bin/
[song@hadoop102 bin]$ python datax.py /opt/model/datax/job/job.json

DataX从入门实战到精通一文搞定

3、Mysql使用案例

3.1、从 stream 流读取数据并打印到控制台

  1. 查看配置模板
The di[song@hadoop102 bin]$ python datax.py -r streamreader -w streamwriter
DataX (DATAX-OPENSOURCE-3.0), From Alibaba !
Copyright (C) 2010-2017, Alibaba Group. All Rights Reserved.
Please refer to the streamreader document:
 https://github.com/alibaba/DataX/blob/master/streamreader/doc/streamreader.md 
Please refer to the streamwriter document:
 https://github.com/alibaba/DataX/blob/master/streamwriter/doc/streamwriter.md 
Please save the following configuration as a json file and use
 python {DATAX_HOME}/bin/datax.py {JSON_FILE_NAME}.json 
to run the job.
	{
	 "job": {
		 "content": [
			 {
			 "reader": {
				 "name": "streamreader", 
				 "parameter": {
				 "column": [], 
				 "sliceRecordCount": ""
				 }
			 }, 
			 "writer": {
				 "name": "streamwriter", 
				 "parameter": {
				 "encoding": "", 
				 "print": true
				 }
			 	}
			 }
		 ], 
		 "setting": {
			 "speed": {
			 	"channel": ""
			 }
		 }
	 	} 
	 }
  1. 根据模板编写配置文件
[song@hadoop102 job]$ vim stream2stream.json
  • 填写以下内容:
{
	 "job": {
	 "content": [
			 {
			 "reader": {
			 	 "name": "streamreader",
				 "parameter": {
				 "sliceRecordCount": 10,
				 "column": [
					 {
					 "type": "long",
					 "value": "10"
					 },
					 {
					 "type": "string",
					 "value": "hello,DataX"
					 }
					]
			 	}
			 },
		 "writer": {
				 "name": "streamwriter",
				 "parameter": {
				 "encoding": "UTF-8",
				 "print": true
			 	}
			 }
	 		}
	 	],
		 "setting": {
			 "speed": {
			 	"channel": 1
			 }
		 }
	 } 
 }
  1. 运行
[song@hadoop102 job]$ /opt/module/datax/bin/datax.py /opt/module/datax/job/stream2stream.json

3.2、读取 MySQL 中的数据存放到 HDFS

3.2.1、查看官方模板
[song@hadoop102 ~]$ python /opt/module/datax/bin/datax.py -r mysqlreader -w hdfswriter
{
    "job": {
        "content": [
            {
                "reader": {
                    "name": "mysqlreader",
                    "parameter": {
                        "column": [],
                        "connection": [
                            {
                                "jdbcUrl": [],
                                "table": []
                            }
                        ],
                        "password": "",
                        "username": "",
                        "where": ""
                    }
                },
                "writer": {
                    "name": "hdfswriter",
                    "parameter": {
                        "column": [],
                        "compress": "",
                        "defaultFS": "",
                        "fieldDelimiter": "",
                        "fileName": "",
                        "fileType": "",
                        "path": "",
                        "writeMode": ""
                    }
                }
            }
        ],
        "setting": {
            "speed": {
                "channel": ""
            }
        }
    }
}
  • mysqlreader 参数解析:
    DataX从入门实战到精通一文搞定
  • hdfswriter 参数解析:

DataX从入门实战到精通一文搞定

3.2.2、准备数据
  1. 创建 student 表
mysql> create database datax;
mysql> use datax;
mysql> create table student(id int,name varchar(20));
  1. 插入数据
mysql> insert into student values(1001,'zhangsan'),(1002,'lisi'),(1003,'wangwu');
3.2.3、编写配置文件
[song@hadoop102 datax]$ vim /opt/module/datax/job/mysql2hdfs.json
{
    "job": {
        "content": [
            {
                "reader": {
                    "name": "mysqlreader",
                    "parameter": {
                        "column": [
                            "id",
                            "name"
                        ],
                        "connection": [
                            {
                                "jdbcUrl": [
                                    "jdbc:mysql://hadoop102:3306/datax"
                                ],
                                "table": [
                                    "student"
                                ]
                            }
                        ],
                        "username": "root",
                        "password": "xxxxxx"
                    }
                },
                "writer": {
                    "name": "hdfswriter",
                    "parameter": {
                        "column": [
                            {
                                "name": "id",
                                "type": "int"
                            },
                            {
                                "name": "name",
                                "type": "string"
                            }
                        ],
                        "defaultFS": "hdfs://hadoop102:9000",
                        "fieldDelimiter": "\t",
                        "fileName": "student.txt",
                        "fileType": "text",
                        "path": "/",
                        "writeMode": "append"
                    }
                }
            }
        ],
        "setting": {
            "speed": {
                "channel": "1"
            }
        }
    }
}
3.2.4、执行任务
[song@hadoop102 datax]$ bin/datax.py job/mysql2hdfs.json
2019-05-17 16:02:16.581 [job-0] INFO JobContainer -
任务启动时刻 : 2019-05-17 16:02:04
任务结束时刻 : 2019-05-17 16:02:16
任务总计耗时 : 12s
任务平均流量 : 3B/s
记录写入速度 : 0rec/s
读出记录总数 : 3
读写失败总数 : 0
3.2.5、查看 hdfs

DataX从入门实战到精通一文搞定

注意:HdfsWriter 实际执行时会在该文件名后添加随机的后缀作为每个线程写入实际文件名。

3.2.6、关于 HA 的支持
"hadoopConfig":{
 "dfs.nameservices": "ns",
 "dfs.ha.namenodes.ns": "nn1,nn2",
 "dfs.namenode.rpc-address.ns.nn1": "主机名:端口",
 "dfs.namenode.rpc-address.ns.nn2": "主机名:端口",
 "dfs.client.failover.proxy.provider.ns": "org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider"
}

3.3、读取 HDFS 数据写入 MySQL

  1. 将上个案例上传的文件改名
[song@hadoop102 datax]$ hadoop fs -mv /student.txt* /student.txt
  1. 查看官方模板
[song@hadoop102 datax]$ python bin/datax.py -r hdfsreader -w mysqlwriter
{
    "job": {
        "content": [
            {
                "reader": {
                    "name": "hdfsreader",
                    "parameter": {
                        "column": [],
                        "defaultFS": "",
                        "encoding": "UTF-8",
                        "fieldDelimiter": ",",
                        "fileType": "orc",
                        "path": ""
                    }
                },
                "writer": {
                    "name": "mysqlwriter",
                    "parameter": {
                        "column": [],
                        "connection": [
                            {
                                "jdbcUrl": "",
                                "table": []
                            }
                        ],
                        "password": "",
                        "preSql": [],
                        "session": [],
                        "username": "",
                        "writeMode": ""
                    }
                }
            }
        ],
        "setting": {
            "speed": {
                "channel": ""
            }
        }
    }
}
  1. 创建配置文件
[song@hadoop102 datax]$ vim job/hdfs2mysql.json
{
    "job": {
        "content": [
            {
                "reader": {
                    "name": "hdfsreader",
                    "parameter": {
                        "column": [
                            "*"
                        ],
                        "defaultFS": "hdfs://hadoop102:9000",
                        "encoding": "UTF-8",
                        "fieldDelimiter": "\t",
                        "fileType": "text",
                        "path": "/student.txt"
                    }
                },
                "writer": {
                    "name": "mysqlwriter",
                    "parameter": {
                        "column": [
                            "id",
                            "name"
                        ],
                        "connection": [
                            {
                                "jdbcUrl": "jdbc:mysql://hadoop102:3306/datax",
                                "table": [
                                    "student2"
                                ]
                            }
                        ],
                        "password": "xxxxxx",
                        "username": "root",
                        "writeMode": "insert"
                    }
                }
            }
        ],
        "setting": {
            "speed": {
                "channel": "1"
            }
        }
    }
}
  1. 在 MySQL 的 datax 数据库中创建 student2
mysql> use datax;
mysql> create table student2(id int,name varchar(20));
  1. 执行任务
[song@hadoop102 datax]$ bin/datax.py job/hdfs2mysql.json
任务启动时刻 : 2019-05-17 16:21:41
任务结束时刻 : 2019-05-17 16:21:53
任务总计耗时 : 11s
任务平均流量 : 3B/s
记录写入速度 : 0rec/s
读出记录总数 : 3
读写失败总数 : 0
  1. 查看 student2 表
mysql> select * from student2;
+------+----------+
| id | name |
+------+----------+
| 1001 | zhangsan |
| 1002 | lisi |
| 1003 | wangwu |
+------+----------+
3 rows in set (0.00 sec)

4、Oracle 数据库

4.1、oracle 数据库简介

Oracle Database,又名 Oracle RDBMS,或简称 Oracle。是甲骨文公司的一款关系数据库管理系统。它是在数据库领域一直处于领先地位的产品。可以说 Oracle 数据库系统是目前世界上流行的关系数据库管理系统,系统可移植性好、使用方便、功能强,适用于各类大、中、小、微机环境。它是一种高效率、可靠性好的、适应高吞吐量的数据库解决方案。

4.2、安装前的准备

4.2.1、安装依赖
yum install -y bc binutils compat-libcap1 compat-libstdc++33 elfutils-libelf elfutils-libelf-devel fontconfig-devel 
glibc glibc-devel ksh libaio libaio-devel libX11 libXau libXi libXtst libXrender libXrender-devel libgcc libstdc++ libstdc++-
devel libxcb make smartmontools sysstat kmod* gcc-c++ compat-libstdc++-33
4.2.2、配置用户组

Oracle 安装文件不允许通过 root 用户启动,需要为 oracle 配置一个专门的用户。

  1. 创建 sql 用户组
[root@hadoop102 software]#groupadd sql
  1. 创建 oracle 用户并放入 sql 组中
[root@hadoop102 software]#useradd oracle -g sql 
  1. 修改 oracle 用户登录密码,输入密码后即可使用 oracle 用户登录系统
[root@hadoop102 software]#passwd oracle
4.2.3、上传安装包并解压

注意:19c 需要把软件包直接解压到 ORACLE_HOME 的目录下

[root@hadoop102 software]# mkdir -p /home/oracle/app/oracle/product/19.3.0/dbhome_1
[root@hadoop102 software]# unzip LINUX.X64_193000_db_home.zip -d /home/oracle/app/oracle/product/19.3.0/dbhome_1

修改所属用户和组

[root@hadoop102 dbhome_1]# chown -R oracle:sql /home/oracle/app/
4.2.4、修改配置文件 sysctl.conf
[root@hadoop102 module]# vim /etc/sysctl.conf

删除里面的内容,添加如下内容:

net.ipv4.ip_local_port_range = 9000 65500 
fs.file-max = 6815744 
kernel.shmall = 10523004 
kernel.shmmax = 6465333657 
kernel.shmmni = 4096 
kernel.sem = 250 32000 100 128 
net.core.rmem_default=262144 
net.core.wmem_default=262144 
net.core.rmem_max=4194304 
net.core.wmem_max=1048576 
fs.aio-max-nr = 1048576

参数解析:

  • net.ipv4.ip_local_port_range :可使用的 IPv4 端口范围
  • fs.file-max :该参数表示文件句柄的最大数量。文件句柄设置表示在 linux 系统中可以打开的文件数量。
  • kernel.shmall :该参数表示系统一次可以使用的共享内存总量(以页为单位)
  • kernel.shmmax :该参数定义了共享内存段的最大尺寸(以字节为单位)
  • kernel.shmmni :这个内核参数用于设置系统范围内共享内存段的最大数量
  • kernel.sem : 该参数表示设置的信号量。
  • net.core.rmem_default:默认的 TCP 数据接收窗口大小(字节)。
  • net.core.wmem_default:默认的 TCP 数据发送窗口大小(字节)。
  • net.core.rmem_max:最大的 TCP 数据接收窗口(字节)。
  • net.core.wmem_max:最大的 TCP 数据发送窗口(字节)。
  • fs.aio-max-nr :同时可以拥有的的异步 IO 请求数目。
4.2.5、修改配置文件 limits.conf
[root@hadoop102 module]# vim /etc/security/limits.conf

在文件末尾添加:

oracle soft nproc 2047
oracle hard nproc 16384
oracle soft nofile 1024
oracle hard nofile 65536

重启机器生效。

4.3、安装 Oracle 数据库

4.3.1、设置环境变量
[oracle@hadoop102 dbhome_1]# vim /home/oracle/.bash_profile

添加:

#ORACLE_HOME
export ORACLE_BASE=/home/oracle/app/oracle
export ORACLE_HOME=/home/oracle/app/oracle/product/19.3.0/dbhome_1
export PATH=$PATH:$ORACLE_HOME/bin
export ORACLE_SID=orcl
export NLS_LANG=AMERICAN_AMERICA.ZHS16GBK
[oracle@hadoop102 ~]$ source /home/oracle/.bash_profile
4.3.2、进入虚拟机图像化页面操作
[oracle@hadoop102 ~]# cd /opt/module/oracle
[oracle@hadoop102 database]# ./runInstaller
4.3.3、安装数据库
  1. 选择仅安装数据库软件

DataX从入门实战到精通一文搞定

  1. 选择单实例数据库安装
    DataX从入门实战到精通一文搞定

  2. 选择企业版,默认
    DataX从入门实战到精通一文搞定

  3. 设置安装位置
    DataX从入门实战到精通一文搞定

  4. 操作系统组设置
    DataX从入门实战到精通一文搞定

  5. 配置 root 脚本自动执行
    DataX从入门实战到精通一文搞定

  6. 条件检查通过后,选择开始安装
    DataX从入门实战到精通一文搞定

  7. 运行 root 脚本
    DataX从入门实战到精通一文搞定

  8. 安装完成
    DataX从入门实战到精通一文搞定

4.4、设置 Oracle 监听

4.4.1、命令行输入以下命令

DataX从入门实战到精通一文搞定

4.4.2、选择添加

DataX从入门实战到精通一文搞定

4.4.3、设置监听名,默认即可

DataX从入门实战到精通一文搞定

4.4.4、选择协议,默认即可

DataX从入门实战到精通一文搞定

4.4.5、设置端口号,默认即可

DataX从入门实战到精通一文搞定

4.4.6、配置更多监听,默认

DataX从入门实战到精通一文搞定

4.4.7、完成

DataX从入门实战到精通一文搞定DataX从入门实战到精通一文搞定

4.5、创建数据库

4.5.1、进入创建页面
[oracle@hadoop2 ~]$ dbca
4.5.2、选择创建数据库

DataX从入门实战到精通一文搞定

4.5.3、选择高级配置

DataX从入门实战到精通一文搞定

4.5.4、选择数据仓库

DataX从入门实战到精通一文搞定

4.5.5、将图中所示对勾去掉

DataX从入门实战到精通一文搞定

4.5.6、存储选项

DataX从入门实战到精通一文搞定

4.5.7、快速恢复选项

DataX从入门实战到精通一文搞定

4.5.8、选择监听程序

DataX从入门实战到精通一文搞定

4.5.9、如图设置

DataX从入门实战到精通一文搞定

4.5.10、使用自动内存管理

DataX从入门实战到精通一文搞定

4.5.11、管理选项,默认

DataX从入门实战到精通一文搞定

4.5.12、设置统一密码

DataX从入门实战到精通一文搞定

4.5.13、创建选项,选择创建数据库

DataX从入门实战到精通一文搞定

4.5.14、概要,点击完成

DataX从入门实战到精通一文搞定

4.5.15、等待安装

DataX从入门实战到精通一文搞定
DataX从入门实战到精通一文搞定

4.6、简单使用

4.6.1、开启,关闭监听服务

开启服务:

[oracle@hadoop102 ~]$ lsnrctl start

关闭服务:

[oracle@hadoop102 ~]$ lsnrctl stop
4.6.2、进入命令行
[oracle@hadoop102 ~]$ sqlplus 
SQL*Plus: Release 19.0.0.0.0 - Production on Fri Sep 3 01:44:30 2021
Version 19.3.0.0.0
Copyright (c) 1982, 2019, Oracle. All rights reserved.
Enter user-name: system
Enter password: (这里输入之前配置的统一密码)
Connected to:
Oracle Database 19c Enterprise Edition Release 19.0.0.0.0 - Production
Version 19.3.0.0.0
SQL>
4.6.3、创建用户并授权
SQL> create user song identified by 000000;
User created.
SQL> grant create session,create table,create view,create sequence,unlimited tablespace to song;
Grant succeeded.
4.6.4、进入 song 账号,创建表
SQL>create TABLE student(id INTEGER,name VARCHAR2(20));
SQL>insert into student values (1,'zhangsan');
SQL> select * from student; 
 ID NAME
 ---------- ----------------------------------------
 1 zhangsan

注意:安装完成后重启机器可能出现 ORACLE not available 错误,解决方法如下:

[oracle@hadoop102 ~]$ sqlplus / as sysdba
SQL>startup
SQL>conn song
Enter password:

4.7、Oracle 与 MySQL 的 SQL 区别

DataX从入门实战到精通一文搞定

4.8、DataX 案例

4.8.1、从 Oracle 中读取数据存到 MySQL
  1. MySQL 中创建表
[oracle@hadoop102 ~]$ mysql -uroot -p000000
mysql> create database oracle;
mysql> use oracle;
mysql> create table student(id int,name varchar(20));
  1. 编写 datax 配置文件
[oracle@hadoop102 ~]$ vim /opt/module/datax/job/oracle2mysql.json
{
    "job": {
        "content": [
            {
                "reader": {
                    "name": "oraclereader",
                    "parameter": {
                        "column": [
                            "*"
                        ],
                        "connection": [
                            {
                                "jdbcUrl": [
                                    "jdbc:oracle:thin:@hadoop102:1521:orcl"
                                ],
                                "table": [
                                    "student"
                                ]
                            }
                        ],
                        "password": "xxxxxx",
                        "username": "song"
                    }
                },
                "writer": {
                    "name": "mysqlwriter",
                    "parameter": {
                        "column": [
                            "*"
                        ],
                        "connection": [
                            {
                                "jdbcUrl": "jdbc:mysql://hadoop102:3306/oracle",
                                "table": [
                                    "student"
                                ]
                            }
                        ],
                        "password": "xxxxxx",
                        "username": "root",
                        "writeMode": "insert"
                    }
                }
            }
        ],
        "setting": {
            "speed": {
                "channel": "1"
            }
        }
    }
}
  1. 执行命令
[oracle@hadoop102 ~]$ /opt/module/datax/bin/datax.py /opt/module/datax/job/oracle2mysql.json

查看结果:

mysql> select * from student;
+------+----------+
| id | name |
+------+----------+
| 1 | zhangsan |
+------+----------+
4.8.2、读取 Oracle 的数据存入 HDFS 中
  1. 编写配置文件
[oracle@hadoop102 datax]$ vim job/oracle2hdfs.json
{
    "job": {
        "content": [
            {
                "reader": {
                    "name": "oraclereader",
                    "parameter": {
                        "column": [
                            "*"
                        ],
                        "connection": [
                            {
                                "jdbcUrl": [
                                    "jdbc:oracle:thin:@hadoop102:1521:orcl"
                                ],
                                "table": [
                                    "student"
                                ]
                            }
                        ],
                        "password": "xxxxxx",
                        "username": "song"
                    }
                },
                "writer": {
                    "name": "hdfswriter",
                    "parameter": {
                        "column": [
                            {
                                "name": "id",
                                "type": "int"
                            },
                            {
                                "name": "name",
                                "type": "string"
                            }
                        ],
                        "defaultFS": "hdfs://hadoop102:9000",
                        "fieldDelimiter": "\t",
                        "fileName": "oracle.txt",
                        "fileType": "text",
                        "path": "/",
                        "writeMode": "append"
                    }
                }
            }
        ],
        "setting": {
            "speed": {
                "channel": "1"
            }
        }
    }
}
  1. 执行
[oracle@hadoop102 datax]$ bin/datax.py job/oracle2hdfs.json
  1. 查看 HDFS 结果
    DataX从入门实战到精通一文搞定

5、MongoDB

5.1、什么是 MongoDB

MongoDB 是由 C++语言编写的,是一个基于分布式文件存储的开源数据库系统。MongoDB 旨在为 WEB 应用提供可扩展的高性能数据存储解决方案。MongoDB 将数据存储为一个文档,数据结构由键值(key=>value)对组成。MongoDB 文档类似于 JSON 对象。字段值可以包含其他文档,数组及文档数组。
DataX从入门实战到精通一文搞定

5.2、MongoDB 优缺点

优点:

  1. MongoDB 是一个面向文档存储的数据库,操作起来比较简单和容易;
  2. 内置GridFS,支持大容量的存储;
  3. 可以在MongoDB记录中设置任何属性的索引;
  4. MongoDB支持各种编程语言:RUBY,PYTHON,JAVA,C++,PHP,C#等多种语言;
  5. 安装简单;
  6. 复制(复制集)和支持自动故障恢复;
  7. MapReduce 支持复杂聚合。

缺点:

  1. 不支持事务;
  2. 占用空间过大;
  3. 不能进行表关联;
  4. 复杂聚合操作通过MapReduce创建,速度慢;
  5. MongoDB 在你删除记录后不会在文件系统回收空间。除非你删掉数据库。

5.3、基础概念解析

DataX从入门实战到精通一文搞定
DataX从入门实战到精通一文搞定

5.4、 安装

5.4.1、下载地址
5.4.2、安装
  1. 上传压缩包到虚拟机中,解压
[song@hadoop102 software]$ tar -zxvf mongodb-linux-x86_64-rhel70-5.0.2.tgz -C /opt/module/
  1. 重命名
[song@hadoop102 module]$ mv mongodb-linux-x86_64- rhel70-5.0.2/ mongodb 
  1. 创建数据库目录
    MongoDB 的数据存储在 data 目录的 db 目录下,但是这个目录在安装过程不会自动创建,所以需要手动创建 data 目录,并在 data 目录中创建 db 目录。
[song@hadoop102 module]$ sudo mkdir -p /data/db
[song@hadoop102 mongodb]$ sudo chmod 777 -R /data/db/
  1. 启动 MongoDB 服务
[song@hadoop102 mongodb]$ bin/mongod
  1. 进入 shell 页面
[song@hadoop102 mongodb]$ bin/mongo

5.5、基础概念详解

5.5.1、数据库

一个 mongodb 中可以建立多个数据库。MongoDB 的默认数据库为"db",该数据库存储在 data 目录中。MongoDB 的单个实例可以容纳多个独立的数据库,每一个都有自己的集合和权限,不同的数据库也放置在不同的文件中。

  1. 显示所有数据库
> show dbs
admin 0.000GB
config 0.000GB
local 0.000GB
  • admin:从权限的角度来看,这是"root"数据库。要是将一个用户添加到这个数据库,这个用户自动继承所有数据库的权限。一些特定的服务器端命令也只能从这个数据库运行,比如列出所有的数据库或者关闭服务器。
  • local:这个数据永远不会被复制,可以用来存储限于本地单台服务器的任意集合
  • config:当 Mongo 用于分片设置时,config 数据库在内部使用,用于保存分片的相关信息。
  1. 显示当前使用的数据库
> db
test
  1. 切换数据库
> use local
switched to db local
> db
local
5.5.2、集合

集合就是 MongoDB 文档组,类似于 MySQL 中的 table。

集合存在于数据库中,集合没有固定的结构,这意味着你在对集合可以插入不同格式和类型的数据,但通常情况下我们插入集合的数据都会有一定的关联性。

MongoDB 中使用 createCollection() 方法来创建集合。下面我们来看看如何创建集合:

语法格式:db.createCollection(name, options)
参数说明:

  • name: 要创建的集合名称
  • options: 可选参数, 指定有关内存大小及索引的选项,有以下参数:
    DataX从入门实战到精通一文搞定
  1. 案例1:在 test 库中创建一个 song的集合
> use test
switched to db test
> db.createCollection("song")
{ "ok" : 1 }
> show collections
song
//插入数据
> db.song.insert({"name":"song","url":"www.song.com"})
WriteResult({ "nInserted" : 1 })
//查看数据
> db.song.find()
{ "_id" : ObjectId("5d0314ceecb77ee2fb2d7566"), "name" : "song", "url" : 
"www.song.com" }

说明:
ObjectId 类似唯一主键,可以很快的去生成和排序,包含 12 bytes,由 24 个 16 进制数字组成的字符串(每个字节可以存储两个 16 进制数字),含义是:

  • 前 4 个字节表示创建 unix 时间戳
  • 接下来的 3 个字节是机器标识码
  • 紧接的两个字节由进程 id 组成 PID
  • 最后三个字节是随机数
  1. 案例 2:创建一个固定集合 mycol
> db.createCollection("mycol",{ capped : true,autoIndexId : true,size : 6142800, max : 
1000})
> show tables;
song
mycol
  1. 案例 3:自动创建集合在 MongoDB 中,你不需要创建集合。当你插入一些文档时,MongoDB 会自动创建集合。
> db.mycol2.insert({"name":"song"})
WriteResult({ "nInserted" : 1 })
> show collections
song
mycol
mycol2
  1. 案例 4:删除集合
> db.mycol2.drop()
True
> show tables;
song
mycol
5.5.3、文档(Document)

文档是一组键值(key-value)对组成。MongoDB 的文档不需要设置相同的字段,并且相同的字段不需要相同的数据类型,这与关系型数据库有很大的区别,也是 MongoDB 非常突出的特点。一个简单的例子:{"name":"song"}
注意:

  1. 文档中的键/值对是有序的。
  2. MongoDB 区分类型和大小写。
  3. MongoDB 的文档不能有重复的键。
  4. 文档的键是字符串。除了少数例外情况,键可以使用任意 UTF-8 字符。

5.6、DataX 导入导出案例

5.6.1、读取 MongoDB 的数据导入到 HDFS
  1. 编写配置文件
[song@hadoop102 datax]$ vim job/mongdb2hdfs.json
{
 "job": {
 "content": [
	 {
	 "reader": {
		 "name": "mongodbreader", 
		 "parameter": {
		 "address": ["127.0.0.1:27017"], 
		 "collectionName": "song", 
		 "column": [
		 {
			 "name":"name",
			 "type":"string"
		 },
		 {
			 "name":"url",
			 "type":"string"
		 }
	 	], 
	 	"dbName": "test", 
	 	}
	 }, 
 "writer": {
 	"name": "hdfswriter", 
 	"parameter": {
 	"column": [
		 {
		 "name":"name",
		 "type":"string"
		 },
		 {
		 "name":"url",
		 "type":"string"
		 }
 		], 
 	"defaultFS": "hdfs://hadoop102:9000", 
	 "fieldDelimiter": "\t", 
	 "fileName": "mongo.txt", 
	 "fileType": "text", 
	 "path": "/", 
	 "writeMode": "append"
 		}
 	}
 	}
 ], 
 "setting": {
 "speed": {
	"channel": "1"
	 }
	}
  } 
}
  1. mongodbreader 参数解析
  • address: MongoDB 的数据地址信息,因为 MonogDB 可能是个集群,则 ip 端口信息需要以 Json 数组的形式给出。【必填】
  • userName:MongoDB 的用户名。【选填】
  • userPassword: MongoDB 的密码。【选填】
  • collectionName: MonogoDB 的集合名。【必填】
  • column:MongoDB 的文档列名。【必填】
  • name:Column 的名字。【必填】
  • type:Column 的类型。【选填】.
  • splitter:因为 MongoDB 支持数组类型,但是 Datax 框架本身不支持数组类型,所以mongoDB 读出来的数组类型要通过这个分隔符合并成字符串。【选填】
  1. 执行
[song@hadoop102 datax]$ bin/datax.py job/mongdb2hdfs.json
  1. 查看结果
    DataX从入门实战到精通一文搞定
5.6.2、读取 MongoDB 的数据导入 MySQL
  1. 在 MySQL 中创建表
mysql> create table song(name varchar(20),url varchar(20)); 
  1. 编写 DataX 配置文件
[song@hadoop102 datax]$ vim job/mongodb2mysql.json
 {
 "job": {
 "content": [
	 {
	 "reader": {
		"name": "mongodbreader", 
		 "parameter": {
			 "address": ["127.0.0.1:27017"], 
			 "collectionName": "song", 
			 "column": [
				 {
				 "name":"name",
				 "type":"string"
				 },
				 {
				 "name":"url",
				 "type":"string"
				 }
			 ], 
			 "dbName": "test", 
			 }
		 }, 
		 "writer": {
			 "name": "mysqlwriter", 
			 "parameter": {
			 "column": ["*"], 
			 "connection": [
				 {
				 "jdbcUrl": "jdbc:mysql://hadoop102:3306/test", 
				 "table": ["song"]
				 }
			 ], 
			 "password": "xxxxx", 
			 "username": "root", 
			 "writeMode": "insert"
			}
		 }
	 }
 ], 
 "setting": {
	 "speed": {
		"channel": "1"
	 }
	}
  } 
 }
  1. 执行
[song@hadoop102 datax]$ bin/datax.py job/mongodb2mysql.json
  1. 查看结果
mysql> select * from song;
+---------+-----------------+
| name | url |
+---------+-----------------+
| song| www.song.com |
+---------+-----------------+

6、执行流程源码分析

6.1、 总体流程

DataX从入门实战到精通一文搞定

  • 黄色: Job 部分的执行阶段,
  • 蓝色: Task 部分的执行阶段,
  • 绿色:框架执行阶段。

6.2、 程序入口

datax.py

……
ENGINE_COMMAND = "java -server ${jvm} %s -classpath %s ${params} 
com.alibaba.datax.core.Engine -mode ${mode} -jobid ${jobid} -job ${job}" % (
DEFAULT_PROPERTY_CONF, CLASS_PATH)
……

Engine.java

public void start(Configuration allConf) {
	  ……
	 //JobContainer 会在 schedule 后再行进行设置和调整值
	 int channelNumber =0;
	 AbstractContainer container;
	 long instanceId;
	 int taskGroupId = -1;
	 if (isJob) {
	 allConf.set(CoreConstant.DATAX_CORE_CONTAINER_JOB_MODE, RUNTIME_MODE);
	 container = new JobContainer(allConf);
	 instanceId = allConf.getLong(
	 CoreConstant.DATAX_CORE_CONTAINER_JOB_ID, 0);
 } else {
	 container = new TaskGroupContainer(allConf);
	 instanceId = allConf.getLong(
	 CoreConstant.DATAX_CORE_CONTAINER_JOB_ID);
	 taskGroupId = allConf.getInt(
	 CoreConstant.DATAX_CORE_CONTAINER_TASKGROUP_ID);
	 channelNumber = allConf.getInt(CoreConstant.DATAX_CORE_CONTAINER_TASKGROUP_CHANNEL);
 }
	 ……
	 container.start();
}

JobContainer.java

/**
 * jobContainer 主要负责的工作全部在 start()里面,包括 init、prepare、split、 scheduler、
 * post 以及 destroy 和 statistics
 */
 @Override
 public void start() {
	 LOG.info("DataX jobContainer starts job.");
	 boolean hasException = false;
	 boolean isDryRun = false;
 try {
	 this.startTimeStamp = System.currentTimeMillis();
	 isDryRun = configuration.getBool(CoreConstant.DATAX_JOB_SETTING_DRYRUN, false);
	if(isDryRun) {
	 LOG.info("jobContainer starts to do preCheck ...");
	 this.preCheck();
	 } else {
	 userConf = configuration.clone();
	 LOG.debug("jobContainer starts to do preHandle ...");
	//Job 前置操作
	 this.preHandle();
	 LOG.debug("jobContainer starts to do init ...");
	//初始化 reader 和 writer
	 this.init();
	 LOG.info("jobContainer starts to do prepare ...");
	//全局准备工作,比如 odpswriter 清空目标表
	 this.prepare();
	 LOG.info("jobContainer starts to do split ...");
	//拆分 Task
	 this.totalStage = this.split();
	 LOG.info("jobContainer starts to do schedule ...");
	 this.schedule();
	 LOG.debug("jobContainer starts to do post ...");
	 this.post();
	 LOG.debug("jobContainer starts to do postHandle ...");
	 this.postHandle();
	 LOG.info("DataX jobId [{}] completed successfully.", this.jobId);
	 this.invokeHooks();
	 	}
	} ……
} 

6.3、Task 切分逻辑

JobContainer.java

private int split() {
	 this.adjustChannelNumber();
	 if (this.needChannelNumber <= 0) {
	 	this.needChannelNumber = 1;
	 }
	 List<Configuration> readerTaskConfigs = this .doReaderSplit(this.needChannelNumber);
	 int taskNumber = readerTaskConfigs.size();
	 List<Configuration> writerTaskConfigs = this.doWriterSplit(taskNumber);
	 List<Configuration> transformerList = this.configuration.getListConfiguration(CoreConstant.DATAX_JOB_CONTENT_TRANSF
	ORMER);
	 LOG.debug("transformer configuration: "+ JSON.toJSONString(transformerList));
	 /**
	 * 输入是 reader 和 writer 的 parameter list,输出是 content 下面元素的 list
	 */
	 List<Configuration> contentConfig = mergeReaderAndWriterTaskConfigs(
	 readerTaskConfigs, writerTaskConfigs, transformerList);
	 LOG.debug("contentConfig configuration: "+ 
	JSON.toJSONString(contentConfig));
	 this.configuration.set(CoreConstant.DATAX_JOB_CONTENT, contentConfig);
	 return contentConfig.size();
}
6.3.1、并发数的确定
private void adjustChannelNumber() {
	 int needChannelNumberByByte = Integer.MAX_VALUE;
	 int needChannelNumberByRecord = Integer.MAX_VALUE;
 	boolean isByteLimit = (this.configuration.getInt(CoreConstant.DATAX_JOB_SETTING_SPEED_BYTE, 0) > 0);
	 if (isByteLimit) {
		 long globalLimitedByteSpeed = this.configuration.getInt(
		 CoreConstant.DATAX_JOB_SETTING_SPEED_BYTE, 10 * 1024 * 1024);
		 // 在 byte 流控情况下,单个 Channel 流量最大值必须设置,否则报错!
		 Long channelLimitedByteSpeed = this.configuration.getLong(CoreConstant.DATAX_CORE_TRANSPORT_CHANNE
		L_SPEED_BYTE);
		 if (channelLimitedByteSpeed == null || channelLimitedByteSpeed <= 0) {
		 throw DataXException.asDataXException(FrameworkErrorCode.CONFIG_ERROR, "在有总 bps 限速条件下,单个 channel 的 bps 值不能为空,也不能为非正数");
		 }
		 needChannelNumberByByte = (int) (globalLimitedByteSpeed / channelLimitedByteSpeed);
		 needChannelNumberByByte = needChannelNumberByByte > 0 ? needChannelNumberByByte : 1;
		 LOG.info("Job set Max-Byte-Speed to " + globalLimitedByteSpeed + " bytes.");
	 }
	 boolean isRecordLimit = (this.configuration.getInt(CoreConstant.DATAX_JOB_SETTING_SPEED_RECORD, 0)) > 0;
	 if (isRecordLimit) {
	 long globalLimitedRecordSpeed = this.configuration.getInt(CoreConstant.DATAX_JOB_SETTING_SPEED_RECORD, 100000);
	 Long channelLimitedRecordSpeed = this.configuration.getLong(CoreConstant.DATAX_CORE_TRANSPORT_CHANNEL_SPEED_RECORD);
	 if (channelLimitedRecordSpeed == null || channelLimitedRecordSpeed <= 0) {
	 throw DataXException.asDataXException(FrameworkErrorCode.CONFIG_ERROR,"在有总 tps 限速条件下,单个 channel 的 tps 值不能为空,
	也不能为非正数");
	 }
	 needChannelNumberByRecord = (int) (globalLimitedRecordSpeed / channelLimitedRecordSpeed);
	 needChannelNumberByRecord = needChannelNumberByRecord > 0 ? needChannelNumberByRecord : 1;
	 LOG.info("Job set Max-Record-Speed to " + globalLimitedRecordSpeed + " records.");
	 }
	 // 取较小值
	 this.needChannelNumber = needChannelNumberByByte < needChannelNumberByRecord ?
	 needChannelNumberByByte : needChannelNumberByRecord;
	  // 如果从 byte 或 record 上设置了 needChannelNumber 则退出
	 if (this.needChannelNumber < Integer.MAX_VALUE) {
	 return;
	 }
	 boolean isChannelLimit = (this.configuration.getInt(CoreConstant.DATAX_JOB_SETTING_SPEED_CHANNEL, 0) > 0);
	 if (isChannelLimit) {
	 this.needChannelNumber = this.configuration.getInt(CoreConstant.DATAX_JOB_SETTING_SPEED_CHANNEL);
	 LOG.info("Job set Channel-Number to " + this.needChannelNumber + " channels.");
	 return;
	 }
	 throw DataXException.asDataXException(FrameworkErrorCode.CONFIG_ERROR,"Job 运行速度必须设置");
} 

6.4、调度

JobContainer.java

private void schedule() {
 /**
 * 这里的全局 speed 和每个 channel 的速度设置为 B/s
 */
 int channelsPerTaskGroup = this.configuration.getInt(
 
	CoreConstant.DATAX_CORE_CONTAINER_TASKGROUP_CHANNEL, 5);
	int taskNumber = this.configuration.getList(CoreConstant.DATAX_JOB_CONTENT).size();
	//确定的 channel 数和切分的 task 数取最小值,避免浪费
	 this.needChannelNumber = Math.min(this.needChannelNumber, taskNumber);
	 PerfTrace.getInstance().setChannelNumber(needChannelNumber);
	 /**
	 * 通过获取配置信息得到每个 taskGroup 需要运行哪些 tasks 任务
	 */
	 List<Configuration> taskGroupConfigs = JobAssignUtil.assignFairly(this.configuration,
	 this.needChannelNumber, channelsPerTaskGroup);
	 LOG.info("Scheduler starts [{}] taskGroups.", taskGroupConfigs.size());
	 ExecuteMode executeMode = null;
	 AbstractScheduler scheduler;
	 try {
		//可以看到 3.0 进行了阉割,只有 STANDALONE 模式
		 executeMode = ExecuteMode.STANDALONE;
		 scheduler = initStandaloneScheduler(this.configuration);
		 //设置 executeMode
		 for (Configuration taskGroupConfig : taskGroupConfigs) {
		 taskGroupConfig.set(CoreConstant.DATAX_CORE_CONTAINER_JOB_MODE, executeMode.getValue());
	 	}
		 if (executeMode == ExecuteMode.LOCAL || executeMode == ExecuteMode.DISTRIBUTE) {
			 if (this.jobId <= 0) {
			 throw DataXException.asDataXException(FrameworkErrorCode.RUNTIME_ERROR, "在[ local | distribute ]模式下必须设置 jobId,并且其
			值 > 0 .");
			 }
		 }
		 LOG.info("Running by {} Mode.", executeMode);
		 this.startTransferTimeStamp = System.currentTimeMillis();
		 scheduler.schedule(taskGroupConfigs);
		 this.endTransferTimeStamp = System.currentTimeMillis();
	 } catch (Exception e) {
		 LOG.error("运行 scheduler 模式[{}]出错.", executeMode);
		 this.endTransferTimeStamp = System.currentTimeMillis();
		 throw DataXException.asDataXException(
		 FrameworkErrorCode.RUNTIME_ERROR, e);
	 }
	 /**
	 * 检查任务执行情况
	 */
	 this.checkLimit();
	 }
6.4.1、确定组数和分组

assignFairly 方法:

  1. 确定 taskGroupNumber,
  2. 做分组分配,
  3. 做分组优化
public static List<Configuration> assignFairly(Configuration configuration, int channelNumber, int channelsPerTaskGroup) {
	 Validate.isTrue(configuration != null, "框架获得的 Job 不能为 null.");
	 List<Configuration> contentConfig = configuration.getListConfiguration(CoreConstant.DATAX_JOB_CONTENT);
	 Validate.isTrue(contentConfig.size() > 0, "框架获得的切分后的 Job 无内容.");
	 Validate.isTrue(channelNumber > 0 && channelsPerTaskGroup > 0, "每个 channel 的平均 task 数[averTaskPerChannel],channel 数目
	[channelNumber],每个 taskGroup 的平均 channel 数[channelsPerTaskGroup]都应该为正数");
	 //TODO 确定 taskgroup 的数量
	 int taskGroupNumber = (int) Math.ceil(1.0 * channelNumber / channelsPerTaskGroup);
	 Configuration aTaskConfig = contentConfig.get(0);
	 String readerResourceMark = aTaskConfig.getString(CoreConstant.JOB_READER_PARAMETER + "." +
	 CommonConstant.LOAD_BALANCE_RESOURCE_MARK);
	 String writerResourceMark = aTaskConfig.getString(CoreConstant.JOB_WRITER_PARAMETER + "." +
	 CommonConstant.LOAD_BALANCE_RESOURCE_MARK);
	 boolean hasLoadBalanceResourceMark = StringUtils.isNotBlank(readerResourceMark) ||  StringUtils.isNotBlank(writerResourceMark);
	 if (!hasLoadBalanceResourceMark) {
	 // fake 一个固定的 key 作为资源标识(在 reader 或者 writer 上均可,此处选择在 reader 上进行 fake)
	for (Configuration conf : contentConfig) {
		 conf.set(CoreConstant.JOB_READER_PARAMETER + "." + CommonConstant.LOAD_BALANCE_RESOURCE_MARK, 	"aFakeResourceMarkForLoadBalance");
	 }
	 // 是为了避免某些插件没有设置 资源标识 而进行了一次随机打乱操作
	 Collections.shuffle(contentConfig, new Random(System.currentTimeMillis()));
 }
	 LinkedHashMap<String, List<Integer>> resourceMarkAndTaskIdMap = parseAndGetResourceMarkAndTaskIdMap(contentConfig);
	 List<Configuration> taskGroupConfig = doAssign(resourceMarkAndTaskIdMap, configuration, taskGroupNumber);
	 // 调整 每个 taskGroup 对应的 Channel 个数(属于优化范畴)
	 adjustChannelNumPerTaskGroup(taskGroupConfig, channelNumber);
	 return taskGroupConfig;
	} 
6.4.2、调度实现

AbstractScheduler.java

public void schedule(List<Configuration> configurations) {
	 Validate.notNull(configurations, "scheduler 配置不能为空");
	 int jobReportIntervalInMillSec = configurations.get(0).getInt(CoreConstant.DATAX_CORE_CONTAINER_JOB_REPORTINTERVAL, 30000);
	 int jobSleepIntervalInMillSec = configurations.get(0).getInt( CoreConstant.DATAX_CORE_CONTAINER_JOB_SLEEPINTERVAL, 10000);   this.jobId = configurations.get(0).getLong( CoreConstant.DATAX_CORE_CONTAINER_JOB_ID);
	 errorLimit = new ErrorRecordChecker(configurations.get(0));
	 /**
	 * 给 taskGroupContainer 的 Communication 注册
	 */
	 this.containerCommunicator.registerCommunication(configurations);
	 int totalTasks = calculateTaskCount(configurations);
	 startAllTaskGroup(configurations);
	 Communication lastJobContainerCommunication = new Communication();
	 long lastReportTimeStamp = System.currentTimeMillis();
	 try {
			 while (true) {
			 /**
			 * step 1: collect job stat
			 * step 2: getReport info, then report it
			 * step 3: errorLimit do check
			 * step 4: dealSucceedStat();
			 * step 5: dealKillingStat();
			 * step 6: dealFailedStat();
			 * step 7: refresh last job stat, and then sleep for next while
			 *
			 * above steps, some ones should report info to DS
			 *
			 */
			 ……
			 }
			 } 
	……
	 }

ProcessInnerScheduler.java

public void startAllTaskGroup(List<Configuration> configurations) {
	 this.taskGroupContainerExecutorService = Executors.newFixedThreadPool(configurations.size());
		 for (Configuration taskGroupConfiguration : configurations) {
		 TaskGroupContainerRunner taskGroupContainerRunner = newTaskGroupContainerRunner(taskGroupConfiguration);
		 this.taskGroupContainerExecutorService.execute(taskGroupContainerRunner);
		 }
	 this.taskGroupContainerExecutorService.shutdown();
	 }

6.5、数据传输

接 6.3.2 丢到线程池执行

TaskGroupContainer.start()-> taskExecutor.doStart()

可以看到调用插件的 start 方法

public void doStart() {
	 this.writerThread.start();
	 // reader 没有起来,writer 不可能结束
	 if (!this.writerThread.isAlive() || this.taskCommunication.getState() == State.FAILED) {
	 throw DataXException.asDataXException(
	 FrameworkErrorCode.RUNTIME_ERROR,
	 this.taskCommunication.getThrowable());
 }
 this.readerThread.start();
 ……
}

可以看看 generateRunner()
ReaderRunner.java

public void run() {
	 	 ……
		 try {
		 channelWaitWrite.start();
		 ……
		 initPerfRecord.start();
		 taskReader.init();
		 initPerfRecord.end();
		 ……
		 preparePerfRecord.start();
		 taskReader.prepare();
		 preparePerfRecord.end();
		 ……
		 dataPerfRecord.start();
		 taskReader.startRead(recordSender);
		 recordSender.terminate();
		 ……
		 postPerfRecord.start();
		 taskReader.post();
		 postPerfRecord.end();
		 // automatic flush
		 // super.markSuccess(); 这里不能标记为成功,成功的标志由
		writerRunner 来标志(否则可能导致 reader 先结束,而 writer 还没有结束的严重bug)
	 } catch (Throwable e) {
		 LOG.error("Reader runner Received Exceptions:", e);
		 super.markFail(e);
	 } finally {
		 LOG.debug("task reader starts to do destroy ...");
		 PerfRecord desPerfRecord = new PerfRecord(getTaskGroupId(), getTaskId(), PerfRecord.PHASE.READ_TASK_DESTROY);
		 desPerfRecord.start();
		 super.destroy();
		 desPerfRecord.end();
		channelWaitWrite.end(super.getRunnerCommunication().getLongCounter(CommunicationTool.WAIT_WRITER_TIME));
	 	long transformerUsedTime = super.getRunnerCommunication().getLongCounter(CommunicationTool.TRANSFORMER_USED_TIME);
		 	if (transformerUsedTime > 0) {
		 	PerfRecord transformerRecord = new PerfRecord(getTaskGroupId(), getTaskId(), PerfRecord.PHASE.TRANSFORMER_TIME);
			 transformerRecord.start();
			 transformerRecord.end(transformerUsedTime);
		 }
	 } 
 }
6.5.1、限速的实现

比如看 MysqlReader 的 startReader 方法

-CommonRdbmsReaderTask.startRead() -transportOneRecord() -sendToWriter() -BufferedRecordExchanger. flush()
-Channel.pushAll() -Channel. statPush()
private void statPush(long recordSize, long byteSize) {
	currentCommunication.increaseCounter(CommunicationTool.READ_SUCCEED_RECORDS, recordSize);
	currentCommunication.increaseCounter(CommunicationTool.READ_SUCCEED_BYTES, byteSize);
	 //在读的时候进行统计 waitCounter 即可,因为写(pull)的时候可能正在阻塞,但读的时候已经能读到这个阻塞的 counter 数
	 currentCommunication.setLongCounter(CommunicationTool.WAIT_READER_TIME, waitReaderTime);
	 currentCommunication.setLongCounter(CommunicationTool.WAIT_WRITER_TIME, waitWriterTime);
	 boolean isChannelByteSpeedLimit = (this.byteSpeed > 0);
	 boolean isChannelRecordSpeedLimit = (this.recordSpeed > 0);
	 if (!isChannelByteSpeedLimit && !isChannelRecordSpeedLimit) {
	 return;
	 }
	 long lastTimestamp = lastCommunication.getTimestamp();
	 long nowTimestamp = System.currentTimeMillis();
	 long interval = nowTimestamp - lastTimestamp;
	 if (interval - this.flowControlInterval >= 0) {
		 long byteLimitSleepTime = 0;
		 long recordLimitSleepTime = 0;
		 if (isChannelByteSpeedLimit) {
		 long currentByteSpeed = (CommunicationTool.getTotalReadBytes(currentCommunication) -
		 CommunicationTool.getTotalReadBytes(lastCommunication)) * 1000 / interval;
		 if (currentByteSpeed > this.byteSpeed) {
		 // 计算根据 byteLimit 得到的休眠时间
		 byteLimitSleepTime = currentByteSpeed * interval / this.byteSpeed - interval;
		 }
 		}
	 if (isChannelRecordSpeedLimit) {
		 long currentRecordSpeed = (CommunicationTool.getTotalReadRecords(currentCommunication) -
		 CommunicationTool.getTotalReadRecords(lastCommunication)) * 1000 / interval;
		 if (currentRecordSpeed > this.recordSpeed) {
			 // 计算根据 recordLimit 得到的休眠时间
			 recordLimitSleepTime = currentRecordSpeed * interval / this.recordSpeed - interval;
		 }
	 }
	 // 休眠时间取较大值
	 long sleepTime = byteLimitSleepTime < recordLimitSleepTime ?
	 recordLimitSleepTime : byteLimitSleepTime;
	 if (sleepTime > 0) {
	 try {
	 		Thread.sleep(sleepTime);
		 } catch (InterruptedException e) {
		Thread.currentThread().interrupt();
		}
	}
		……
	} 
}

7、 DataX 使用优化

7.1、关键参数

  • job.setting.speed.channel : channel 并发数
  • job.setting.speed.record : 2 全局配置 channel 的 record 限速
  • job.setting.speed.byte:全局配置 channel 的 byte 限速
  • core.transport.channel.speed.record:单个 channel 的 record 限速
  • core.transport.channel.speed.byte:单个 channel 的 byte 限速

7.2、优化 1:提升每个 channel 的速度

在 DataX 内部对每个 Channel 会有严格的速度控制,分两种,一种是控制每秒同步的记录数,另外一种是每秒同步的字节数,默认的速度限制是 1MB/s,可以根据具体硬件情况设置这个 byte 速度或者 record 速度,一般设置 byte 速度,比如:我们可以把单个 Channel 的速度上限配置为 5MB

7.3、优化 2:提升 DataX Job 内 Channel 并发数

并发数 = taskGroup 的数量 * 每个 TaskGroup 并发执行的 Task 数 (默认为 5)。

提升 job 内 Channel 并发有三种配置方式:

7.3.1、配置全局 Byte 限速以及单 Channel Byte 限速

Channel 个数 = 全局 Byte 限速 / 单 Channel Byte 限速

{
	 "core": {
	 "transport": {
	 "channel": {
	 "speed": {
	 "byte": 1048576
	 }
	 }
	 }
 },
	 "job": {
	 "setting": {
	 "speed": {
	 "byte" : 5242880
	 }
 },
 ...
 } }
core.transport.channel.speed.byte=1048576,job.setting.speed.byte=5242880

所以 Channel个数 = 全局 Byte 限速 / 单 Channel Byte 限速=5242880/1048576=5 个

7.3.2、配置全局 Record 限速以及单 Channel Record 限速

Channel 个数 = 全局 Record 限速 / 单 Channel Record 限速

{
 "core": {
 "transport": {
 "channel": {
 "speed": {
 "record": 100
 }
 }
 }
 },
 "job": {
 "setting": {
 "speed": {
  "record" : 500
 }
 },
 ...
 } }

core.transport.channel.speed.record=100 , job.setting.speed.record=500, 所 以 配 置 全 局Record 限速以及单 Channel Record 限速,Channel 个数 = 全局 Record 限速 / 单 Channel Record 限速=500/100=5

7.3.3、直接配置 Channel 个数

只有在上面两种未设置才生效,上面两个同时设置是取值小的作为最终的 channel 数。

{
 "job": {
 "setting": {
 "speed": {
 "channel" : 5
 }
 },
 ...
 } }

直接配置 job.setting.speed.channel=5,所以 job 内 Channel 并发=5 个

7.3.4、优化 3:提高 JVM 堆内存

当提升 DataX Job 内 Channel 并发数时,内存的占用会显著增加,因为 DataX 作为数据交换通道,在内存中会缓存较多的数据。例如 Channel 中会有一个 Buffer,作为临时的数据交换的缓冲区,而在部分 Reader 和 Writer 的中,也会存在一些 Buffer,为了防止 OOM 等错
误,调大 JVM 的堆内存。建议将内存设置为 4G 或者 8G,这个也可以根据实际情况来调整。

调整 JVM xms xmx 参数的两种方式:文章来源地址https://www.toymoban.com/news/detail-416021.html

  • 一种是直接更改 datax.py 脚本;
  • 另一种是在启动的时候,加上对应的参数,如下:python datax/bin/datax.py --jvm=“-Xms8G -Xmx8G” XXX.json

到了这里,关于DataX从入门实战到精通一文搞定的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【Linux从入门到精通】一文带你理解进程概念

        我们通过对上篇文章冯诺依曼体系结构对硬件进行讲解后, 本篇文章会对进程进行深入讲解。同时会讲解PCB(进程控制块)。希望本篇文章内容会对你有所帮助。 文章目录 一、再次理解操作系统 1、1 操作系统的作用 1、2 操作系统的管理 二、进程基本的概念 2、1 什么是

    2024年02月04日
    浏览(39)
  • MySQL数据库入门到精通1--基础篇(MySQL概述,SQL)

    目前主流的关系型数据库管理系统: Oracle:大型的收费数据库,Oracle公司产品,价格昂贵。 MySQL:开源免费的中小型数据库,后来Sun公司收购了MySQL,而Oracle又收购了Sun公司。 目前Oracle推出了收费版本的MySQL,也提供了免费的社区版本。 SQL Server:Microsoft 公司推出的收费的中

    2024年02月07日
    浏览(48)
  • 【MySQL入门到精通-黑马程序员】MySQL基础篇-SQL概述及DDL

    本专栏文章为观看黑马程序员《MySQL入门到精通》所做笔记,课程地址在这。如有侵权,立即删除。 SQL语句可以单行或多行书写,(默认)以分号结尾。 SQL语句可以使用空格/缩进来增强语句的可读性。 MySQL数据库的SQL语句不区分大小写,建议使用大写。 注释: 单行注

    2024年02月13日
    浏览(43)
  • Ceph入门到精通-podman 入门实战

    目录 podman安装 podman制作本地镜像 podman(docker)命令回顾 podman快速入门 一入编程深似海,从此节操是路人。 最近使用podman,就想着写一篇总结性的笔记,以备后续参考。就如同写代码,不写注释,过了一段时间可能会想这是我写的吗?不会吧,还要理一下逻辑才能读懂,不利

    2023年04月24日
    浏览(42)
  • PHP从入门到精通—PHP开发入门-PHP概述、PHP开发环境搭建、PHP开发环境搭建、第一个PHP程序、PHP开发流程

    每开始学习一门语言,都要了解这门语言和进行开发环境的搭建。同样,学生开始PHP学习之前,首先要了解这门语言的历史、语言优势等内容以及了解开发环境的搭建。 PHP概述 Ø 认识PHP PHP最初是由Rasmus Lerdorf于1994年为了维护个人网页而编写的一个简单程序。这个程序用来显

    2024年02月14日
    浏览(60)
  • 《实战AI大模型》从入门到精通

    人工智能领域资深专家尤洋老师倾力打造,获得了李开复、周鸿祎、颜水成三位大咖鼎力推荐,一经上市就登上了京东“计算机与互联网”图书排行榜Top1的宝座。 《实战AI大模型》详细介绍了从基本概念到实践技巧的诸多内容,全方位解读AI大模型,循序渐进、由浅入深。书

    2024年02月03日
    浏览(38)
  • Kubernetes(K8s)从入门到精通系列之三:K8s的基本概念和术语之资源对象概述

    K8s中的基本概念和术语大多是围绕资源对象(Resource Object)来说的,而资源对象在总体上可分为以下两类: 某种资源的对象,例如节点(Node)、Pod、服务(Service)、存储卷(Volume)。 与资源对象相关的事物与动作,例如标签(Label)、注解(Annotation)、命名空间(Namespace)、部署(Deployment)、

    2024年02月14日
    浏览(60)
  • Nuxt.JS实战指南:从入门到精通的练习之旅

    官网:https://www.nuxtjs.cn/ SEO:搜索引擎优化 1.1如何进行搜索引擎优化? 多页面 Title、描述、 网站内容 1.2-预渲染 1.2.1-预渲染图解 1.2.2-如何使用? (1)vue项目中安装prerender-spa-plugin npm install prerender-spa-plugin -S (2)vue.config.js进行配置 (3)修改Title、描述、:v

    2024年02月14日
    浏览(87)
  • 从入门到精通:AI绘画与修图实战指南

    💂 个人网站:【 海拥】【神级代码资源网站】【办公神器】 🤟 基于Web端打造的:👉轻量化工具创作平台 💅 想寻找共同学习交流的小伙伴,请点击【全栈技术交流群】 在这篇文章中,我们将深入探讨如何利用Photoshop和Firefly等工具进行AI绘画与修图。我们将从基础知识开始

    2024年02月21日
    浏览(50)
  • 【HBase入门与实战】一文搞懂HBase!

    HBase的引入、定义和特点 NoSQL数据库的概念和与关系型数据库的区别 HBase的物理架构和逻辑架构 HBase Shell的基本命令使用 HBase的应用场景 常见的NoSQL数据库:包括Redis和HBase,这些数据库在处理大规模数据集时,相比传统的关系型数据库,提供了更高的灵活性和扩展性。 微服务

    2024年03月26日
    浏览(45)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包