在线精品99_中国九九盗摄偷拍偷看_91免费版在线观看_91.app_91高清视频在线_99热最新网站

DataX工具有什么用

157次阅读
没有评论

共计 5743 个字符,预计需要花费 15 分钟才能阅读完成。

丸趣 TV 小编给大家分享一下 DataX 工具有什么用,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

一、DataX 工具简介 1、设计理念

DataX 是一个异构数据源离线同步工具,致力于实现包括关系型数据库 (MySQL、Oracle 等)、HDFS、Hive、ODPS、HBase、FTP 等各种异构数据源之间稳定高效的数据同步功能。解决异构数据源同步问题,DataX 将复杂的网状的同步链路变成了星型数据链路,DataX 作为中间传输载体负责连接各种数据源。当需要接入一个新的数据源的时候,只需要将此数据源对接到 DataX,便能跟已有的数据源做到无缝数据同步。

絮叨一句:异构数据源指,为了处理不同种类的业务,使用不同的数据库系统存储数据。

2、组件结构

DataX 本身作为离线数据同步框架,采用 Framework+plugin 架构构建。将数据源读取和写入抽象成为 Reader 和 Writer 插件,纳入到整个同步框架中。

Reader

Reader 为数据采集模块,负责读取采集数据源的数据,将数据发送给 Framework。

Writer

Writer 为数据写入模块,负责不断向 Framework 取数据,并将数据写入到目的端。

Framework

Framework 用于连接 reader 和 writer,作为两者的数据传输通道,并处理缓冲,流控,并发,数据转换等核心技术问题。

3、架构设计

Job

DataX 完成单个数据同步的作业,称为 Job,DataX 接受到一个 Job 之后,将启动一个进程来完成整个作业同步过程。Job 模块是单个作业的中枢管理节点,承担了数据清理、子任务切分 (将单一作业计算转化为多个子 Task)、TaskGroup 管理等功能。

Split

DataXJob 启动后,会根据不同的源端切分策略,将 Job 切分成多个小的 Task(子任务),以便于并发执行。Task 便是 DataX 作业的最小单元,每一个 Task 都会负责一部分数据的同步工作。

Scheduler

切分多个 Task 之后,Job 会调用 Scheduler 模块,根据配置的并发数据量,将拆分成的 Task 重新组合,组装成 TaskGroup(任务组)。

TaskGroup

每一个 TaskGroup 负责以一定的并发运行完毕分配好的所有 Task,默认单个任务组的并发数量为 5。每一个 Task 都由 TaskGroup 负责启动,Task 启动后,会固定启动 Reader— Channel— Writer 的线程来完成任务同步工作。DataX 作业运行起来之后,Job 监控并等待多个 TaskGroup 模块任务完成,等待所有 TaskGroup 任务完成后 Job 成功退出。否则,异常退出,进程退出值非 0。

二、环境安装

推荐 Python2.6+,Jdk1.8+(脑补安装流程)。

1、Python 包下载

# yum -y install wget
# wget https://www.python.org/ftp/python/2.7.15/Python-2.7.15.tgz
# tar -zxvf Python-2.7.15.tgz

2、安装 Python

# yum install gcc openssl-devel bzip2-devel
[root@ctvm01 Python-2.7.15]# ./configure --enable-optimizations
# make altinstall
# python -V

3、DataX 安装

# pwd
/opt/module
# ll
datax
# cd /opt/module/datax/bin
--  测试环境是否正确
# python datax.py /opt/module/datax/job/job.json

三、同步任务 1、同步表创建

-- PostgreSQL
CREATE TABLE sync_user (
 id INT NOT NULL,
 user_name VARCHAR (32) NOT NULL,
 user_age int4 NOT NULL,
 CONSTRAINT  sync_user_pkey  PRIMARY KEY (id)
CREATE TABLE data_user (
 id INT NOT NULL,
 user_name VARCHAR (32) NOT NULL,
 user_age int4 NOT NULL,
 CONSTRAINT  sync_user_pkey  PRIMARY KEY (id)
);

2、编写任务脚本

[root@ctvm01 job]# pwd
/opt/module/datax/job
[root@ctvm01 job]# vim postgresql_job.json

3、脚本内容

{
  job : {
  setting : {
  speed : {
  channel :  3 
 }
 },
  content : [
 {
  reader : {
  name :  postgresqlreader ,
  parameter : {
  username :  root01 ,
  password :  123456 ,
  column : [id , user_name , user_age], 
  connection : [
 {  jdbcUrl : [ jdbc:postgresql://192.168.72.131:5432/db_01], 
  table : [data_user]
 }
 ]
 }
 }, 
  writer : {
  name :  postgresqlwriter , 
  parameter : {
  username :  root01 ,
  password :  123456 ,
  column : [id , user_name , user_age], 
  connection : [
 {
  jdbcUrl :  jdbc:postgresql://192.168.72.131:5432/db_01 , 
  table : [sync_user]
 }
 ], 
  postSql : [], 
  preSql : []
 }
 }
 }
 ]
 }
}

4、执行脚本

# /opt/module/datax/bin/datax.py /opt/module/datax/job/postgresql_job.json

5、执行日志

2020-04-23 18:25:33.404 [job-0] INFO JobContainer - 
任务启动时刻  : 2020-04-23 18:25:22
任务结束时刻  : 2020-04-23 18:25:33
任务总计耗时  : 10s
任务平均流量  : 1B/s
记录写入速度  : 0rec/s
读出记录总数  : 2
读写失败总数  : 0

四、源码流程分析

注意:这里源码只贴出核心流程,如果要看完整源码,可以自行从 Git 上下载。

1、读取数据

核心入口:PostgresqlReader

启动读任务

public static class Task extends Reader.Task {
 @Override
 public void startRead(RecordSender recordSender) { int fetchSize = this.readerSliceConfig.getInt(com.alibaba.datax.plugin.rdbms.reader.Constant.FETCH_SIZE);
 this.commonRdbmsReaderSlave.startRead(this.readerSliceConfig, recordSender,
 super.getTaskPluginCollector(), fetchSize);
 }
}

读取任务启动之后,执行读取数据操作。

核心类:CommonRdbmsReader

public void startRead(Configuration readerSliceConfig,
 RecordSender recordSender,
 TaskPluginCollector taskPluginCollector, int fetchSize) {
 ResultSet rs = null;
 try {
 //  数据读取
 rs = DBUtil.query(conn, querySql, fetchSize);
 queryPerfRecord.end();
 ResultSetMetaData metaData = rs.getMetaData();
 columnNumber = metaData.getColumnCount();
 PerfRecord allResultPerfRecord = new PerfRecord(taskGroupId, taskId, PerfRecord.PHASE.RESULT_NEXT_ALL);
 allResultPerfRecord.start();
 long rsNextUsedTime = 0;
 long lastTime = System.nanoTime();
 //  数据传输至交换区
 while (rs.next()) { rsNextUsedTime += (System.nanoTime() - lastTime);
 this.transportOneRecord(recordSender, rs,metaData, columnNumber, mandatoryEncoding, taskPluginCollector);
 lastTime = System.nanoTime();
 }
 allResultPerfRecord.end(rsNextUsedTime);
 }catch (Exception e) { throw RdbmsException.asQueryException(this.dataBaseType, e, querySql, table, username);
 } finally { DBUtil.closeDBResources(null, conn);
 }
}

2、数据传输

核心接口:RecordSender(发送)

public interface RecordSender { public Record createRecord();
 public void sendToWriter(Record record);
 public void flush();
 public void terminate();
 public void shutdown();}

核心接口:RecordReceiver(接收)

public interface RecordReceiver { public Record getFromReader();
 public void shutdown();}

核心类:BufferedRecordExchanger

class BufferedRecordExchanger implements RecordSender, RecordReceiver

3、写入数据

核心入口:PostgresqlWriter

启动写任务

public static class Task extends Writer.Task { public void startWrite(RecordReceiver recordReceiver) { this.commonRdbmsWriterSlave.startWrite(recordReceiver, this.writerSliceConfig, super.getTaskPluginCollector());
 }
}

写数据任务启动之后,执行数据写入操作。

核心类:CommonRdbmsWriter

public void startWriteWithConnection(RecordReceiver recordReceiver,
 Connection connection) {
 //  写数据库的 SQL 语句
 calcWriteRecordSql();
 List Record  writeBuffer = new ArrayList (this.batchSize);
 int bufferBytes = 0;
 try {
 Record record;
 while ((record = recordReceiver.getFromReader()) != null) { writeBuffer.add(record);
 bufferBytes += record.getMemorySize();
 if (writeBuffer.size()  = batchSize || bufferBytes  = batchByteSize) { doBatchInsert(connection, writeBuffer);
 writeBuffer.clear();
 bufferBytes = 0;
 }
 }
 if (!writeBuffer.isEmpty()) { doBatchInsert(connection, writeBuffer);
 writeBuffer.clear();
 bufferBytes = 0;
 }
 } catch (Exception e) {
 throw DataXException.asDataXException( DBUtilErrorCode.WRITE_DATA_ERROR, e);
 } finally { writeBuffer.clear();
 bufferBytes = 0;
 DBUtil.closeDBResources(null, null, connection);
 }
}

以上是“DataX 工具有什么用”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注丸趣 TV 行业资讯频道!

正文完
 
丸趣
版权声明:本站原创文章,由 丸趣 2023-07-15发表,共计5743字。
转载说明:除特殊说明外本站除技术相关以外文章皆由网络搜集发布,转载请注明出处。
评论(没有评论)
主站蜘蛛池模板: 久久久久综合一本久道 | 成人国产三级精品 | 亚洲av日韩av综合 | 在线视频你懂得 | 色久视频 | 美女在线不卡 | 日韩在线精品 | 日本一区免费在线 | 国产麻无矿码直接观看 | 亚洲毛片在线观看 | 国产精品自在线拍国产 | 无码国产精成人午夜视频一区二区 | 外国成人网在线观看免费视频 | 91免费国产高清观看 | 无套内内射视频网站 | 四虎在线免费观看 | 国产一区二区在免费观看 | 日日摸夜夜添夜夜添人人爽 | 丰满少妇被猛烈进入毛片 | 在线观看免费亚洲 | 99久久国产露脸精品竹菊传媒 | 大地资源网高清在线观看免费 | 四虎影视无码永久免费 | 一区二区三区欧美日韩国产 | 大肉大捧一进一出视频出来呀 | 中文国产成人精品久久无广告 | 97视频资源总站 | 久久久久青草 | 成人在线激情 | aa级毛片| 国产午夜视频在线观看 | 男ji大巴进入女人的视频小说 | 伊人久久大香线蕉av成人 | 少妇被爽到高潮喷水久久欧美精品 | 国产热久久精 | 四虎视频在线精品免费观看 | 爱爱久久| 经典香港一级a毛片免费看 精彩视频一区二区 | 欧美交换国产一区内射 | 人人添人人澡人人澡人人人人 | 97se狠狠狠狼鲁亚洲综合网 |