DataX mysql同步到mysql

这篇具有很好参考价值的文章主要介绍了DataX mysql同步到mysql。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

使用Datax web 创建同步任务

准备工作

创建数据源 配置数据库相关信息
创建执行器 配置执行器执行地址相关信息

1.构建reade

DataX mysql同步到mysql

1.1 SQL语句 (querySql)

在json文件中此部分配置就是 querySql
在有些业务场景下,where这一配置项不足以描述所筛选的条件,用户可以通过该配置型来自定义筛选SQL。当用户配置了这一项之后,DataX系统就会忽略table,column这些配置型,直接使用这个配置项的内容对数据进行筛选,例如需要进行多表join后同步数据,使用select a,b from table_a join table_b on table_a.id = table_b.id
当用户配置querySql时,xxxReader直接忽略table、column、where条件的配置。如果配置了querySql又配置了table,column、where等,在log中会有警告日志

1.2 表所有字段 (column)

在json文件中此部分配置就是 column

2.构建reade

DataX mysql同步到mysql

2.1 前置sql语句 (preSql)

在json文件中此部分配置就是 preSql
写入数据到目的表前,会先执行这里的标准语句。如果 Sql 中有你需要操作到的表名称,请使用 @table 表示,这样在实际执行 Sql 语句时,会对变量按照实际表名称进行替换。比如你的任务是要写入到目的端的100个同构分表(表名称为:datax_00,datax01, … datax_98,datax_99),并且你希望导入数据前,先对表中数据进行删除操作,那么你可以这样配置:“preSql”:[“delete from 表名”],效果是:在执行到每个表写入数据前,会先执行对应的 delete from 对应表名称。

// 也可以通过配置参数进行部分数据删除  lastTime为传入的辅助参数
"preSql": [
              "delete from biz_ad_facebook where date =${lastTime}"
            ]
2.2 postSql (postSql)

在json文件中此部分配置就是 postSql
== 写入数据到目的表后,会执行这里的标准语句。(原理同 preSql ) ==

3.字段映射

DataX mysql同步到mysql

4.构建json ----选择模板

DataX mysql同步到mysql

5.增量更新的配置

通过上述步骤创建出来的任务,在任务列表找到并编辑。
DataX mysql同步到mysql
其中用于增量更新的辅助参数。
DataX mysql同步到mysql
1.任务类型选DataX任务
2.辅助参数选择时间自增
3.增量开始时间选择,即sql中查询时间的开始时间,用户使用此选项方便第一次的全量同步。第一次同步完成后,该时间被更新为上一次的任务触发时间,任务失败不更新。
4.增量时间字段,-DlastTime=‘%s’ -DcurrentTime=‘%s’ 先来解析下这段字符串

1.-D是DataX参数的标识符,必配
2.-D后面的lastTime和currentTime是DataX json中where条件的时间字段标识符,必须和json中的变量名称保持一致
3.='%s'是项目用来去替换时间的占位符,比配并且格式要完全一致
4.注意-DlastTime='%s'和-DcurrentTime='%s'中间有一个空格,空格必须保留并且是一个空格

6.遇到的问题—增量数据导入 可能重复的主键

解决办法:
datax的writeMode参数:
"writeMode": "update",

1.insert
这个参数可以设置为insert,这样子就是对于同步的主键进行设置。主要主键存在,那么在更新的时候,就不会将结果表中的数据进行修改。只会增加新的数据。
2.update
在同步到时候,设置主键,那么会查看表中主键内容的数据,如果有变动,就会直接进行替换。文章来源地址https://www.toymoban.com/news/detail-493297.html

// 示例json
{
  "job": {
    "setting": {
      "speed": {
        "channel": 3,
        "byte": 1048576
      },
      "errorLimit": {
        "record": 0,
        "percentage": 0.02
      }
    },
    "content": [
      {
        "reader": {
          "name": "****",
          "parameter": {
            "username": "****",
            "password": "****",
            "splitPk": "",
            "connection": [
              {
                "querySql": [
                  "select * from tablename where date >= ${lastTime} and date< ${currentTime}"
                ],
                "jdbcUrl": [
                  "****"
                ]
              }
            ]
          }
        },
        "writer": {
          "name": "mysqlwriter",
          "parameter": {
            "writeMode": "update",
            "username": "******",
            "password": "*******",
            "column": [
              "`id`",
              "`account_id`",
              "`account_name`",
              "`campaign_id`",
              "`campaign_name`",
              "`ad_set_id`",
              "`ad_set_name`",
              "`ad_id`",
              "`ad_name`",
              "`date`",
              "`date_start`",
              "`date_stop`",
              "`spend`",
              "`cpm`",
              "`ctr`",
              "`cpc`",
              "`purchase`",
              "`order_num`",
              "`roas`",
              "`clicks`",
              "`video_avg_time_watched_actions`",
              "`video_creator`",
              "`level`",
              "`create_by`",
              "`create_time`",
              "`update_by`",
              "`update_time`",
              "`sys_org_code`",
              "`product_name`",
              "`site_short_name`",
              "`operator`",
              "`date_timestamp`",
              "`impressions`",
              "`add_to_card`",
              "`video_thirty_sec_watched`",
              "`unique_clicks`",
              "`unique_checkout`",
              "`unique_add_to_card`",
              "`conversion_rate_ranking`",
              "`engagement_rate_ranking`",
              "`quality_ranking`",
              "`video_p100_watched`",
              "`video_p25_watched`",
              "`video_p50_watched`",
              "`video_p75_watched`",
              "`video_p95_watched`",
              "`view_content`",
              "`landing_page_view`",
              "`unique_link_clicks`",
              "`checkout`",
              "`designer`",
              "`campaign_objective`",
              "`inline_clicks`",
              "`unique_inline_clicks`",
              "`outbound_clicks`",
              "`unique_outbound_clicks`",
              "`frequency`",
              "`inline_post_engagement`",
              "`cost_per_inline_click`",
              "`cost_per_inline_post`",
              "`cost_per_outbound_click`",
              "`cost_per_unique_click`",
              "`cost_per_unique_inline_click`",
              "`cost_per_unique_outbound_click`",
              "`watch_avg_time`",
              "`video_play_curve`",
              "`asc_flag`"
            ],
            "preSql": [
              "delete from tablename where date =${lastTime}"
            ],
            "connection": [
              {
                "table": [
                  "biz_ad_facebook"
                ],
                "jdbcUrl": "jdbc:mysql://localhost:3322/powerbi"
              }
            ]
          }
        }
      }
    ]
  }
}

到了这里,关于DataX mysql同步到mysql的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • DolphinScheduler 调度 DataX 实现 MySQL To ElasticSearch 增量数据同步实践

    基于SQL查询的 CDC(Change Data Capture): 离线调度查询作业,批处理。把一张表同步到其他系统,每次通过查询去获取表中最新的数据。也就是我们说的基于SQL查询抽取; 无法保障数据一致性,查的过程中有可能数据已经发生了多次变更; 不保障实时性,基于离线调度存在天然的

    2024年02月03日
    浏览(45)
  • 【大数据进阶第三阶段之Datax学习笔记】使用阿里云开源离线同步工具DataX 实现数据同步

    【大数据进阶第三阶段之Datax学习笔记】阿里云开源离线同步工具Datax概述  【大数据进阶第三阶段之Datax学习笔记】阿里云开源离线同步工具Datax快速入门   【大数据进阶第三阶段之Datax学习笔记】阿里云开源离线同步工具Datax类图 【大数据进阶第三阶段之Datax学习笔记】使

    2024年01月24日
    浏览(59)
  • 数据同步工具—DataX—Web部署使用

    以前了解datax,感觉对易用性不大好,目前发现已经图形配置工具。简单整理一下。 Datax 的使用过程中,我们会发现,不管是利用 java 调用以及 python 命令启动的方式,我们都无法进行任务的管理,并且每次执行任务前,我们 都需要编辑 Json 配置文件,这是比较繁琐的,随着业

    2024年02月05日
    浏览(44)
  • DataX将MySQL数据同步到HDFS中时,空值不处理可以吗

    DataX将MySQL数据同步到HDFS中时,空值(NULL)存到HDFS中时,默认是存储为空字符串(‘’)。 HFDS Writer并未提供nullFormat参数:也就是用户并不能自定义null值写到HFDS文件中的存储格式。默认情况下,HFDS Writer会将null值存储为空字符串(‘’),而Hive默认的null值存储格式为N。所以

    2024年02月12日
    浏览(52)
  • DataX-阿里开源离线同步工具在Windows上实现Sqlserver到Mysql全量同步和增量同步

    Kettle-开源的ETL工具集-实现SqlServer到Mysql表的数据同步并部署在Windows服务器上: Kettle-开源的ETL工具集-实现SqlServer到Mysql表的数据同步并部署在Windows服务器上_etl实现sqlserver报表服务器_霸道流氓气质的博客-CSDN博客 上面讲过Kettle的使用,下面记录下阿里开源异构数据源同步工具

    2024年02月08日
    浏览(50)
  • 业务数据同步工具介绍和使用(Sqoop、Datax、Canal、MaxWell、Flink CDC)

    介绍 Sqoop : SQ L-to-Had oop ( Apache已经终止Sqoop项目 ) 用途:把关系型数据库的数据转移到HDFS(Hive、Hbase)(重点使用的场景);Hadoop中的数据转移到关系型数据库中。Sqoop是java语言开发的,底层使用 mapreduce 。 需要注意的是,Sqoop主要使用的是Map,是数据块的转移,没有使

    2024年02月15日
    浏览(81)
  • 使用DataX对MySQL 8.1进行数据迁移

    这里采用直接下载的方式:https://datax-opensource.oss-cn-hangzhou.aliyuncs.com/202308/datax.tar.gz,不过这个包是真的有点大。 Python下载地址:https://www.python.org/downloads/ 安装的时候添加到PATH,这样后面不用再配置环境变量。 安装完成之后验证下: DataX中可以给咱们生成示例的脚本: 比如

    2024年02月10日
    浏览(50)
  • 使用python脚本生成datax-json脚本(一次性操作多张表),并使用datax将业务数据从mysql采集到hdfs

    废话不多说,上代码(因为这个代码是从别的地方复制后修改的,有许多冗余的地方,但是不影响运行--从mysql将数据导入到hdfs):  接下来是通过shell脚本,使用datax将数据从mysql 采集到hdfs (下面是一个离线数仓项目的demo): 当然我们也可以使用sqoop,shell脚本如下:   业务数

    2024年02月15日
    浏览(66)
  • 使用DataX实现mysql与hive数据互相导入导出

             DataX 是 阿里巴巴开源 的一个异构数据源离线同步工具,致力于实现包括关系型数据库(MySQL、Oracle 等)、HDFS、Hive、ODPS、HBase、FTP 等 各种异构数据源之间稳定高效的数据同步 功能。          为了解决异构数据源同步问题,DataX 将复杂的 网状 的同步链路变成了

    2024年02月08日
    浏览(39)
  • Dolphinscheduler中提交DATAX任务报错

    如题,谁能帮忙解决一下,下面是报错的日志

    2024年02月11日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包