SeaTunnel本地运行以及kafka发送到redis说明

这篇具有很好参考价值的文章主要介绍了SeaTunnel本地运行以及kafka发送到redis说明。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

下载

Seatunnel2.3.1源码

Idea中的目录结构

SeaTunnel本地运行以及kafka发送到redis说明,大数据,kafka,redis,java

编译

通过maven进行代码编译

SeaTunnel本地运行以及kafka发送到redis说明,大数据,kafka,redis,java

编译命令

mvn clean package -pl seatunnel-dist -am -Dmaven.test.skip=true

编译单个模块命令

mvn clean package -pl seatunnel-examples/seatunnel-engine-examples -am -Dmaven.test.skip=true -T 1C

运行

编译完通过SeaTunnelEngineExample类来运行

SeaTunnel本地运行以及kafka发送到redis说明,大数据,kafka,redis,java

这样就运行成功啦

SeaTunnel本地运行以及kafka发送到redis说明,大数据,kafka,redis,java

附上配置文件样例

Kafka到Redis

env {
        execution.parallelism = 1
        job.mode = STREAMING
        checkpoint.interval = 20000
       }
source {
	   Kafka {
            bootstrap.servers = "xxx:9092,xxx:9092,xxx:9092"
            topic = "test_in"
            consumer.group = "1673212376113"
            format="json"
            result_table_name="kafka"
             schema = {
                fields {
                    cont = "STRING"
                }
            }
        }
}
sink {
    Redis {
        host = "xxx.xxx.x.xxx"
        port = "6379"
        key = "test_20230507"
        data_type = list
        auth = "xxx"
    }
}

Mysql到Redis

env {

  execution.parallelism = 2

  job.mode = "BATCH"

}

source {

  Jdbc {

      url = "jdbc:mysql://xxxxxx:3306/xxxxx"

      driver = "com.mysql.cj.jdbc.Driver"

      connection_check_timeout_sec = 100

      user = "root"

      password = "xxxxx"

      query = "select * from test"

      # partition_column = "id"

      # partition_num = 10

  }



}

sink {

Redis {

  host = xxxxxx

  port = 6379

  key = "seatunnel_jdbc"

  data_type = list

  auth = "xxxxxx"

}

}

运行结果
SeaTunnel本地运行以及kafka发送到redis说明,大数据,kafka,redis,java

常见问题

java.lang.RuntimeException: Plugin PluginIdentifier{engineType='seatunnel', pluginType='source', pluginName='XXXX'} not found.

SeaTunnel本地运行以及kafka发送到redis说明,大数据,kafka,redis,java

 这种报错是seatunnel-engine-examples模块缺少引用,在pom中引用下对应插件重新编译即可

<dependency>
    <groupId>org.apache.seatunnel</groupId>
    <artifactId>connector-rabbitmq</artifactId>
    <version>${project.version}</version>
</dependency>

SeaTunnel本地运行以及kafka发送到redis说明,大数据,kafka,redis,java

mvn clean package -pl seatunnel-dist -am -Dmaven.test.skip=true

如果maven提示下载listenablefuture失败,可以通过连接下载

Could not find artifact com.google.guava:listenablefuture:jar:sources:9999.0-empty-to-avoid-conflict-with-guava文章来源地址https://www.toymoban.com/news/detail-553293.html

到了这里,关于SeaTunnel本地运行以及kafka发送到redis说明的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • kafka安装说明以及在项目中使用

    1、 本次实验,采用kafka版本为 3.4.0 2、我们首先需要了解一下,一个 Kafka 集群是由下列几种类型的节点构成的,它们充当着不同的作用: Broker 节点 :即 代理节点 ,是 Kafka 中的工作节点,充当消息队列的角色, 负责储存和处理消息 ,每个 Broker 都是一个独立的 Kafka 服务器

    2024年02月12日
    浏览(56)
  • kafka 命令脚本说明以及在java中使用

    1、关于topic,这里用window 来示例 2、创建 first topic,五个分区,1个副本 3、查看当前服务器中的所有 topic 4、查看 first 主题的详情 5、修改分区数**(注意:分区数只能增加,不能减少)** 6、删除 topic,该操作在winodw,会出现文件授权问题,日志可以在kafka的启动命令窗口中查看,

    2024年02月10日
    浏览(50)
  • seatunnel-2.3.2 doris数据同步到hive(cdh-6.3.2)首次运行踩坑记录

    seatunnel-2.3.2 doris数据同步到hive(cdh-6.3.2)首次运行报错解决,解决的报错如下: 1、java.lang.NoClassDefFoundError: org/apache/hadoop/hive/metastore/api/MetaException 2、java.lang.NoClassDefFoundError: org/apache/thrift/TBase 3、java.lang.NoClassDefFoundError:org/apache/hadoop/hive/conf/HiveConf 4、java.lang.NoClassDefFoundError:com

    2024年02月12日
    浏览(46)
  • Windows下快速启动Kafka以及三种发送消息的方式

    目录 一、下载Kafka 二、启动kafka 2.1 启动kafka前得先启动zk 2.2 启动kafka 三、操作Kafka 3.1 创建 Kafka 主题(Topic) 3.2 将信息写入主题(Topic) 3.3 读取信息 四、Java实践-三种发送消息的方式 4.1 异步发送-无回调 4.2 异步发送-有回调 4.3 同步发送 Kafka是一种分布式的基于发布/订阅

    2024年02月09日
    浏览(41)
  • seatunnel win idea 本地调试

    调试FakeSource,LocalFile 调试前准备工作:

    2024年02月07日
    浏览(44)
  • Seatunnel 2.1.3 源码打包、编译运行

    执行报错: [ERROR] Unknown lifecycle phase \\\".skip\\\". You must specify a valid lifecycle phase or a goal in the format plugin-prefix:goal or plugin-group-id:plugin-artifact-id[:plugin-vers ion]:goal. 解决: 1、 PowerShell 窗口下,执行带参数的需要’单引号’包起来才可以 命令改为: 2、不要使用PowerShell命令行模式, 进

    2024年02月12日
    浏览(37)
  • kafka 3.5 kafka服务端接收生产者发送的数据源码

    kafka服务端接收生产者数据的API在 KafkaApis.scala 类中, handleProduceRequest 方法 通过调用 replicaManager.appendRecords 把数据存入副本中(这里的副本指的是Topic分区Leader副本) 上面写入本地日志的方法是 appendToLocalLog 方法 appendToLocalLog 方法中比遍历Topic分区集合,针对Topic分区得到分区对

    2024年02月09日
    浏览(35)
  • Kafka发送数据的三种模式

    在kafka-0.8.2之后,producer不再区分同步(sync)和异步方式(async),所有的请求以异步方式发送,这样提升了客户端效率。 本文分享自华为云社区《kafka消息发送模式》,作者:dayu_dls。 在kafka-0.8.2之后,producer不再区分同步(sync)和异步方式(async),所有的请求以异步方式发送,这样提

    2024年02月15日
    浏览(32)
  • 使用 Apache SeaTunnel 实现 Kafka Source 解析复杂Json 案例

    版本说明: SeaTunnel:apache-seatunnel-2.3.2-SNAPHOT 引擎说明: Flink:1.16.2 Zeta:官方自带 近些时间,我们正好接手一个数据集成项目,数据上游方是给我们投递到Kafka,我们一开始的技术选型是SpringBoot+Flink对上游数据进行加工处理(下文简称:方案一),由于测试不到位,后来到

    2024年02月17日
    浏览(35)
  • 本地模拟发送、接收RabbitMQ数据

    日常开发中,当线上RabbitMQ坏境还没准备好时,可在本地模拟发送、接收消息 Docker安装RabbitMQ 【SpringCloud】整合RabbitMQ六大模式应用(入门到精通) Spring RabbitMQ 配置多个虚拟主机(vhost)

    2024年02月21日
    浏览(50)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包