hadoop3.2.4集成flink 1.17.0

这篇具有很好参考价值的文章主要介绍了hadoop3.2.4集成flink 1.17.0。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


前言

flink安装部署有三种方式

  • local:单机模式,尽量不使用

  • standalone: flink自带集群,资源管理由flink集群管理,开发环境测试使用,不需要hadoop集群

  • flink on yarn: 把资源管理交给yarn实现,计算机资源统一由Haoop YARN管理,生产环境测试,需要先启动hadoop集群。(这里分为可以继续细分三种方式
    1.session mode 长久启动一个flink集群接收job,main 方法在客户端执行
    2.per-job mode 每个任务启动一个flink集群,main 方法在客户端执行
    3.application mode Application 模式为每个提交的应用程序创建一个集群,该集群可以看作是在特定应用程序的作业之间共享的会话集群,并在应用程序完成时终止


一、flink包选择以及下载

下载地址在下面
https://www.apache.org/dyn/closer.lua/flink/flink-1.17.0/flink-1.17.0-bin-scala_2.12.tgz
flink hadoop版本,大数据,flink,大数据,scala
看flink适配的版本可以去看flink的版本说明,上flink官网
flink hadoop版本,大数据,flink,大数据,scala

看这里的部署,yarn模式部署,这里可以看到要求hadoop最小的版本是多少
flink hadoop版本,大数据,flink,大数据,scala

这里版本要求是大于2.10.2版本包括3.0版本,我的hadoop版本是满足要求的,直接安装这个最新的flink版本。

二、安装flink集群

因为我前面已经安装了hadoop集群,这里直接选择flink on yarn的安装方式,模式选择了session-mode方式,实际生产中使用per-job和application的模式可能会比较多,但是操作基本差不太多,就直接使用这种方式安装了。以下的操作需要集群每台机器都操作下,我这里
只是测试在hadoop1:192.168.184.129、hadoop2:192.168.184.130、hadooop3:192.168.184.131三台机器上部署。

2.1.上传压缩包到linux上

解压到你需要安装的目录
我的安装目录为/root/tools,这个可以自己定,执行以下命令

tar -zxvf flink-1.17.0-bin-scala_2.12.tgz

解压完成后得到flink安装目录

/root/tools/flink-1.17.0

2.2 修改linux环境变量

修改 /etc/profile文件,在文件末尾加上

export HADOOP_CLASSPATH=`hadoop classpath`
export FLINK_HOME=/root/tools/flink-1.17.0
export PATH=$PATH:$FLINK_HOME/bin

刷新环境变量
进入hadoop安装目录执行脚本,这里的hadoop安装就不在这里说了
可以去文章看。hadoop集群安装

./hadoop.sh start

2.3 启动flink集群

进入
/root/tools/flink-1.17.0 目录执行以下指令

./bin/yarn-session.sh --detached
出现以下日志说明启动成功。

flink hadoop版本,大数据,flink,大数据,scala
flink集群关闭可以使用指令

./bin/yarn-session.sh -id application_1684894883560_0001

如果上面的停不了使用指令,id在hadoop上有显示,copy下就行。

yarn application -kill application_1684894883560_0001

2.4 查看集群

http://hadoop2:8088/cluster/nodes
登录hadoop集群管理页面,可以看到启动的flink集群。
flink hadoop版本,大数据,flink,大数据,scala
点击右边的flink集群管理界面
flink hadoop版本,大数据,flink,大数据,scala
flink集群管理界面
flink hadoop版本,大数据,flink,大数据,scala

三、测试

3.1 提交flink的测试job看看结果

flink hadoop版本,大数据,flink,大数据,scala
选择到wordcount.jar看看执行结果
flink hadoop版本,大数据,flink,大数据,scala
提交任务
flink hadoop版本,大数据,flink,大数据,scala
查看任务执行情况。

flink hadoop版本,大数据,flink,大数据,scala

这里可以看到任务已经执行完毕了,这里的例子没找到输出在哪看,下个博客自己弄一个jar去测试下。


总结

实践了下,hadoop集成flink,操作不难,不对的可以指出,一起进步。文章来源地址https://www.toymoban.com/news/detail-581255.html

到了这里,关于hadoop3.2.4集成flink 1.17.0的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 最新版本——Hadoop3.3.6单机版完全部署指南

    大家好,我是独孤风,大数据流动的作者。 本文基于最新的 Hadoop 3.3.6 的版本编写,带大家通过单机版充分了解 Apache Hadoop 的使用。本文更强调实践,实践是大数据学习的重要环节,也能在实践中对该技术有更深的理解,所以一些理论知识建议大家多阅读相关的书籍(都在资

    2024年02月03日
    浏览(33)
  • 基于CentOS 7 的 Hadoop3版本分布式环境配置搭建

    以下是在VMware虚拟机中安装centos 7去配置hadoop。所以要准备的包 centos 7:Index of /apache/hadoop/common/hadoop-3.3.5 hadoop3.3.5:Index of /apache/hadoop/common/hadoop-3.3.5 查看原本的jdk版本   其实原来的openjdk版本也是可用的,但是hadoop3.x不支持较低版本的jdk,所以这里卸载重新安装新版本jdk文件

    2024年02月01日
    浏览(44)
  • hadoop2的集群数据将副本存储在hadoop3

    在 Hadoop 集群中,HDFS 副本是分布式存储的,会存储在不同的节点上。因此,如果您的 HDFS 所在路径是在 Hadoop2 集群中,您可以在 Hadoop3 集群上添加新的节点,并向 Hadoop3 集群中添加这些新节点上的数据副本。 以下是一些常见的方法: 1.添加新节点 首先,在 Hadoop3 集群中添加

    2024年02月12日
    浏览(34)
  • 【大数据基础】Hadoop3.1.3安装教程

    来源: https://dblab.xmu.edu.cn/blog/2441/ 前言:重装解决一切bug!事实上,问题中的绝大部分衍生问题都可以通过重装解决。 创建Hadoop用户 首先按 ctrl+alt+t 打开终端窗口,输入如下命令创建新用户 : 接着使用如下命令设置密码,可简单设置为 hadoop,按提示输入两次密码: 可为

    2024年02月09日
    浏览(52)
  • Hudi(17):Hudi集成Flink之写入方式

    目录 0. 相关文章链接 1. CDC 数据同步 1.1. 准备MySQL表 1.2. flink读取mysql binlog并写入kafka 1.3. flink读取kafka数据并写入hudi数据湖 1.4. 使用datafaker插入数据 1.5. 统计数据入Hudi情况 1.6. 实时查看数据入湖情况 2. 离线批量导入 2.1. 原理 2.2. WITH 参数 2.3. 案例 3. 全量接增量 3.1. 

    2024年02月05日
    浏览(28)
  • flink1.17.0 集成kafka,并且计算

    flink是实时计算的重要集成组件,这里演示如何集成,并且使用一个小例子。例子是kafka输入消息,用逗号隔开,统计每个相同单词出现的次数,这么一个功能。 这里我使用的kafka版本是3.2.0,部署的方法可以参考, kafka部署 启动后查看java进程是否存在,存在后执行下一步。

    2024年02月09日
    浏览(31)
  • 大数据第一步-Mac安装Hadoop3

    前提是把jJDK8安装好,hadoop3.x最低需要jdk8。 然后打开共享把远程登陆打开,不打开说是后面会报错, 到终端输入命令:ssh localhost 生成新的keygen否则后面会报错 Permission denied 命令:ssh-keygen -t rsa -P \\\'\\\' -f ~/.ssh/id_rsa   注册,命令为如下: 安装hadoop,命令为我用的是bre

    2024年02月16日
    浏览(47)
  • 大数据之Hadoop3简单入门(一)(通俗易懂)

    目录 一. 大数据基础概论 1.1 何为大数据 2.1 大数据特点(4V) 2.1.1 Volume(大量) 2.2.2 Velocity(高速) 2.2.3 Varity(多样) 2.2.4 Value(低价值密度) 二. hadoop入门概述 2.1 什么是hadoop 2.1.1 概念 2.1.2 hadoop优势 2.1.3 hadoop不同版本区别 2.2  HDFS架构概述 2.3  Yarn架构概述 2.4 MapReduce架

    2024年02月02日
    浏览(33)
  • 【大数据入门核心技术-Hadoop】(六)Hadoop3.2.1高可用集群搭建

    目录 一、Hadoop部署的三种方式 1、Standalone mode(独立模式) 2、Pseudo-Distributed mode(伪分布式模式) 3、Cluster mode(集群模式) 二、准备工作 1、先完成zk高可用搭建 2、/etc/hosts增加内容 3、各台服务器分别创建目录 4、关闭防火墙和禁用swap交换分区 5、三台机器间免密 6、安装

    2023年04月20日
    浏览(74)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包