Flink高手之路:Flink的环境搭建

这篇具有很好参考价值的文章主要介绍了Flink高手之路:Flink的环境搭建。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、Flink的安装模式

1、local(本地)

本地单机模式,一般用于测试环境是否搭建成功,很少使用

2、standload(独立集群模式)

flink自带集群,开发测试使用

StandAloneHA:独立集群的高可用模式,也是flink自带,用于开发测试环境

3、on yarn(flink on yarn)

计算资源统一由hadoop yarn管理,生产环境使用

二、Local模式下的安装

1、下载

Flink高手之路:Flink的环境搭建

Flink高手之路:Flink的环境搭建 

 2、上传文件

上传到hadoop001

Flink高手之路:Flink的环境搭建

Flink高手之路:Flink的环境搭建

3、解压

[root@hadoop001 software]# tar -xzvf flink-1.12.2-bin-scala_2.11.tgz -C /export/servers/

Flink高手之路:Flink的环境搭建

4、查看文件目录

Flink高手之路:Flink的环境搭建

5、修改环境变量

[root@hadoop001 software]# vi /etc/profile

Flink高手之路:Flink的环境搭建

 6、使环境变量起作用

[root@hadoop001 software]# source /etc/profile

Flink高手之路:Flink的环境搭建

7、查看安装成功的flink

Flink高手之路:Flink的环境搭建

 三、启动scala sell 交互界面

[root@hadoop001 flink-1.12.2]# start-scala-shell.sh local

Flink高手之路:Flink的环境搭建

1、scala命令行示例——单词计数

准备好数据文件

单词计数

benv.readTextFile("/root/a.txt").flatMap(_.split(" ")).map((_,1)).groupBy(0).sum(1).print()

Flink高手之路:Flink的环境搭建 

Ctrl+d退出

Flink高手之路:Flink的环境搭建

 文章来源地址https://www.toymoban.com/news/detail-423512.html

四、启动flink本地集群

1、启动local本地模式

Flink高手之路:Flink的环境搭建

只有hadoop001上有节点

Flink高手之路:Flink的环境搭建

2、使用webui查看

hadoop001:8081

Flink高手之路:Flink的环境搭建

3、Local集群上测试运行任务——单词计数

1)准备jar包

Flink高手之路:Flink的环境搭建

2)提交任务

Flink高手之路:Flink的环境搭建

3)在webui查看完整任务过程

Flink高手之路:Flink的环境搭建

4)查看结果

Flink高手之路:Flink的环境搭建 

五、Standalone模式安装 

1、集群规划

JobManager

TaskManager

hadoop01

y

y

hadoop02

n

y

hadoop03

n

y

 2、修改Flink配置文件

Flink高手之路:Flink的环境搭建

1)修改flink-conf.ymal配置文件

Flink高手之路:Flink的环境搭建

Flink高手之路:Flink的环境搭建

 Flink高手之路:Flink的环境搭建

 2)Master

Flink高手之路:Flink的环境搭建

3)workers

Flink高手之路:Flink的环境搭建 

4)环境变量

Flink高手之路:Flink的环境搭建 

3、分发文件

1)分发flink 

[root@hadoop001 servers]# scp -r flink-1.12.2/ hadoop002:$PWD

[root@hadoop001 servers]# scp -r flink-1.12.2/ hadoop003:$PWD

Flink高手之路:Flink的环境搭建

2)分发环境变量

Flink高手之路:Flink的环境搭建

4、使环境变量起作用

[root@hadoop001 servers]# source /etc/profile

5、启动flink集群

Flink高手之路:Flink的环境搭建

 6、webui查看

Flink高手之路:Flink的环境搭建

7、启动历史服务器

Flink高手之路:Flink的环境搭建

1)上传连接器

Flink高手之路:Flink的环境搭建 

 2)启动historyserver服务

Flink高手之路:Flink的环境搭建

8、历史服务器webui查看

 

9、Standalone测试任务-单词计数

1)带参数提交任务

flink run examples/batch/WordCount.jar --input hdfs://hadoop001:9000/input/ --output hdfs://hadoop001:9000/output/result.txt

2)出错

Flink高手之路:Flink的环境搭建

3)添加hadoop classpath配置

[root@hadoop001 flink-1.12.2]# hadoop classpath

Flink高手之路:Flink的环境搭建

Flink高手之路:Flink的环境搭建

4)重新运行

flink run examples/batch/WordCount.jar --input hdfs://hadoop001:9000/input/ --output hdfs://hadoop001:9000/output/result.txt

Flink高手之路:Flink的环境搭建

 六、Standalone-HA模式安装

1、集群规划

JobManager     TaskManager

hadoop01       y                y

hadoop02       Y                y

hadoop03       n                y

2、停止flink集群

Flink高手之路:Flink的环境搭建

3、修改flink配置文件

 

Flink高手之路:Flink的环境搭建 

4、修改master文件

Flink高手之路:Flink的环境搭建

 

5、同步配置文件 

 Flink高手之路:Flink的环境搭建

6、修改hadoop002上的flink-core.yaml

 

7、重新启动flink集群 

Flink高手之路:Flink的环境搭建

8、相关进程未启动

Flink高手之路:Flink的环境搭建

因为缺少flink整合hadoop的jar包,需要从flink官网下载,放入flink的lib目录,并分发至其他节点Apache Flink: Downloads

Flink高手之路:Flink的环境搭建

Flink高手之路:Flink的环境搭建

重新启动

Flink高手之路:Flink的环境搭建

Flink高手之路:Flink的环境搭建

 Flink高手之路:Flink的环境搭建

9、Flink的webui查看

Flink高手之路:Flink的环境搭建

Flink高手之路:Flink的环境搭建

 

 七、Flink on yarn的安装

1、修改yarn-site.xml配置文件

Flink高手之路:Flink的环境搭建

2、分发配置文件

 

 3、启动相关服务

Zookeeper

dfs

yarn

flink

historyserver

Flink高手之路:Flink的环境搭建

4、Session模式提交任务

1)开启会话

Flink高手之路:Flink的环境搭建

[root@hadoop001 bin]# yarn-session.sh -n 2 -tm 800 -s 1 -d

-n:表示申请的容器,也就是worker的数量,也即cpu的核心数

-tm:表示每个worker(taskManager)的内存大小

-s:表示每个worker的slot数量

-d:表示在后台运行

Flink高手之路:Flink的环境搭建

2)jps

Flink高手之路:Flink的环境搭建

3)查看yarn的webui

Flink高手之路:Flink的环境搭建 

4)提交任务-单词计数

Flink高手之路:Flink的环境搭建 

5)查看任务完成

 

Flink高手之路:Flink的环境搭建

Flink高手之路:Flink的环境搭建

6)再提交一个任务

Flink高手之路:Flink的环境搭建

Flink高手之路:Flink的环境搭建

7)再次查看yarn的webui

Flink高手之路:Flink的环境搭建

8)关闭yarn-sesion

[root@hadoop001 batch]# yarn application -kill application_1649659166087_0001

Flink高手之路:Flink的环境搭建

Flink高手之路:Flink的环境搭建

Flink高手之路:Flink的环境搭建

 5、Per-job模式提交任务

1)提交任务

[root@hadoop001 batch]# flink run -m yarn-cluster -yjm 1024 -ytm 1024 WordCount.jar

-m:jobmanager的地址

-yjm:jobmanager的内存大小

-ytm:taskmanager的内存大小

Flink高手之路:Flink的环境搭建

Flink高手之路:Flink的环境搭建

2)查看yarn的webui

Flink高手之路:Flink的环境搭建

Flink高手之路:Flink的环境搭建

3)再次提交

Flink高手之路:Flink的环境搭建

Flink高手之路:Flink的环境搭建

4)查看jps情况

查看到没有相关进程,进程完成后会自动关闭

Flink高手之路:Flink的环境搭建

6、Flink提交参数任务总结

Flink高手之路:Flink的环境搭建

 

到了这里,关于Flink高手之路:Flink的环境搭建的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Spark Local环境搭建及测试

    🥇🥇【大数据学习记录篇】-持续更新中~🥇🥇 篇一:Linux系统下配置java环境 篇二:hadoop伪分布式搭建(超详细) 篇三:hadoop完全分布式集群搭建(超详细)-大数据集群搭建 Spark单机版的搭建,常用于本地开发测试 Spark使用Scala语言编写,运行在Java虚拟机(JVM)当中,故在

    2024年02月11日
    浏览(36)
  • Linux环境下Mysql8的下载、安装、主从模式搭建

      下载地址:MySQL :: Download MySQL Community Server (Archived Versions) 文件名称:mysql-8.0.17-linux-glibc2.12-x86_64.tar.xz 先解压xz xz -d mysql-8.0.17-linux-glibc2.12-x86_64.tar.xz 再解压tar tar -xvf mysql-8.0.17-linux-glibc2.12-x86_64.tar mkdir data groupadd mysql useradd -g mysql mysql chown -R mysql.mysql /data/mysql8 /data/mysql8是解压

    2024年02月08日
    浏览(53)
  • HBase高手之路4-Shell操作

    命令 功能 create 创建表 put 插入或者更新数据 get 获取限定行或者列的数据 scan 全表扫描或扫描表并返回表的数据 describe 查看表的结构 count 统计行数 delete 删除指定的行或列的数据 deleteall 删除整个行或者列的数据 truncate 删除表的数据,结构还在 drop 删除整个表(包括数据)

    2023年04月17日
    浏览(41)
  • Spring高手之路-SpringBean的生命周期

    目录 SpringBean的生命周期 整体介绍 详细介绍 1.实例化Bean 2.设置属性值 3.检查Aware 4.调用BeanPostProcessor的前置处理方法 5.调用InitializingBean的afterPropertiesSet方法 6.调用自定义init-method方法 7.调用BeanPostProcessor的后置处理方法 8.注册Destruction回调 9.Bean准备就绪 10.调用DisposableBean的d

    2024年02月03日
    浏览(39)
  • 高手进阶之路---pyqt自定义信号

    1.思考问题为什么要自定义信号,qt5本身已有信号槽函数 或者使用 看上去确实很简单,但是我们在编写比较耗时的程序的时候,就会发现我们点击了控件我们的UI界面卡死了,直到主程序运行完成,这是因为我们的主程序在运行我们的代码,不能在去执行其他的操作导致的,

    2024年02月11日
    浏览(38)
  • Hadoop高手之路8-Flume日志采集

    在大数据系统的开发中,数据收集工作无疑是开发者首要解决的一个难题,但由于生产数据的源头丰富多样,其中包含网站日志数据、后台监控数据、用户浏览网页数据等,数据工程师要想将它们分门别类的采集到HDFS系统中,就可以使用Apache Flume(数据采集)系统。 1. Flum

    2024年02月05日
    浏览(49)
  • CentOS 安装 Hadoop Local (Standalone) Mode 单机模式

    参考如下: 修改内容如下: 重启系统 创建软件目录 进入软件目录 下载 JDK 下载 hadoop 解压 JDK 修改名称 解压 hadoop 修改名称 配置环境变量 编写以下内容: 生成新的环境变量 创建本地秘钥并将公共秘钥写入认证文件 hadoop-env.sh core-site.xml hdfs-site.xml workers mapred-site.xml yarn-sit

    2024年02月06日
    浏览(38)
  • Spring高手之路-Spring事务失效的场景详解

    目录 前言 @Transactional 应用在非 public 修饰的方法上 同一个类中方法调用,导致@Transactional失效 final、static方法 @Transactional的用法不对 @Transactional 注解属性 propagation 设置不当 @Transactional注解属性 rollbackFor 设置错误 用错注解 异常被捕获 数据库引擎不支持事务 Spring中比较容易

    2024年01月18日
    浏览(41)
  • HBase高手之路5—HBase的JavaAPI编程

    某某自来水公司,需要存储大量的缴费明细数据。以下截取了缴费明细的一部分内容。 用户ID 姓名 地址 性别 缴费时间 表示数(本次) 表示数(上次) 用量(立方) 金额 查表日期 最近缴费日期 4944191 张三 石家庄市裕华区万达小区1-1-101 男 2023-3-23 308.1 283.1 25 150 2023-3-23 2023-

    2024年02月04日
    浏览(38)
  • Spark集群搭建记录 | 云计算[CentOS7] | Scala Maven项目访问Spark(local模式)实现单词计数

    本系列文章索引以及一些默认好的条件在 传送门 要想完成Spark的配置,首先需要完成HadoopSpark的配置 Hadoop配置教程:链接 若未进行明确说明,均按照root用户操作 本来在Eclipse的Marketplace便可以下载,可是现在官网都寄了 所以说只好找到之前的版本凑合来用 下载链接 这个软件

    2024年02月05日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包