Linux安装Flink及其环境配置

这篇具有很好参考价值的文章主要介绍了Linux安装Flink及其环境配置。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录


Linux服务器环境部署专栏目录(点击进入…)


Linux安装Flink及其环境配置

集群规划

使用StandAlone模式,需要启动Flink的主节点JobManager以及从节点TaskManager

服务 node1 node2 node3
JobManager
TaskManager

Flink 的部署模式分为3种:
(1)Application模式
(2)Per-Job模式
(3)Session模式


1.解压到安装目录

tar zxvf flink-1.14.6-bin-scala_2.11.tgz

2.配置环境变量

export FLINK_HOME=/home/environment/flink-1.14.6
export PATH=$FLINK_HOME/bin:$PATH

每个 JobManager 的可用内存值(jobmanager.memory.process.size)
每个 TaskManager 的可用内存值 (taskmanager.memory.process.size
每台机器的可用 CPU 数(taskmanager.numberOfTaskSlots)
集群中所有 CPU 数(parallelism.default)
临时目录(io.tmp.dirs)


3.修改master(node1)

bin/start-cluster.sh 和 bin/stop-cluster.sh 依赖 conf/masters 和 conf/workers 来确定集群组件实例的数量

编辑masters文件;进入conf目录:

vim ./flink/conf/masters

#删除默认的改为
node1:8081

4.配置其他两台机器workers(工作节点)

配置工作节点
vi workers

# 将其他两台机器的IP一起写进去
node1
node2
node3

5.编辑flink-conf.yaml文件


6.拷贝到另外两台机器

scp -r /home/environment/flink-1.14.6/ node2:/home/environment/
scp -r /home/environment/flink-1.14.6/ node3:/home/environment/

7.启动flink

./bin/start-cluster.sh
./bin/stop-cluster.sh

任意一台节点上(一般在 master 节点)执行 bin/start-cluster.sh 均可启动该集群

参数 说明
-n TaskManager的数量,相当于executor的数量
-s 每个JobManager的core的数量,executor-cores。建议将slot的数量设置每台机器的处理器数量
-tm 每个TaskManager的内存大小,executor-memory
-jm JobManager的内存大小,driver-memory

启动成功后通过web访问;JobManager同时会在8081端口上启动一个web前端,通过http://localhost:8081来访问,默认端口是8081,可以修改config配置端口

命令执行job

# 启动一个终端(端口9099)
# 在一个窗口启动一个websocket 端口9099
nc -l -p 9099
# 再开一个端口执行flink 例子
./flink run ../examples/streaming/WordCount.jar --port 9099

提交官方提供的WordCount程序试试,启动命令:

flink run -m yarn-cluster -yn 1 /home/radmin/package/WordCount.jar

在Flink1.8版本后,Flink官方提供的安装包里没有整合HDFS的jar

下载jar包并在Flink的lib目录下放入该jar包并分发使Flink能够支持对Hadoop的操作
https://mvnrepository.com/artifact/org.apache.flink/flink-shaded-hadoop-2
放入lib目录


Hadoop版本的支持

Flink自1.11.0 版本开始,已经支持了hadoop 3.x,具体来讲就是将 HADOOP_CLASSPATH 配置成运行机器上的hadoop3 相关jar包即可

YARN上的Flink是针对Hadoop 2.4.1编译的,支持所有的Hadoop版本>= 2.4.1,包括Hadoop 3.x


Flink与Hadoop集成

推荐的方法是通过HADOOP_CLASSPATH环境变量将Hadoop类路径添加到Flink。

Flink 在启动Flink组件(如Client、JobManager或TaskManager)前,将环境变量HADOOP_CLASSPATH的值添加到classpath中。但大多数Hadoop发行版和云环境不会默认设置HADOOP_CLASSPATH这个环境变量,所以如果Hadoop类路径应该由Flink选择,那么必须在所有运行Flink组件的机器上设置这个环境变量。

如果运行在YARN上时,只需要执行下面一条脚本。因为在YARN内部运行的组件将通过Hadoop类路径启动,但当向YARN提交作业时,Hadoop依赖项必须在类路径中。

hadoop classpath是一句shell命令,用于获取配置的Hadoop类路径

export HADOOP_CLASSPATH=`hadoop classpath`

注意:从Flink 1.11开始,Flink项目不再正式支持使用Flink -shade -hadoop-2-uber版本。建议用户通过HADOOP_CLASSPATH提供Hadoop依赖项文章来源地址https://www.toymoban.com/news/detail-687630.html

/home/environment/flink-1.14.6/lib/flink-shaded-hadoop-2-2.8.3-10.0.jar
export HADOOP_CLASSPATH=`hadoop classpath`

到了这里,关于Linux安装Flink及其环境配置的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【Flink学习】NC工具安装使用 Linux命令 Windows安装

    工具安装 01-NC安装Windows版 既往学习没有留痕习惯,用的时候熟练过后就忘记了,重新开始记录学习Flink之路,Fighting! NC是一款用于端口测试、扫描的网络工具。在Flink学习中,主要用于创建端口输入数据模拟数据流。 地址为: https://eternallybored.org/misc/netcat/ 注意!!! Win

    2024年02月05日
    浏览(49)
  • Ubuntu环境下的Tomcat服务器安装及其自启动配置

    仅供自己记录所用 1、 Tomcat 下载与安装         注意:在安装tomcat之前需要安装Java,JDK                 首先到官网下载安装包:Apache Tomcat® - Welcome! 下载到/usr/local/tomcat/下面并解压:tar -zxvf apache-tomcat-8.5.87.tar.gz 接下来就是给Tomcat文件添加使用权限:sudo chmod 755 -R apa

    2024年02月02日
    浏览(74)
  • C++项目——集群聊天服务器项目(一)项目介绍、环境搭建、Boost库安装、Muduo库安装、Linux与vscode配置

    今天开始想更新一个C++项目,实现一个 支持跨服务器通信、支持负载均衡的集群聊天服务器项目 。项目会应用muduo网络库、CMake编译、MySQL数据库、JSon序列化与反序列化、Redis消息订阅模式以及Nginx负载均衡功能。 有兴趣的宝可以跟我一起实操起来,巩固自己的C++学习吧~ 本项

    2024年04月14日
    浏览(62)
  • 【Linux】01 Ubantu安装NFS服务器及其使用

    在Ubantu终端执行以下命令即可安装: sudo apt install nfs-kernel-server  sudo mkdir /home/root/linux/nfs 使用如下命令打开 nfs 配置文件/etc/exports: sudo vi /etc/exports 打开/etc/exports 以后在后面添加如下所示内容: /home/root/linux/nfs  *(rw,sync,no_root_squash)  解析 :          /home/root/linux/nfs :指

    2024年01月21日
    浏览(38)
  • StableDiffusion-webUI环境配置、部署、汉化、扩展超详细步骤 || 服务器Linux Ubuntu/本地Windows || 比官方安装更高自定义度 || anaconda虚拟环境下

    目录 一、代码下载 以下指令用git下载代码(可能不能直接跑通,后续需要修改一些代码,见“ 四、代码修改”部分) 1. 下载 stable-diffusion-webui 仓库 2. 下载其他仓库 二、环境配置 0. 安装anaconda、CUDA、cuDNN 1. 建立并激活新 conda 环境 2. 安装 requirements.txt 中的依赖包 3

    2024年02月10日
    浏览(87)
  • 『Linux』Linux环境搭建 | 阿里云云服务器白嫖 | Xshell环境配置

    🔥 博客主页 : 小羊失眠啦 🔖 系列专栏 : C语言 、 Linux 🌥️ 每日语录 : 时间,都是公平的,不公平的,只是现在的自己,对未来的自己。 ❤️ 感谢大家点赞👍收藏⭐评论✍️ 前些天发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家

    2024年02月08日
    浏览(65)
  • 服务器安装 anaconda & conda: command not found [解决方案] & bashrc文件中环境变量配置错误,导致linux命令无法正常使用的解决方案

    由于连接的服务器,无法直接在anaconda官网上下载安装文件,所以使用如下方法: 之后一直按 enter ,直到出现提示要输入 yes or no ,输入 yes 显示以下信息即为安装成功 在终端输入conda info --envs查看anaconda是否安装成功,发现报错:conda: command not found 原因在于: ~/.bashrc文件没

    2024年02月06日
    浏览(95)
  • 『Linux从入门到精通』第 ① 期 - Linux环境搭建 | 云服务器购买 | Xshell环境配置

    目录 💐专栏导读 💐文章导读  🌷Linux环境的搭建方式 🌷云服务器购买 🌷Xshell的安装及使用 🌺Xshell安装 🌺Xshell使用 🌷如何进行共享账号? 🌺创建账号 🌺设置密码 🌺如何登录自己的账号 🌺root与普通用户的区别 🌸作者简介: 花想云 ,在读本科生一枚,致力于 C/

    2024年02月01日
    浏览(72)
  • Spark+Flink+Kafka环境配置

    一、准备工作 1.安装虚拟机 VMware 安装 CentOS 7, 选择mini版,英文,网络NAT。 http://mirrors.aliyun.com/centos/7.9.2009/isos/x86_64/CentOS-7-x86_64-Minimal-2009.iso 重启网络服务, 确保自己能够ping通baidu,如果依旧不行可以直接reboot重启虚拟机 查看ip地址 2. 安装java 环境 3.安装scala 4.安装screen 5

    2024年04月12日
    浏览(40)
  • linux环境下samba服务器的配置

    在Linux服务器上,可以使用以下步骤创建用户: 使用 adduser 命令创建新用户: 将 username 替换为你要创建的用户名。这个命令会提示你输入新用户的密码以及其他相关信息。 如果需要为新用户设置密码,可以使用 passwd 命令: 将 username 替换为你要设置密码的用户名。根据提示

    2024年02月05日
    浏览(59)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包