Flink1.17版本安装部署

这篇具有很好参考价值的文章主要介绍了Flink1.17版本安装部署。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

提示:这里可以添加本文要记录的大概内容:
随着实时计算需求场景的增加,对计算引擎的实时计算要求也越来越高,而在实时计算方面表现优秀的当属flink,计算引擎从第一代mapreduce到第二代的Tez,再到第三代计算引擎spark、第四代计算引擎则是后来者flink,虽然spark也支持实时计算,但底层的原理实际上还是微批处理,会有一个攒批的过程,因此在延迟性方面会稍逊于flink,Flink的设计思想在于流式处理,把数据看做是一种流,批数据则是一种特殊的流,所以flink是支持流批一体处理的,延迟性方面能做到比spark还低,最低可达到毫秒级,本篇内容将围绕具体的环境安装部署展开。


提示:下面案例仅供参考

一、flink简介

flink同spark一样也是一种计算引擎,只不过在流式处理、实时计算方面比spark更为优秀,从flink发布至今已经更新到1.18版本,功能也在逐步的迭代完善中,最先开始接触的是flink cdc,由于项目中有实时展示数据的需求,当时在调研了几种cdc方案后,最后决定尝试flink cdc,就使用体验来说,flink对sql的集成优化真的很完善,对于不熟悉API接口开发的人员,也能快速上手,关于flink的介绍这里就不再赘述了,后续会用案例来体验它的功能强大之处。

二、安装部署

1.下载安装包

登录flink官网地址https://flink.apache.org/downloads/,选择flink版本下载安装包,由于目前集成的依赖包中,支持最新版本的flink是1.17,所以我这边选择安装的版本为1.17版本,以避免一些不必要的问题,执行以下命令解压安装包

tar -zxvf flink-1.17.2-bin-scala_2.12.tgz

提示:由于名称太长,建议名称方便后续路径配置
mv flink-1.17.2-bin-scala_2.12 flink-1.17

2.配置环境变量

vim /etc/profile.d/my_env.sh打开并编辑环境变量配置文件,输入以下内容:

export HADOOP_CLASSPATH=`hadoop classpath`
export FLINK_HOME=/application/soft/flink-1.17
export PATH=$PATH:$$FLINK_HOME/bin

文件保存后,执行source /etc/profile使环境变量生效

3.会话模式部署

在确保hadoop集群启动的情况下,进入flink安装路径下,执行以下命令以启动会话模式
提示:-d是分离模式运行,不会占用控制台,-nm是指定名称的意思

bin/yarn-session.sh -d -nm test

4.单作业模式部署

单作业模式跟会话模式的不同之处在于,在运行程序时向yarn申请资源,程序执行结束后,资源回收,而会话模式会一次性向yarn申请资源,并生成一个常驻线程,两者各有优点,可根据项目不同需求进行选择,执行以下命令启动单作业模式
提示:-c后面是运行的主类,*.jar是编写的程序jar包,可根据不同项目自行修改

bin/flink run -d -t yarn-per-job -c org.example.wordcount Flink-WordCount.jar

5.应用模式部署

与单作业模式类型,也是在执行程序是向yarn申请资源,只不过命令有些区别,从flink1.1版本后推出,也是目前比较推荐的方式,执行以下命令启动应用模式部署
提示:-c后面是运行的主类,*.jar是编写的程序jar包,可根据不同项目自行修改

bin/flink run-application -t yarn-application -c org.example.wordcount Flink-WordCount.jar

此处也可以任务上传hdfs提交,先在hdfs上分别创建一个hdfs目录用于存放flink依赖包和flink运行程序

hadoop fs -mkdir /flink-lib
hadoop fs -put $FLINK_HOME/lib /flink_lib
hadoop fs -put $FLINK_HOME/plugins /flink_lib
hadoop fs -mkdir /flink-jar

然后执行以下命令运行flink任务
提示:-c后面是运行的主类,*.jar是编写的程序jar包,可根据不同项目自行修改

bin/flink run-application -t yarn-application -Dyarn.provided.lib.dirs="hdfs://cdp1:8020/flink-lib" -c org.example.wordcount hdfs://cdp1:8020/flink-jar/Flink-WordCount.jar

总结

至此,flink集群就已经安装部署完成,由于时间关系,关于flink的一些具体功能就不再具体展开,本篇内容旨在搭建一个flink环境为后续编写flink程序并验证一些功能,随着flink生态的不断完善,越来越多的开发者了解到flink的强大,flink1.17对批处理也做了加强,在流批一体大一统的方向上又迈出了一大步,另外随着paimon的推出,flink也在数据存储方面也补齐了自己的缺点,避免了一些组件如hudi、iceberg对flink功能适配的缺失。好了,今天就聊到这里,文章写的比较仓促,难免有疏漏的地方,后续会持续更新修正!文章来源地址https://www.toymoban.com/news/detail-782562.html

到了这里,关于Flink1.17版本安装部署的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • CentOS7安装Flink1.17伪分布式

    拥有1台CentOS7 CentOS7安装好jdk,官方文档要求java 11,使用java 8也可以。可参考 CentOS7安装jdk8 下载安装包 ​ 创建软链接 添加如下环境变量 让环境变量立即生效 进入flink配置目录,查看flink的配置文件 配置flink-conf.yaml 找到如下配置项,并按照如下修改,其中node1为机器主机名

    2024年04月14日
    浏览(23)
  • 在JDK17尝鲜Flink1.17

    在JDK17尝鲜Flink1.17 还没玩明白老版本,Flink1.17就来了!!!总还是要向前看的。。。 根据官网文档:https://nightlies.apache.org/flink/flink-docs-release-1.17/docs/try-flink/local_installation/ Flink runs on all UNIX-like environments, i.e. Linux, Mac OS X, and Cygwin (for Windows). You need to have Java 11 installed 所以JD

    2024年02月12日
    浏览(35)
  • Flink1.18.1在CentOS7下的安装和部署

    本文是Flink1.18.1在CenOS7下的安装和部署的学习笔记,记录了基本的安装步骤及参数配置,给初学者避坑用。 一,安装JDK11 Flink在1.13及其之前的版本,推荐用JDK8。从Flink 1.14开始,官方推荐使用的Java版本是JDK 11,并且从Flink 1.17开始,部分依赖于Flink的第三方库已经弃用了对JDK

    2024年04月16日
    浏览(22)
  • Flink1.17 基础知识

    来源:B站尚硅谷 Flink 概述 Flink 是什么 Flink的核心目标是“ 数据流上的有状态计算 ” (Stateful Computations over Data Streams)。 具体来说:Apache Flink是一个 框架式和分布式处理引擎 ,用于对无界和有界数据流进行有 状态计算 。 Flink特点 处理数据的目标是: 低延迟、高吞吐、结

    2024年01月25日
    浏览(69)
  • Flink1.17.0数据流

    官网介绍 Apache Flink 是一个框架和分布式处理引擎,用于对无界和有界数据流进行有状态计算。Flink 被设计为在所有常见的集群环境中运行,以内存中的速度和任何规模执行计算。 1.无限流有一个开始,但没有定义的结束。它们不会在生成数据时终止并提供数据。必须连续处

    2024年02月11日
    浏览(39)
  • 1、Flink1.12.7或1.13.5详细介绍及本地安装部署、验证

    一、Flink 专栏 Flink 专栏系统介绍某一知识点,并辅以具体的示例进行说明。 1、Flink 部署系列 本部分介绍Flink的部署、配置相关基础内容。 2、Flink基础系列 本部分介绍Flink 的基础部分,比如术语、架构、编程模型、编程指南、基本的datastream api用法、四大基石等内容。 3、

    2024年02月05日
    浏览(23)
  • flink1.17.0 集成kafka,并且计算

    flink是实时计算的重要集成组件,这里演示如何集成,并且使用一个小例子。例子是kafka输入消息,用逗号隔开,统计每个相同单词出现的次数,这么一个功能。 这里我使用的kafka版本是3.2.0,部署的方法可以参考, kafka部署 启动后查看java进程是否存在,存在后执行下一步。

    2024年02月09日
    浏览(29)
  • flink1.17 自定义trigger ContinuousEventTimeTrigger

    在 ContinuousEventTimeTrigger 的基础上新增了timeout,如果超时后窗口都没关闭,那么就硬输出一波,避免间断数据,留存窗口太久. ContinuousEventTimeTrigger连续事件时间触发器与ContinuousProcessingTimeTrigger连续处理时间触发器,指定一个固定时间间隔interval,不需要等到窗口结束才能获取结果

    2024年02月14日
    浏览(27)
  • flink1.17 eventWindow不要配置processTrigger

    理论上可以eventtime processtime混用,但是下面代码测试发现bug,输入一条数据会一直输出. flink github无法提bug/问题. apache jira账户新建后竟然flink又需要一个账户,放弃 idea运行代码后 往source kafka发送一条数据   可以看到无限输出: 理论上时间语义不建议混用,但是在rich函数中的确可

    2024年02月14日
    浏览(31)
  • Python 编写 Flink 应用程序经验记录(Flink1.17.1)

    目录 官方API文档 提交作业到集群运行 官方示例 环境 编写一个 Flink Python Table API 程序 执行一个 Flink Python Table API 程序 实例处理Kafka后入库到Mysql 下载依赖 flink-kafka jar 读取kafka数据 写入mysql数据 flink-mysql jar https://nightlies.apache.org/flink/flink-docs-release-1.17/zh/docs/dev/python/overview/

    2024年02月08日
    浏览(34)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包