Flink学习之旅:(一)Flink部署安装

这篇具有很好参考价值的文章主要介绍了Flink学习之旅:(一)Flink部署安装。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1.本地搭建

1.1.下载Flink

        进入Flink官网,点击Downloads

Flink学习之旅:(一)Flink部署安装,大数据学习之路,flink,大数据,实时大数据

        往下滑动就可以看到 Flink 的所有版本了,看自己需要什么版本点击下载即可。

Flink学习之旅:(一)Flink部署安装,大数据学习之路,flink,大数据,实时大数据

Flink学习之旅:(一)Flink部署安装,大数据学习之路,flink,大数据,实时大数据

1.2.上传解压

        上传至服务器,进行解压

tar -zxvf flink-1.17.1-bin-scala_2.12.tgz -C ../module/

1.3.启动Flink

#进入flink安装目录
 cd /opt/module/flink-1.17.1/

#启动flink
 bin/start-cluster.sh

查看进程 jps,正常启动!

Flink学习之旅:(一)Flink部署安装,大数据学习之路,flink,大数据,实时大数据

1.4.查看 Web ui

        启动成功后,访问http://[IP]:8081,可以对集群和任务进行监控管理。

Flink学习之旅:(一)Flink部署安装,大数据学习之路,flink,大数据,实时大数据

1.5.关闭Flink

bin/stop-cluster.sh

2.集群搭建

        角色分配。Flink 是典型的 Master-Slave 架构的分布式数据处理框架,其中 Master 角色对应着 JobManager,Slave 角色则对应 TaskManager。

        三台测试。

服务器 hadoop102 hadoop103 hadoop104
角色
JobManager
TaskManager
TaskManager

2.1.下载并解压安装包

        与本地搭建一致

2.2.修改集群配置

2.2.1修改 flink-conf.yaml 文件

#进入Flink 安装目录
cd /opt/module/flink-1.17.1/

#修改文件
vim conf/flink-conf.yaml

修改JobManager 节点地址.将 jobmanager.rpc.address 参数的值 改为 hadoop102 (根据自己的服务器名称),指定 hadoop 节点服务为 JobManager 节点。

Flink学习之旅:(一)Flink部署安装,大数据学习之路,flink,大数据,实时大数据

2.2.2修改workers文件

vim conf/workers


hadoop103
hadoop104

指定 hadoop103、hadoop104 服务器 为 TaskManager 节点

2.3.分发安装目录

 scp -r /opt/module/flink-1.17.1/ hadoop103:/opt/module/
 scp -r /opt/module/flink-1.17.1/ hadoop104:/opt/module/

2.4.集群启动

        在 hadoop102 服务器中 启动

bin/start-cluster.sh

Flink学习之旅:(一)Flink部署安装,大数据学习之路,flink,大数据,实时大数据

        查看 各服务器节点进程是否正常

hadoop102

Flink学习之旅:(一)Flink部署安装,大数据学习之路,flink,大数据,实时大数据

hadoop103

Flink学习之旅:(一)Flink部署安装,大数据学习之路,flink,大数据,实时大数据

hadoop104

Flink学习之旅:(一)Flink部署安装,大数据学习之路,flink,大数据,实时大数据

2.5查看 Web ui

Flink学习之旅:(一)Flink部署安装,大数据学习之路,flink,大数据,实时大数据

        Available Task Slots显示为0,需要重新配置下 TaskManager节点的服务器(2台)中的 flink-conf.yaml 文件,将 taskmanager.host 参数值 改为 服务器的 ip或 主机名

Flink学习之旅:(一)Flink部署安装,大数据学习之路,flink,大数据,实时大数据

重新启动 flink 集群,显示 正常。当前集群的 TaskManager 数量为 2;由于默认每个 TaskManager Slot 数量为 1,所以总 Slot 数和可用 Slot 数都为 2

Flink学习之旅:(一)Flink部署安装,大数据学习之路,flink,大数据,实时大数据

3.测试

Flink学习之旅:(二)构建Flink demo工程并提交到集群执行-CSDN博客在idea中创建一个 名为 MyFlinkFirst 工程。https://blog.csdn.net/qq_35370485/article/details/133905729?spm=1001.2014.3001.5501文章来源地址https://www.toymoban.com/news/detail-723467.html

到了这里,关于Flink学习之旅:(一)Flink部署安装的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【FLINK】Kafka数据源通过Flink-cdc进行实时数据同步

    CDC是Change Data Capture的缩写,中文意思是 变更数据获取 ,flink-cdc的作用是,通过flink捕获数据源的事务变动操作记录,包括数据的增删改操作等,根据这些记录可作用于对目标端进行实时数据同步。 下图是flink-cdc最新支持的数据源类型: kafka的数据源要通过flink-cdc进行实时数

    2024年02月12日
    浏览(58)
  • 大数据Flink实时计算技术

    1、架构 2、应用场景 Flink 功能强大,支持开发和运行多种不同种类的应用程序。它的主要特性包括:批流一体化、精密的状态管理、事件时间支持以及精确一次的状态一致性保障等。在启用高可用选项的情况下,它不存在单点失效问题。事实证明,Flink 已经可以扩展到数千核

    2024年02月10日
    浏览(54)
  • Flink应用实时数据压缩与解压

    在大数据时代,实时数据处理和分析已经成为企业和组织中不可或缺的技术。Apache Flink是一种流处理框架,它可以实时处理大量数据,并提供高吞吐量和低延迟。在大数据处理中,数据压缩和解压是非常重要的一部分,因为它可以减少存储和传输开销,提高系统性能。本文将

    2024年02月22日
    浏览(38)
  • Flink流处理案例:实时数据聚合

    Apache Flink是一个流处理框架,可以处理大规模数据流,实现实时数据处理和分析。Flink支持各种数据源和接口,如Kafka、HDFS、TCP流等,可以实现高吞吐量、低延迟的流处理。 在本文中,我们将通过一个实际的Flink流处理案例来讲解Flink的核心概念、算法原理和最佳实践。我们将

    2024年02月19日
    浏览(46)
  • 实时数据湖 Flink Hudi 实践探索

    导读: 首先做个自我介绍,我目前在阿里云云计算平台,从事研究 Flink 和 Hudi 结合方向的相关工作。 目前,Flink + Hudi 的方案推广大概已经有了一年半的时间,在国内流行度也已比较高,主流的公司也会尝试去迭代他们的数仓方案。所以,今天我介绍的主题是 Flink 和 Hudi 在

    2024年01月16日
    浏览(51)
  • Flink的实时数据集成与ETL

    Apache Flink 是一个流处理框架,用于实时数据处理和分析。它支持大规模数据流处理,具有高吞吐量和低延迟。Flink 的 ETL(Extract、Transform、Load)功能可以用于实时数据集成,将数据从不同来源提取、转换并加载到目标系统。在本文中,我们将深入探讨 Flink 的实时数据集成与 E

    2024年02月19日
    浏览(42)
  • Flink实时大数据处理性能测试

    Flink是一个开源的流处理框架,用于实时大数据处理。它可以处理大量数据,提供低延迟和高吞吐量。Flink的性能测试是一项重要的任务,可以帮助我们了解其在实际应用中的表现。在本文中,我们将讨论Flink实时大数据处理性能测试的背景、核心概念、算法原理、代码实例、

    2024年03月18日
    浏览(52)
  • Flink流处理案例:实时数据去重

    在大数据处理领域,实时数据流处理是一项至关重要的技术,可以帮助我们实时分析和处理数据,从而更快地做出决策。Apache Flink是一款流处理框架,具有高性能和低延迟的特点,可以处理大规模的实时数据流。在本文中,我们将讨论Flink流处理的一个案例,即实时数据去重

    2024年04月27日
    浏览(36)
  • 大数据-玩转数据-Flink 海量数据实时去重

    大数据|阿里实时计算|Flink 借助redis的Set,需要频繁连接Redis,如果数据量过大, 对redis的内存也是一种压力;使用Flink的MapState,如果数据量过大, 状态后端最好选择 RocksDBStateBackend; 使用布隆过滤器,布隆过滤器可以大大减少存储的数据的数据量。 如果想判断一个元素是不

    2024年02月07日
    浏览(38)
  • Flink-1.17.0(Standalone)集群安装-大数据学习系列(四)

    机器信息 Hostname k8s-master k8s-node1 k8s-node2 外网IP 106.15.186.55 139.196.15.28 47.101.63.122 内网IP 172.25.73.65 172.25.73.64 172.25.73.66 master slave1 slave2 slave3 安装Scala 从官网( The Scala Programming Language )下载 Scala版本 链接: https://pan.baidu.com/s/1-GAeyyDOPjhsWhIp_VV7yg?pwd=3fws 提取码: 3fws  2.1 在集群(

    2024年02月08日
    浏览(52)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包