Flink(一):flink源码&&导入到IDE

这篇具有很好参考价值的文章主要介绍了Flink(一):flink源码&&导入到IDE。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、获取源码

  1、从 Git 克隆代码

git clone https://github.com/apache/flink.git

  2、maven运行编译

mvn clean install -DskipTests

  注:为了加速构建,可以执行如下命令,以跳过测试,QA 的插件和 JavaDocs 的生成:

mvn clean install -DskipTests -Dfast

 文章来源地址https://www.toymoban.com/news/detail-746096.html

二、环境

  1、JDK8

    运行单元测试需要 Java 8u51 以上的版本,以避免使用 PowerMock Runner 的单元测试失败。

  2、maven3

    *注意:Maven 3.3.x 可以构建 Flink,但是不能正确地屏蔽掉指定的依赖。Maven 3.2.5 可以正确地构建库文件。

三、导入到IDE

  1、安装Scala插件:IntelliJ 提供了插件设置来安装 Scala 插件:

    1)转到 IntelliJ Settings → Plugins 并选择 “Marketplace”。

    2)选择安装“Scala”插件。

    3)如果出现提示,请重启IntelliJ

  2、导入Flink项目

    1)启动 IntelliJ IDEA 并选择 New → Project from Existing Sources。

    2)选择已克隆的 Flink 存储库的根文件夹。
    3)选择 “Import project from external model”,然后选择 “Maven”。
    4)保留默认选项,然后依次单击 “Next”,直到到达 SDK 部分。
    5)如果未列出 SDK,请使用左上角的 “+” 号创建一个。选择 “JDK”,选择 JDK 主目录,然后单击 “OK”。选择最合适的 JDK 版本。注意:一个好的经验法则是选择与活动 Maven 配置文件匹    配的 JDK 版本。
    6)单击 “Next” 继续,直到完成导入。
    7)右键单击已导入的 Flink 项目 → Maven → Generate Sources and Update Folders。请注意:这会将 Flink 库安装在本地 Maven 存储库中,默认情况下位于                  “/home/$USER/.m2/repository/org/apache/flink/"。另外 mvn clean package -DskipTests 也可以创建 IDE 运行所需的文件,但无需安装库。
    8)编译项目(Build → Make Project)。

 

到了这里,关于Flink(一):flink源码&&导入到IDE的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 开放源码:Flink 是 Apache 顶级开源项目,其源码开放透明,允许社区成员贡献代码,为大数据生态发展提

    作者:禅与计算机程序设计艺术 Apache Flink 是 Apache 基金会旗下的一个开源项目,其核心功能包括对实时事件流处理、批处理等进行统一计算模型抽象,同时支持多种编程语言和运行环境,具备高容错性、高并发、低延迟等特性。通过可插拔的 API 和丰富的数据源、算子和 Si

    2024年02月07日
    浏览(44)
  • Git基础教程:使用Git Clone指令克隆指定分支的代码到嵌入式系统

    Git是一种分布式版本控制系统,广泛应用于软件开发中。Git Clone是Git的一条常用指令,用于克隆远程代码仓库到本地。在嵌入式系统开发中,我们经常需要从远程仓库中获取特定分支的代码,并将其部署到嵌入式设备上。本文将详细介绍如何使用Git Clone指令来克隆指定分支的

    2024年02月04日
    浏览(36)
  • 【flink】flink获取-D参数方式

    参考官网 使用Flink官方的ParameterTool或者其他工具都可以。 (1)ParameterTool 获取参数 以 -D 开头的参数: (2)Env获取参数 举个例子使用以下方式启动flink job。 可通过以下代码获取:state.savepoints.dir 参数 需要说明:使用 StreamExecutionEnvironment 和 StreamTableEnvironment 都无法获取参数

    2024年02月06日
    浏览(40)
  • Flink CDC系列之:Oracle CDC 导入 Elasticsearch

    Flink CDC系列之:Oracle CDC Connector 该 Docker Compose 中包含的容器有: Oracle: Oracle 11g, 已经预先创建了 products 和 orders表,并插入了一些数据 Elasticsearch: orders 表将和 products 表进行join,join的结果写入Elasticsearch中 Kibana: 可视化 Elasticsearch 中的数据 在 docker-compose.yml 所在目录下运行如下

    2024年02月12日
    浏览(25)
  • Flink CDC系列之:TiDB CDC 导入 Elasticsearch

    替换目录 tidb-docker-compose 里面的 docker-compose.yml 文件,内容如下所示: 该 Docker Compose 中包含的容器有: TiDB 集群: tikv、pd、tidb。 Elasticsearch:orders 表将和 products 表进行 join,join 的结果写入 Elasticsearch 中。 Kibana:可视化 Elasticsearch 中的数据。 本机添加 host 映射 pd 和 tikv 映射

    2024年02月12日
    浏览(22)
  • flink源码分析 - flink命令启动分析

    flink版本: flink-1.12.1 源码位置:  flink-dist/src/main/flink-bin/bin/flink flink命令源码: 首先讲第一段: 工作中,很多人喜欢用符号链接(软连接)去将原始命令链接到一个新的文件。 例如:  将 /home/aaa链接到/opt/soft/flink-1.12.1/bin/flink,  实际使用的时候就可以用 aaa去代替flink命令。 例如

    2024年01月18日
    浏览(28)
  • 【Flink】Flink 的八种分区策略(源码解读)

    Flink 包含 8 种分区策略,这 8 种分区策略(分区器)分别如下面所示,本文将从源码的角度解读每个分区器的实现方式。 GlobalPartitioner ShufflePartitioner RebalancePartitioner RescalePartitioner BroadcastPartitioner ForwardPartitioner KeyGroupStreamPartitioner CustomPartitionerWrapper 该分区器会将所有的数据都

    2024年04月10日
    浏览(29)
  • 【Flink精讲】Flink内核源码分析:命令执行入口

    官方推荐per-job模式,一个job一个集群,提交时yarn才分配集群资源; 主要的进程:JobManager、TaskManager、Client 提交命令:bin/flink run -t yarn-per-job  /opt/module/flink-1.12.0/examples/streaming/SocketWindowWordCount.jar --port 9999 Per-job进程: CliFronted、YarnJobClusterEncrypoint、TaskExecutorRunner=TaskManagerRunn

    2024年02月21日
    浏览(35)
  • 深入理解 Flink(五)Flink Standalone 集群启动源码剖析

    深入理解 Flink 系列文章已完结,总共八篇文章,直达链接: 深入理解 Flink (一)Flink 架构设计原理 深入理解 Flink (二)Flink StateBackend 和 Checkpoint 容错深入分析 深入理解 Flink (三)Flink 内核基础设施源码级原理详解 深入理解 Flink (四)Flink Time+WaterMark+Window 深入分析 深入

    2024年02月02日
    浏览(39)
  • 第3.4章:StarRocks数据导入--Flink Connector与CDC秒级数据同步

    Flink作为当前流行的流式计算框架,在对接StarRocks时,若直接使用JDBC的方式“流式”写入数据,对StarRocks是不友好的,StarRocks作为一款MVCC的数据库,其导入的核心思想还是“攒微批+降频率”。为此,StarRocks单独开发了flink-connector-starrocks,其内部实现仍是通过对数据缓存攒批

    2023年04月15日
    浏览(61)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包