flink 1.18 sql gateway /sql gateway jdbc

这篇具有很好参考价值的文章主要介绍了flink 1.18 sql gateway /sql gateway jdbc。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一 sql gateway

注意 之所以直接启动gateway 能知道yarn session 主要还是隐藏的配置文件,但是配置文件可以被覆盖,多个session 保留最新的applicationid

1 安装flink (略)
2 启动sql-gatway(sql-gateway 通过官网介绍只能运行在session 任务中)

2-1 启动gateway 之前先启动一个flink session ./bin/yarn-session.sh -d
2-2 启动命令 :
./bin/sql-gateway.sh start -Dsql-gateway.endpoint.rest.address=localhost
2-3 查看日志观察是否启动成功:
查看日志出现这个条信息就证明已经找到了flink session applicationId
flink 1.18 sql gateway /sql gateway jdbc,flink,gateway,sql gateway,flinksqlgateway

可以观察到 yarn-properties-yarn 文件中存在一个session applicationId 这个applicationId是覆盖关系当启动多个session 的时候 这里只保存最新创建的那个
[图片]
Sql-gateway 默认端口是8083 启动成功后可以通过http 方式进行访问
[图片]

3 Flink 原生支持 REST Endpoint 和 HiveServer2 Endpoint。

SQL Gateway 默认集成 REST Endpoint。由于架构的可扩展性,用户可以通过指定 endpoint 来启动 SQL Gateway。我们测试是rest 加gateway jdbc方式。

4 Rest api 提交任务

4-1 获得一个 session 这里的session 的意思是当前连接草的人获取的一个唯一编码,当拿到这个sessionid后后续所有的所有操作都跟他关联。
[图片]
4-2 提交一个任务:黄色框 是上一步获取的sessionid 蓝色框是需要提供的sql 任务,绿色框是提交任务后获取结果的一个唯一编码
[图片]
4-3 获取结果:
[图片]

二 gateway jdbc

1 环境准备 flink-jdbc-driver-bundle-1.18.jar放到 {HIVE_HOME}/lib 目录中
2 beeline 连接 (地址为上一步启动的sql getewat 地址)

2-1 beeline
2-2 beeline> !connect jdbc:flink://xxx.xxx.xxx.xxx:8083
当出现这种日志连接成功
[图片]

3 创建一个 hdfs 表 并且插入数据
CREATE TABLE D(a INT, b VARCHAR(10)) WITH (
  'connector' = 'filesystem',
  'path' = 'hdfs:///tmp/T.csv',
  'format' = 'csv'
);
4 gatway jdbc 查看hive 数据
1 环境准备 将{HIVE_HOME}/ hive-exec-3.1.0.3.1.4.0-315.jar /hive-exec.jar /libfb303-0.9.3.jar 三个jar 移动到{flink_home}/lib 中
2 上传hive conf目录 配置文件到hdfs 中

[图片]文章来源地址https://www.toymoban.com/news/detail-793248.html

3 创建hive catalogs
CREATE CATALOG hive_catalog WITH (
  'type' = 'hive',
  'default-database' = 'default',
  'hive-conf-dir' = 'hdfs:///tmp/hiveconfig'
);
4 切换 catalogs
use catalog hive_catalog;
5 查看并查询hive 数据

flink 1.18 sql gateway /sql gateway jdbc,flink,gateway,sql gateway,flinksqlgateway

[图片]

到了这里,关于flink 1.18 sql gateway /sql gateway jdbc的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 1.18 什么是架构

    架构(Architecture)在计算机领域中是指系统或应用程序的设计和组织方式。它描述了系统的整体结构、组件之间的关系、数据流和交互方式。架构不仅仅涉及技术方面,还包括系统的功能、性能、可靠性、安全性等方面。 在计算机领域中,架构可以分为软件架构和系统架构两

    2024年02月16日
    浏览(35)
  • 31、Flink的SQL Gateway介绍及示例

    一、Flink 专栏 Flink 专栏系统介绍某一知识点,并辅以具体的示例进行说明。 1、Flink 部署系列 本部分介绍Flink的部署、配置相关基础内容。 2、Flink基础系列 本部分介绍Flink 的基础部分,比如术语、架构、编程模型、编程指南、基本的datastream api用法、四大基石等内容。 3、

    2024年02月04日
    浏览(29)
  • mORMot 1.18 第07章 简单的读写操作

    本章描述了典型的数据读写操作。首先,我们将注意力集中在数据上,而不是函数。 读取操作返回一个TID,它是一个32位或64位整数(取决于你的内存模型),反映了表的信息。TID在表中的每一行都是唯一的。 ORM的新手可能会感到惊讶,但通常你不需要创建SQL查询来过滤请求

    2024年04月28日
    浏览(32)
  • k8s 1.18 VS 1.24

    Kubernetes是一个开源的容器编排平台,它致力于自动化容器的部署、扩展和管理。1.24和1.18是Kubernetes的两个版本,它们之间的区别包括以下几个方面: API版本:Kubernetes 1.24支持API版本为v1.22,而Kubernetes 1.18支持API版本为v1.17。 功能特性:Kubernetes 1.24相对于1.18增加了许多新的功

    2023年04月23日
    浏览(40)
  • 数据结构_复杂度+之后的事-1.18

    本质是个 函数 ,表示复杂度的函数。 用 O 渐进粗略表示,如O(1), O(N)。(这个符号以前在学拓扑结构时见过,现在回想,也确实是算法相关的): 1)常数用O(1)表示; 2)保留最高阶项,并去掉系数。2N^3+N+10-----O(N^3)。 3)对于多情况复杂度,按最复杂情况的计算。 时间复

    2024年01月19日
    浏览(36)
  • Flink CDC SQL Oracle to Postgresql与jdbc连接oracle报错处理

    flink-cdc官网:Oracle CDC Connector — CDC Connectors for Apache Flink® documentation Flink环境依赖: (3)启用日志归档 (4)检查是否启用了日志归档 (5)创建具有权限的 Oracle 用户 (5.1)。创建表空间 (5.2)。创建用户并授予权限 Flink SQL 客户端连接器测试: 创建 Oracle 链接器 返回内容 以上代

    2024年02月11日
    浏览(32)
  • 【Linux】在centos快速搭建K8S1.18集群

    使用 kubeadm 创建集群帮助文档 如果您需要以下几点,该工具是很好的选择:kubeadm 一种简单的方法,让你尝试 Kubernetes,可能是第一次。 现有用户自动设置群集并测试其应用程序的一种方式。 其他生态系统和/或安装程序工具中的构建块,具有更大的 范围。 一台或多台机器,

    2024年04月29日
    浏览(34)
  • flink1.18.0 macos sql-client.sh启动报错

    2024年01月23日
    浏览(34)
  • 16、Flink 的table api与sql之连接外部系统: 读写外部系统的连接器和格式以及JDBC示例(4)

    一、Flink 专栏 Flink 专栏系统介绍某一知识点,并辅以具体的示例进行说明。 1、Flink 部署系列 本部分介绍Flink的部署、配置相关基础内容。 2、Flink基础系列 本部分介绍Flink 的基础部分,比如术语、架构、编程模型、编程指南、基本的datastream api用法、四大基石等内容。 3、

    2024年02月10日
    浏览(29)
  • flink sql1.18.0连接SASL_PLAINTEXT认证的kafka3.3.1

    阅读此文默认读者对docker、docker-compose有一定了解。 docker-compose运行了一个jobmanager、一个taskmanager和一个sql-client。 如下: 注意三个容器都映射了/opt/flink目录。需要先将/opt/flink目录拷贝到跟docker-compose.yml同一目录下,并分别重命名,如下图: 三个文件夹内容是一样的,只是

    2024年02月03日
    浏览(23)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包