第二章 Flink集成Iceberg的集成方式及基本SQL使用

这篇具有很好参考价值的文章主要介绍了第二章 Flink集成Iceberg的集成方式及基本SQL使用。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

  • 注意事项:一般都是用基于Flink的Hive Catalog,使用HMS存储表模型数据

第二章 Flink集成Iceberg的集成方式及基本SQL使用

1、集成方式

(1)下载jar包

iceberg-flink-runtime-1.14-1.0.0jar
flink-sql-connector-hive-2.3.6_2.12-1.11.2.jar
  • 下载地址
https://nightlies.apache.org/flink/flink-docs-release-1.15/zh/docs/connectors/table/hive/overview/

(2)启动FlinkSQL

①StandLone模式启动

export HADOOP_CLASSPATH=`$HADOOP_HOME/bin/hadoop classpath`

./bin/sql-client.sh embedded -j <flink-runtime-directory>/iceberg-flink-runtime-xxx.jar shell

②Flink On Yarn模式启动

export HADOOP_CLASSPATH=`$HADOOP_HOME/bin/hadoop classpath`


#  第一步 - 在Yarn集群上生成一个Standlone集群
./yarn-session.sh -s 2 -jm 2048 -tm 2048 -nm flinksql1 -d

#  第二步 - 指定yarn-session模式启动sql-client
./sql-client.sh embedded -s yarn-session -j ../lib/iceberg-flink-runtime-1.14-0.14.1.jar shell

2、基本使用

2.1、创建catalog
  • 核心:可创建hive、hadoop、自定义等目录,创建模板如下
CREATE CATALOG <catalog_name> WITH (
  'type'='iceberg',
  `<config_key>`=`<config_value>`
); 
  • type: 必须的iceberg。(必需的)
  • catalog-type:hivehadoop用于内置目录,或未设置用于使用 catalog-impl 的自定义目录实现。(可选的)
  • catalog-impl:自定义目录实现的完全限定类名。如果未设置,则必须catalog-type设置。(可选的)
  • property-version: 描述属性版本的版本号。如果属性格式发生变化,此属性可用于向后兼容。当前的属性版本是1. (可选的)
  • cache-enabled: 是否启用目录缓存,默认值为true
2.2、创建基于Hive的Catalog

(1)创建Catalog

CREATE CATALOG hive_iceberg WITH (
    'type'='iceberg',                     
    'catalog-type'='hive',                  
    'uri'='thrift://leidi01:9083',       
    'clients'='5',                         
    'property-version'='1',
    'hive-conf-dir'='/usr/hdp/3.1.0.0-78/hive/conf'
);

show catalogs;
  • uri: Hive 元存储的 thrift URI。(必需的)
  • clients:Hive Metastore 客户端池大小,默认值为 2。(可选)
  • warehouse:Hive 仓库位置,如果既不设置hive-conf-dir指定包含hive-site.xml配置文件的位置也不添加正确hive-site.xml的类路径,用户应指定此路径。
  • hive-conf-dir``hive-site.xml:包含将用于提供自定义 Hive 配置值的配置文件的目录的路径。如果同时设置和创建冰山目录时,hive.metastore.warehouse.dirfrom /hive-site.xml(或来自类路径的 hive 配置文件)的值将被该值覆盖。warehouse``hive-conf-dir``warehouse
  • 创建结果

第二章 Flink集成Iceberg的集成方式及基本SQL使用

(2)多客户端共享验证

  • 客户端一对应库表

第二章 Flink集成Iceberg的集成方式及基本SQL使用

  • 客户端二可见对应库表
    第二章 Flink集成Iceberg的集成方式及基本SQL使用
2.3、创建基于Hadoop的calalog

(1)创建Catalog

CREATE CATALOG hadoop_catalog WITH (
  'type'='iceberg',
  'catalog-type'='hadoop',
  'warehouse'='hdfs://leidi01:8020/warehouse/iceberg_catalog',
  'property-version'='1'
);
  • warehouse:HDFS目录,存放元数据文件和数据文件。(必需的)
  • 创建结果

第二章 Flink集成Iceberg的集成方式及基本SQL使用

2.4、其余创建方式

(1)创建自定义目录

  • 核心:通过指定catalog-impl属性来加载自定义的 Iceberg实现
REATE CATALOG my_catalog WITH (
  'type'='iceberg',
  'catalog-impl'='com.my.custom.CatalogImpl',
  'my-additional-catalog-config'='my-value'
);

(2)通过SQL文件创建目录

-- define available catalogs
CREATE CATALOG hive_catalog WITH (
  'type'='iceberg',
  'catalog-type'='hive',
  'uri'='thrift://leidi01:9083',
  'warehouse'='hdfs://leidi01:8020/user/flink/iceberg'
);

USE CATALOG hive_catalog;
  • 注意事项:sql-client-defaults.yaml在 flink 1.14 中删除了该文件,需要初始化才能有文件

3、Flink SQL语句

3.1、DDL语句

(1)建库建表

use catalog iceberg;
CREATE DATABASE iceberg_db;
USE iceberg_db;

CREATE TABLE iceberg.iceberg_db.iceberg_001 (
    id BIGINT COMMENT 'unique id',
    data STRING
) WITH ('connector'='iceberg','write.format.default'='ORC');

(2)创建分区table

CREATE TABLE iceberg.iceberg_db.iceberg_003 (
    id BIGINT COMMENT 'unique id',
    data STRING
) PARTITIONED BY (data);

(3)更改table

--1、CREATE TABLE LIKE
CREATE TABLE `hive_catalog`.`default`.`sample` (
    id BIGINT COMMENT 'unique id',
    data STRING
);

CREATE TABLE  `hive_catalog`.`default`.`sample_like` LIKE `hive_catalog`.`default`.`sample`

--2、alter table
ALTER TABLE `hive_catalog`.`default`.`sample` SET ('write.format.default'='avro')

--3、ALTER TABLE .. RENAME TO
ALTER TABLE `hive_catalog`.`default`.`sample` RENAME TO `hive_catalog`.`default`.`new_sample`;

--4、DROP TABLE
DROP TABLE `hive_catalog`.`default`.`sample`;
3.2、DML语句

(1)插入数据

  • insert into
INSERT INTO `iceberg`.`iceberg_db`.`iceberg_001` VALUES (1, 'a');

--分区表插入语句
INSERT INTO `iceberg`.`iceberg_db`.`iceberg_001`() values(2,'b')
  • insert overwrite
INSERT OVERWRITE sample VALUES (1, 'a');

(2)查询数据

  • 执行类型:流模式 VS 批模式
-- Execute the flink job in streaming mode for current session context
SET execution.runtime-mode = streaming;

-- Execute the flink job in batch mode for current session context
SET execution.runtime-mode = batch;

Ⅰ、批量读取:通过提交 flink批处理作业来检查 iceberg 表中的所有行

SET execution.runtime-mode = batch;
SELECT * FROM sample;

Ⅱ、流式读取:支持处理从历史快照 id 开始的 flink 流作业中的增量数据

  • monitor-interval:连续监控新提交的数据文件的时间间隔(默认值:‘10s’)
  • start-snapshot-id:流作业开始的快照 id
-- Submit the flink job in streaming mode for current session.
SET execution.runtime-mode = streaming;

-- Enable this switch because streaming read SQL will provide few job options in flink SQL hint options.
SET table.dynamic-table-options.enabled=true;

-- Read all the records from the iceberg current snapshot, and then read incremental data starting from that snapshot.
SELECT * FROM sample /*+ OPTIONS('streaming'='true', 'monitor-interval'='1s')*/ ;

-- Read all incremental data starting from the snapshot-id '3821550127947089987' (records from this snapshot will be excluded).
SELECT * FROM sample /*+ OPTIONS('streaming'='true', 'monitor-interval'='1s', 'start-snapshot-id'='3821550127947089987')*/ ;

(3)更新数据

  • 前提:启动更新模式

  • 模式一:启用UPSERT模式作为表级属性write.upsert.enabled

CREATE TABLE `hive_catalog`.`default`.`sample` (
  `id`  INT UNIQUE COMMENT 'unique id',
  `data` STRING NOT NULL,
 PRIMARY KEY(`id`) NOT ENFORCED
) with ('format-version'='2', 'write.upsert.enabled'='true');
  • 模式二:write options中使用启用UPSERT模式upsert-enabled提供了比表级配置更大的灵活性。
INSERT INTO tableName /*+ OPTIONS('upsert-enabled'='true') */
...

4、Flink集成Iceberg的Hadoop Catalog实战案例

4.1、创建catalog的存储格式

(1)创建Catalog

 CREATE CATALOG hadoop_catalog WITH (
   'type'='iceberg',
   'catalog-type'='hadoop',
   'warehouse'='hdfs://leidi01:8020/warehouse/iceberg_catalog',
   'property-version'='1'
 );
  • 创捷结果:一个catalog + 一个默认的default数据库

第二章 Flink集成Iceberg的集成方式及基本SQL使用

(2)查看HDFS结构目录

第二章 Flink集成Iceberg的集成方式及基本SQL使用

4.2、建库建表

(1)建库建表

 create database hadoop_test;
 use hadoop_test;
 CREATE TABLE `hadoopdemo` (
      >     id BIGINT COMMENT 'unique id',
      >     data STRING
      > );
  • 创建结果

第二章 Flink集成Iceberg的集成方式及基本SQL使用

(2)查看对应HDFS目录

  • 验证:catalog为一级目录、数据库为二级目录、表为三级目录,建Catalog、建库、建表时没有flink任务生成。

第二章 Flink集成Iceberg的集成方式及基本SQL使用

4.3、插入数据

(1)插入数据

INSERT INTO `iceberg`.`iceberg_db`.`iceberg_001` VALUES (1, 'a');
  • 运行结果

第二章 Flink集成Iceberg的集成方式及基本SQL使用

(2)HDFS目录

  • 验证结果:分别生成data和metadata两个目录

第二章 Flink集成Iceberg的集成方式及基本SQL使用

①data目录文件结构

  • 存储:以parquent格式存储的数据文件

第二章 Flink集成Iceberg的集成方式及基本SQL使用

②metadata目录文件结构

  • 存储:metadata目录存放元数据管理层的数据,表的元数据是不可修改的,并且始终向前迭代;当前的快照可以回退。

第二章 Flink集成Iceberg的集成方式及基本SQL使用

  • 文件详述
文件名称 文件描述 备注
version[number].metadata.json 存储每个版本的数据更改项
snap-[snapshotID]-[attemptID]-[commitUUID].avro 存储快照snapshot文件;
[commitUUID]-[attemptID]-[manifestCount].avro 清单文件,每次更新操作都会产生清单文件
version-hint.text

5、Catalog设置相关

​ Hive metastore 中的表可以表示加载 Iceberg 表的三种不同方式,具体取决于表的iceberg.catalog属性:

5.1、不指定任何Catalog类型,直接创建表

如果在Hive中创建Iceberg格式表时不指定Iceberg.catalog属性,将使用HiveCatalog与 Hive 环境中配置的 Metastore 相对应的表加载该表iceberg.catalog,那么数据存储在对应的Hive Warehouse路径下

-- 1、在Hive中创建Iceberg格式表
create table test_iceberg_tbl1(
    id int,
    name string,
    age int)
    partitioned by (dt string)
    stored by 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler';
    
-- 2、在Hive中加载如下两个包,在向Hive中插入数据时执行MR程序时需要使用到
add jar /usr/hdp/3.1.0.0-78/hive/lib/iceberg-hive-runtime-0.14.1.jar
add jar /usr/hdp/3.1.0.0-78/hive/lib/libfb303-0.9.3.jar

-- 3、向表中插入数据
insert into test_iceberg_tbl1 values(1,"sz",18,"beijing")

-- 4、查询表中数据
select * from test_iceberg_tbl1
  • 查看表元数据存储信息

第二章 Flink集成Iceberg的集成方式及基本SQL使用

5.2、iceberg.catalog如果设置为Hive目录名称,将使用自定义目录加载该表

在Hive中创建Iceberg格式表时,如果指定了iceberg.catalog属性值,那么数据存储在指定的catalog名称对应配置的目录下

-- 1、注册一个HiveCatalog叫another_hive
set iceberg.catalog.another_hive.type=hive; 
SET iceberg.catalog.another_hive.uri=thrift://10.201.0.202:49153;
SET iceberg.catalog.another_hive.warehouse=s3a://faas-ethan/warehouse/;
SET hive.vectorized.execution.enabled=false;

-- 2、在Hive中创建iceberg格式表
create table test_iceberg_tbl2(
id int,
name string,
age int
)
partitioned by (dt string)
stored by 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler'
location 's3a://faas-ethan/warehouse/default/sample_hive_table_1'
tblproperties ('iceberg.catalog'='another_hive');


-- 3、插入数据,并查询
hive> insert into test_iceberg_tbl2 values (2,"ls",20,"20211212");
hive> select * from test_iceberg_tbl2;
  • 查看本地HMS中表元数据存储信息:

第二章 Flink集成Iceberg的集成方式及基本SQL使用

  • 查看远端HMS中表数据存储信息

第二章 Flink集成Iceberg的集成方式及基本SQL使用

在Hive中创建Iceberg表,会在两边HMS分别存储一份元数据,只有这样,远端HMS中的Iceberg表才对本地HMS可见,所以必须保证远端HMS存在对应的数据库。


  • 问题:如果只有远端HMS的Iceberg表,如何在本地HMS访问?

  • 解决方案:通过如下创建external外表的形式在本地HMS生成元数据。

CREATE EXTERNAL TABLE default.sample_hive_table_1(
id bigint, name string
)
PARTITIONED BY(
dept string
) 
STORED BY 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler'
location 's3a://faas-ethan/warehouse/default/sample_hive_table_1'
TBLPROPERTIES ('iceberg.catalog'='another_hive');
  • 震惊:通过以下Hive SQL实现了跨HMS的联邦查询!!!
select * from default.sample_local_hive_table_1,sample_hive_table_1;

5.3、iceberg.catalog如果设置为location_based_table,则可以使用表的根位置直接加载表location_based_table

如果HDFS中已经存在iceberg格式表,我们可以通过在Hive中创建Icerberg格式表指定对应的location路径映射数据

CREATE TABLE test_iceberg_tbl4  (
  id int, 
  name string,
  age int,
  dt string
)STORED BY 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler' 
LOCATION 'hdfs://leidi01:8020/flinkiceberg/iceberg_db/flink_iceberg_tbl2' 
TBLPROPERTIES ('iceberg.catalog'='location_based_table');

--指定的location路径下必须是iceberg格式表数据,并且需要有元数据目录才可以。不能将其他数据映射到Hive iceberg格式表。
  • 注意事项

​ 由于Hive建表语句分区语法Partitioned by的限制,如果使用Hive创建Iceberg格式表,目前只能按照Hive语法来写,底层转换成Iceberg标识分区,这种情况下不能使用Iceberge的分区转换,例如:days(timestamp),如果想要使用Iceberg格式表的分区转换标识分区,需要使用Spark或者Flink引擎创建表

5.4、附加:注册Hadoop类型的Catalog
SET iceberg.catalog.hadoop_cat.type=hadoop;
SET iceberg.catalog.hadoop_cat.warehouse=s3a://faas-ethan/warehouse;
  • 使用Hadoop Catalog建表
CREATE TABLE default.sample_hadoop_table_1(
    id bigint, name string
) PARTITIONED BY (
    dept string
)
  STORED BY 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler'
  LOCATION 's3a://faas-ethan/warehouse/default/sample_hadoop_table_1'
  TBLPROPERTIES ('iceberg.catalog'='hadoop_cat');
  • 查看HMS中表元数据存储信息

第二章 Flink集成Iceberg的集成方式及基本SQL使用

Hadoop Catalog相比Hive Catalog建立的表相比,少了metadata_location属性,同时元数据文件多了 version-hint.text

第二章 Flink集成Iceberg的集成方式及基本SQL使用文章来源地址https://www.toymoban.com/news/detail-477315.html

到了这里,关于第二章 Flink集成Iceberg的集成方式及基本SQL使用的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 《Flink学习笔记》——第二章 Flink的安装和启动、以及应用开发和提交

    ​ 介绍Flink的安装、启动以及如何进行Flink程序的开发,如何运行部署Flink程序等 2.1 Flink的安装和启动 本地安装指的是单机模式 0、前期准备 java8或者java11(官方推荐11) 下载Flink安装包 https://flink.apache.org/zh/downloads/ hadoop(后面Flink on Yarn部署模式需要) 服务器(我是使用虚拟

    2024年02月10日
    浏览(29)
  • 第二章 系统集成及服务管理知识点1

    这第二章主要讲了下集成及服务管理的内容、制度、意义、管理办法、以及一些管理方面的服务概念。跟着小老弟把内容给归纳归纳,后面来复习的时候也能够省不少时间! 1信息系统集成及服务管理的内容 在信息化建设过程中,系统集成及服务存在了诸多问题,主要问题:

    2024年02月16日
    浏览(28)
  • C++第二章:变量和基本内置类型

    C++定义了一套包括算数类型和空类型在内的基本数据类型。 其中算数类型包含了字符、整形数、布尔值、浮点数。空类型不对应具体的值,仅用于一些特殊的场合,例如最常见的是:当一个函数不返回任何值时使用空类型作为返回类型。 算数类型分为两种:整形(包括字符和

    2024年02月06日
    浏览(32)
  • 【第二章 selenium基本操作之元素】

    第一章 【初识selenium自动化测试框架(详细记录)】 1). F12 进入开发调试工具(DevTools) 2). 选择图中红圈的箭头(select element),则鼠标放到相应元素上可看获取到信息,例如属性与内容等 或者右键点击某个元素,选择 检查 规范性的网站一般id是唯一的(在html中是 标记

    2024年02月08日
    浏览(37)
  • 【第二章】分析一下 Flink中的流执行模式和批执行模式

    目录 1、什么是有界流、无界流 2、什么是批执行模式、流执行模式 3、怎样选择执行模式? 4、怎样配置执行模式? 方式1:提交计算任务时,通过参数来指定(推荐,这种方式更灵活) 方式2:在Driver程序中配置执行模式(不推荐) 5、这是一个完整的入门案例 有界流:        

    2024年02月11日
    浏览(25)
  • SQL Server基础 第二章 表结构管理

    目录 一、数据类型 1,字符类数据类型 2,数值型数据类型 3,日期/时间型数据类型 二、主键(Primary key) 三、默认值 四、唯一键(Unique) 五、自增标识 六、约束 七、外键 数据类型是数据的一种属性,是数据所表示信息的类型。 SQLServer提供了比较多的数据类型供用户使用

    2023年04月22日
    浏览(43)
  • Maven第二章:Maven基本概念与生命周期

    前言 本章主要内容,介绍Maven基本概念,包括maven坐标含义,命名规则,继承与聚合、了解与理解生命周期,如何通过Maven进行依赖和版本管理。 什么是Maven的坐标? Maven坐标是一种标识Maven项目的信息,它包含了项目的唯一标识符和项目的版本号等信息。Maven坐标的作用是唯

    2024年02月07日
    浏览(30)
  • 开源数据库MYSQL DBA运维实战 第二章 SQL

    1.1定义库 创建业务数据库         语法:CREATE  DATABASE   数据库名;         数据库命名要求:                 区分大小写                 唯一性                 不能使用如create  select                 不能单独使用数字和特殊符号如-                

    2024年02月20日
    浏览(72)
  • 第二章:AI大模型的基本原理2.2 深度学习基础2.2.3 循环神经网络

    循环神经网络(Recurrent Neural Networks,RNN)是一种特殊的神经网络结构,它可以处理序列数据,如自然语言、时间序列预测等。RNN的核心特点是包含反馈连接,使得网络具有内存功能,可以在处理序列数据时保留以前的信息。这一特性使得RNN成为处理自然语言和时间序列数据的

    2024年01月16日
    浏览(31)
  • 【考研数学】概率论与数理统计 —— 第二章 | 一维随机变量及其分布(1,基本概念与随机变量常见类型)

    暑假接近尾声了,争取赶一点概率论部分的进度。 设随机试验 E E E 的样本空间为 Ω Omega Ω , X X X 为定义于样本空间 Ω Omega Ω 上的函数,对于任意 w ∈ Ω w in Omega w ∈ Ω ,总存在唯一确定的 X ( w ) X(w) X ( w ) 与之对应,称 X ( w ) X(w) X ( w ) 为随机变量,一般记为 X X X 。 随机

    2024年02月11日
    浏览(32)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包