- 注意事项:一般都是用基于Flink的Hive Catalog,使用HMS存储表模型数据
1、集成方式
(1)下载jar包
iceberg-flink-runtime-1.14-1.0.0jar
flink-sql-connector-hive-2.3.6_2.12-1.11.2.jar
- 下载地址
https://nightlies.apache.org/flink/flink-docs-release-1.15/zh/docs/connectors/table/hive/overview/
(2)启动FlinkSQL
①StandLone模式启动
export HADOOP_CLASSPATH=`$HADOOP_HOME/bin/hadoop classpath`
./bin/sql-client.sh embedded -j <flink-runtime-directory>/iceberg-flink-runtime-xxx.jar shell
②Flink On Yarn模式启动
export HADOOP_CLASSPATH=`$HADOOP_HOME/bin/hadoop classpath`
# 第一步 - 在Yarn集群上生成一个Standlone集群
./yarn-session.sh -s 2 -jm 2048 -tm 2048 -nm flinksql1 -d
# 第二步 - 指定yarn-session模式启动sql-client
./sql-client.sh embedded -s yarn-session -j ../lib/iceberg-flink-runtime-1.14-0.14.1.jar shell
2、基本使用
2.1、创建catalog
- 核心:可创建hive、hadoop、自定义等目录,创建模板如下
CREATE CATALOG <catalog_name> WITH (
'type'='iceberg',
`<config_key>`=`<config_value>`
);
-
type
: 必须的iceberg
。(必需的) -
catalog-type
:hive
或hadoop
用于内置目录,或未设置用于使用 catalog-impl 的自定义目录实现。(可选的) -
catalog-impl
:自定义目录实现的完全限定类名。如果未设置,则必须catalog-type
设置。(可选的) -
property-version
: 描述属性版本的版本号。如果属性格式发生变化,此属性可用于向后兼容。当前的属性版本是1
. (可选的) -
cache-enabled
: 是否启用目录缓存,默认值为true
2.2、创建基于Hive的Catalog
(1)创建Catalog
CREATE CATALOG hive_iceberg WITH (
'type'='iceberg',
'catalog-type'='hive',
'uri'='thrift://leidi01:9083',
'clients'='5',
'property-version'='1',
'hive-conf-dir'='/usr/hdp/3.1.0.0-78/hive/conf'
);
show catalogs;
-
uri
: Hive 元存储的 thrift URI。(必需的) -
clients
:Hive Metastore 客户端池大小,默认值为 2。(可选) -
warehouse
:Hive 仓库位置,如果既不设置hive-conf-dir
指定包含hive-site.xml
配置文件的位置也不添加正确hive-site.xml
的类路径,用户应指定此路径。 -
hive-conf-dir``hive-site.xml
:包含将用于提供自定义 Hive 配置值的配置文件的目录的路径。如果同时设置和创建冰山目录时,hive.metastore.warehouse.dir
from/hive-site.xml
(或来自类路径的 hive 配置文件)的值将被该值覆盖。warehouse``hive-conf-dir``warehouse
- 创建结果
(2)多客户端共享验证
- 客户端一对应库表
- 客户端二可见对应库表
2.3、创建基于Hadoop的calalog
(1)创建Catalog
CREATE CATALOG hadoop_catalog WITH (
'type'='iceberg',
'catalog-type'='hadoop',
'warehouse'='hdfs://leidi01:8020/warehouse/iceberg_catalog',
'property-version'='1'
);
-
warehouse
:HDFS目录,存放元数据文件和数据文件。(必需的)
- 创建结果
2.4、其余创建方式
(1)创建自定义目录
- 核心:通过指定
catalog-impl
属性来加载自定义的 Iceberg实现
REATE CATALOG my_catalog WITH (
'type'='iceberg',
'catalog-impl'='com.my.custom.CatalogImpl',
'my-additional-catalog-config'='my-value'
);
(2)通过SQL文件创建目录
-- define available catalogs
CREATE CATALOG hive_catalog WITH (
'type'='iceberg',
'catalog-type'='hive',
'uri'='thrift://leidi01:9083',
'warehouse'='hdfs://leidi01:8020/user/flink/iceberg'
);
USE CATALOG hive_catalog;
-
注意事项:
sql-client-defaults.yaml
在 flink 1.14 中删除了该文件,需要初始化才能有文件。
3、Flink SQL语句
3.1、DDL语句
(1)建库建表
use catalog iceberg;
CREATE DATABASE iceberg_db;
USE iceberg_db;
CREATE TABLE iceberg.iceberg_db.iceberg_001 (
id BIGINT COMMENT 'unique id',
data STRING
) WITH ('connector'='iceberg','write.format.default'='ORC');
(2)创建分区table
CREATE TABLE iceberg.iceberg_db.iceberg_003 (
id BIGINT COMMENT 'unique id',
data STRING
) PARTITIONED BY (data);
(3)更改table
--1、CREATE TABLE LIKE
CREATE TABLE `hive_catalog`.`default`.`sample` (
id BIGINT COMMENT 'unique id',
data STRING
);
CREATE TABLE `hive_catalog`.`default`.`sample_like` LIKE `hive_catalog`.`default`.`sample`
--2、alter table
ALTER TABLE `hive_catalog`.`default`.`sample` SET ('write.format.default'='avro')
--3、ALTER TABLE .. RENAME TO
ALTER TABLE `hive_catalog`.`default`.`sample` RENAME TO `hive_catalog`.`default`.`new_sample`;
--4、DROP TABLE
DROP TABLE `hive_catalog`.`default`.`sample`;
3.2、DML语句
(1)插入数据
- insert into
INSERT INTO `iceberg`.`iceberg_db`.`iceberg_001` VALUES (1, 'a');
--分区表插入语句
INSERT INTO `iceberg`.`iceberg_db`.`iceberg_001`() values(2,'b')
- insert overwrite
INSERT OVERWRITE sample VALUES (1, 'a');
(2)查询数据
- 执行类型:流模式 VS 批模式
-- Execute the flink job in streaming mode for current session context
SET execution.runtime-mode = streaming;
-- Execute the flink job in batch mode for current session context
SET execution.runtime-mode = batch;
Ⅰ、批量读取:通过提交 flink批处理作业来检查 iceberg 表中的所有行
SET execution.runtime-mode = batch;
SELECT * FROM sample;
Ⅱ、流式读取:支持处理从历史快照 id 开始的 flink 流作业中的增量数据
- monitor-interval:连续监控新提交的数据文件的时间间隔(默认值:‘10s’)。
- start-snapshot-id:流作业开始的快照 id。
-- Submit the flink job in streaming mode for current session.
SET execution.runtime-mode = streaming;
-- Enable this switch because streaming read SQL will provide few job options in flink SQL hint options.
SET table.dynamic-table-options.enabled=true;
-- Read all the records from the iceberg current snapshot, and then read incremental data starting from that snapshot.
SELECT * FROM sample /*+ OPTIONS('streaming'='true', 'monitor-interval'='1s')*/ ;
-- Read all incremental data starting from the snapshot-id '3821550127947089987' (records from this snapshot will be excluded).
SELECT * FROM sample /*+ OPTIONS('streaming'='true', 'monitor-interval'='1s', 'start-snapshot-id'='3821550127947089987')*/ ;
(3)更新数据
-
前提:启动更新模式
-
模式一:启用
UPSERT
模式作为表级属性write.upsert.enabled
CREATE TABLE `hive_catalog`.`default`.`sample` (
`id` INT UNIQUE COMMENT 'unique id',
`data` STRING NOT NULL,
PRIMARY KEY(`id`) NOT ENFORCED
) with ('format-version'='2', 'write.upsert.enabled'='true');
- 模式二:在
write options
中使用启用UPSERT
模式upsert-enabled
提供了比表级配置更大的灵活性。
INSERT INTO tableName /*+ OPTIONS('upsert-enabled'='true') */
...
4、Flink集成Iceberg的Hadoop Catalog实战案例
4.1、创建catalog的存储格式
(1)创建Catalog
CREATE CATALOG hadoop_catalog WITH (
'type'='iceberg',
'catalog-type'='hadoop',
'warehouse'='hdfs://leidi01:8020/warehouse/iceberg_catalog',
'property-version'='1'
);
- 创捷结果:
一个catalog + 一个默认的default数据库
(2)查看HDFS结构目录
4.2、建库建表
(1)建库建表
create database hadoop_test;
use hadoop_test;
CREATE TABLE `hadoopdemo` (
> id BIGINT COMMENT 'unique id',
> data STRING
> );
- 创建结果
(2)查看对应HDFS目录
- 验证:
catalog为一级目录、数据库为二级目录、表为三级目录
,建Catalog、建库、建表时没有flink任务生成。
4.3、插入数据
(1)插入数据
INSERT INTO `iceberg`.`iceberg_db`.`iceberg_001` VALUES (1, 'a');
- 运行结果
(2)HDFS目录
- 验证结果:分别生成data和metadata两个目录
①data目录文件结构
- 存储:以parquent格式存储的数据文件
②metadata目录文件结构
- 存储:metadata目录存放元数据管理层的数据,表的元数据是不可修改的,并且始终向前迭代;当前的快照可以回退。
- 文件详述
文件名称 | 文件描述 | 备注 |
---|---|---|
version[number].metadata.json | 存储每个版本的数据更改项 | |
snap-[snapshotID]-[attemptID]-[commitUUID].avro | 存储快照snapshot文件; | |
[commitUUID]-[attemptID]-[manifestCount].avro | 清单文件,每次更新操作都会产生清单文件 | |
version-hint.text |
5、Catalog设置相关
Hive metastore 中的表可以表示加载 Iceberg 表的三种不同方式,具体取决于表的iceberg.catalog
属性:
5.1、不指定任何Catalog类型,直接创建表
如果在Hive中创建Iceberg格式表时不指定Iceberg.catalog属性,将使用HiveCatalog
与 Hive 环境中配置的 Metastore 相对应的表加载该表iceberg.catalog
,那么数据存储在对应的Hive Warehouse路径下。
-- 1、在Hive中创建Iceberg格式表
create table test_iceberg_tbl1(
id int,
name string,
age int)
partitioned by (dt string)
stored by 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler';
-- 2、在Hive中加载如下两个包,在向Hive中插入数据时执行MR程序时需要使用到
add jar /usr/hdp/3.1.0.0-78/hive/lib/iceberg-hive-runtime-0.14.1.jar
add jar /usr/hdp/3.1.0.0-78/hive/lib/libfb303-0.9.3.jar
-- 3、向表中插入数据
insert into test_iceberg_tbl1 values(1,"sz",18,"beijing")
-- 4、查询表中数据
select * from test_iceberg_tbl1
- 查看表元数据存储信息
5.2、iceberg.catalog
如果设置为Hive目录名称,将使用自定义目录加载该表
在Hive中创建Iceberg格式表时,如果指定了iceberg.catalog属性值,那么数据存储在指定的catalog名称对应配置的目录下。
-- 1、注册一个HiveCatalog叫another_hive
set iceberg.catalog.another_hive.type=hive;
SET iceberg.catalog.another_hive.uri=thrift://10.201.0.202:49153;
SET iceberg.catalog.another_hive.warehouse=s3a://faas-ethan/warehouse/;
SET hive.vectorized.execution.enabled=false;
-- 2、在Hive中创建iceberg格式表
create table test_iceberg_tbl2(
id int,
name string,
age int
)
partitioned by (dt string)
stored by 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler'
location 's3a://faas-ethan/warehouse/default/sample_hive_table_1'
tblproperties ('iceberg.catalog'='another_hive');
-- 3、插入数据,并查询
hive> insert into test_iceberg_tbl2 values (2,"ls",20,"20211212");
hive> select * from test_iceberg_tbl2;
- 查看本地HMS中表元数据存储信息:
- 查看远端HMS中表数据存储信息
在Hive中创建Iceberg表,会在两边HMS分别存储一份元数据,只有这样,远端HMS中的Iceberg表才对本地HMS可见,所以必须保证远端HMS存在对应的数据库。
-
问题:如果只有远端HMS的Iceberg表,如何在本地HMS访问?
-
解决方案:通过如下创建external外表的形式在本地HMS生成元数据。
CREATE EXTERNAL TABLE default.sample_hive_table_1(
id bigint, name string
)
PARTITIONED BY(
dept string
)
STORED BY 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler'
location 's3a://faas-ethan/warehouse/default/sample_hive_table_1'
TBLPROPERTIES ('iceberg.catalog'='another_hive');
- 震惊:通过以下Hive SQL实现了跨HMS的联邦查询!!!
select * from default.sample_local_hive_table_1,sample_hive_table_1;
5.3、iceberg.catalog
如果设置为location_based_table,则可以使用表的根位置直接加载表location_based_table
如果HDFS中已经存在iceberg格式表,我们可以通过在Hive中创建Icerberg格式表指定对应的location路径映射数据。
CREATE TABLE test_iceberg_tbl4 (
id int,
name string,
age int,
dt string
)STORED BY 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler'
LOCATION 'hdfs://leidi01:8020/flinkiceberg/iceberg_db/flink_iceberg_tbl2'
TBLPROPERTIES ('iceberg.catalog'='location_based_table');
--指定的location路径下必须是iceberg格式表数据,并且需要有元数据目录才可以。不能将其他数据映射到Hive iceberg格式表。
- 注意事项
由于Hive建表语句分区语法Partitioned by
的限制,如果使用Hive创建Iceberg格式表,目前只能按照Hive语法来写,底层转换成Iceberg标识分区,这种情况下不能使用Iceberge的分区转换,例如:days(timestamp),如果想要使用Iceberg格式表的分区转换标识分区,需要使用Spark或者Flink引擎创建表。
5.4、附加:注册Hadoop类型的Catalog
SET iceberg.catalog.hadoop_cat.type=hadoop;
SET iceberg.catalog.hadoop_cat.warehouse=s3a://faas-ethan/warehouse;
- 使用Hadoop Catalog建表
CREATE TABLE default.sample_hadoop_table_1(
id bigint, name string
) PARTITIONED BY (
dept string
)
STORED BY 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler'
LOCATION 's3a://faas-ethan/warehouse/default/sample_hadoop_table_1'
TBLPROPERTIES ('iceberg.catalog'='hadoop_cat');
- 查看HMS中表元数据存储信息
Hadoop Catalog
相比Hive Catalog
建立的表相比,少了metadata_location
属性,同时元数据文件多了 version-hint.text
。文章来源:https://www.toymoban.com/news/detail-477315.html
文章来源地址https://www.toymoban.com/news/detail-477315.html
到了这里,关于第二章 Flink集成Iceberg的集成方式及基本SQL使用的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!