大数据Hive--函数

这篇具有很好参考价值的文章主要介绍了大数据Hive--函数。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、函数

1.1 函数简介

Hive会将常用的逻辑封装成函数给用户进行使用,类似于Java中的函数。

好处:避免用户反复写逻辑,可以直接拿来使用。

Hive提供了大量的内置函数,按照其特点可大致分为如下几类:单行函数、聚合函数、炸裂函数、窗口函数。

  • 以下命令可用于查询所有内置函数的相关信息:

1)查看系统内置函数

show functions;

2)查看内置函数用法

desc function upper;

3)查看内置函数详细信息

desc function extended upper;

1.2 单行函数

单行函数的特点是一进一出,即输入一行,输出一行。

单行函数按照功能可分为如下几类: 日期函数、字符串函数、集合函数、数学函数、流程控制函数等。

1.2.1 算术运算函数

运算符 描述
A+B A和B 相加
A-B A减去B
A*B A和B 相乘
A/B A除以B
A%B A对B取余
A&B A和B按位取与
A|B A和B按位取或
A^B A和B按位取异或
~A A按位取反

1.2.2 数值函数

1)round:四舍五入

select round(3.3);   3

2)ceil:向上取整

``select ceil(3.1) ;   4

3)floor:向下取整

select floor(4.8);  4

1.2.3 字符串函数

1)substring:截取字符串

语法一:substring(string A, int start) 
返回值:string 
说明:返回字符串A从start位置到结尾的字符串

语法二:substring(string A, int start, int len) 
返回值:string
说明:返回字符串A从start位置开始,长度为len的字符串

(1)获取第二个字符以后的所有字符

select substring("shanghai",2);
输出: hanghai

(2)从第3个字符开始,向后获取2个字符

select substring("shanghai",3,2);
输出: an

2)replace :替换

语法:replace(string A, string B, string C) 
返回值:string
说明:将字符串A中的子字符串B替换为C。

3)regexp_replace:正则替换

语法:regexp_replace(string A, string B, string C) 
返回值:string
说明:将字符串A中的符合java正则表达式B的部分替换为C。注意,在有些情况下要使用转义字符。
select regexp_replace('100-200', '(\\d+)', 'num') 
输出:num-num

4)regexp:正则匹配

语法:字符串 regexp 正则表达式
返回值:boolean
说明:若字符串符合正则表达式,则返回true,否则返回false。

(1)正则匹配成功,输出true

select 'dfsaaaa' regexp 'dfsa+'
输出:true

(2)正则匹配失败,输出false

select 'dfsaaaa' regexp 'dfsb+';
输出:false

5)repeat:重复字符串

语法:repeat(string A, int n)
返回值:string
说明:将字符串A重复n遍。

6)split :字符串切割

语法:split(string str, string pat) 
返回值:array
说明:按照正则表达式pat匹配到的内容分割str,分割后的字符串,以数组的形式返回。

7)nvl :替换null值

语法:nvl(A,B) 
说明:若A的值不为null,则返回A,否则返回B。 
select nvl(null,1); 
输出:1

8)concat :拼接字符串

语法:concat(string A, string B, string C, ……) 
返回:string
说明:将A,B,C……等字符拼接为一个字符串
select concat('beijing','-','shanghai','-','shenzhen');
输出:beijing-shanghai-shenzhen

9)concat_ws:以指定分隔符拼接字符串或者字符串数组

语法:concat_ws(string A, string…| array(string)) 
返回值:string
说明:使用分隔符A拼接多个字符串,或者一个数组的所有元素。
select concat_ws('-','beijing','shanghai','shenzhen');
输出:beijing-shanghai-shenzhen

10)get_json_object:解析json字符串

语法:get_json_object(string json_string, string path) 
返回值:string
说明:解析json的字符串json_string,返回path指定的内容。如果输入的json字符串无效,那么返回NULL。

(1)获取json数组里面的数据

select get_json_object('[{"name":"大海","sex":"男","age":"25"},{"name":"小张","sex":"男","age":"47"}]','$.[0]');
输出:{"name":"大海","sex":"男","age":"25"}

1.2.4 日期函数

1)unix_timestamp:返回当前或指定时间的时间戳

语法:unix_timestamp() 
返回值:bigint 
select unix_timestamp('2022/08/08 08-08-08','yyyy/MM/dd HH-mm-ss');  
输出:1659946088
-- 说明:-前面是日期后面是指,日期传进来的具体格式 

2)from_unixtime:转化UNIX时间戳(从 1970-01-01 00:00:00 UTC 到指定时间的秒数)到当前时区的时间格式

语法:from_unixtime(bigint unixtime[, string format]) 
返回值:string 
select from_unixtime(1659946088);   
输出:2022-08-08 08:08:08

3)current_date:当前日期

select current_date;     
输出:2024-01-01

4)current_timestamp:当前的日期加时间,并且精确的毫秒

select current_timestamp;   
输出:2024-01-01 15:32:22.402

5)month:获取日期中的月

语法:month (string date) 
返回值:int 
select month('2022-08-08 08:08:08');
输出:8

6)day:获取日期中的日

语法:day (string date) 
返回值:int 
select day('2022-08-08 08:08:08')    
输出:8

7)hour:获取日期中的小时

语法:hour (string date) 
返回值:int 
select hour('2022-08-08 08:08:08');   
输出:8

8)datediff:两个日期相差的天数(结束日期减去开始日期的天数)

语法:datediff(string enddate, string startdate) 
返回值:int 
select datediff('2021-08-08','2022-10-09');     
输出:-427

9)date_add:日期加天数

语法:date_add(string startdate, int days) 
返回值:string 	
说明:返回开始日期 startdate 增加 days 天后的日期
select date_add('2022-08-08',2);   
输出:2022-08-10

10)date_sub:日期减天数

语法:date_sub (string startdate, int days) 
返回值:string 
说明:返回开始日期startdate减少days天后的日期。
select date_sub('2022-08-08',2);    
输出:2022-08-06

11)date_format:将标准日期解析成指定格式字符串

select date_format('2022-08-08','yyyy年-MM月-dd日')   
输出:2022-08-08

1.2.5 流程控制函数

1)case when:条件判断函数

语法一:case when a then b [when c then d]* [else e] end 
返回值:T 
说明:如果a为true,则返回b;如果c为true,则返回d;否则返回 e 

语法二: case a when b then c [when d then e]* [else f] end 
返回值: T 
说明:如果a等于b,那么返回c;如果a等于d,那么返回e;否则返回f 

2)if: 条件判断,类似于Java中三元运算符

语法:if(boolean testCondition, T valueTrue, T valueFalseOrNull)
返回值:T 
说明:当条件testCondition为true时,返回valueTrue;否则返回valueFalseOrNull

(1)条件满足,输出正确

select if(10 > 5,'正确','错误'); 
输出:正确

(2)条件满足,输出错误

select if(10 < 5,'正确','错误');
输出:错误

1.2.6 集合函数

1)size:集合中元素的个数

select size(friends) from test;  --2/2  每一行数据中的friends集合里的个数

2)map:创建map集合

语法:map (key1, value1, key2, value2, …) 
说明:根据输入的key和value对构建map类型

3)map_keys: 返回map中的key

select map_keys(map('xiaohai',1,'dahai',2));
输出:["xiaohai","dahai"]

4)map_values: 返回map中的value

select map_values(map('xiaohai',1,'dahai',2));
输出:[1,2]

5)array 声明array集合

语法:array(val1, val2, …) 
说明:根据输入的参数构建数组array类
select array('1','2','3','4');
输出:["1","2","3","4"]

6)array_contains: 判断array中是否包含某个元素

select array_contains(array('a','b','c','d'),'a');
输出:true

7)sort_array:将array中的元素排序

select sort_array(array('a','d','c'));
输出:["a","c","d"]

8)struct声明struct中的各属性

语法:struct(val1, val2, val3, …) 
说明:根据输入的参数构建结构体struct类
select struct('name','age','weight');
输出:
{"col1":"name","col2":"age","col3":"weight"}

9)named_struct声明struct的属性和值

select named_struct('name','xiaosong','age',18,'weight',80);
输出:{"name":"xiaosong","age":18,"weight":80}

1.2.7 案列演示

1.2.7.1 数据准备

1)表结构
以下是根据文中内容整理的表格,以markdown格式表示:

name sex birhtday hiredate job salary bonus friends children
张无忌 1980/02/12 2022/08/09 销售 3000 12000 [阿朱, 小昭] {张小无:8, 张小忌:9}
赵敏 1982/05/18 2022/09/10 行政 9000 2000 [阿三, 阿四] {赵小敏:8}
黄蓉 1982/04/13 2022/06/11 行政 12000 Null [东邪, 西毒] {郭芙:5, 郭襄:4}

2)建表语句

create  table  employee(
    name string,  --姓名
    sex  string,  --性别
    birthday string, --出生年月
    hiredate string, --入职日期
    job string,   --岗位
    salary double, --薪资
    bonus double,  --奖金
    friends array<string>, --朋友
    children map<string,int> --孩子
)

3)插入数据

insert into employee  
  values('张无忌','男','1980/02/12','2022/08/09','销售',3000,12000,array('阿朱','小昭'),map('张小无',8,'张小忌',9)),
        ('赵敏','女','1982/05/18','2022/09/10','行政',9000,2000,array('阿三','阿四'),map('赵小敏',8)),
        ('宋青书','男','1981/03/15','2022/04/09','研发',18000,1000,array('王五','赵六'),map('宋小青',7,'宋小书',5)),
        ('周芷若','女','1981/03/17','2022/04/10','研发',18000,1000,array('王五','赵六'),map('宋小青',7,'宋小书',5)),
        ('郭靖','男','1985/03/11','2022/07/19','销售',2000,13000,array('南帝','北丐'),map('郭芙',5,'郭襄',4)),
        ('黄蓉','女','1982/12/13','2022/06/11','行政',12000,null,array('东邪','西毒'),map('郭芙',5,'郭襄',4)),
        ('杨过','男','1988/01/30','2022/08/13','前台',5000,null,array('郭靖','黄蓉'),map('杨小过',2)),
        ('小龙女','女','1985/02/12','2022/09/24','前台',6000,null,array('张三','李四'),map('杨小过',2))
1.2.7.2 需求

1)统计每个月的入职人数

select
    year(replace(hiredate,'/','-')) as year,
    month(replace(hiredate,'/','-')) as month,
    count(*) as count
from employee
group by year(replace(hiredate,'/','-')),month(replace(hiredate,'/','-'));

大数据Hive--函数,大数据hive,hive,hadoop
2)查询每个人的孩子的姓名

select 
name,
map_keys(children) ch_name
from 
employee; 

大数据Hive--函数,大数据hive,hive,hadoop

1.3 高级聚合函数

多进一出 (多行传入,一个行输出)。
1)普通聚合 count/sum…
2)collect_list 收集并形成list集合,结果不去重

select 
  sex,
  collect_list(job)
from
  employee
group by 
  sex
  
结果:
女	["行政","研发","行政","前台"]["销售","研发","销售","前台"]

3)collect_set 收集并形成set集合,结果去重

select 
  sex,
  collect_set(job)
from
  employee
group by 
  sex
  
结果:
女	["行政","研发","前台"]["销售","研发","前台"]

1.3.1 案例演示

1)每个月的入职人数以及姓名

select
  month(replace(hiredate,'/','-')) as month,
  count(*) as cn,
  Collect_list(name) as name_list
from
  employee
group by
  month(replace(hiredate,'/','-'))

大数据Hive--函数,大数据hive,hive,hadoop

1.4 炸裂函数

1.4.1 概述

大数据Hive--函数,大数据hive,hive,hadoop
大数据Hive--函数,大数据hive,hive,hadoop
大数据Hive--函数,大数据hive,hive,hadoop
大数据Hive--函数,大数据hive,hive,hadoop
大数据Hive--函数,大数据hive,hive,hadoop
大数据Hive--函数,大数据hive,hive,hadoop
大数据Hive--函数,大数据hive,hive,hadoop

1.4.2 案例演示

1.4.2.1 数据准备

1)表结构
以下是根据文中内容整理的表格,以markdown格式表示:

movie category
《疑犯追踪》 悬疑,动作,科幻,剧情
《Lie to me》 悬疑,警匪,动作,心理,剧情
《战狼2》 战争,动作,灾难

2)建表语句

create table movie_info(
    movie string,     --电影名称
    category string   --电影分类
) 
row format delimited fields terminated by "\t";

3)装载语句

insert overwrite table movie_info
values ("《疑犯追踪》", "悬疑,动作,科幻,剧情"),
       ("《Lie to me》", "悬疑,警匪,动作,心理,剧情"),
       ("《战狼2》", "战争,动作,灾难");
1.4.2.2 需求

1)根据上述电影信息表,统计各分类的电影数量

select
    cate,
    count(*)
from
(
    select
    movie,
    split(category,',') category
    from movie_info
) t1 lateral view explode(category) tmp as cate
group by cate;

大数据Hive--函数,大数据hive,hive,hadoop

1.5 窗口函数(开窗函数)

1.5.1 概述

  • 窗口函数:能为每行数据划分一个窗口,然后对窗口范围内的数据进行计算,最后将计算结果返回给该行数据。
  • 窗口函数的语法主要包括”窗口“和”函数“两部分。其中”窗口“用于定义计算范围,”函数“用于定义计算逻辑。
  • 窗口范围的定义分为两种类型,一种是基于的,一种是基于的。
    大数据Hive--函数,大数据hive,hive,hadoop
    大数据Hive--函数,大数据hive,hive,hadoop
    大数据Hive--函数,大数据hive,hive,hadoop
    大数据Hive--函数,大数据hive,hive,hadoop
  • 窗口——分区
    定义窗口范围时,可以指定分区字段,每个分区单独划分窗口。
    大数据Hive--函数,大数据hive,hive,hadoop
  • 窗口——缺省
    • over()中的三部分内容partition by、order by、(rows/range) between … and …均可省略不写。
    • partition by省略不写,表示不分区
    • order by省略不写,表示不排序
    • (rows|range) between …and …省略不写,则使用其默认值,默认值如下若over()中包含order by.,则默认值为range between unbounded preceding and current row.
    • 若over()中不包含order by.,则默认值为rows between unbounded preceding and unbounded following.
      大数据Hive--函数,大数据hive,hive,hadoop

1.5.2 常用窗口函数

按照功能,常用窗口可划分为如下几类:聚合函数、跨行取值函数、排名函数。

1)聚合函数
max:最大值。
min:最小值。
sum:求和。
avg:平均值。
count:计数。

2)跨行取值函数
(1)lead和lag

大数据Hive--函数,大数据hive,hive,hadoop
注:lag和lead函数不支持自定义窗口。

(2)first_value和last_value

大数据Hive--函数,大数据hive,hive,hadoop
(3)排名函数
大数据Hive--函数,大数据hive,hive,hadoop
注:rank 、dense_rank、row_number不支持自定义窗口。

1.5.3 案例演示

1.5.3.1 数据准备

1)表结构

order_id user_id user_name order_date order_amount
1 1001 小元 2022-01-01 10
2 1002 小海 2022-01-02 15
3 1001 小元 2022-02-03 23
4 1002 小海 2022-01-04 29
5 1001 小元 2022-01-05 46

2)建表语句

create table order_info
(
    order_id     string, --订单id
    user_id      string, -- 用户id
    user_name    string, -- 用户姓名
    order_date   string, -- 下单日期
    order_amount int     -- 订单金额
);

3)装载语句

insert overwrite table order_info
values ('1', '1001', '小元', '2022-01-01', '10'),
       ('2', '1002', '小海', '2022-01-02', '15'),
       ('3', '1001', '小元', '2022-02-03', '23'),
       ('4', '1002', '小海', '2022-01-04', '29'),
       ('5', '1001', '小元', '2022-01-05', '46'),
       ('6', '1001', '小元', '2022-04-06', '42'),
       ('7', '1002', '小海', '2022-01-07', '50'),
       ('8', '1001', '小元', '2022-01-08', '50'),
       ('9', '1003', '小辉', '2022-04-08', '62'),
       ('10', '1003', '小辉', '2022-04-09', '62'),
       ('11', '1004', '小猛', '2022-05-10', '12'),
       ('12', '1003', '小辉', '2022-04-11', '75'),
       ('13', '1004', '小猛', '2022-06-12', '80'),
       ('14', '1003', '小辉', '2022-04-13', '94');

1.5.3.2 需求

1)统计每个用户截至每次下单的累积下单总额

order_id user_id user_name order_date order_amount sum_so_far
1 1001 小元 2022-01-01 10 10
5 1001 小元 2022-01-05 46 56
8 1001 小元 2022-01-08 50 106
3 1001 小元 2022-02-03 23 129
6 1001 小元 2022-04-06 42 171
2 1002 小海 2022-01-02 15 15
4 1002 小海 2022-01-04 29 44
7 1002 小海 2022-01-07 50 94
9 1003 小辉 2022-04-08 62 62
10 1003 小辉 2022-04-09 62 124
12 1003 小辉 2022-04-11 75 199
14 1003 小辉 2022-04-13 94 293
11 1004 小猛 2022-05-10 12 12
13 1004 小猛 2022-06-12 80 92
select
    order_id,
    user_id,
    user_name,
    order_date,
    order_amount,
    sum(order_amount) over(partition by user_id order by order_date rows between unbounded preceding and current row) sum_so_far
from order_info;

大数据Hive--函数,大数据hive,hive,hadoop
2)统计每个用户截至每次下单的当月累积下单总额

select
    order_id,
    user_id,
    user_name,
    order_date,
    order_amount,
    sum(order_amount) over (partition by user_id,substring(order_date,1,7) order by order_date rows between unbounded preceding and current row )sum_so_far
from order_info;

大数据Hive--函数,大数据hive,hive,hadoop
3)为每个用户的所有下单记录按照订单金额进行排名

select
    order_id,
    user_id,
    user_name,
    order_date,
    order_amount,
    rank() over (partition by user_id order by order_amount desc) rk,
    dense_rank() over (partition by user_id order by order_amount desc) drk,
    row_number() over (partition by user_id order by order_amount desc) rn
from order_info;

大数据Hive--函数,大数据hive,hive,hadoop

1.6 自定义函数

1)Hive自带了一些函数,比如:max/min等,但是数量有限,自己可以通过自定义UDF来方便的扩展。
2)当Hive提供的内置函数无法满足你的业务处理需要时,此时就可以考虑使用用户自定义函数(UDF:user-defined function)。
3)根据用户自定义函数类别分为以下三种:
(1)UDF(User-Defined-Function)
一进一出。
(2)UDAF(User-Defined Aggregation Function)
用户自定义聚合函数,多进一出。
类似于:count/max/min
(3)UDTF(User-Defined Table-Generating Functions)
用户自定义表生成函数,一进多出。
如lateral view explode()

1.7 自定义UDF函数

0)需求
自定义一个UDF实现计算给定基本数据类型的长度,例如:

select my_len("abcd");

1)创建一个Maven工程Hive
2)导入依赖(在pom.xml中)

<dependencies>
	<dependency>
		<groupId>org.apache.hive</groupId>
		<artifactId>hive-exec</artifactId>
		<version>3.1.3</version>
	</dependency>
</dependencies>

3)创建一个类

package com.atguigu.hive.udf;

import org.apache.hadoop.hive.ql.exec.UDFArgumentException;
import org.apache.hadoop.hive.ql.exec.UDFArgumentLengthException;
import org.apache.hadoop.hive.ql.exec.UDFArgumentTypeException;
import org.apache.hadoop.hive.ql.metadata.HiveException;
import org.apache.hadoop.hive.ql.udf.generic.GenericUDF;
import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;
import org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectInspectorFactory;

/**
 * 我们需计算一个要给定基本数据类型的长度
 */
public class MyUDF extends GenericUDF {
    /**
     * 判断传进来的参数的类型和长度
     * 约定返回的数据类型
     */
    @Override
    public ObjectInspector initialize(ObjectInspector[] arguments) throws UDFArgumentException {

        if (arguments.length !=1) {
            throw  new UDFArgumentLengthException("please give me  only one arg");
        }

        if (!arguments[0].getCategory().equals(ObjectInspector.Category.PRIMITIVE)){
            throw  new UDFArgumentTypeException(1, "i need primitive type arg");
        }

        return PrimitiveObjectInspectorFactory.javaIntObjectInspector;
    }

    /**
     * 解决具体逻辑的
     */
    @Override
    public Object evaluate(DeferredObject[] arguments) throws HiveException {

        Object o = arguments[0].get();
        if(o==null){
            return 0;
        }

        return o.toString().length();
    }

    @Override
    // 用于获取解释的字符串
    public String getDisplayString(String[] children) {
        return "";
    }
}

4)创建临时函数
(1)打成jar包上传到服务器/opt/module/hive/datas/myudf.jar
(2)将jar包添加到hive的classpath,临时生效

add jar /opt/module/hive/datas/myudf.jar;

(3)创建临时函数与开发好的java class关联

create temporary function my_len 
as "com.yudan.hive.udf.MyUDF";

(4)即可在hql中使用自定义的临时函数

select 
    ename,
    my_len(ename) ename_len 
from emp;

(5)删除临时函数

drop temporary function my_len;

注意:临时函数只跟会话有关系,跟库没有关系。只要创建临时函数的会话不断,在当前会话下,任意一个库都可以使用,其他会话全都不能使用。

4)创建永久函数
(1)创建永久函数
注意:因为add jar本身也是临时生效,所以在创建永久函数的时候,需要制定路径(并且因为元数据的原因,这个路径还得是HDFS上的路径)。

create function my_len2 
as "com.atguigu.hive.udf.MyUDF" 
using jar "hdfs://hadoop102:8020/udf/myudf.jar";

(2)即可在hql中使用自定义的永久函数

select 
    ename,
    my_len2(ename) ename_len 
from emp;

(3)删除永久函数

drop function my_len2;

注意:永久函数跟会话没有关系,创建函数的会话断了以后,其他会话也可以使用。

永久函数创建的时候,在函数名之前需要自己加上库名,如果不指定库名的话,会默认把当前库的库名给加上。

永久函数使用的时候,需要在指定的库里面操作,或者在其他库里面使用的话加上,库名.函数名。文章来源地址https://www.toymoban.com/news/detail-824775.html

到了这里,关于大数据Hive--函数的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 0401hive入门-hadoop-大数据学习.md

    Apache Hive是一个开源的数据仓库查询和分析工具,最初由Facebook开发,并后来捐赠给Apache软件基金会。Hive允许用户使用SQL语言来查询和分析存储在Hadoop分布式文件系统(HDFS)中的大规模数据集。它的设计目标是使非技术用户能够轻松地在Hadoop集群上执行数据查询和分析任务,

    2024年02月09日
    浏览(46)
  • 大数据Hadoop之——部署hadoop+hive+Mysql环境(window11)

    目录 一、安装JDK8 1)JDK下载地址 2)设置环境变量 二、Hadoop安装(window10环境) 1)下载Hadoop3.1.3 2)Hadoop配置环境变量 3)在hadoop解压目录下创建相关目录 4)修改Hadoop配置文件 1、core-site.xml文件:添加以下配置 2、hdfs-site.xml文件:添加以下配置,路径改成自己的安装路径 3、

    2024年02月08日
    浏览(47)
  • 详解数据库、Hive以及Hadoop之间的关系

    数据库是一个用于存储和管理数据的系统。 数据库管理系统(DBMS)是用于管理数据库的软件。 数据库使用表和字段的结构来组织和存储数据。 关系型数据库是最常见的数据库类型,使用SQL(Structured Query Language)进行数据操作和查询。 数据库管理系统(DBMS):数据库管理系

    2024年03月15日
    浏览(58)
  • Hadoop内hive之间,hive与DB、ES等之间数据交互的问题与解决方案

    之前做大数据处理,经常遇到各种问题。很多时候是项目作业简单项配置问题,也可能是导入导出参数配置的问题,也可能是公司Hadoop平台的问题。那么如何排查问题,解决问题?这种事情,除了自己要积累一些大数据的知识和技能外,也需要一些获得一些排查问题的技巧、

    2024年02月01日
    浏览(48)
  • Hive初始化异常:org.apache.hadoop.hive.metastore.HiveMetaException: 加载驱动程序大数据失败

    近年来,随着大数据技术的快速发展,越来越多的企业开始关注和运用大数据处理和分析。然而,在使用Hive进行大数据处理时,有时会遇到一些问题,比如在初始化过程中出现了加载驱动程序大数据失败的异常。本文将介绍这个异常的原因和解决方法,并提供相应的源代码示

    2024年02月04日
    浏览(44)
  • 【大数据Hive】Hive 窗口函数使用详解

    目录 一、前言 二、hive 窗口函数概述 2.1 聚合函数与窗口函数差别 2.1.1 创建一张表

    2024年02月11日
    浏览(42)
  • 大数据环境搭建 Hadoop+Hive+Flume+Sqoop+Azkaban

    Hadoop:3.1.0 CentOS:7.6 JDK:1.8 这里网上教程很多,就不贴图了 【内存可以尽量大一些,不然Hive运行时内存不够】 创建tools目录,用于存放文件安装包 将Hadoop和JDK的安装包上传上去 创建server目录,存放解压后的文件 解压jdk 配置环境变量 配置免密登录 配置映射,配置ip地址和

    2024年02月09日
    浏览(43)
  • 大数据:Hadoop基础常识hive,hbase,MapReduce,Spark

    Hadoop是根据Google三大论文为基础研发的,Google 三大论文分别是: MapReduce、 GFS和BigTable。 Hadoop的核心是两个部分: 一、分布式存储(HDFS,Hadoop Distributed File System)。 二、分布式计算(MapReduce)。 MapReduce MapReduce是“ 任务的分解与结果的汇总”。 Map把数据切分——分布式存放

    2024年04月25日
    浏览(55)
  • 【大数据之Hive】十六、Hive-HQL函数之窗口函数(开窗函数)

      先定义了窗口的大小(按行来算),然后对窗口内的行的数据进行计算,再将计算结果返回给改行。   窗口函数包括窗口和函数两部分,窗口用于定义计算范围,函数用于定义计算逻辑,窗口函数只会在原来的表上增加一列结果列,不改变原来的数据。 函数:   绝

    2024年02月11日
    浏览(41)
  • Hadoop+hive+flask+echarts大数据可视化之系统数据收集

           谈到大数据的项目,一般以数据可视化为主体,收集大数据中的有用信息,存储到分布式存储系统hadoop中,由hive导入hadoop中存储的数据,使用HQL语句对数据进行分析,hive底层会将HQL语句转化成mapreduce程序,flask作为python语言的后台技术,可以连接hive将HQL语句的分析结

    2023年04月13日
    浏览(59)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包