Fork me on GitHub

Hive基础学习-七之函数

函数

系统内置函数

  1. 查看系统自带的函数
1
hive> show functions;
  1. 显示自带的函数的用法
1
hive> desc function upper;
  1. 详细显示自带的函数的用法
1
hive> desc function extended upper;

自定义函数

  1. Hive 自带了一些函数,比如:max/min等,但是数量有限,自己可以通过自定义UDF来方便的扩展。
  2. 当Hive提供的内置函数无法满足你的业务处理需要时,此时就可以考虑使用用户自定义函数(UDF:user-defined function)。
  3. 根据用户自定义函数类别分为以下三种:
  • UDF(User-Defined-Function):一进一出
  • UDAF(User-Defined Aggregation Function):聚集函数,多进一出,类似于:count/max/min
  • UDTF(User-Defined Table-Generating Functions):一进多出,如lateral view explore()
  1. 官方文档:https://cwiki.apache.org/confluence/display/Hive/HivePlugins
  2. 编程步骤:
  • 继承org.apache.hadoop.hive.ql.UDF
  • 需要实现evaluate函数;evaluate函数支持重载;
  • 在hive的命令行窗口创建函数
1
2
3
4
5
添加jar
add jar linux_jar_path

创建function
create [temporary] function [dbname.]function_name AS class_name;
  • 在hive的命令行窗口删除函数
1
Drop [temporary] function [if exists] [dbname.]function_name;
  1. 注意:UDF必须要有返回类型,可以返回null,但是返回类型不能为void;

自定义UDF函数

  1. 创建一个Maven工程Hive
  2. 导入依赖
1
2
3
4
5
6
7
8
<dependencies>
<!-- https://mvnrepository.com/artifact/org.apache.hive/hive-exec -->
<dependency>
<groupId>org.apache.hive</groupId>
<artifactId>hive-exec</artifactId>
<version>1.2.1</version>
</dependency>
</dependencies>
  1. 创建一个类
1
2
3
4
5
6
7
8
9
package com.rickyin;

import org.apache.hadoop.hive.ql.exec.UDF;

public class MyUDF extends UDF {
public int evaluate(int data) {
return data + 5;
}
}
  1. 打成jar包上传到服务器/opt/module/jars/udf.jar
  2. 将jar包添加到hive的classpath
1
hive (default)> add jar /opt/module/datas/udf.jar;
  1. 创建临时函数与开发好的java class关联
1
hive (default)> create temporary function mylower as "com.atguigu.hive.Lower";
  1. 即可在hql中使用自定义的函数strip
1
hive (default)> select ename, mylower(ename) lowername from emp;

自定义UDTF函数

  1. 需求说明:自定义一个UDTF实现一个任意分割符的字符串切割成独立的单词,例如:
1
2
3
4
5
6
7
8
Line:"hello,world,hadoop,hive"

Myudtf(line,",")

hello
world
hadoop
hive
  1. 代码实现
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
package com.rickyin.udtf;

import org.apache.hadoop.hive.ql.exec.UDFArgumentException;
import org.apache.hadoop.hive.ql.metadata.HiveException;
import org.apache.hadoop.hive.ql.udf.generic.GenericUDTF;
import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;
import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspectorFactory;
import org.apache.hadoop.hive.serde2.objectinspector.StructObjectInspector;
import org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectInspectorFactory;

import java.util.ArrayList;
import java.util.List;

public class MyUDTF extends GenericUDTF {

private List<String> dataList = new ArrayList<String>();


/**
* 定义输出数据的列名和数据类型
*
* @param argOIs
* @return
* @throws UDFArgumentException
*/
@Override
public StructObjectInspector initialize(StructObjectInspector argOIs) throws UDFArgumentException {

//定义输出数据的列名
List<String> fieldNames = new ArrayList<String>();
fieldNames.add("word");

//定义输出数据的类型
List<ObjectInspector> fieldOIs = new ArrayList<ObjectInspector>();
fieldOIs.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector);
return ObjectInspectorFactory.getStandardStructObjectInspector(fieldNames, fieldOIs);
}

/**
* 业务逻辑处理
*
* @param objects
* @throws HiveException
*/
public void process(Object[] objects) throws HiveException {
//1.获取数据
String data = objects[0].toString();
//2.获取分隔符
String key = objects[1].toString();
//3.切分数据
String[] words = data.split(key);
//4.遍历写出
for (String word : words) {
//5.将数据放入集合
dataList.clear();
dataList.add(word);

/**
* 这里可能又误区,可能会将这一句提到 for 循环外面,但是就是在里面,一对多的关系
*/
//6.写出数据的操作
forward(dataList);
}
}

public void close() throws HiveException {

}
}