博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Pig、Hive 自定义输入输出分隔符以及Map、Array嵌套分隔符冲突问题
阅读量:6274 次
发布时间:2019-06-22

本文共 5113 字,大约阅读时间需要 17 分钟。

hot3.png

PIG中输入输出分隔符默认是制表符\t,而到了hive中,默认变成了八进制的\001,

也就是ASCII: ctrl - A

Oct   Dec   Hex   ASCII_Char 

001   1       01     SOH (start of heading)

官方的解释说是尽量不和文中的字符重复,因此选用了 crtrl - A,单个的字符可以通过

row format delimited fields terminated by '#';  指定,PIG的单个分隔符的也可以通过 PigStorage指定,

但是多个字符做分隔符呢?PIG是直接报错,而HIVE只认第一个字符,而无视后面的多个字符。

解决办法:

PIG可以自定义加载函数(load function):继承LoadFunc,重写几个方法就ok了,

详见:

而在hive中,自定义多分隔符(Multi-character delimiter strings),有2种方法可以实现:

1、利用RegexSe:

RegexSerDe是hive自带的一种序列化/反序列化的方式,主要用来处理正则表达式。

RegexSerDe主要下面三个参数:

input.regex
output.format.string
input.regex.case.insensitive

下面给出一个完整的范例:

add jar /home/june/hadoop/hive-0.8.1-bin/lib/hive_contrib.jar;CREATE TABLE b(c0 string,c1 string,c2 string)ROW FORMATSERDE 'org.apache.hadoop.hive.contrib.serde2.RegexSerDe'WITH SERDEPROPERTIES( 'input.regex' = '([^,]*),,,,([^,]*),,,,([^,]*)','output.format.string' = '%1$s %2$s %3$s')STORED AS TEXTFILE;cat b.txt1,,,,2,,,,3a,,,,b,,,,c9,,,,5,,,,7load data local inpath 'b.txt' overwrite into table b;select * from b

REF:

2、重写相应的 InputFormat和OutputFormat方法:

//使用多字符来分隔字段,则需要你自定义InputFormat来实现。package org.apache.hadoop.mapred;import java.io.IOException;import org.apache.hadoop.io.LongWritable;import org.apache.hadoop.io.Text;import org.apache.hadoop.mapred.FileSplit;import org.apache.hadoop.mapred.InputSplit;import org.apache.hadoop.mapred.JobConf;import org.apache.hadoop.mapred.LineRecordReader;import org.apache.hadoop.mapred.RecordReader;import org.apache.hadoop.mapred.Reporter;import org.apache.hadoop.mapred.TextInputFormat;public class MyDemoInputFormat extends TextInputFormat {    @Override    public RecordReader
 getRecordReader(            InputSplit genericSplit, JobConf job, Reporter reporter)            throws IOException {        reporter.setStatus(genericSplit.toString());        MyDemoRecordReader reader = new MyDemoRecordReader(                new LineRecordReader(job, (FileSplit) genericSplit));        return reader;    }    public static class MyDemoRecordReader implements            RecordReader
 {        LineRecordReader reader;        Text text;        public MyDemoRecordReader(LineRecordReader reader) {            this.reader = reader;            text = reader.createValue();        }        @Override        public void close() throws IOException {            reader.close();        }        @Override        public LongWritable createKey() {            return reader.createKey();        }        @Override        public Text createValue() {            return new Text();        }        @Override        public long getPos() throws IOException {            return reader.getPos();        }        @Override        public float getProgress() throws IOException {            return reader.getProgress();        }        @Override        public boolean next(LongWritable key, Text value) throws IOException {            Text txtReplace;            while (reader.next(key, text)) {                txtReplace = new Text();                txtReplace.set(text.toString().toLowerCase().replaceAll("\\|\\|\\|", "\001"));                value.set(txtReplace.getBytes(), 0, txtReplace.getLength());                return true;            }            return false;        }    }}//这时候的建表语句是:create external table IF NOT EXISTS  test(id string,name string)partitioned by (day string) STORED AS INPUTFORMAT    'org.apache.hadoop.mapred.MyDemoInputFormat'  OUTPUTFORMAT    'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'LOCATION '/log/dw_srclog/test';

采集日志到Hive  

参考:

hive处理日志,自定义inputformat

原理很简单:hive 的内部分隔符是“ \001 ”,只要把分隔符替换成“\001 ”即可。

3、顺便提下如何定制hive中NULL的输出,默认在存储时被转义输出为\N,

如果我们需要修改成自定义的,例如为空,同样我们也要利用正则序列化:

hive> CREATE TABLE sunwg02 (id int,name STRING)ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'WITH SERDEPROPERTIES ('field.delim'='\t','escape.delim'='\\','serialization.null.format'=') STORED AS TEXTFILE;OKTime taken: 0.046 secondshive> insert overwrite table sunwg02 select * from sunwg00;Loading data to table sunwg022 Rows loaded to sunwg02OKTime taken: 18.756 seconds查看sunwg02在hdfs的文件[hjl@sunwg src]$ hadoop fs -cat /hjl/sunwg02/attempt_201105020924_0013_m_000000_0mary101 tomNULL值没有被转写成’\N’

PS:

其实话说回来这个功能很简单,但不知为何作者没有直接支持,或许未来的版本会支持的。

4、Hive Map、Array嵌套分隔符冲突问题

1|JOHN|abu1/abu21|key1:1'\004'2'\004'3/key12:6'\004'7'\004'82|Rain|abu2/abu22|key2:2'\004'2'\004'3/key22:6'\004'7'\004'83|Lisa|abu3/abu23|key3:3'\004'2'\004'3/key32:6'\004'7'\004'8

192250_KRU1_568818.png

针对上述文件可以看到, 紫色方框里的都是 array,但是为了避免 array 和 map嵌套array 里的分隔符冲突,

采用了不同的分隔符,一个是 / , 一个是 \004,为什么要用 \004 呢?

因为 hive 默认支持 8 级分隔符:\001~\008,用户只能重写覆盖 \001~\003,其它级别的分隔符 hive 会自己识别解析。

所以以本例来看,建表语句如下:

create EXTERNAL table IF NOT EXISTS testSeparator(    id string,     name string,    itemList array
,    kvMap map
>)ROW FORMAT DELIMITED FIELDS TERMINATED BY '|'COLLECTION ITEMS TERMINATED BY '/'MAP KEYS TERMINATED BY ':'LINES TERMINATED BY '\n'LOCATION '/tmp/dsap/rawdata/ooxx/3';

hive 结果如下:

193024_BNww_568818.png

关于这块知识可以参考:Hadoop The Definitive Guide - Chapter 12: Hive, Page No: 433, 434

Refer:

[1] HIVE nested ARRAY in MAP data type

转载于:https://my.oschina.net/leejun2005/blog/84136

你可能感兴趣的文章
机器学习可行性与VC dimension
查看>>
Nacos 发布 1.0.0 GA 版本,可大规模投入到生产环境
查看>>
关于ovirt主机即做存储又兼虚拟机主机的官方文档说明
查看>>
grep匹配结尾字符串的特殊情况
查看>>
第三方农资电商平台大丰收获华创资本数亿元C轮融资
查看>>
“虎鲸跳跃” 完成300万美元Pre-A轮融资,投资方为蓝湖资本及险峰长青
查看>>
JSON简介
查看>>
深圳安泰创新完成数千万新一轮融资,贝森资本领投
查看>>
当 Kubernetes 遇到阿里云
查看>>
MongoDB与Java 经典面试题、课程,好资源值得收藏
查看>>
标普全球获准进入中国市场,本土评级机构压力山大!
查看>>
阿里云基础产品技术月刊 2019年1月
查看>>
Go 语言的垃圾回收演化历程:垃圾回收和运行时问题
查看>>
苹果收购硅谷创业公司 Silk Labs,将继续布局 AI 和 IoT
查看>>
Idea开发Tomcat应用的热部署配置
查看>>
docker安装mysql
查看>>
GNOME 3.34 发布计划敲定,正式版将于9月11日推出
查看>>
使用Data Lake Analytics快速分析OSS上的日志文件
查看>>
《图解服务器端网络架构》笔记
查看>>
《叶问》第2期
查看>>