MapReduce框架原理
InputFormat数据输入
切片与MapTask并行度决定机制
- 问题引出
MapTask的并行度决定Map阶段的任务处理并发度,进而影响到整个Job的处理速度。
- MapTask并行度决定机制
- 数据块:Block是HDFS物理上把数据分成一块一块。
- 数据切片:数据切片只是在逻辑上对输入进行分片,并不会在磁盘上将其切分成片进行存储。
Job提交流程源码和切片源码详解
Job提交流程源码总结
FileInputFormat切片源码解析(input.getSplits(job))
FileInputFormat切片源码解析总结
FileInputFormat切片机制
CombineTextInputFormat切片机制
框架默认的TextInputFormat切片机制是对任务按文件规划切片,不管文件多小,都会是一个单独的切片,都会交给一个MapTask,这样如果有大量小文件,就会产生大量的MapTask,处理效率极其低下。
- 应用场景:
CombineTextInputFormat用于小文件过多的场景,它可以将多个小文件从逻辑上规划到一个切片中,这样,多个小文件就可以交给一个MapTask处理。
- 虚拟存储切片最大值设置
CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);// 4m
注意:虚拟存储切片最大值设置最好根据实际的小文件大小情况来设置具体的值。
- 切片机制
生成切片过程包括:虚拟存储过程和切片过程二部分。
(1)虚拟存储过程:
将输入目录下所有文件大小,依次和设置的setMaxInputSplitSize值比较,如果不大于设置的最大值,逻辑上划分一个块。如果输入文件大于设置的最大值且大于两倍,那么以最大值切割一块;当剩余数据大小超过设置的最大值且不大于最大值2倍,此时将文件均分成2个虚拟存储块(防止出现太小切片)。
例如setMaxInputSplitSize值为4M,输入文件大小为8.02M,则先逻辑上分成一个4M。剩余的大小为4.02M,如果按照4M逻辑划分,就会出现0.02M的小的虚拟存储文件,所以将剩余的4.02M文件切分成(2.01M和2.01M)两个文件。
(2)切片过程:
(a)判断虚拟存储的文件大小是否大于setMaxInputSplitSize值,大于等于则单独形成一个切片。
(b)如果不大于则跟下一个虚拟存储文件进行合并,共同形成一个切片。
(c)测试举例:有4个小文件大小分别为1.7M、5.1M、3.4M以及6.8M这四个小文件,则虚拟存储之后形成6个文件块,大小分别为:
1.7M,(2.55M、2.55M),3.4M以及(3.4M、3.4M)
最终会形成3个切片,大小分别为:
(1.7+2.55)M,(2.55+3.4)M,(3.4+3.4)M
CombineTextInputFormat案例实操
- 需求
将输入的大量小文件合并成一个切片统一处理。
- 输入数据
准备4个小文件
- 期望
期望一个切片处理4个文件
- 实现过程
不做任何处理,运行1.6节的WordCount案例程序,观察切片个数为4。
1
number of splits:4(程序中会打印)
在WordcountDriver中增加如下代码,运行程序,并观察运行的切片个数为3。
(a)驱动类中添加代码如下:1
2
3
4
5// 如果不设置InputFormat,它默认用的是TextInputFormat.class
job.setInputFormatClass(CombineTextInputFormat.class);
//虚拟存储切片最大值设置4m
CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);
(b)运行如果为3个切片。1
number of splits:3
- 在WordcountDriver中增加如下代码,运行程序,并观察运行的切片个数为1。
(a)驱动中添加代码如下:1
2
3
4
5// 如果不设置InputFormat,它默认用的是TextInputFormat.class
job.setInputFormatClass(CombineTextInputFormat.class);
//虚拟存储切片最大值设置20m
CombineTextInputFormat.setMaxInputSplitSize(job, 20971520);
(b)运行如果为1个切片。1
number of splits:1
FileInputFormat实现类
TextInputFormat
KeyValueTextInputFormat
KeyValueTextInputFormat使用案例
- 需求
统计输入文件中每一行的第一个单词相同的行数。
- 输入数据
1 | banzhang ni hao |
- 期望结果数据
1 | banzhang 2 |
- 需求分析
- 代码实现
- 编写Mapper类
1 | package com.atyp.mr.kv; |
- 编写Reducer类
1 | package com.atyp.mr.kv; |
- 编写Driver类
1 | package com.atyp.mr.kv; |
NLineInputFormat
NLineInputFormat使用案例
- 需求
对每个单词进行个数统计,要求根据每个输入文件的行数来规定输出多少个切片。此案例要求每三行放入一个切片中
- 输入数据
1 | banzhang ni hao |
- 期望输出数据
1 | Number of splits:4 |
- 需求分析
- 代码实现
- 编写Mapper类
1 | package com.atyp.mr.nline; |
- 编写Reducer类
1 | package com.atyp.mr.nline; |
- 编写Driver类
1 | package com.atyp.mr.nline; |
自定义InputFormat
自定义InputFormat案例实操
无论HDFS还是MapReduce,在处理小文件时效率都非常低,但又难免面临处理大量小文件的场景,此时,就需要有相应解决方案。可以自定义InputFormat实现小文件的合并。
- 需求
将多个小文件合并成一个SequenceFile文件(SequenceFile文件是Hadoop用来存储二进制形式的key-value对的文件格式),SequenceFile里面存储着多个文件,存储的形式为文件路径+名称为key,文件内容为value。
- 输入数据
one.txt1
2yongpeng weidong weinan
sanfeng luozong xiaoming
two.txt1
2
3
4longlong fanfan
mazong kailun yuhang yixin
longlong fanfan
mazong kailun yuhang yixin
three.txt1
2shuaige changmo zhenqiang
dongli lingu xuanxuan
- 需求分析
- 程序实现
- 自定义InputFromat
1 | package com.atyp.mr.inputformat; |
- 自定义RecordReader类
1 | package com.atyp.mr.inputformat; |
- 编写SequenceFileMapper类处理流程
1 | package com.atyp.mr.inputformat; |
- 编写SequenceFileReducer类处理流程
1 | package com.atyp.mr.inputformat; |
- 编写SequenceFileDriver类处理流程
1 | package com.atyp.mr.inputformat; |
MapReduce工作流程
流程示意图
流程详解
上面的流程是整个MapReduce最全工作流程,但是Shuffle过程只是从第7步开始到第16步结束,具体Shuffle过程详解,如下:
- 1)MapTask收集我们的map()方法输出的kv对,放到内存缓冲区中
- 2)从内存缓冲区不断溢出本地磁盘文件,可能会溢出多个文件
- 3)多个溢出文件会被合并成大的溢出文件
- 4)在溢出过程及合并的过程中,都要调用Partitioner进行分区和针对key进行排序
- 5)ReduceTask根据自己的分区号,去各个MapTask机器上取相应的结果分区数据
- 6)ReduceTask会取到同一个分区的来自不同MapTask的结果文件,ReduceTask会将这些文件再进行合并(归并排序)
- 7)合并成大文件后,Shuffle的过程也就结束了,后面进入ReduceTask的逻辑运算过程(从文件中取出一个一个的键值对Group,调用用户自定义的reduce()方法)
注意
Shuffle中的缓冲区大小会影响到MapReduce程序的执行效率,原则上说,缓冲区越大,磁盘io的次数越少,执行速度就越快。
缓冲区的大小可以通过参数调整,参数:io.sort.mb默认100M。