大数据全系列 教程
1869个小节阅读:467.3k
目录
408考研
JAVA全系列 教程
面向对象的程序设计语言
Python全系列 教程
Python3.x版本,未来主流的版本
人工智能 教程
顺势而为,AI创新未来
大厂算法 教程
算法,程序员自我提升必经之路
C++ 教程
一门通用计算机编程语言
微服务 教程
目前业界流行的框架组合
web前端全系列 教程
通向WEB技术世界的钥匙
大数据全系列 教程
站在云端操控万千数据
AIGC全能工具班
A A
White Night
通常情况下,作业会通过计算split切片的数量决定产生对应个数map任务。
主要决定因素:input的文件总个数,input的文件大小,集群设置的文件块大小。block块,split_size,文件个数 split切片数量决定map task数量
思考一:是不是map数越多越好?
答:不是。如果一个任务有很多小文件,则每个小文件都会被当成一个split切片,用一个map任务来完成,执行真是业务逻辑运算的时间远远小于map任务的启动和初始化的时间,就会造成很大的资源浪费。另外,同时可执行的map数也是受限的。如何优化,答案当然是减少map的数量,比如通过合并小文件减少map数量,见10.10.2。
思考二:是不是保证每个map处理接近128M的文件块,就高枕无忧了?
答:不一定,比如一个128MB(或者接近该值)的文件,默认情况会用一个map去完成,但是这个文件可能只有很少的小字段,却又几千万的记录,如果map处理的逻辑比较复杂,用一个map任务去做,肯定比较耗时。如何解决?当然是增加map的个数。见10.10.3
小文件数目多,容易在文件存储端造成压力,给hdfs造成压力,影响效率
设置合并属性
是否合并map输出文件:hive.merge.mapfiles=true
是否合并reduce输出文件:hive.merge.mapredfiles=true;
合并文件的大小:hive.merge.size.per.task=256*1024*1024
CombineHiveInputFormat具有对小文件进行合并的功能(系统默认的格式)
set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat
对比设置split逻辑切块的大小(minSize,maxSize),复杂文件增加map数量就是将splitsize调小,同样的数据,切片数就变多。
xxxxxxxxxx
set mapred.max.split.size=256000000(默认值)
set mapred.min.split.size=1;(默认值)
splitSize = Math.max(minSize,Math.min(maxSize,blockSize))
一个split的最大值,即每个map处理文件的最大值。让该值小于blocksize就可以增加map的个数。
扩展Map数量相关的参数
xxxxxxxxxx
mapred.min.split.size.per.node
一个节点上split的最小值
mapred.min.split.size.per.rack
一个机架上split的最小值