目录
百战程序员,全站22050+开发课程+文档 ,学习精选优质好课快人一步!观看视频 快捷键ALT+N

大数据全系列 教程

1869个小节阅读:467.3k

收藏
全部开发者教程

408考研

JAVA全系列 教程

面向对象的程序设计语言

Python全系列 教程

Python3.x版本,未来主流的版本

人工智能 教程

顺势而为,AI创新未来

大厂算法 教程

算法,程序员自我提升必经之路

C++ 教程

一门通用计算机编程语言

微服务 教程

目前业界流行的框架组合

web前端全系列 教程

通向WEB技术世界的钥匙

大数据全系列 教程

站在云端操控万千数据

AIGC全能工具班

A

A A

White Night

阅读(229)
赞(0)

通常情况下,作业会通过计算split切片的数量决定产生对应个数map任务。

主要决定因素:input的文件总个数,input的文件大小,集群设置的文件块大小。block块,split_size,文件个数 split切片数量决定map task数量

思考一:是不是map数越多越好?

答:不是。如果一个任务有很多小文件,则每个小文件都会被当成一个split切片,用一个map任务来完成,执行真是业务逻辑运算的时间远远小于map任务的启动和初始化的时间,就会造成很大的资源浪费。另外,同时可执行的map数也是受限的。如何优化,答案当然是减少map的数量,比如通过合并小文件减少map数量,见10.10.2。

思考二:是不是保证每个map处理接近128M的文件块,就高枕无忧了?

答:不一定,比如一个128MB(或者接近该值)的文件,默认情况会用一个map去完成,但是这个文件可能只有很少的小字段,却又几千万的记录,如果map处理的逻辑比较复杂,用一个map任务去做,肯定比较耗时。如何解决?当然是增加map的个数。见10.10.3

10.10.2 合并小文件

小文件数目多,容易在文件存储端造成压力,给hdfs造成压力,影响效率

设置合并属性

是否合并map输出文件:hive.merge.mapfiles=true

是否合并reduce输出文件:hive.merge.mapredfiles=true;

合并文件的大小:hive.merge.size.per.task=256*1024*1024

CombineHiveInputFormat具有对小文件进行合并的功能(系统默认的格式)

set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat

10.10.3 复杂文件增加map数

对比设置split逻辑切块的大小(minSize,maxSize),复杂文件增加map数量就是将splitsize调小,同样的数据,切片数就变多。

一个split的最大值,即每个map处理文件的最大值。让该值小于blocksize就可以增加map的个数。

扩展Map数量相关的参数

北京市昌平区回龙观镇南店村综合商业楼2楼226室

©2014-2023 百战卓越(北京)科技有限公司 All Rights Reserved.

京ICP备14032124号-2