无处不在的快乐

时间:2017-10-24 15:23:46来源:杰瑞文章网点击:作文字数:500字
要知道怎么对MapReduce作业进行调优前提条件是需要对Map-Reduce的过程了然于胸。Map Side1.从磁盘读取数据并分片默认每个block对应一个分片,一个map task2.进行map处理运行自定义的map业务过程3.输出数据到缓冲区中map输出的数据并不是直接写入磁盘的,而是会先存储在一个预定义的buffer中4、分区、排序分组的过程对map输出的数据进行分区,按照key进行排序和分组5、归约(可选)相当于本地端的reduce过程6、合并写入磁盘对map的最终数据进行merge之后输出到磁盘中等待shuffle过程Reduce side1.从map端复制数据2.对数据进行合并以上两个步骤即为shuffle过程3.对数据进行排序4.进行reduce操作5.输出到磁盘详细的过程将会在调优技巧中体现出来最简单的调优方式设置CombinerCombiner在Map端提前进行了一次Reduce处理。可减少Map Task中间输出的结果,从而减少各个Reduce Task的远程拷贝数据量,最终表现为Map Task和Reduce Task执行时间缩短。选择合理的Writable类型为应用程序处理的数据选择合适的Writable类型可大大提升性能。比如处理整数类型数据时,直接采用IntWritable比先以Text类型读入在转换为整数类型要高效。如果输出整数的大部分可用一个或两个字节保存,那么直接采用VIntWritable或者VLongWritable,它们采用了变长整型的编码方式,可以大大减少输出数据量。作业级别调优增加输入文件的副本数假设集群有1个Namenode+8个Datanode节点,HDFS默认的副本数为3那么map端读取数据的时候,在启动map task的机器上读取本地的数据为3/8,一部分数据是通过网络从其他节点拿到的那么如果副本数设置为8会是什么情况?相当于每个子节点上都会有一份完整的数据,map读取的时候直接从本地拿,不需要通过网络这一层了但是在实际情况中设置副本数为8是不可行的,因为数据本身非常庞大,副本数超过5对集群的磁盘就非常有压力了,所以这项设置需要酌情处理该配置在hdfs-side.xml的dfs.replication项中设置Map side tuningInputFormat这是map阶段的第一步,从磁盘读取数据并切片,每个分片由一个map task处理当输入的是海量的小文件的时候,会启动大量的map task,效率及其之慢,有效的解决方式是使用CombineInputFormat自定义分片策略对小文件进行合并处理从而减少map task的数量,减少map过程使用的时间详情请看:自定义分片策略解决大量小文件问题另外,map task的启动数量也和下面这几个参数有关系:•mapred.min.split.size:Input Split的最小值 默认值1•mapred.max.split.size:Input Split的最大值•dfs.block.size:HDFS 中一个block大小,默认值128MB当mapred.min.split.size小于dfs.block.size的时候,一个block会被分为多个分片,也就是对应多个map task当mapred.min.split.size大于dfs.block.size的时候,一个分片可能对应多个block,也就是一个map task读取多个block数据集群的网络、IO等性能很好的时候,建议调高dfs.block.size根据数据源的特性,主要调整mapred.min.split.size来控制map task的数量Buffer该阶段是map side中将结果输出到磁盘之前的一个处理方式,通过对其进行设置的话可以减少map任务的IO开销,从而提高性能由于map任务运行时中间结果首先存储在buffer中,默认当缓存的使用量达到80%的时候就开始写入磁盘,这个过程叫做spill(溢出)这个buffer默认的大小是100M可以通过设定io.sort.mb的值来进行调整当map产生的数据非常大时,如果默认的buffer大小不够看,那么势必会进行非常多次的spill,进行spill就意味着要写磁盘,产生IO开销这时候就可以把io.sort.mb调大,那么map在整个计算过程中spill的次数就势必会降低,map task对磁盘的操作就会变少如果map tasks的瓶颈在磁盘上,这样调整就会大大提高map的计算性能但是如果将io.sort.mb调的非常大的时候,对机器的配置要求就非常高,因为占用内存过大,所以需要根据情况进行配置map并不是要等到buffer全部写满时才进行spill,因为如果全部写满了再去写spill,势必会造成map的计算部分等待buffer释放空间的情况。所以,map其实是当buffer被写满到一定程度(比如80%)时,才开始进行spill可以通过设置io.sort.spill.percent的值来调整这个阈值这个参数同样也是影响spill频繁程度,进而影响map task运行周期对磁盘的读写频率但是通常情况下只需要对io.sort.mb进行调整即可Merge该阶段是map产生spill之后,对spill进行处理的过程,通过对其进行配置也可以达到优化IO开销的目的map产生spill之后必须将些spill进行合并,这个过程叫做mergemerge过程是并行处理spill的,每次并行多少个spill是由参数io.sort.factor指定的,默认为10个如果产生的spill非常多,merge的时候每次只能处理10个spill,那么还是会造成频繁的IO处理适当的调大每次并行处理的spill数有利于减少merge数因此可以影响map的性能但是如果调整的数值过大,并行处理spill的进程过多会对机器造成很大压力Combine我们知道如果map side设置了Combiner,那么会根据设定的函数对map输出的数据进行一次类reduce的预处理但是和分组、排序分组不一样的是,combine发生的阶段可能是在merge之前,也可能是在merge之后这个时机可以由一个参数控制:min.num.spill.for.combine,默认值为3当job中设定了combiner,并且spill数最少有3个的时候,那么combiner函数就会在merge产生结果文件之前运行例如,产生的spill非常多,虽然我们可以通过merge阶段的io.sort.factor进行优化配置,但是在此之前我们还可以通过先执行combine对结果进行处理之后再对数据进行merge这样一来,到merge阶段的数据量将会进一步减少,IO开销也会被降到最低输出中间数据到磁盘这个阶段是map side的最后一个步骤,在这个步骤中也可以通过压缩选项的配置来得到任务的优化其实无论是spill的时候,还是最后merge产生的结果文件,都是可以压缩的压缩的好处在于,通过压缩减少写入读出磁盘的数据量。对中间结果非常大,磁盘速度成为map执行瓶颈的job,尤其有用控制输出是否使用压缩的参数是mapred.compress.map.output,值为true或者false启用压缩之后,会牺牲CPU的一些计算资源,但是可以节省IO开销,非常适合IO密集型的作业(如果是CPU密集型的作业不建议设置)设置压缩的时候,我们可以选择不同的压缩算法Hadoop默认提供了GzipCodec,LzoCodec,BZip2Codec,LzmaCodec等压缩格式通常来说,想要达到比较平衡的cpu和磁盘压缩比,LzoCodec比较合适,但也要取决于job的具体情况如果想要自行选择中间结果的压缩算法,可以设置配置参数:mapred.map.output.compression.codec=org.apache.hadoop.io.compress.DefaultCodec//或者其他用户自行选择的压缩方式12Map side tuning总结从上面提到的几点可以看到,map端的性能瓶颈都是频繁的IO操作造成的,所有的优化也都是针对IO进行的,而优化的瓶颈又很大程度上被机器的配置等外部因素所限制map端调优的相关参数:选项类型默认值描述mapred.min.split.size int 1 Input Split的最小值mapred.max.split.size int . Input Split的最大值io.sort.mb int 100 map缓冲区大小io.sort.spill.percent float 0.8 缓冲区阈值io.sort.factor int 10 并行处理spill的个数min.num.spill.for.combine int 3 最少有多少个spill的时候combine在merge之前进行mapred.compress.map.output boolean false map中间数据是否采用压缩mapred.map.output.compression.codec String . 压缩算法Reduce side tuningShuffle1.Copy由于job的每一个map都会根据reduce(n)数将数据分成map 输出结果分成n个partition,所以map的中间结果中是有可能包含每一个reduce需要处理的部分数据的为了优化reduce的执行时间,hadoop中等第一个map结束后,所有的reduce就开始尝试从完成的map中下载该reduce对应的partition部分数据在这个shuffle过程中,由于map的数量通常是很多个的,而每个map中又都有可能包含每个reduce所需要的数据所以对于每个reduce来说,去各个map中拿数据也是并行的,可以通过mapred.reduce.parallel.copies这个参数来调整,默认为5当map数量很多的时候,就可以适当调大这个值,减少shuffle过程使用的时间还有一种情况是:reduce从map中拿数据的时候,有可能因为中间结果丢失、网络等其他原因导致map任务失败而reduce不会因为map失败就永无止境的等待下去,它会尝试去别的地方获得自己的数据(这段时间失败的map可能会被重跑)所以设置reduce获取数据的超时时间可以避免一些因为网络不好导致无法获得数据的情况mapred.reduce.copy.backoff,默认300s一般情况下不用调整这个值,因为生产环境的网络都是很流畅的2.Merge由于reduce是并行将map结果下载到本地,所以也是需要进行merge的,所以io.sort.factor的配置选项同样会影响reduce进行merge时的行为和map一样,reduce下载过来的数据也是存入一个buffer中而不是马上写入磁盘的,所以我们同样可以控制这个值来减少IO开销控制该值的参数为:mapred.job.shuffle.input.buffer.percent,默认0.7,这是一个百分比,意思是reduce的可用内存中拿出70%作为buffer存放数据reduce的可用内存通过mapred.child.java.opts来设置,比如置为-Xmx1024m,该参数是同时设定map和reduce task的可用内存,一般为map buffer大小的两倍左右设置了reduce端的buffer大小,我们同样可以通过一个参数来控制buffer中的数据达到一个阈值的时候开始往磁盘写数据:mapred.job.shuffle.merge.percent,默认为0.66Sortsort的过程一般非常短,因为是边copy边merge边sort的,后面就直接进入真正的reduce计算阶段了Reduce之前我们说过reduc端的buffer,默认情况下,数据达到一个阈值的时候,buffer中的数据就会写入磁盘,然后reduce会从磁盘中获得所有的数据也就是说,buffer和reduce是没有直接关联的,中间多个一个写磁盘->读磁盘的过程,既然有这个弊端,那么就可以通过参数来配置使得buffer中的一部分数据可以直接输送到reduce,从而减少IO开销:mapred.job.reduce.input.buffer.percent,默认为0.0当值大于0的时候,会保留指定比例的内存读buffer中的数据直接拿给reduce使用这样一来,设置buffer需要内存,读取数据需要内存,reduce计算也要内存,所以要根据作业的运行情况进行调整Reduce side tuning总结和map阶段差不多,reduce节点的调优也是主要集中在加大内存使用量,减少IO,增大并行数reduce调优主要参数:选项类型默认值描述mapred.reduce.parallel.copies int 5 每个reduce去map中拿数据的并行数mapred.reduce.copy.backoff int 300 获取map数据最大超时时间mapred.job.shuffle.input.buffer.percent float 0.7 buffer大小占reduce可用内存的比例mapred.child.java.opts String . -Xmx1024m设置reduce可用内存为1gmapred.job.shuffle.merge.percent float 0.66 buffer中的数据达到多少比例开始写入磁盘mapred.job.reduce.input.buffer.percent float 0.0 指定多少比例的内存用来存放buffer中的数据MapReduce tuning总结Map Task和Reduce Task调优的一个原则就是减少数据的传输量尽量使用内存减少磁盘IO的次数增大任务并行数除此之外还有根据自己集群及网络的实际情况来调优Map task和Reduce task的启动数在集群部署完毕之后,根据机器的配置情况,我们就可以通过一定的公式知道每个节点上container的大小和数量1.mapper数量每个作业启动的mapper由输入的分片数决定,每个节点启动的mapper数应该是在10-100之间,且最好每个map的执行时间至少一分钟如果输入的文件巨大,会产生无数个mapper的情况,应该使用mapred.tasktracker.map.tasks.maximum参数确定每个tasktracker能够启动的最大mapper数,默认只有2以免同时启动过多的mapper2.reducer数量reducer的启动数量官方建议是0.95或者1.75*节点数*每个节点的container数使用0.95的时候reduce只需要一轮就可以完成使用1.75的时候完成较快的reducer会进行第二轮计算,并进行负载均衡增加reducer的数量会增加集群的负担,但是会得到较好的负载均衡结果和减低失败成本一些详细的参数:选项类型默认值描述mapred.reduce.tasks int 1 reduce task数量mapred.tasktracker.map.tasks.maximum int 2 每个节点上能够启动map task的最大数量mapred.tasktracker.reduce.tasks.maximum int 2 每个节点上能够启动reduce task的最大数量mapred.reduce.slowstart.completed.maps float 0.05 map阶段完成5%的时候开始进行reduce计算map和reduce task是同时启动的,很长一段时间是并存的共存的时间取决于mapred.reduce.slowstart.completed.maps的设置如果设置为0.6.那么reduce将在map完成60%后进入运行态如果设置的map和reduce参数都很大,势必造成map和reduce争抢资源,造成有些进程饥饿,超时出错,最大的可能就是socket.timeout的出错reduce是在33%的时候完成shuffle过程,所以确保reduce进行到33%的时候map任务全部完成,可以通过观察任务界面的完成度进行调整当reduce到达33%的时候,map恰好达到100%设置最佳的比例,可以让map先完成,但是不要让reduce等待计算资源
作文投稿

无处不在的快乐一文由杰瑞文章网免费提供,本站为公益性作文网站,此作文为网上收集或网友提供,版权归原作者所有,如果侵犯了您的权益,请及时与我们联系,我们会立即删除!

杰瑞文章网友情提示:请不要直接抄作文用来交作业。你可以学习、借鉴、期待你写出更好的作文。

说说你对这篇作文的看法吧

最新发表的关于快乐的作文

    SQL Error: select id,classid,ttid,onclick,plnum,totaldown,newspath,filename,userid,username,firsttitle,isgood,ispic,istop,isqf,ismember,isurl,truetime,lastdotime,havehtml,groupid,userfen,titlefont,titleurl,stb,fstb,restb,keyboard,eckuid,title,ftitle,newstime,titlepic,smalltext,writer,diggtop from ***_ecms_news where (classid='269') order by newstime desc limit 10

最受欢迎的关于快乐的作文

    SQL Error: select id,classid,ttid,onclick,plnum,totaldown,newspath,filename,userid,username,firsttitle,isgood,ispic,istop,isqf,ismember,isurl,truetime,lastdotime,havehtml,groupid,userfen,titlefont,titleurl,stb,fstb,restb,keyboard,eckuid,title,ftitle,newstime,titlepic,smalltext,writer,diggtop from ***_ecms_news where (classid='269') order by onclick desc limit 10