這篇文章將為大家詳細(xì)講解有關(guān)Maps與Reduces是什么,小編覺(jué)得挺實(shí)用的,因此分享給大家做個(gè)參考,希望大家閱讀完這篇文章后可以有所收獲。
專(zhuān)注于為中小企業(yè)提供成都網(wǎng)站設(shè)計(jì)、網(wǎng)站建設(shè)服務(wù),電腦端+手機(jī)端+微信端的三站合一,更高效的管理,為中小企業(yè)永靖免費(fèi)做網(wǎng)站提供優(yōu)質(zhì)的服務(wù)。我們立足成都,凝聚了一批互聯(lián)網(wǎng)行業(yè)人才,有力地推動(dòng)了數(shù)千家企業(yè)的穩(wěn)健成長(zhǎng),幫助中小企業(yè)通過(guò)網(wǎng)站建設(shè)實(shí)現(xiàn)規(guī)模擴(kuò)充和轉(zhuǎn)變。
map和reduce是hadoop的核心功能,hadoop正是通過(guò)多個(gè)map和reduce的并行運(yùn)行來(lái)實(shí)現(xiàn)任務(wù)的分布式并行計(jì)算。
從這個(gè)觀點(diǎn)來(lái)看,如果將map和reduce的數(shù)量設(shè)置為1,那么用戶(hù)的任務(wù)就沒(méi)有并行執(zhí)行,但是map和reduce的數(shù)量也不能過(guò)多,數(shù)量過(guò)多雖然可以提高任務(wù)并行度,但是太多的map和reduce也會(huì)導(dǎo)致整個(gè)hadoop框架因?yàn)檫^(guò)度的系統(tǒng)資源開(kāi)銷(xiāo)而使任務(wù)失敗。所以用戶(hù)在提交map/reduce作業(yè)時(shí)應(yīng)該在一個(gè)合理的范圍內(nèi),這樣既可以增強(qiáng)系統(tǒng)負(fù)載勻衡,也可以降低任務(wù)失敗的開(kāi)銷(xiāo)。
極端情況:一個(gè)極端是1個(gè)map、1個(gè)reduce的情況,這樣沒(méi)有任務(wù)并行。另一個(gè)極端是1,000,000個(gè)map、1,000,000個(gè)reduce的情況,會(huì)由于 框架的開(kāi)銷(xiāo)過(guò)大而使得系統(tǒng)資源耗盡。
so,合理地選擇Job中 Tasks數(shù)的大小能顯著的改善Hadoop執(zhí)行的性能。增加task的個(gè)數(shù)會(huì)增加系統(tǒng)框架的開(kāi)銷(xiāo),但同時(shí)也會(huì)增強(qiáng)負(fù)載均衡并降低任務(wù)失敗的開(kāi)銷(xiāo)。
map的數(shù)量
map的數(shù)量通常是由hadoop集群的DFS塊大小確定的,也就是輸入文件的總塊數(shù)。正常的map數(shù)量的并行規(guī)模大致是每一個(gè)Node是10~100個(gè),對(duì)于CPU消耗較小的作業(yè)可以設(shè)置Map數(shù)量為300個(gè)左右,但是由于hadoop的沒(méi)一個(gè)任務(wù)在初始化時(shí)需要一定的時(shí)間,因此比較合理的情況是每個(gè)map執(zhí)行的時(shí)間至少超過(guò)1分鐘。
具體的數(shù)據(jù)分片是這樣的,InputFormat在默認(rèn)情況下會(huì)根據(jù)hadoop集群的DFS塊大小進(jìn)行分片,每一個(gè)分片會(huì)由一個(gè)map任務(wù)來(lái)進(jìn)行處理,當(dāng)然用戶(hù)還是可以通過(guò)參數(shù)mapred.min.split.size參數(shù)在作業(yè)提交客戶(hù)端進(jìn)行自定義設(shè)置。還有一個(gè)重要參數(shù)就是mapred.map.tasks,這個(gè)參數(shù)設(shè)置的map數(shù)量?jī)H僅是一個(gè)提示,只有當(dāng)InputFormat 決定了map任務(wù)的個(gè)數(shù)比mapred.map.tasks值小時(shí)才起作用【可跟蹤源代碼查看理解】。同樣,Map任務(wù)的個(gè)數(shù)也能通過(guò)使用JobConf 的conf.setNumMapTasks(int num)方法來(lái)手動(dòng)地設(shè)置。這個(gè)方法能夠用來(lái)增加map任務(wù)的個(gè)數(shù),但是不能設(shè)定任務(wù)的個(gè)數(shù)小于Hadoop系統(tǒng)通過(guò)分割輸入數(shù)據(jù)得到的值。當(dāng)然為了提高集群的并發(fā)效率,可以設(shè)置一個(gè)默認(rèn)的map數(shù)量,當(dāng)用戶(hù)的map數(shù)量較小或者比本身自動(dòng)分割的值還小時(shí)可以使用一個(gè)相對(duì)交大的默認(rèn)值,從而提高整體hadoop集群的效率。
MapReduce從HDFS中分割讀取split文件,通過(guò)InputFormat交給Mapper來(lái)處理。split是 MapReduce中最小的計(jì)算單元,一個(gè)split文件對(duì)應(yīng)一個(gè)Map Task。
default,HDFS中的一個(gè)block,對(duì)應(yīng)一個(gè)split。
當(dāng)執(zhí)行WordCount時(shí):
一個(gè)輸入文件若小于64M,default則保存在hdfs中的一個(gè)block中,對(duì)應(yīng)一個(gè)split文件,so, 產(chǎn)生一個(gè)Map Task。
一個(gè)輸入文件若為150M,default則保存在hdfs中的三個(gè)block中,對(duì)應(yīng)三個(gè)split文件,so ,產(chǎn)生三個(gè)Map Task。
若有三個(gè)輸入文件都小于64M,default會(huì)保存在hdfs中的三個(gè)block中,對(duì)應(yīng)三個(gè)split文件,so ,產(chǎn)生三個(gè)Map Task。
用戶(hù)可自行指定block與split之間的關(guān)系,HDFS中的一個(gè)block,一個(gè)split可以對(duì)應(yīng)多個(gè)block,split與block的關(guān)系 是一對(duì)多的關(guān)系。
總結(jié)MapReduce作業(yè)中Map Task數(shù)目是由:
輸入文件的個(gè)數(shù)和大??;
?hadoop設(shè)置split與block的關(guān)系來(lái)決定的。 ?
reduece的數(shù)量
reduce在運(yùn)行時(shí)往往需要從相關(guān)map端復(fù)制數(shù)據(jù)到reduce節(jié)點(diǎn)來(lái)處理,因此相比于map任務(wù)。
reduce節(jié)點(diǎn)資源是相對(duì)比較缺少的,同時(shí)相對(duì)運(yùn)行較慢,正確的reduce任務(wù)的個(gè)數(shù)應(yīng)該是0.95或者1.75 *(節(jié)點(diǎn)數(shù) ×mapred.tasktracker.tasks.maximum參數(shù)值)。如果任務(wù)數(shù)是節(jié)點(diǎn)個(gè)數(shù)的0.95倍,那么所有的reduce任務(wù)能夠在 map任務(wù)的輸出傳輸結(jié)束后同時(shí)開(kāi)始運(yùn)行。如果任務(wù)數(shù)是節(jié)點(diǎn)個(gè)數(shù)的1.75倍,那么高速的節(jié)點(diǎn)會(huì)在完成他們第一批reduce任務(wù)計(jì)算之后開(kāi)始計(jì)算第二批 reduce任務(wù),這樣的情況更有利于負(fù)載均衡。同時(shí)需要注意增加reduce的數(shù)量雖然會(huì)增加系統(tǒng)的資源開(kāi)銷(xiāo),但是可以改善負(fù)載勻衡,降低任務(wù)失敗帶來(lái)的負(fù)面影響。同樣,Reduce任務(wù)也能夠與 map任務(wù)一樣,通過(guò)設(shè)定JobConf 的conf.setNumReduceTasks(int num)方法來(lái)增加任務(wù)個(gè)數(shù)。
reduce數(shù)量為0
有些作業(yè)不需要進(jìn)行歸約進(jìn)行處理,那么就可以設(shè)置reduce的數(shù)量為0來(lái)進(jìn)行處理,這種情況下用戶(hù)的作業(yè)運(yùn)行速度相對(duì)較高,map的輸出會(huì)直接寫(xiě)入到 SetOutputPath(path)設(shè)置的輸出目錄,而不是作為中間結(jié)果寫(xiě)到本地。同時(shí)Hadoop框架在寫(xiě)入文件系統(tǒng)前并不對(duì)之進(jìn)行排序。
map red.tasktracker.map.tasks.maximum 這個(gè)是一個(gè)task tracker中可同時(shí)執(zhí)行的map的最大個(gè)數(shù),默認(rèn)值為2,
看《pro hadoop》:it is common to set this value to the effective number of CPUs on the node 把job分割成map和reduce,合理地選擇Job中 Tasks數(shù)的大小能顯著的改善Hadoop執(zhí)行的性能。增加task的個(gè)數(shù)會(huì)增加系統(tǒng)框架的開(kāi)銷(xiāo),但同時(shí)也會(huì)增強(qiáng)負(fù)載均衡并降低任務(wù)失敗的開(kāi)銷(xiāo)。一個(gè)極端是1個(gè)map、1個(gè)reduce的情況,這樣沒(méi)有任務(wù)并行。另一個(gè)極端是1,000,000個(gè)map、1,000,000個(gè)reduce的情況,會(huì)由于框架的開(kāi)銷(xiāo)過(guò)大而使得系統(tǒng)資源耗盡。
Map任務(wù)的數(shù)量
Map的數(shù)量經(jīng)常是由輸入數(shù)據(jù)中的DFS塊的數(shù)量來(lái)決定的。這還經(jīng)常會(huì)導(dǎo)致用戶(hù)通過(guò)調(diào)整DFS塊大小來(lái)調(diào)整map的數(shù)量。正確的map任務(wù)的并行度似乎應(yīng)該是10-100 maps/節(jié)點(diǎn),盡管我們對(duì)于處理cpu運(yùn)算量小的任務(wù)曾經(jīng)把這個(gè)數(shù)字調(diào)正到300maps每節(jié)點(diǎn)。Task的初始化會(huì)花費(fèi)一些時(shí)間,因此最好控制每個(gè) map任務(wù)的執(zhí)行超過(guò)一分鐘。
實(shí)際上控制map任務(wù)的個(gè)數(shù)是很 精妙的。mapred.map.tasks參數(shù)對(duì)于InputFormat設(shè)定map執(zhí)行的個(gè)數(shù)來(lái)說(shuō)僅僅是一個(gè)提示。InputFormat的行為應(yīng)該把輸入數(shù)據(jù)總的字節(jié)值分割成合適數(shù)量的片段。但是默認(rèn)的情況是DFS的塊大小會(huì)成為對(duì)輸入數(shù)據(jù)分割片段大小的上界。一個(gè)分割大小的下界可以通過(guò)一個(gè)mapred.min.split.size參數(shù)來(lái)設(shè)置。因此,如果你有一個(gè)大小是10TB的輸入數(shù)據(jù),并設(shè)置DFS塊大小為 128M,你必須設(shè)置至少82K個(gè)map任務(wù),除非你設(shè)置的mapred.map.tasks參數(shù)比這個(gè)數(shù)還要大。最終InputFormat 決定了map任務(wù)的個(gè)數(shù)。
Map任務(wù)的個(gè)數(shù)也能通過(guò)使用JobConf 的 conf.setNumMapTasks(int num)方法來(lái)手動(dòng)地設(shè)置。這個(gè)方法能夠用來(lái)增加map任務(wù)的個(gè)數(shù),但是不能設(shè)定任務(wù)的個(gè)數(shù)小于Hadoop系統(tǒng)通過(guò)分割輸入數(shù)據(jù)得到的值。
Reduce任務(wù)的個(gè)數(shù)
正確的reduce任務(wù)的 個(gè)數(shù)應(yīng)該是0.95或者1.75 ×(節(jié)點(diǎn)數(shù) ×mapred.tasktracker.tasks.maximum參數(shù)值)。如果任務(wù)數(shù)是節(jié)點(diǎn)個(gè)數(shù)的0.95倍,那么所有的reduce任務(wù)能夠在 map任務(wù)的輸出傳輸結(jié)束后同時(shí)開(kāi)始運(yùn)行。如果任務(wù)數(shù)是節(jié)點(diǎn)個(gè)數(shù)的1.75倍,那么高速的節(jié)點(diǎn)會(huì)在完成他們第一批reduce任務(wù)計(jì)算之后開(kāi)始計(jì)算第二批 reduce任務(wù),這樣的情況更有利于負(fù)載均衡。
目前reduce任務(wù)的數(shù)量 由于輸出文件緩沖區(qū)大小(io.buffer.size × 2 ×reduce任務(wù)個(gè)數(shù) << 堆大小),被限制在大約1000個(gè)左右。直到能夠指定一個(gè)固定的上限后,這個(gè)問(wèn)題最終會(huì)被解決。
Reduce任務(wù)的數(shù)量同時(shí)也控制著輸出目錄下輸出文件的數(shù)量,但是通常情況下這并不重要,因?yàn)橄乱浑A段的 map/reduce任務(wù)會(huì)把他們分割成更加小的片段。
Reduce任務(wù)也能夠與 map任務(wù)一樣,通過(guò)設(shè)定JobConf 的conf.setNumReduceTasks(int num)方法來(lái)增加任務(wù)個(gè)數(shù)。
關(guān)于“Maps與Reduces是什么”這篇文章就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,使各位可以學(xué)到更多知識(shí),如果覺(jué)得文章不錯(cuò),請(qǐng)把它分享出去讓更多的人看到。
當(dāng)前標(biāo)題:Maps與Reduces是什么
文章轉(zhuǎn)載:http://jinyejixie.com/article32/pgshsc.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供小程序開(kāi)發(fā)、虛擬主機(jī)、網(wǎng)站維護(hù)、靜態(tài)網(wǎng)站、商城網(wǎng)站、外貿(mào)網(wǎng)站建設(shè)
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶(hù)投稿、用戶(hù)轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話(huà):028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)