大家都熟悉文件系統(tǒng),在對(duì)HDFS進(jìn)行分析前,我們并沒有花很多的時(shí)間去介紹HDFS的背景,畢竟大家對(duì)文件系統(tǒng)的還是有一定的理解的,而且也有很好的文檔。在分析Hadoop的MapReduce部分前,我們還是先了解系統(tǒng)是如何工作的,然后再進(jìn)入我們的分析部分。下面的圖來(lái)自http://horicky./2008/11/hadoop-mapreduce-implementation.html,是我看到的講MapReduce最好的圖。
以Hadoop帶的wordcount為例子(下面是啟動(dòng)行): hadoop jar hadoop-0.19.0-examples.jar wordcount /usr/input /usr/output 用戶提交一個(gè)任務(wù)以后,該任務(wù)由JobTracker協(xié)調(diào),先執(zhí)行Map階段(圖中M1,M2和M3),然后執(zhí)行Reduce階段(圖中R1和R2)。Map階段和Reduce階段動(dòng)作都受TaskTracker監(jiān)控,并運(yùn)行在獨(dú)立于TaskTracker的Java虛擬機(jī)中。 我們的輸入和輸出都是HDFS上的目錄(如上圖所示)。輸入由InputFormat接口描述,它的實(shí)現(xiàn)如ASCII文件,JDBC數(shù)據(jù)庫(kù)等,分別處理對(duì)于的數(shù)據(jù)源,并提供了數(shù)據(jù)的一些特征。通過InputFormat實(shí)現(xiàn),可以獲取InputSplit接口的實(shí)現(xiàn),這個(gè)實(shí)現(xiàn)用于對(duì)數(shù)據(jù)進(jìn)行劃分(圖中的splite1到splite5,就是劃分以后的結(jié)果),同時(shí)從InputFormat也可以獲取RecordReader接口的實(shí)現(xiàn),并從輸入中生成<k,v>對(duì)。有了<k,v>,就可以開始做map操作了。 map操作通過context.collect(最終通過 Map的動(dòng)作做完以后,進(jìn)入Reduce階段。這個(gè)階段分3個(gè)步驟:混洗(Shuffle),排序(sort)和reduce。 混洗階段,Hadoop的MapReduce框架會(huì)根據(jù)Map結(jié)果中的key,將相關(guān)的結(jié)果傳輸?shù)侥骋粋€(gè)Reducer上(多個(gè)Mapper產(chǎn)生的同一個(gè)key的中間結(jié)果分布在不同的機(jī)器上,這一步結(jié)束后,他們傳輸都到了處理這個(gè)key的Reducer的機(jī)器上)。這個(gè)步驟中的文件傳輸使用了HTTP協(xié)議。 排序和混洗是一塊進(jìn)行的,這個(gè)階段將來(lái)自不同Mapper具有相同key值的<key,value>對(duì)合并到一起。 Reduce階段,上面通過Shuffle和sort后得到的<key, (list of values)>會(huì)送到Reducer. reduce方法中處理,輸出的結(jié)果通過OutputFormat,輸出到DFS中。 |
|