• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            posts - 200, comments - 8, trackbacks - 0, articles - 0

            基于Hadoop Sequencefile的小文件解決方案

            Posted on 2013-03-04 19:28 鑫龍 閱讀(869) 評論(0)  編輯 收藏 引用 所屬分類: Hadoop

            基于Hadoop Sequencefile的小文件解決方案

             

            一、 概述

               小文件是指文件size小于HDFSblock大小的文件。這樣的文件會給hadoop的擴展性和性能帶來嚴重問題。首先,在HDFS中,任何block,文件或者目錄在內存中均以對象的形式存儲,每個對象約占150byte,如果有1000 0000個小文件,每個文件占用一個block,則namenode大約需要2G空間。如果存儲1億個文件,則namenode需要20G空間。這樣namenode內存容量嚴重制約了集群的擴展。 其次,訪問大量小文件速度遠遠小于訪問幾個大文件。HDFS最初是為流式訪問大文件開發的,如果訪問大量小文件,需要不斷的從一個datanode跳到另一個datanode,嚴重影響性能。最后,處理大量小文件速度遠遠小于處理同等大小的大文件的速度。每一個小文件要占用一個slot,而task啟動將耗費大量時間甚至大部分時間都耗費在啟動task和釋放task上。

            二、Hadoop自帶的解決方案

            對于小文件問題,Hadoop本身也提供了幾個解決方案,分別為:Hadoop ArchiveSequence fileCombineFileInputFormat

            1 Hadoop Archive

            Hadoop Archive或者HAR,是一個高效地將小文件放入HDFS塊中的文件存檔工具,它能夠將多個小文件打包成一個HAR文件,這樣在減少namenode內存使用的同時,仍然允許對文件進行透明的訪問。

            使用HAR時需要兩點,第一,對小文件進行存檔后,原文件并不會自動被刪除,需要用戶自己刪除;第二,創建HAR文件的過程實際上是在運行一個mapreduce作業,因而需要有一個hadoop集群運行此命令。

            該方案需人工進行維護,適用管理人員的操作,而且har文件一旦創建,Archives便不可改變,不能應用于多用戶的互聯網操作。

            2 Sequence file

            sequence file由一系列的二進制key/value組成,如果為key小文件名,value為文件內容,則可以將大批小文件合并成一個大文件。

            Hadoop-0.21.0中提供了SequenceFile,包括WriterReaderSequenceFileSorter類進行寫,讀和排序操作。如果hadoop版本低于0.21.0的版本,實現方法可參見[3]

             

            該方案對于小文件的存取都比較自由,不限制用戶和文件的多少,但是SequenceFile文件不能追加寫入,適用于一次性寫入大量小文件的操作。

             

            3CombineFileInputFormat

            CombineFileInputFormat是一種新的inputformat,用于將多個文件合并成一個單獨的split,另外,它會考慮數據的存儲位置。

            該方案版本比較老,網上資料甚少,從資料來看應該沒有第二種方案好。

             

             

            三、小文件問題解決方案

            在原有HDFS基礎上添加一個小文件處理模塊,具體操作流程如下:

                   1.   當用戶上傳文件時,判斷該文件是否屬于小文件,如果是,則交給小文件處理模塊處理,否則,交給通用文件處理模塊處理。

                   2.  在小文件模塊中開啟一定時任務,其主要功能是當模塊中文件總size大于HDFSblock大小的文件時,則通過SequenceFile組件以文件名做key,相應的文件內容為value將這些小文件一次性寫入hdfs模塊。

                   3. 同時刪除已處理的文件,并將結果寫入數據庫。

                   4.  當用戶進行讀取操作時,可根據數據庫中的結果標志來讀取文件。


            轉自:http://lxm63972012.iteye.com/blog/1429011
            精品国产乱码久久久久久呢 | 亚洲综合伊人久久综合| 久久激情亚洲精品无码?V| 久久久久国色AV免费看图片| 欧美久久综合九色综合| 久久亚洲AV成人无码电影| 久久国产免费观看精品| 一级做a爰片久久毛片看看| 伊人久久大香线蕉av不变影院| 精品永久久福利一区二区| 一级做a爰片久久毛片毛片| 91精品国产综合久久四虎久久无码一级| 97r久久精品国产99国产精| 国产色综合久久无码有码| 亚洲国产婷婷香蕉久久久久久| 亚洲国产精品成人久久蜜臀| 亚洲狠狠婷婷综合久久久久| 91精品久久久久久无码| 伊人久久大香线蕉av一区| 精品久久久久久无码免费| 欧美一区二区三区久久综合| 久久久WWW免费人成精品| 97久久久久人妻精品专区| 欧美精品乱码99久久蜜桃| 9999国产精品欧美久久久久久| 久久亚洲精品中文字幕| 久久婷婷色香五月综合激情| 狠狠人妻久久久久久综合| 久久精品中文无码资源站 | 久久99国产精品久久99小说| 国产综合免费精品久久久| 久久精品aⅴ无码中文字字幕重口| 久久伊人五月丁香狠狠色| 久久亚洲色一区二区三区| 狠狠人妻久久久久久综合| 精品久久久久久无码国产| 久久久久国产一区二区三区| 久久久国产精品| 久久久久久久久久久| 亚洲综合日韩久久成人AV| 亚洲国产另类久久久精品|