• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            posts - 183,  comments - 10,  trackbacks - 0

            搜索引擎會通過日志文件把用戶每次檢索使用的所有檢索串都記錄下來,每個查詢串的長度為1-255字節。
            假設目前有一千萬個記錄(這些查詢串的重復度比較高,雖然總數是1千萬,但如果除去重復后,不超過3百萬個。一個查詢串的重復度越高,說明查詢它的用戶越多,也就是越熱門。請你統計最熱門的10個查詢串,要求使用的內存不能超過1G。


            先統計所有查詢的次數,所有查詢有 300 萬個,255 * 300 * 10000B = 765 MB,可以存入內存。這里使用 STL 中的 map。所得時間復雜度為 O(NlogM),N 為所有的查詢,包括重復的,M 為不重復的查詢。更好的方法是用散列。

            然后遍歷 map,維護一個大小為 10 的集合,在遍歷 map 時,比較當前查詢的出現次數與集合中出現次數最小的查詢的出現此時比較,如果大于,將當前查詢替換到集合中。
            這里的集合還是用的 map,時間復雜度為 O(MlogK),這里 K = 10。

            總的時間復雜度為 O(NlogM) + O(MlogK)


            也可以將這個過程合二為一。即每次在統計的過程中,查詢大小為 K 的集合。如果符合條件,則將當前查詢替換到集合中。但是還要考慮實時更新集合中的元素。
            這種方法的時間復雜度為 O(N(logM + logK + K))。

            由于第二種方法還得考慮實時更新。效率遠沒有第一種方案高。

            實現:

             1 #include <iostream>
             2 #include <fstream>
             3 #include <map>
             4 #include <string>
             5 using namespace std;
             6 
             7 void statistics(map<stringint>& data, const string& query)
             8 {
             9     ++data[query];
            10 }
            11 
            12 void findTopK(multimap<intstring>& topK, int k, const map<stringint>& data)
            13 {
            14     topK.clear();
            15     for (map<stringint>::const_iterator cit = data.begin(); cit != data.end(); ++cit)
            16     {
            17         if (topK.size() < k)
            18         {
            19             topK.insert(make_pair(cit->second, cit->first));
            20         }
            21         else
            22         {
            23             if (cit->second > topK.begin()->first)
            24             {
            25                 topK.erase(topK.begin());
            26                 topK.insert(make_pair(cit->second, cit->first));
            27             }
            28         }
            29     }
            30 }
            31 
            32 int main()
            33 {
            34     ifstream fin("queryfile.txt");
            35     map<stringint> data;
            36     multimap<intstring> top10;
            37     string query;
            38     while (getline(fin, query))
            39     {
            40         statistics(data, query);
            41     }
            42 
            43     //for (map<string, int>::const_iterator cit = data.begin(); cit != data.end(); ++cit)
            44     //{
            45     //    cout << cit->first << '\t' << cit->second << endl;
            46     //}
            47 
            48     //cout << endl;
            49     findTopK(top10, 10, data);
            50 
            51     for (multimap<intstring>::const_reverse_iterator cit = top10.rbegin(); cit != top10.rend(); ++cit)
            52     {
            53         cout << cit->second << '\t' << cit->first << endl;
            54     }
            55 
            56     return 0;
            57 }

            http://blog.donews.com/jiji262/2011/03/baidu_top_k_interview/
            http://blog.redfox66.com/post/2010/09/23/top-k-algoriyhm-analysis.aspx
            http://blog.csdn.net/jasonblog/archive/2010/08/19/5825026.aspx
            posted on 2011-04-30 18:06 unixfy 閱讀(199) 評論(0)  編輯 收藏 引用
            亚洲AV无码一区东京热久久| 精品一二三区久久aaa片| 精品久久久久中文字幕日本| 久久久一本精品99久久精品88| 韩国无遮挡三级久久| 亚洲国产精品热久久| 亚洲&#228;v永久无码精品天堂久久| 四虎影视久久久免费观看| 久久久久久久波多野结衣高潮 | 欧美精品一区二区精品久久| 精品一区二区久久| 色狠狠久久综合网| 潮喷大喷水系列无码久久精品| 99久久精品九九亚洲精品| 国产精品久久久香蕉| 亚洲国产二区三区久久| 精品久久久中文字幕人妻| 国产成人综合久久精品尤物| 久久www免费人成看片| 精品无码久久久久久久动漫| 亚洲国产另类久久久精品黑人| 精品国产一区二区三区久久蜜臀| 久久九九久精品国产免费直播| 99久久99久久精品国产片果冻| 久久久久久久波多野结衣高潮| 欧美性猛交xxxx免费看久久久| 国产91久久综合| 91精品国产91久久久久久青草 | 久久久www免费人成精品| 国产精品久久久久一区二区三区| 无码超乳爆乳中文字幕久久| 亚洲精品乱码久久久久久不卡| 91久久精品视频| 伊人丁香狠狠色综合久久| 国产麻豆精品久久一二三| 日韩av无码久久精品免费| 久久久久久久波多野结衣高潮| 三级韩国一区久久二区综合| 久久综合精品国产一区二区三区| 久久精品亚洲男人的天堂| 久久国产乱子伦精品免费午夜|