• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            posts - 183,  comments - 10,  trackbacks - 0

            搜索引擎會通過日志文件把用戶每次檢索使用的所有檢索串都記錄下來,每個查詢串的長度為1-255字節。
            假設目前有一千萬個記錄(這些查詢串的重復度比較高,雖然總數是1千萬,但如果除去重復后,不超過3百萬個。一個查詢串的重復度越高,說明查詢它的用戶越多,也就是越熱門。請你統計最熱門的10個查詢串,要求使用的內存不能超過1G。


            先統計所有查詢的次數,所有查詢有 300 萬個,255 * 300 * 10000B = 765 MB,可以存入內存。這里使用 STL 中的 map。所得時間復雜度為 O(NlogM),N 為所有的查詢,包括重復的,M 為不重復的查詢。更好的方法是用散列。

            然后遍歷 map,維護一個大小為 10 的集合,在遍歷 map 時,比較當前查詢的出現次數與集合中出現次數最小的查詢的出現此時比較,如果大于,將當前查詢替換到集合中。
            這里的集合還是用的 map,時間復雜度為 O(MlogK),這里 K = 10。

            總的時間復雜度為 O(NlogM) + O(MlogK)


            也可以將這個過程合二為一。即每次在統計的過程中,查詢大小為 K 的集合。如果符合條件,則將當前查詢替換到集合中。但是還要考慮實時更新集合中的元素。
            這種方法的時間復雜度為 O(N(logM + logK + K))。

            由于第二種方法還得考慮實時更新。效率遠沒有第一種方案高。

            實現:

             1 #include <iostream>
             2 #include <fstream>
             3 #include <map>
             4 #include <string>
             5 using namespace std;
             6 
             7 void statistics(map<stringint>& data, const string& query)
             8 {
             9     ++data[query];
            10 }
            11 
            12 void findTopK(multimap<intstring>& topK, int k, const map<stringint>& data)
            13 {
            14     topK.clear();
            15     for (map<stringint>::const_iterator cit = data.begin(); cit != data.end(); ++cit)
            16     {
            17         if (topK.size() < k)
            18         {
            19             topK.insert(make_pair(cit->second, cit->first));
            20         }
            21         else
            22         {
            23             if (cit->second > topK.begin()->first)
            24             {
            25                 topK.erase(topK.begin());
            26                 topK.insert(make_pair(cit->second, cit->first));
            27             }
            28         }
            29     }
            30 }
            31 
            32 int main()
            33 {
            34     ifstream fin("queryfile.txt");
            35     map<stringint> data;
            36     multimap<intstring> top10;
            37     string query;
            38     while (getline(fin, query))
            39     {
            40         statistics(data, query);
            41     }
            42 
            43     //for (map<string, int>::const_iterator cit = data.begin(); cit != data.end(); ++cit)
            44     //{
            45     //    cout << cit->first << '\t' << cit->second << endl;
            46     //}
            47 
            48     //cout << endl;
            49     findTopK(top10, 10, data);
            50 
            51     for (multimap<intstring>::const_reverse_iterator cit = top10.rbegin(); cit != top10.rend(); ++cit)
            52     {
            53         cout << cit->second << '\t' << cit->first << endl;
            54     }
            55 
            56     return 0;
            57 }

            http://blog.donews.com/jiji262/2011/03/baidu_top_k_interview/
            http://blog.redfox66.com/post/2010/09/23/top-k-algoriyhm-analysis.aspx
            http://blog.csdn.net/jasonblog/archive/2010/08/19/5825026.aspx
            posted on 2011-04-30 18:06 unixfy 閱讀(201) 評論(0)  編輯 收藏 引用
            欧美黑人激情性久久| 77777亚洲午夜久久多人| 亚洲午夜精品久久久久久人妖| 亚洲国产精品无码久久一线| 亚洲精品高清国产一线久久| 国内精品久久国产大陆| 国产亚洲精午夜久久久久久| 久久精品中文字幕大胸| 99久久99久久久精品齐齐| 久久国产成人午夜AV影院| 东方aⅴ免费观看久久av| 色噜噜狠狠先锋影音久久| 久久精品国产乱子伦| 国产成人久久精品二区三区| 无码伊人66久久大杳蕉网站谷歌| 久久精品九九亚洲精品天堂| 97久久国产露脸精品国产| 夜夜亚洲天天久久| 国内精品久久久久伊人av| 国产亚洲精午夜久久久久久| 久久99国产精品二区不卡| 久久久久久国产精品无码下载| 久久久噜噜噜久久中文福利| 思思久久99热只有频精品66| 国产精品美女久久久网AV| 大伊人青草狠狠久久| 一级女性全黄久久生活片免费 | 99久久精品免费看国产一区二区三区 | 久久99精品国产麻豆宅宅| 亚洲а∨天堂久久精品9966| 国产女人aaa级久久久级| 国产精品99精品久久免费| 久久久久亚洲AV片无码下载蜜桃| 久久久久久国产精品美女| 久久精品国产国产精品四凭| 国产综合精品久久亚洲| 亚洲欧美精品伊人久久| 久久久WWW免费人成精品| 久久嫩草影院免费看夜色| 久久WWW免费人成—看片| 久久久久亚洲精品天堂久久久久久|