• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            hdqqq

              C++博客 :: 首頁 :: 新隨筆 :: 聯(lián)系 :: 聚合  :: 管理 ::
              35 隨筆 :: 0 文章 :: 104 評論 :: 0 Trackbacks

            最近需要收集資料,在瀏覽器上用另存為的方式實在是很麻煩,而且不利于存儲和檢索。所以自己寫了一個小爬蟲,在網(wǎng)上爬東西,迄今為止,已經(jīng)爬了近百萬張網(wǎng)頁。
            現(xiàn)在正在想辦法著手處理這些數(shù)據(jù)。

            爬蟲的結構:
               爬蟲的原理其實很簡單,就是分析下載的頁面,找出其中的連接,然后再下載這些鏈接,再分析再下載,周而復始。在數(shù)據(jù)存儲方面,數(shù)據(jù)庫是首選,便于檢索,而開發(fā)語言,只要支持正則表達式就可以了,數(shù)據(jù)庫我選擇了mysql,所以,開發(fā)腳本我選擇了php。它支持perl兼容正則表達式,連接mysql很方便,支持http下載,而且windows系統(tǒng)和linux系統(tǒng)都可以部署。

            正則表達式:
              正則表達式是處理文字的基本工具,要取出html中的鏈接和圖片,使用的正則表達式如下。

               "#<a[^>]+href=(['\"])(.+)\\1#isU"   處理鏈接
                "#<img[^>]+src=(['\"])(.+)\\1#isU" 處理圖片

            其他問題:
              寫爬蟲還需要注意的一個問題是,對于已經(jīng)下載過的url,不能重復進行下載,而有些網(wǎng)頁的鏈接會形成環(huán)路,所以需要處理這個問題,我的處理方法是計算已經(jīng)處理的url的MD5 值,并存入數(shù)據(jù)庫,這樣就可以檢驗是否已經(jīng)下載過。當然還有更好的算法,有興趣的話,可以在網(wǎng)上找一下。

            相關協(xié)議:
              爬蟲也有自己的協(xié)議,有個robots.txt文件定義了那些是網(wǎng)站允許遍歷的,但是由于我的時間有限,沒有實現(xiàn)這個功能。


            其他說明:
              php支持類編程,我寫的爬蟲主要的類.
              1.url處理web_site_info,主要用處理url,分析域名等。
              2.數(shù)據(jù)庫操作mysql_insert.php,處理和數(shù)據(jù)庫相關的操作。
              3.歷史記錄處理,記錄已經(jīng)處理的url。
              4.爬蟲類。

            存在的問題和不足

              這個爬蟲在小數(shù)據(jù)量的情況下,運行良好,但是在大數(shù)據(jù)量的情況下,歷史記錄處理類的效率就不是很高,通過在數(shù)據(jù)庫結構中,對相關字段進行了索引,速度有了提高,但是需要不斷得讀取數(shù)據(jù),可能和php本身的array實現(xiàn)有關系,如果一次加載10萬條歷史記錄,速度非常慢。
              不支持多線程,每次只能處理一個url。
              php運行本身有內(nèi)存使用量限制,有一次在抓取深度為20的頁面的時候,內(nèi)存用盡程序被殺。


            下面的url是源碼下載。

            http://www.shnenglu.com/Files/hdqqq/net_spider.rar


            使用的時候,先在mysql中創(chuàng)建net_spider數(shù)據(jù)庫,然后用db.sql創(chuàng)建相關表。再在config.php中設置mysql的用戶名口令。
            最后
            php -f spider.php 深度(數(shù)值) url
            就可以開始工作。如

            php -f spider.php 20 http://news.sina.com.cn

             

            現(xiàn)在感覺下來,其實做個爬蟲沒那么復雜,難的是數(shù)據(jù)的存儲和檢索。我現(xiàn)在的數(shù)據(jù)庫,最大一個數(shù)據(jù)表已經(jīng)15G,正在想辦處理這些數(shù)據(jù),mysql進行查詢已經(jīng)感覺有點力不從心了。這點上還真佩服google。

             

             

            posted on 2008-05-09 14:09 hdqqq 閱讀(21710) 評論(7)  編輯 收藏 引用 所屬分類: 其他開發(fā)語言

            評論

            # re: 一個輕量級家用爬蟲 2008-05-13 08:27 mm
            我不會這方面的技術,不過看了還是蠻佩服的  回復  更多評論
              

            # re: 一個輕量級家用爬蟲 2008-05-13 21:57 merlinfang
            爬蟲還是很復雜的,你這個太簡單了.就比如連接來說吧,你只處理了<a href>的,還有其他類型的,腳本的等等.
            再比如排重吧,你只是避免同一url的訪問,但是同一url也要多次訪問的,因為內(nèi)容會變化的,策略上有考慮.再考慮分布式多線程,排重就更難了  回復  更多評論
              

            # re: 一個輕量級家用爬蟲[未登錄] 2008-05-14 11:36 hdqqq
            是的,那些在javascript中的url比較難用正則表達式概括出來,因為還可能是根據(jù)變量生成的,所以就直接過濾了.

            至于排重的問題,因為我計算的是url的md5,而不是整個html的md5,所以在碰到頁面更新而url不變的時候,會有問題.這個我在測試新浪新聞首頁的時候,發(fā)現(xiàn)盡管新浪新聞首頁的url不變,內(nèi)容會變,但是具體到其中的某條新聞,都是有單獨的url的.碰到這種情況,只要周期的運行一下爬蟲就可以了,我現(xiàn)在的機器上就是用crontab 定時運行的.

            這個也和爬蟲的目的有關系,有的可能更關注某個具體站點,有的也許想多爬一些站點,這個是深度和廣度的關系,和使用者的策略有關.

            我現(xiàn)在用的是一張表記錄歷史記錄,在百萬數(shù)量記錄下,效率不是最好的,建立更小的的分布存儲表可能會更好一些. 這些可以部署架構方面進行改進.  回復  更多評論
              

            # re: 一個輕量級家用爬蟲 2008-05-19 11:50 苦惱
            我是一個本科畢業(yè)生,這次畢業(yè)設計是網(wǎng)絡爬蟲,我用java沒編出來,
            看到您寫的東西,想讓您指點一下。看有沒有事件  回復  更多評論
              

            # re: 一個輕量級家用爬蟲 2008-05-19 11:51 苦惱
            我的QQ271244426
            能不能留下您的QQ?  回復  更多評論
              

            # re: 一個輕量級家用爬蟲[未登錄] 2008-05-19 14:50 hdqqq
            @苦惱
            我寫的爬蟲,主要的幾個類都在代碼里面了,你用java開發(fā)的話,關鍵還是找到對應的功能,象map或者hash map, http下載, 正則表達式等功能的類或者庫,還有就是處理數(shù)據(jù)庫的模塊,應該可以實現(xiàn)的.  回復  更多評論
              

            # re: 一個輕量級家用爬蟲 2008-11-10 21:35 李玉
            厲害!能認識你嗎?我一直想學習一下,郵箱:heiseqilinlyf@163.com
            這個不常用,常用的不便公開,能給我發(fā)個郵件,我給你發(fā)那個郵箱,麻煩了!
              回復  更多評論
              

            久久午夜免费视频| 国产精品一久久香蕉产线看 | 97久久国产露脸精品国产| 久久精品国产91久久综合麻豆自制 | 97r久久精品国产99国产精| 91精品国产色综久久| 精品国产乱码久久久久久呢| 一本综合久久国产二区| 91精品国产91热久久久久福利 | 久久久无码精品亚洲日韩蜜臀浪潮| 怡红院日本一道日本久久 | 久久久国产精品| 日韩电影久久久被窝网| 日韩欧美亚洲综合久久影院Ds | 秋霞久久国产精品电影院| 久久大香香蕉国产| 久久99久久无码毛片一区二区| 伊人久久大香线蕉综合热线| 久久婷婷色综合一区二区| 久久久久久亚洲AV无码专区| 国产精自产拍久久久久久蜜| 国内精品伊人久久久久777| 九九精品99久久久香蕉| 久久艹国产| 久久无码人妻一区二区三区| 精品久久久久中文字| 久久精品中文字幕久久| 无码国内精品久久人妻蜜桃| 午夜福利91久久福利| 久久久久国产精品| 亚洲国产另类久久久精品小说| 国产国产成人精品久久| 久久久久久久精品妇女99| 久久精品无码av| 欧美成a人片免费看久久| 国产AⅤ精品一区二区三区久久| 久久男人Av资源网站无码软件| 亚洲欧洲精品成人久久曰影片 | 久久精品三级视频| 久久99亚洲综合精品首页| 国产呻吟久久久久久久92|