• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            hdqqq

              C++博客 :: 首頁 :: 新隨筆 :: 聯(lián)系 :: 聚合  :: 管理 ::
              35 隨筆 :: 0 文章 :: 104 評論 :: 0 Trackbacks

            最近需要收集資料,在瀏覽器上用另存為的方式實在是很麻煩,而且不利于存儲和檢索。所以自己寫了一個小爬蟲,在網(wǎng)上爬東西,迄今為止,已經(jīng)爬了近百萬張網(wǎng)頁。
            現(xiàn)在正在想辦法著手處理這些數(shù)據(jù)。

            爬蟲的結(jié)構(gòu):
               爬蟲的原理其實很簡單,就是分析下載的頁面,找出其中的連接,然后再下載這些鏈接,再分析再下載,周而復(fù)始。在數(shù)據(jù)存儲方面,數(shù)據(jù)庫是首選,便于檢索,而開發(fā)語言,只要支持正則表達(dá)式就可以了,數(shù)據(jù)庫我選擇了mysql,所以,開發(fā)腳本我選擇了php。它支持perl兼容正則表達(dá)式,連接mysql很方便,支持http下載,而且windows系統(tǒng)和linux系統(tǒng)都可以部署。

            正則表達(dá)式:
              正則表達(dá)式是處理文字的基本工具,要取出html中的鏈接和圖片,使用的正則表達(dá)式如下。

               "#<a[^>]+href=(['\"])(.+)\\1#isU"   處理鏈接
                "#<img[^>]+src=(['\"])(.+)\\1#isU" 處理圖片

            其他問題:
              寫爬蟲還需要注意的一個問題是,對于已經(jīng)下載過的url,不能重復(fù)進(jìn)行下載,而有些網(wǎng)頁的鏈接會形成環(huán)路,所以需要處理這個問題,我的處理方法是計算已經(jīng)處理的url的MD5 值,并存入數(shù)據(jù)庫,這樣就可以檢驗是否已經(jīng)下載過。當(dāng)然還有更好的算法,有興趣的話,可以在網(wǎng)上找一下。

            相關(guān)協(xié)議:
              爬蟲也有自己的協(xié)議,有個robots.txt文件定義了那些是網(wǎng)站允許遍歷的,但是由于我的時間有限,沒有實現(xiàn)這個功能。


            其他說明:
              php支持類編程,我寫的爬蟲主要的類.
              1.url處理web_site_info,主要用處理url,分析域名等。
              2.數(shù)據(jù)庫操作mysql_insert.php,處理和數(shù)據(jù)庫相關(guān)的操作。
              3.歷史記錄處理,記錄已經(jīng)處理的url。
              4.爬蟲類。

            存在的問題和不足

              這個爬蟲在小數(shù)據(jù)量的情況下,運(yùn)行良好,但是在大數(shù)據(jù)量的情況下,歷史記錄處理類的效率就不是很高,通過在數(shù)據(jù)庫結(jié)構(gòu)中,對相關(guān)字段進(jìn)行了索引,速度有了提高,但是需要不斷得讀取數(shù)據(jù),可能和php本身的array實現(xiàn)有關(guān)系,如果一次加載10萬條歷史記錄,速度非常慢。
              不支持多線程,每次只能處理一個url。
              php運(yùn)行本身有內(nèi)存使用量限制,有一次在抓取深度為20的頁面的時候,內(nèi)存用盡程序被殺。


            下面的url是源碼下載。

            http://www.shnenglu.com/Files/hdqqq/net_spider.rar


            使用的時候,先在mysql中創(chuàng)建net_spider數(shù)據(jù)庫,然后用db.sql創(chuàng)建相關(guān)表。再在config.php中設(shè)置mysql的用戶名口令。
            最后
            php -f spider.php 深度(數(shù)值) url
            就可以開始工作。如

            php -f spider.php 20 http://news.sina.com.cn

             

            現(xiàn)在感覺下來,其實做個爬蟲沒那么復(fù)雜,難的是數(shù)據(jù)的存儲和檢索。我現(xiàn)在的數(shù)據(jù)庫,最大一個數(shù)據(jù)表已經(jīng)15G,正在想辦處理這些數(shù)據(jù),mysql進(jìn)行查詢已經(jīng)感覺有點(diǎn)力不從心了。這點(diǎn)上還真佩服google。

             

             

            posted on 2008-05-09 14:09 hdqqq 閱讀(21708) 評論(7)  編輯 收藏 引用 所屬分類: 其他開發(fā)語言

            評論

            # re: 一個輕量級家用爬蟲 2008-05-13 08:27 mm
            我不會這方面的技術(shù),不過看了還是蠻佩服的  回復(fù)  更多評論
              

            # re: 一個輕量級家用爬蟲 2008-05-13 21:57 merlinfang
            爬蟲還是很復(fù)雜的,你這個太簡單了.就比如連接來說吧,你只處理了<a href>的,還有其他類型的,腳本的等等.
            再比如排重吧,你只是避免同一url的訪問,但是同一url也要多次訪問的,因為內(nèi)容會變化的,策略上有考慮.再考慮分布式多線程,排重就更難了  回復(fù)  更多評論
              

            # re: 一個輕量級家用爬蟲[未登錄] 2008-05-14 11:36 hdqqq
            是的,那些在javascript中的url比較難用正則表達(dá)式概括出來,因為還可能是根據(jù)變量生成的,所以就直接過濾了.

            至于排重的問題,因為我計算的是url的md5,而不是整個html的md5,所以在碰到頁面更新而url不變的時候,會有問題.這個我在測試新浪新聞首頁的時候,發(fā)現(xiàn)盡管新浪新聞首頁的url不變,內(nèi)容會變,但是具體到其中的某條新聞,都是有單獨(dú)的url的.碰到這種情況,只要周期的運(yùn)行一下爬蟲就可以了,我現(xiàn)在的機(jī)器上就是用crontab 定時運(yùn)行的.

            這個也和爬蟲的目的有關(guān)系,有的可能更關(guān)注某個具體站點(diǎn),有的也許想多爬一些站點(diǎn),這個是深度和廣度的關(guān)系,和使用者的策略有關(guān).

            我現(xiàn)在用的是一張表記錄歷史記錄,在百萬數(shù)量記錄下,效率不是最好的,建立更小的的分布存儲表可能會更好一些. 這些可以部署架構(gòu)方面進(jìn)行改進(jìn).  回復(fù)  更多評論
              

            # re: 一個輕量級家用爬蟲 2008-05-19 11:50 苦惱
            我是一個本科畢業(yè)生,這次畢業(yè)設(shè)計是網(wǎng)絡(luò)爬蟲,我用java沒編出來,
            看到您寫的東西,想讓您指點(diǎn)一下。看有沒有事件  回復(fù)  更多評論
              

            # re: 一個輕量級家用爬蟲 2008-05-19 11:51 苦惱
            我的QQ271244426
            能不能留下您的QQ?  回復(fù)  更多評論
              

            # re: 一個輕量級家用爬蟲[未登錄] 2008-05-19 14:50 hdqqq
            @苦惱
            我寫的爬蟲,主要的幾個類都在代碼里面了,你用java開發(fā)的話,關(guān)鍵還是找到對應(yīng)的功能,象map或者h(yuǎn)ash map, http下載, 正則表達(dá)式等功能的類或者庫,還有就是處理數(shù)據(jù)庫的模塊,應(yīng)該可以實現(xiàn)的.  回復(fù)  更多評論
              

            # re: 一個輕量級家用爬蟲 2008-11-10 21:35 李玉
            厲害!能認(rèn)識你嗎?我一直想學(xué)習(xí)一下,郵箱:heiseqilinlyf@163.com
            這個不常用,常用的不便公開,能給我發(fā)個郵件,我給你發(fā)那個郵箱,麻煩了!
              回復(fù)  更多評論
              

            欧美大战日韩91综合一区婷婷久久青草 | 国产99久久九九精品无码| 精品久久久久中文字幕一区| 国产叼嘿久久精品久久| 久久久久亚洲av综合波多野结衣| 97久久国产露脸精品国产| 99热热久久这里只有精品68| 亚洲国产精品一区二区三区久久| 国产成人无码久久久精品一| 久久久久久久久久久免费精品| 麻豆一区二区99久久久久| 欧美精品福利视频一区二区三区久久久精品 | 久久成人国产精品免费软件| 成人国内精品久久久久影院VR | 久久国产精品免费一区二区三区| 亚洲伊人久久成综合人影院| 97久久精品无码一区二区| 久久这里的只有是精品23| 国产精品激情综合久久| 国产精品禁18久久久夂久| 伊人久久大香线蕉综合影院首页| 7国产欧美日韩综合天堂中文久久久久| 久久久噜噜噜久久中文字幕色伊伊| 94久久国产乱子伦精品免费| 久久天堂AV综合合色蜜桃网| 伊人久久无码中文字幕| 久久久久亚洲AV片无码下载蜜桃| 久久综合一区二区无码| 久久亚洲国产成人精品无码区| 91精品观看91久久久久久| 精品久久777| 久久精品嫩草影院| 色综合久久天天综合| 久久99精品国产麻豆宅宅| 国产精品久久永久免费| 久久噜噜电影你懂的| 狠狠色丁香久久综合婷婷| 99久久免费国产精品热| 国产精品久久久久久久久鸭| 69SEX久久精品国产麻豆| 精品无码久久久久久午夜|