青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品

  C++博客 :: 首頁 :: 新隨筆 ::  ::  :: 管理

Spider概述

Posted on 2010-09-16 19:29 Kevin_Zhang 閱讀(891) 評(píng)論(0)  編輯 收藏 引用 所屬分類: 搜索引擎

Spider概述

Spider即網(wǎng)絡(luò)爬蟲 ,其定義有廣義和狹義之分。狹義上指遵循標(biāo)準(zhǔn)的 http協(xié)議利用超鏈接和 Web文檔檢索的方法遍歷萬維網(wǎng)信息空間的軟件程序 ;而廣義的定義則是所有能遵循 http協(xié)議檢索 Web文檔的軟件都稱之為網(wǎng)絡(luò)爬蟲。

Spider是一個(gè)功能很強(qiáng)的自動(dòng)提取網(wǎng)頁的程序 ,它為搜索引擎從萬維網(wǎng)上下載網(wǎng)頁 ,是搜索引擎的重要組成 .它通過請(qǐng)求站點(diǎn)上的 HTML文檔訪問某一站點(diǎn)。它遍歷 Web空間 ,不斷從一個(gè)站點(diǎn)移動(dòng)到另一個(gè)站點(diǎn) ,自動(dòng)建立索引 ,并加入到網(wǎng)頁數(shù)據(jù)庫(kù)中。網(wǎng)絡(luò)爬蟲進(jìn)入某個(gè)超級(jí)文本時(shí) ,它利用 HTML語言的標(biāo)記結(jié)構(gòu)來搜索信息及獲取指向其他超級(jí)文本的 URL地址 ,可以完全不依賴用戶干預(yù)實(shí)現(xiàn)網(wǎng)絡(luò)上的自動(dòng)爬行和搜索。

Spider的隊(duì)列

(1)等待隊(duì)列 :新發(fā)現(xiàn)的 URL被加入到這個(gè)隊(duì)列 ,等待被 Spider程序處理 ;

(2)處理隊(duì)列 :要被處理的 URL被傳送到這個(gè)隊(duì)列。為了避免同一個(gè) URL被多次處理 ,當(dāng)一個(gè) URL被處理過后 ,它將被轉(zhuǎn)移到完成隊(duì)列或者錯(cuò)誤隊(duì)列 (如果發(fā)生錯(cuò)誤 )。

(3)錯(cuò)誤隊(duì)列 :如果在下載網(wǎng)頁是發(fā)生錯(cuò)誤 ,該 URL將被加入 到錯(cuò)誤隊(duì)列。

(4)完成隊(duì)列 :如果在處理網(wǎng)頁沒有發(fā)生錯(cuò)誤 ,該 URL將被加入到完成隊(duì)列。

網(wǎng)絡(luò)爬蟲搜索策略

在抓取網(wǎng)頁的時(shí)候 ,目前網(wǎng)絡(luò)爬蟲一般有兩種策略 :無主題搜索與基于某特定主體的專業(yè)智能搜索。其中前者主要包括 :廣度優(yōu)先和深度優(yōu)先。廣度優(yōu)先是指網(wǎng)絡(luò)爬蟲會(huì)先抓取起始網(wǎng)頁中鏈接的所有網(wǎng)頁 ,然后再選擇其中的一個(gè)鏈接網(wǎng)頁 ,繼續(xù)抓取在此網(wǎng)頁中鏈接的所有網(wǎng)頁。這是最常用的方式,因?yàn)檫@個(gè)方法可以讓網(wǎng)絡(luò)爬蟲并行處理 ,提高其抓取速度。深度優(yōu)先是指網(wǎng)絡(luò)爬蟲會(huì)從起始頁開始 ,一個(gè)鏈接一個(gè)鏈接跟蹤下去 ,處理完這條線路之后再轉(zhuǎn)入下一個(gè)起始頁 ,繼續(xù)跟蹤鏈接。這個(gè)方法有個(gè)優(yōu)點(diǎn)是網(wǎng)絡(luò)爬蟲在設(shè)計(jì)的時(shí)候比較容易。大多數(shù)網(wǎng)頁爬行器采用寬度優(yōu)先搜索策略或者是對(duì)這種策略的某些改進(jìn)。

在專業(yè)搜索引擎中 ,網(wǎng)絡(luò)爬蟲的任務(wù)是獲取 Web頁面和決定鏈接的訪問順序 ,它通常從一個(gè) “種子集 ”(如用戶查詢、種子鏈接或種子頁面 )發(fā),以迭代的方式訪問頁面和提取鏈接。搜索過程中 ,未訪問的鏈接被暫存在一個(gè)稱為 “搜索前沿 ”(Spider Frontier)的隊(duì)列中 ,網(wǎng)絡(luò)爬蟲根據(jù)搜索前沿中鏈接的 “重要程度 ”決定下一個(gè)要訪問的鏈接。如何評(píng)價(jià)和預(yù)測(cè)鏈接的 “重要程度 ”(或稱價(jià)值 )是決定網(wǎng)絡(luò)爬蟲搜索策略的關(guān)鍵。

眾多的網(wǎng)絡(luò)爬蟲設(shè)計(jì)各不相同 ,但歸根結(jié)底是采用不同的鏈接價(jià)值評(píng)價(jià)標(biāo)準(zhǔn)。

常用開源網(wǎng)絡(luò)爬蟲介紹及其比較

Nutch

開發(fā)語言:Java

http://lucene.apache.org/nutch/

簡(jiǎn)介:

Apache的子項(xiàng)目之一,屬于Lucene項(xiàng)目下的子項(xiàng)目。

Nutch是一個(gè)基于Lucene,類似Google的完整網(wǎng)絡(luò)搜索引擎解決方案,基于Hadoop的分布式處理模型保證了系統(tǒng)的性能,類似Eclipse的插件機(jī)制保證了系統(tǒng)的可客戶化,而且很容易集成到自己的應(yīng)用之中。

Larbin

開發(fā)語言:C++

http://larbin.sourceforge.net/index-eng.html

簡(jiǎn)介

  larbin是一種開源的網(wǎng)絡(luò)爬蟲/網(wǎng)絡(luò)蜘蛛,由法國(guó)的年輕人 Sébastien Ailleret獨(dú)立開發(fā)。larbin目的是能夠跟蹤頁面的url進(jìn)行擴(kuò)展的抓取,最后為搜索引擎提供廣泛的數(shù)據(jù)來源。

  Larbin只是一個(gè)爬蟲,也就是說larbin只抓取網(wǎng)頁,至于如何parse的事情則由用戶自己完成。另外,如何存儲(chǔ)到數(shù)據(jù)庫(kù)以及建立索引的事情 larbin也不提供。

  latbin最初的設(shè)計(jì)也是依據(jù)設(shè)計(jì)簡(jiǎn)單但是高度可配置性的原則,因此我們可以看到,一個(gè)簡(jiǎn)單的larbin的爬蟲可以每天獲取500萬的網(wǎng)頁,非常高效。

Heritrix

開發(fā)語言:Java

http://crawler.archive.org/

簡(jiǎn)介

與Nutch比較

和 Nutch。二者均為Java開源框架,Heritrix 是 SourceForge上的開源產(chǎn)品,Nutch為Apache的一個(gè)子項(xiàng)目,它們都稱作網(wǎng)絡(luò)爬蟲/蜘蛛( Web Crawler),它們實(shí)現(xiàn)的原理基本一致:深度遍歷網(wǎng)站的資源,將這些資源抓取到本地,使用的方法都是分析網(wǎng)站每一個(gè)有效的URI,并提交Http請(qǐng)求,從而獲得相應(yīng)結(jié)果,生成本地文件及相應(yīng)的日志信息等。

Heritrix 是個(gè) "archival crawler" -- 用來獲取完整的、精確的、站點(diǎn)內(nèi)容的深度復(fù)制。包括獲取圖像以及其他非文本內(nèi)容。抓取并存儲(chǔ)相關(guān)的內(nèi)容。對(duì)內(nèi)容來者不拒,不對(duì)頁面進(jìn)行內(nèi)容上的修改。重新爬行對(duì)相同的URL不針對(duì)先前的進(jìn)行替換。爬蟲通過Web用戶界面啟動(dòng)、監(jiān)控、調(diào)整,允許彈性的定義要獲取的URL。

二者的差異:

Nutch 只獲取并保存可索引的內(nèi)容。Heritrix則是照單全收。力求保存頁面原貌

Nutch 可以修剪內(nèi)容,或者對(duì)內(nèi)容格式進(jìn)行轉(zhuǎn)換。

Nutch 保存內(nèi)容為數(shù)據(jù)庫(kù)優(yōu)化格式便于以后索引;刷新替換舊的內(nèi)容。而Heritrix 是添加(追加)新的內(nèi)容。

Nutch 從命令行運(yùn)行、控制。Heritrix 有 Web 控制管理界面。

Nutch 的定制能力不夠強(qiáng),不過現(xiàn)在已經(jīng)有了一定改進(jìn)。Heritrix 可控制的參數(shù)更多。

Heritrix提供的功能沒有nutch多,有點(diǎn)整站下載的味道。既沒有索引又沒有解析,甚至對(duì)于重復(fù)爬取URL都處理不是很好。

Heritrix的功能強(qiáng)大 但是配置起來卻有點(diǎn)麻煩。

三者的比較

一、從功能方面來說,Heritrix與Larbin的功能類似。都是一個(gè)純粹的網(wǎng)絡(luò)爬蟲,提供網(wǎng)站的鏡像下載。而Nutch是一個(gè)網(wǎng)絡(luò)搜索引擎框架,爬取網(wǎng)頁只是其功能的一部分。

二、從分布式處理來說,Nutch支持分布式處理,而另外兩個(gè)好像尚且還沒有支持。

三、從爬取的網(wǎng)頁存儲(chǔ)方式來說,Heritrix和 Larbin都是將爬取下來的內(nèi)容保存為原始類型的內(nèi)容。而Nutch是將內(nèi)容保存到其特定格式的segment中去。

四,對(duì)于爬取下來的內(nèi)容的處理來說,Heritrix和 Larbin都是將爬取下來的內(nèi)容不經(jīng)處理直接保存為原始內(nèi)容。而Nutch對(duì)文本進(jìn)行了包括鏈接分析、正文提取、建立索引(Lucene索引)等處理。

五,從爬取的效率來說,Larbin效率較高,因?yàn)槠涫鞘褂胏++實(shí)現(xiàn)的并且功能單一。

表 3種爬蟲的比較

crawler

開發(fā)語言

功能單一

支持分布式爬取

效率

鏡像保存

Nutch

Java

×

×

Larbin

C++

×

Heritrix

Java

×

其他網(wǎng)絡(luò)爬蟲介紹:

Heritrix
Heritrix是一個(gè)開源,可擴(kuò)展的web爬蟲項(xiàng)目。Heritrix設(shè)計(jì)成嚴(yán)格按照robots.txt文件的排除指示和META robots標(biāo)簽。
http://crawler.archive.org/

WebSPHINX
WebSPHINX是一個(gè)Java類包和Web爬蟲的交互式開發(fā)環(huán)境。Web爬蟲(也叫作機(jī)器人或蜘蛛)是可以自動(dòng)瀏覽與處理Web頁面的程序。WebSPHINX由兩部分組成:爬蟲工作平臺(tái)和WebSPHINX類包。
http://www.cs.cmu.edu/~rcm/websphinx/

WebLech
WebLech是一個(gè)功能強(qiáng)大的Web站點(diǎn)下載與鏡像工具。它支持按功能需求來下載web站點(diǎn)并能夠盡可能模仿標(biāo)準(zhǔn)Web瀏覽器的行為。WebLech有一個(gè)功能控制臺(tái)并采用多線程操作。
http://weblech.sourceforge.net/
Arale
Arale主要為個(gè)人使用而設(shè)計(jì),而沒有像其它爬蟲一樣是關(guān)注于頁面索引。Arale能夠下載整個(gè)web站點(diǎn)或來自web站點(diǎn)的某些資源。Arale還能夠把動(dòng)態(tài)頁面映射成靜態(tài)頁面。
http://web.tiscali.it/_flat/arale.jsp.html

J-Spider
J-Spider:是一個(gè)完全可配置和定制的Web Spider引擎.你可以利用它來檢查網(wǎng)站的錯(cuò)誤(內(nèi)在的服務(wù)器錯(cuò)誤等),網(wǎng)站內(nèi)外部鏈接檢查,分析網(wǎng)站的結(jié)構(gòu)(可創(chuàng)建一個(gè)網(wǎng)站地圖),下載整個(gè)Web站點(diǎn),你還可以寫一個(gè)JSpider插件來擴(kuò)展你所需要的功能。
http://j-spider.sourceforge.net/

spindle
spindle 是一個(gè)構(gòu)建在Lucene工具包之上的Web索引/搜索工具.它包括一個(gè)用于創(chuàng)建索引的HTTP spider和一個(gè)用于搜索這些索引的搜索類。spindle項(xiàng)目提供了一組JSP標(biāo)簽庫(kù)使得那些基于JSP的站點(diǎn)不需要開發(fā)任何Java類就能夠增加搜索功能。
http://www.bitmechanic.com/projects/spindle/

Arachnid
Arachnid: 是一個(gè)基于Java的web spider框架.它包含一個(gè)簡(jiǎn)單的HTML剖析器能夠分析包含HTML內(nèi)容的輸入流.通過實(shí)現(xiàn)Arachnid的子類就能夠開發(fā)一個(gè)簡(jiǎn)單的Web spiders并能夠在Web站上的每個(gè)頁面被解析之后增加幾行代碼調(diào)用。 Arachnid的下載包中包含兩個(gè)spider應(yīng)用程序例子用于演示如何使用該框架。
http://arachnid.sourceforge.net/

LARM
LARM能夠?yàn)镴akarta Lucene搜索引擎框架的用戶提供一個(gè)純Java的搜索解決方案。它包含能夠?yàn)槲募瑪?shù)據(jù)庫(kù)表格建立索引的方法和為Web站點(diǎn)建索引的爬蟲。
http://larm.sourceforge.net/

JoBo
JoBo 是一個(gè)用于下載整個(gè)Web站點(diǎn)的簡(jiǎn)單工具。它本質(zhì)是一個(gè)Web Spider。與其它下載工具相比較它的主要優(yōu)勢(shì)是能夠自動(dòng)填充form(如:自動(dòng)登錄)和使用cookies來處理session。JoBo還有靈活的下載規(guī)則(如:通過網(wǎng)頁的URL,大小,MIME類型等)來限制下載。
http://www.matuschek.net/software/jobo/index.html

snoics-reptile
snoics -reptile是用純Java開發(fā)的,用來進(jìn)行網(wǎng)站鏡像抓取的工具,可以使用配制文件中提供的URL入口,把這個(gè)網(wǎng)站所有的能用瀏覽器通過GET的方式獲取到的資源全部抓取到本地,包括網(wǎng)頁和各種類型的文件,如:圖片、flash、mp3、zip、rar、exe等文件。可以將整個(gè)網(wǎng)站完整地下傳至硬盤內(nèi),并能保持原有的網(wǎng)站結(jié)構(gòu)精確不變。只需要把抓取下來的網(wǎng)站放到web服務(wù)器(如:Apache)中,就可以實(shí)現(xiàn)完整的網(wǎng)站鏡像。
http://www.blogjava.net/snoics


Web-Harvest
Web-Harvest是一個(gè)Java開源Web數(shù)據(jù)抽取工具。它能夠收集指定的Web頁面并從這些頁面中提取有用的數(shù)據(jù)。Web-Harvest主要是運(yùn)用了像XSLT,XQuery,正則表達(dá)式等這些技術(shù)來實(shí)現(xiàn)對(duì)text/xml的操作。
http://web-harvest.sourceforge.net

spiderpy
spiderpy是一個(gè)基于Python編碼的一個(gè)開源web爬蟲工具,允許用戶收集文件和搜索網(wǎng)站,并有一個(gè)可配置的界面。
http://pyspider.sourceforge.net/

The Spider Web Network Xoops Mod Team
pider Web Network Xoops Mod是一個(gè)Xoops下的模塊,完全由PHP語言實(shí)現(xiàn)。
http://www.tswn.com/

larbin
larbin是個(gè)基于C++的web爬蟲工具,擁有易于操作的界面,不過只能跑在LINUX下,在一臺(tái)普通PC下larbin每天可以爬5百萬個(gè)頁面(當(dāng)然啦,需要擁有良好的網(wǎng)絡(luò))
http://larbin.sourceforge.net/index-eng.html

爬蟲存在的問題

1. robots.txt

robots.txt是一個(gè)純文本文件,在這個(gè)文件中網(wǎng)站管理者可以聲明該網(wǎng)站中不想被robots訪問的部分,或者指定搜索引擎只收錄指定的內(nèi)容。

當(dāng)一個(gè)搜索機(jī)器人(有的叫搜索蜘蛛)訪問一個(gè)站點(diǎn)時(shí),它會(huì)首先檢查該站點(diǎn)根目錄下是否存在robots.txt,如果存在,搜索機(jī)器人就會(huì)按照該文件中的內(nèi)容來確定訪問的范圍;如果該文件不存在,那么搜索機(jī)器人就沿著鏈接抓取。

另外,robots.txt必須放置在一個(gè)站點(diǎn)的根目錄下,而且文件名必須全部小寫。

2. 有些類型的網(wǎng)頁難以爬取。例如,使用javascript調(diào)用的頁面、需要注冊(cè)才能訪問的頁面等。

網(wǎng)絡(luò)爬蟲的相關(guān)研究工作

有些類型的網(wǎng)頁難以爬取。例如,使用javascript調(diào)用的頁面、需要注冊(cè)才能訪問的頁面等,對(duì)于這些網(wǎng)絡(luò)的爬取被歸結(jié)為深層網(wǎng)絡(luò)的挖掘。這些網(wǎng)頁可歸結(jié)為如下幾類:(1)通過

填寫表單形成對(duì)后臺(tái)再現(xiàn)數(shù)據(jù)庫(kù)查詢得到的動(dòng)態(tài)頁面。(2)由于缺乏被指向的超鏈接而沒有被索引到的頁面。(3)需要注冊(cè)或其他限制訪問的頁面。(4)可訪問的非網(wǎng)頁文件。在曾偉輝等人的文章中,對(duì)這類問題進(jìn)行了綜述。在王映等人的文章中,提出了使用一個(gè)嵌入式的JavaScript引擎來進(jìn)行動(dòng)態(tài)網(wǎng)頁采集的方法。

1. 有些非靜態(tài)的Web2.0網(wǎng)站的內(nèi)容動(dòng)態(tài)生成,數(shù)據(jù)量巨大,難以抓取,例如論壇等網(wǎng)站。在2008年SIGIR中,Yida Wang等提出了一種爬取論壇的爬取方法。

2. 有些網(wǎng)站會(huì)限制網(wǎng)絡(luò)爬蟲的爬取,Analia G. Lourenco, Orlando O. Belo 在2006年提出來使用查詢?nèi)罩镜姆椒ㄏ拗凭W(wǎng)絡(luò)爬蟲的活動(dòng)以減輕服務(wù)器壓力。

3. 網(wǎng)絡(luò)上的網(wǎng)頁數(shù)量太大,在爬取時(shí)需要考慮爬取的時(shí)間及效率等問題,UCLA的Junghoo Cho等提出了使用并行的crawler的方法。

4.

青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品
  • <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            久久免费偷拍视频| 亚洲国产精品久久久久| 亚洲一二区在线| 国产精品美女999| 性做久久久久久久免费看| 亚洲欧美综合| 国产在线拍偷自揄拍精品| 免费观看国产成人| 欧美1区3d| 国产精品99久久久久久有的能看| 亚洲午夜精品一区二区| 国产深夜精品| 亚洲国产一区二区在线| 国产精品久久二区| 免费在线国产精品| 欧美**人妖| 亚洲一区日韩| 久久综合久久久久88| 亚洲免费观看高清在线观看| 亚洲一区综合| 激情欧美一区| 亚洲最新在线视频| 激情成人综合网| 在线亚洲国产精品网站| 黄色国产精品| 日韩一级精品| 激情一区二区| 亚洲一区999| 亚洲国产色一区| 午夜精品久久久久久久白皮肤| 亚洲国产美女精品久久久久∴| 亚洲少妇一区| 99精品国产在热久久婷婷| 亚洲欧美日韩综合| 日韩视频精品在线| 久久精品国产欧美激情| 亚洲一区图片| 欧美激情免费在线| 久久久久成人精品| 国产精品久久久久久久久久久久久 | 免费人成网站在线观看欧美高清| 亚洲一区二区四区| 欧美激情精品久久久久久黑人| 欧美中文日韩| 欧美日韩四区| 亚洲国产美女精品久久久久∴| 国产一区二区精品久久| 一区二区欧美亚洲| 一区二区三区精品视频| 免费亚洲一区二区| 欧美1区2区3区| 国内精品久久久久影院优| 亚洲一级黄色av| 亚洲中字黄色| 国产精品国产三级国产aⅴ9色| 亚洲高清在线精品| 亚洲激情女人| 欧美jizzhd精品欧美喷水| 麻豆久久婷婷| 亚洲国产高清自拍| 久久视频一区| 老司机免费视频久久| 激情丁香综合| 久久一区二区三区国产精品| 老牛国产精品一区的观看方式| 国产偷国产偷精品高清尤物| 亚洲永久免费观看| 欧美一区二区三区另类 | 欧美激情一区在线观看| 免费永久网站黄欧美| 精品51国产黑色丝袜高跟鞋| 久久先锋资源| 亚洲国产欧美一区二区三区同亚洲| 亚洲欧洲日本一区二区三区| 欧美www在线| 91久久在线观看| 一区二区精品国产| 国产精品久久999| 午夜在线不卡| 欧美第一黄色网| 一区二区三区四区五区精品视频 | 欧美亚洲网站| 毛片基地黄久久久久久天堂| 亚洲韩国日本中文字幕| 欧美理论电影在线播放| 国产精品99久久久久久人| 欧美专区日韩专区| 亚洲国产婷婷综合在线精品 | 午夜精品久久久久久 | 亚洲国产日韩一区二区| 欧美大片免费看| 中文久久精品| 久久综合色婷婷| 日韩亚洲精品视频| 国产欧美日韩中文字幕在线| 久久久在线视频| 妖精视频成人观看www| 久久久久久久尹人综合网亚洲| 亚洲风情亚aⅴ在线发布| 欧美日韩精品系列| 久久精品国产精品亚洲综合 | 久久亚洲高清| 亚洲三级影院| 国产欧美一区二区精品秋霞影院| 久久亚洲精品一区| 亚洲一区二区在线看| 欧美国产1区2区| 久久av免费一区| 亚洲毛片一区| 激情国产一区| 国产精品久久久久久福利一牛影视| 久久久久国产一区二区三区| 一本色道久久综合亚洲精品按摩 | 在线一区视频| 久久一区二区三区四区| 亚洲特级毛片| 亚洲精品黄网在线观看| 国产亚洲欧美一级| 国产精品99免费看| 欧美激情第五页| 久久偷窥视频| 性欧美8khd高清极品| 日韩午夜在线播放| 亚洲福利电影| 免费不卡亚洲欧美| 香蕉成人啪国产精品视频综合网| 日韩午夜电影av| 亚洲国产欧美在线| 一区二区三区中文在线观看| 国产久一道中文一区| 欧美日韩综合精品| 欧美巨乳波霸| 欧美高清视频在线| 男人的天堂亚洲在线| 久久国产精品网站| 欧美一级淫片播放口| 亚洲一区中文| 亚洲免费伊人电影在线观看av| 一区二区三区 在线观看视频| 亚洲黄色免费电影| 欧美激情欧美激情在线五月| 欧美不卡视频| 欧美激情亚洲自拍| 亚洲人成人77777线观看| 亚洲激情视频在线播放| 亚洲福利一区| 日韩午夜激情| 99热这里只有成人精品国产| 亚洲最新在线视频| 亚洲午夜在线观看视频在线| 亚洲一区二区三区在线| 亚洲免费中文字幕| 欧美一区二区观看视频| 欧美专区18| 麻豆国产精品va在线观看不卡| 美女网站久久| 欧美精品一区二区三区在线看午夜| 欧美激情在线播放| 国产精品乱子乱xxxx| 国产亚洲精品bt天堂精选| 伊人成人网在线看| 亚洲美女91| 香蕉av777xxx色综合一区| 久久国产一二区| 麻豆免费精品视频| 亚洲精品偷拍| 性欧美18~19sex高清播放| 久久女同互慰一区二区三区| 欧美极品aⅴ影院| 国产精品成人免费视频| 国产一区二区三区四区| 亚洲黄一区二区三区| 亚洲免费一区二区| 久久在线91| 亚洲免费大片| 欧美一区三区二区在线观看| 欧美www视频| 国产日产欧美一区| 91久久国产综合久久91精品网站| 亚洲网站啪啪| 美女成人午夜| 中国女人久久久| 久久一区欧美| 国产麻豆成人精品| 亚洲精选在线观看| 久久精品国产欧美激情| 亚洲欧洲日本专区| 久久国产精品99国产| 欧美日韩在线不卡| 亚洲激情六月丁香| 小黄鸭精品aⅴ导航网站入口| 欧美国产激情二区三区| 亚洲欧美日韩综合aⅴ视频| 欧美国产精品久久| 国内精品久久国产| 午夜老司机精品| 亚洲精品久久久久久一区二区| 欧美一级成年大片在线观看| 欧美午夜精品久久久久免费视| 亚洲国产午夜|