久久福利_99r_国产日韩在线视频_直接看av的网站_中文欧美日韩_久久一

您的位置:首頁技術文章
文章詳情頁

python爬蟲請求庫httpx和parsel解析庫的使用測評

瀏覽:7日期:2022-06-20 10:50:23

Python網絡爬蟲領域兩個最新的比較火的工具莫過于httpx和parsel了。httpx號稱下一代的新一代的網絡請求庫,不僅支持requests庫的所有操作,還能發送異步請求,為編寫異步爬蟲提供了便利。parsel最初集成在著名Python爬蟲框架Scrapy中,后獨立出來成立一個單獨的模塊,支持XPath選擇器, CSS選擇器和正則表達式等多種解析提取方式, 據說相比于BeautifulSoup,parsel的解析效率更高。

今天我們就以爬取鏈家網上的二手房在售房產信息為例,來測評下httpx和parsel這兩個庫。為了節約時間,我們以爬取上海市浦東新區500萬元-800萬元以上的房產為例。

requests + BeautifulSoup組合

首先上場的是Requests + BeautifulSoup組合,這也是大多數人剛學習Python爬蟲時使用的組合。本例中爬蟲的入口url是https://sh.lianjia.com/ershoufang/pudong/a3p5/, 先發送請求獲取最大頁數,然后循環發送請求解析單個頁面提取我們所要的信息(比如小區名,樓層,朝向,總價,單價等信息),最后導出csv文件。如果你正在閱讀本文,相信你對Python爬蟲已經有了一定了解,所以我們不會詳細解釋每一行代碼。

整個項目代碼如下所示:

# homelink_requests.py# Author: 大江狗 from fake_useragent import UserAgent import requests from bs4 import BeautifulSoup import csv import re import time class HomeLinkSpider(object): def __init__(self): self.ua = UserAgent() self.headers = {'User-Agent': self.ua.random} self.data = list() self.path = '浦東_三房_500_800萬.csv' self.url = 'https://sh.lianjia.com/ershoufang/pudong/a3p5/' def get_max_page(self): response = requests.get(self.url, headers=self.headers) if response.status_code == 200: soup = BeautifulSoup(response.text, ’html.parser’) a = soup.select(’div[class='page-box house-lst-page-box']’) #使用eval是字符串轉化為字典格式 max_page = eval(a[0].attrs['page-data'])['totalPage'] return max_page else: print('請求失敗 status:{}'.format(response.status_code)) return None def parse_page(self): max_page = self.get_max_page() for i in range(1, max_page + 1): url = ’https://sh.lianjia.com/ershoufang/pudong/pg{}a3p5/’.format(i) response = requests.get(url, headers=self.headers) soup = BeautifulSoup(response.text, ’html.parser’) ul = soup.find_all('ul', class_='sellListContent') li_list = ul[0].select('li') for li in li_list: detail = dict() detail[’title’] = li.select(’div[class='title']’)[0].get_text() # 2室1廳 | 74.14平米 | 南 | 精裝 | 高樓層(共6層) | 1999年建 | 板樓 house_info = li.select(’div[class='houseInfo']’)[0].get_text() house_info_list = house_info.split(' | ') detail[’bedroom’] = house_info_list[0] detail[’area’] = house_info_list[1] detail[’direction’] = house_info_list[2] floor_pattern = re.compile(r’d{1,2}’) # 從字符串任意位置匹配 match1 = re.search(floor_pattern, house_info_list[4]) if match1: detail[’floor’] = match1.group() else: detail[’floor’] = '未知' # 匹配年份 year_pattern = re.compile(r’d{4}’) match2 = re.search(year_pattern, house_info_list[5]) if match2: detail[’year’] = match2.group() else: detail[’year’] = '未知' # 文蘭小區 - 塘橋, 提取小區名和哈快 position_info = li.select(’div[class='positionInfo']’)[0].get_text().split(’ - ’) detail[’house’] = position_info[0] detail[’location’] = position_info[1] # 650萬,匹配650 price_pattern = re.compile(r’d+’) total_price = li.select(’div[class='totalPrice']’)[0].get_text() detail[’total_price’] = re.search(price_pattern, total_price).group() # 單價64182元/平米, 匹配64182 unit_price = li.select(’div[class='unitPrice']’)[0].get_text() detail[’unit_price’] = re.search(price_pattern, unit_price).group() self.data.append(detail) def write_csv_file(self): head = ['標題', '小區', '房廳', '面積', '朝向', '樓層', '年份', '位置', '總價(萬)', '單價(元/平方米)'] keys = ['title', 'house', 'bedroom', 'area', 'direction', 'floor', 'year', 'location', 'total_price', 'unit_price'] try: with open(self.path, ’w’, newline=’’, encoding=’utf_8_sig’) as csv_file: writer = csv.writer(csv_file, dialect=’excel’) if head is not None: writer.writerow(head) for item in self.data: row_data = [] for k in keys: row_data.append(item[k]) # print(row_data) writer.writerow(row_data) print('Write a CSV file to path %s Successful.' % self.path) except Exception as e: print('Fail to write CSV to path: %s, Case: %s' % (self.path, e)) if __name__ == ’__main__’: start = time.time() home_link_spider = HomeLinkSpider() home_link_spider.parse_page() home_link_spider.write_csv_file() end = time.time() print('耗時:{}秒'.format(end-start))

注意:我們使用了fake_useragent, requests和BeautifulSoup,這些都需要通過pip事先安裝好才能用。

現在我們來看下爬取結果,耗時約18.5秒,總共爬取580條數據。

python爬蟲請求庫httpx和parsel解析庫的使用測評

requests + parsel組合

這次我們同樣采用requests獲取目標網頁內容,使用parsel庫(事先需通過pip安裝)來解析。Parsel庫的用法和BeautifulSoup相似,都是先創建實例,然后使用各種選擇器提取DOM元素和數據,但語法上稍有不同。Beautiful有自己的語法規則,而Parsel庫支持標準的css選擇器和xpath選擇器, 通過get方法或getall方法獲取文本或屬性值,使用起來更方便。

# BeautifulSoup的用法 from bs4 import BeautifulSoup soup = BeautifulSoup(response.text, ’html.parser’) ul = soup.find_all('ul', class_='sellListContent')[0] # Parsel的用法, 使用Selector類 from parsel import Selector selector = Selector(response.text) ul = selector.css(’ul.sellListContent’)[0] # Parsel獲取文本值或屬性值案例 selector.css(’div.title span::text’).get() selector.css(’ul li a::attr(href)’).get() >>> for li in selector.css(’ul > li’): ... print(li.xpath(’.//@href’).get())

注:老版的parsel庫使用extract()或extract_first()方法獲取文本或屬性值,在新版中已被get()和getall()方法替代。

全部代碼如下所示:

# homelink_parsel.py # Author: 大江狗 from fake_useragent import UserAgent import requests import csv import re import time from parsel import Selector class HomeLinkSpider(object): def __init__(self): self.ua = UserAgent() self.headers = {'User-Agent': self.ua.random} self.data = list() self.path = '浦東_三房_500_800萬.csv' self.url = 'https://sh.lianjia.com/ershoufang/pudong/a3p5/' def get_max_page(self): response = requests.get(self.url, headers=self.headers) if response.status_code == 200: # 創建Selector類實例 selector = Selector(response.text) # 采用css選擇器獲取最大頁碼div Boxl a = selector.css(’div[class='page-box house-lst-page-box']’) # 使用eval將page-data的json字符串轉化為字典格式 max_page = eval(a[0].xpath(’//@page-data’).get())['totalPage'] print('最大頁碼數:{}'.format(max_page)) return max_page else: print('請求失敗 status:{}'.format(response.status_code)) return None def parse_page(self): max_page = self.get_max_page() for i in range(1, max_page + 1): url = ’https://sh.lianjia.com/ershoufang/pudong/pg{}a3p5/’.format(i) response = requests.get(url, headers=self.headers) selector = Selector(response.text) ul = selector.css(’ul.sellListContent’)[0] li_list = ul.css(’li’) for li in li_list: detail = dict() detail[’title’] = li.css(’div.title a::text’).get() # 2室1廳 | 74.14平米 | 南 | 精裝 | 高樓層(共6層) | 1999年建 | 板樓 house_info = li.css(’div.houseInfo::text’).get() house_info_list = house_info.split(' | ') detail[’bedroom’] = house_info_list[0] detail[’area’] = house_info_list[1] detail[’direction’] = house_info_list[2] floor_pattern = re.compile(r’d{1,2}’) match1 = re.search(floor_pattern, house_info_list[4]) # 從字符串任意位置匹配 if match1: detail[’floor’] = match1.group() else: detail[’floor’] = '未知' # 匹配年份 year_pattern = re.compile(r’d{4}’) match2 = re.search(year_pattern, house_info_list[5]) if match2: detail[’year’] = match2.group() else: detail[’year’] = '未知' # 文蘭小區 - 塘橋 提取小區名和哈快 position_info = li.css(’div.positionInfo a::text’).getall() detail[’house’] = position_info[0] detail[’location’] = position_info[1] # 650萬,匹配650 price_pattern = re.compile(r’d+’) total_price = li.css(’div.totalPrice span::text’).get() detail[’total_price’] = re.search(price_pattern, total_price).group() # 單價64182元/平米, 匹配64182 unit_price = li.css(’div.unitPrice span::text’).get() detail[’unit_price’] = re.search(price_pattern, unit_price).group() self.data.append(detail) def write_csv_file(self): head = ['標題', '小區', '房廳', '面積', '朝向', '樓層', '年份', '位置', '總價(萬)', '單價(元/平方米)'] keys = ['title', 'house', 'bedroom', 'area', 'direction', 'floor', 'year', 'location', 'total_price', 'unit_price'] try: with open(self.path, ’w’, newline=’’, encoding=’utf_8_sig’) as csv_file: writer = csv.writer(csv_file, dialect=’excel’) if head is not None: writer.writerow(head) for item in self.data: row_data = [] for k in keys: row_data.append(item[k]) # print(row_data) writer.writerow(row_data) print('Write a CSV file to path %s Successful.' % self.path) except Exception as e: print('Fail to write CSV to path: %s, Case: %s' % (self.path, e)) if __name__ == ’__main__’: start = time.time() home_link_spider = HomeLinkSpider() home_link_spider.parse_page() home_link_spider.write_csv_file() end = time.time() print('耗時:{}秒'.format(end-start))

現在我們來看下爬取結果,爬取580條數據耗時約16.5秒,節省了2秒時間。可見parsel比BeautifulSoup解析效率是要高的,爬取任務少時差別不大,任務多的話差別可能會大些。

python爬蟲請求庫httpx和parsel解析庫的使用測評

httpx同步 + parsel組合

我們現在來更進一步,使用httpx替代requests庫。httpx發送同步請求的方式和requests庫基本一樣,所以我們只需要修改上例中兩行代碼,把requests替換成httpx即可, 其余代碼一模一樣。

from fake_useragent import UserAgent import csv import re import time from parsel import Selector import httpx class HomeLinkSpider(object): def __init__(self): self.ua = UserAgent() self.headers = {'User-Agent': self.ua.random} self.data = list() self.path = '浦東_三房_500_800萬.csv' self.url = 'https://sh.lianjia.com/ershoufang/pudong/a3p5/' def get_max_page(self): # 修改這里把requests換成httpx response = httpx.get(self.url, headers=self.headers) if response.status_code == 200: # 創建Selector類實例 selector = Selector(response.text) # 采用css選擇器獲取最大頁碼div Boxl a = selector.css(’div[class='page-box house-lst-page-box']’) # 使用eval將page-data的json字符串轉化為字典格式 max_page = eval(a[0].xpath(’//@page-data’).get())['totalPage'] print('最大頁碼數:{}'.format(max_page)) return max_page else: print('請求失敗 status:{}'.format(response.status_code)) return None def parse_page(self): max_page = self.get_max_page() for i in range(1, max_page + 1): url = ’https://sh.lianjia.com/ershoufang/pudong/pg{}a3p5/’.format(i) # 修改這里把requests換成httpx response = httpx.get(url, headers=self.headers) selector = Selector(response.text) ul = selector.css(’ul.sellListContent’)[0] li_list = ul.css(’li’) for li in li_list: detail = dict() detail[’title’] = li.css(’div.title a::text’).get() # 2室1廳 | 74.14平米 | 南 | 精裝 | 高樓層(共6層) | 1999年建 | 板樓 house_info = li.css(’div.houseInfo::text’).get() house_info_list = house_info.split(' | ') detail[’bedroom’] = house_info_list[0] detail[’area’] = house_info_list[1] detail[’direction’] = house_info_list[2] floor_pattern = re.compile(r’d{1,2}’) match1 = re.search(floor_pattern, house_info_list[4]) # 從字符串任意位置匹配 if match1: detail[’floor’] = match1.group() else: detail[’floor’] = '未知' # 匹配年份 year_pattern = re.compile(r’d{4}’) match2 = re.search(year_pattern, house_info_list[5]) if match2: detail[’year’] = match2.group() else: detail[’year’] = '未知' # 文蘭小區 - 塘橋 提取小區名和哈快 position_info = li.css(’div.positionInfo a::text’).getall() detail[’house’] = position_info[0] detail[’location’] = position_info[1] # 650萬,匹配650 price_pattern = re.compile(r’d+’) total_price = li.css(’div.totalPrice span::text’).get() detail[’total_price’] = re.search(price_pattern, total_price).group() # 單價64182元/平米, 匹配64182 unit_price = li.css(’div.unitPrice span::text’).get() detail[’unit_price’] = re.search(price_pattern, unit_price).group() self.data.append(detail) def write_csv_file(self): head = ['標題', '小區', '房廳', '面積', '朝向', '樓層', '年份', '位置', '總價(萬)', '單價(元/平方米)'] keys = ['title', 'house', 'bedroom', 'area', 'direction', 'floor', 'year', 'location', 'total_price', 'unit_price'] try: with open(self.path, ’w’, newline=’’, encoding=’utf_8_sig’) as csv_file: writer = csv.writer(csv_file, dialect=’excel’) if head is not None: writer.writerow(head) for item in self.data: row_data = [] for k in keys: row_data.append(item[k]) # print(row_data) writer.writerow(row_data) print('Write a CSV file to path %s Successful.' % self.path) except Exception as e: print('Fail to write CSV to path: %s, Case: %s' % (self.path, e)) if __name__ == ’__main__’: start = time.time() home_link_spider = HomeLinkSpider() home_link_spider.parse_page() home_link_spider.write_csv_file() end = time.time() print('耗時:{}秒'.format(end-start))

整個爬取過程耗時16.1秒,可見使用httpx發送同步請求時效率和requests基本無差別。

python爬蟲請求庫httpx和parsel解析庫的使用測評

注意:Windows上使用pip安裝httpx可能會出現報錯,要求安裝Visual Studio C++, 這個下載安裝好就沒事了。

接下來,我們就要開始王炸了,使用httpx和asyncio編寫一個異步爬蟲看看從鏈家網上爬取580條數據到底需要多長時間。

httpx異步+ parsel組合

Httpx厲害的地方就是能發送異步請求。整個異步爬蟲實現原理時,先發送同步請求獲取最大頁碼,把每個單頁的爬取和數據解析變為一個asyncio協程任務(使用async定義),最后使用loop執行。

大部分代碼與同步爬蟲相同,主要變動地方有兩個:

# 異步 - 使用協程函數解析單頁面,需傳入單頁面url地址 async def parse_single_page(self, url): # 使用httpx發送異步請求獲取單頁數據 async with httpx.AsyncClient() as client: response = await client.get(url, headers=self.headers) selector = Selector(response.text) # 其余地方一樣 def parse_page(self): max_page = self.get_max_page() loop = asyncio.get_event_loop() # Python 3.6之前用ayncio.ensure_future或loop.create_task方法創建單個協程任務 # Python 3.7以后可以用戶asyncio.create_task方法創建單個協程任務 tasks = [] for i in range(1, max_page + 1): url = ’https://sh.lianjia.com/ershoufang/pudong/pg{}a3p5/’.format(i) tasks.append(self.parse_single_page(url)) # 還可以使用asyncio.gather(*tasks)命令將多個協程任務加入到事件循環 loop.run_until_complete(asyncio.wait(tasks)) loop.close()

整個項目代碼如下所示:

from fake_useragent import UserAgent import csv import re import time from parsel import Selector import httpx import asyncio class HomeLinkSpider(object): def __init__(self): self.ua = UserAgent() self.headers = {'User-Agent': self.ua.random} self.data = list() self.path = '浦東_三房_500_800萬.csv' self.url = 'https://sh.lianjia.com/ershoufang/pudong/a3p5/' def get_max_page(self): response = httpx.get(self.url, headers=self.headers) if response.status_code == 200: # 創建Selector類實例 selector = Selector(response.text) # 采用css選擇器獲取最大頁碼div Boxl a = selector.css(’div[class='page-box house-lst-page-box']’) # 使用eval將page-data的json字符串轉化為字典格式 max_page = eval(a[0].xpath(’//@page-data’).get())['totalPage'] print('最大頁碼數:{}'.format(max_page)) return max_page else: print('請求失敗 status:{}'.format(response.status_code)) return None # 異步 - 使用協程函數解析單頁面,需傳入單頁面url地址 async def parse_single_page(self, url): async with httpx.AsyncClient() as client: response = await client.get(url, headers=self.headers) selector = Selector(response.text) ul = selector.css(’ul.sellListContent’)[0] li_list = ul.css(’li’) for li in li_list: detail = dict() detail[’title’] = li.css(’div.title a::text’).get() # 2室1廳 | 74.14平米 | 南 | 精裝 | 高樓層(共6層) | 1999年建 | 板樓 house_info = li.css(’div.houseInfo::text’).get() house_info_list = house_info.split(' | ') detail[’bedroom’] = house_info_list[0] detail[’area’] = house_info_list[1] detail[’direction’] = house_info_list[2] floor_pattern = re.compile(r’d{1,2}’) match1 = re.search(floor_pattern, house_info_list[4]) # 從字符串任意位置匹配 if match1: detail[’floor’] = match1.group() else: detail[’floor’] = '未知' # 匹配年份 year_pattern = re.compile(r’d{4}’) match2 = re.search(year_pattern, house_info_list[5]) if match2: detail[’year’] = match2.group() else: detail[’year’] = '未知' # 文蘭小區 - 塘橋 提取小區名和哈快 position_info = li.css(’div.positionInfo a::text’).getall() detail[’house’] = position_info[0] detail[’location’] = position_info[1] # 650萬,匹配650 price_pattern = re.compile(r’d+’) total_price = li.css(’div.totalPrice span::text’).get() detail[’total_price’] = re.search(price_pattern, total_price).group() # 單價64182元/平米, 匹配64182 unit_price = li.css(’div.unitPrice span::text’).get() detail[’unit_price’] = re.search(price_pattern, unit_price).group() self.data.append(detail) def parse_page(self): max_page = self.get_max_page() loop = asyncio.get_event_loop() # Python 3.6之前用ayncio.ensure_future或loop.create_task方法創建單個協程任務 # Python 3.7以后可以用戶asyncio.create_task方法創建單個協程任務 tasks = [] for i in range(1, max_page + 1): url = ’https://sh.lianjia.com/ershoufang/pudong/pg{}a3p5/’.format(i) tasks.append(self.parse_single_page(url)) # 還可以使用asyncio.gather(*tasks)命令將多個協程任務加入到事件循環 loop.run_until_complete(asyncio.wait(tasks)) loop.close() def write_csv_file(self): head = ['標題', '小區', '房廳', '面積', '朝向', '樓層', '年份', '位置', '總價(萬)', '單價(元/平方米)'] keys = ['title', 'house', 'bedroom', 'area', 'direction', 'floor', 'year', 'location', 'total_price', 'unit_price'] try: with open(self.path, ’w’, newline=’’, encoding=’utf_8_sig’) as csv_file: writer = csv.writer(csv_file, dialect=’excel’) if head is not None: writer.writerow(head) for item in self.data: row_data = [] for k in keys: row_data.append(item[k]) writer.writerow(row_data) print('Write a CSV file to path %s Successful.' % self.path) except Exception as e: print('Fail to write CSV to path: %s, Case: %s' % (self.path, e)) if __name__ == ’__main__’: start = time.time() home_link_spider = HomeLinkSpider() home_link_spider.parse_page() home_link_spider.write_csv_file() end = time.time() print('耗時:{}秒'.format(end-start))

現在到了見證奇跡的時刻了。從鏈家網上爬取了580條數據,使用httpx編寫的異步爬蟲僅僅花了2.5秒!!

python爬蟲請求庫httpx和parsel解析庫的使用測評

對比與總結

爬取同樣的內容,采用不同工具組合耗時是不一樣的。httpx異步+parsel組合毫無疑問是最大的贏家, requests和BeautifulSoup確實可以功成身退啦。

requests + BeautifulSoup: 18.5 秒 requests + parsel: 16.5秒 httpx 同步 + parsel: 16.1秒 httpx 異步 + parsel: 2.5秒

對于Python爬蟲,你還有喜歡的庫嗎?

以上就是python爬蟲請求庫httpx和parsel解析庫的使用測評的詳細內容,更多關于python httpx和parsel的資料請關注好吧啦網其它相關文章!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 欧美一级黄色片 | 影视一区 | 爱爱视频免费 | 人人草在线观看视频 | 久热av在线 | 91短视频版在线观看免费大全 | 国产精品一区二区在线观看 | 亚洲精品一区国产精品 | 国产中文视频 | 求av网站 | 一级特黄网站 | 超碰av在线 | av观看| 亚洲精品成人 | avmans最新导航地址 | 欧美成人精品一区二区 | 国产精品一区二区视频 | 国产精品久久精品久久 | 亚洲天堂久久 | 嫩草私人影院 | 日韩高清黄色 | 色婷婷综合久久久久中文一区二区 | 日韩欧美国产一区二区三区 | 欧美日韩在线播放 | 午夜影院在线观看视频 | 日韩不卡一区 | 成人免费视频一区二区 | 日韩欧美国产精品 | 精品一级 | 毛片免费观看网址 | 一区二区三区视频 | 在线视频一区二区 | 碰碰视频| 成人av在线播放 | 久久综合久久综合久久综合 | 国产一区二区三区久久久 | 人人澡人人射 | 在线色站 | 亚洲欧美综合 | 日韩欧美一级片 | 亚洲综合视频 | 久久久国产一区二区三区 | 国产午夜精品一区二区三区视频 | 韩国精品一区 | 91免费版在线看 | 久久九 | 国产中文字幕一区 | 黄色a视频 | 成人日韩在线观看 | 久久久精彩视频 | 欧美午夜一区二区三区免费大片 | 日本一区二区高清不卡 | 特级丰满少妇一级aaaa爱毛片 | 亚洲久久在线 | 91国内外精品自在线播放 | 色欧美视频 | 亚洲专区国产精品 | 不卡欧美| 日韩欧美精品一区 | 欧美成人猛片aaaaaaa | 久久国产欧美一区二区三区精品 | 久久免费视频在线 | 欧美日韩一区二区视频在线观看 | 国产精品自产拍在线观看 | 一区二区免费 | 日本视频二区 | 国产精品久久久久久久 | 国产99精品视频 | 97人人做人人人难人人做 | 激情久久久 | 在线中文 | 波多野结衣三区 | 国产精品一区二 | 黄色一级免费电影 | 欧美大片黄 | 成人福利在线 | 激情com| 小川阿佐美88av在线播放 | 色偷偷噜噜噜亚洲男人 | 久久国产欧美日韩精品 | 欧美国产精品一区二区 | 国产成人中文字幕 | 福利片一区二区 | 精品少妇一区二区三区在线播放 | 国产美女福利在线 | 成年人性视频 | 日日夜夜免费精品视频 | 日韩三级在线免费观看 | 伊人网站 | 男女啪啪无遮挡 | 亚洲第一se情网站 | 久草视频在线播放 | 毛片在线视频 | 欧美日韩在线一区二区 | 亚洲天堂一区二区 | 国产剧情一区二区 | 最新国产视频 | 日韩在线视频免费 | 日韩中文在线播放 | 亚洲人成在线观看 | 久久久一二三 | 国产免费中文字幕 | 亚洲国产一区二区三区四区 | 国产精品看片 | 一级毛片电影院 | 国产日韩欧美一区二区 | 亚洲不卡| 天堂久久久久久 | 精品视频久久 | 国产三级在线播放 | 欧美一级黄色片 | 精品久久久精品 | 日韩精品视频三区 | 一区二区三区av | 国产一区不卡视频 | 久久这里只有精品首页 | 四虎永久在线 | 精品九九九 | www狠狠干 | 欧洲亚洲视频 | 天天干人人 | 91国内产香蕉 | 超级黄色一级片 | 久久成| 91精品综合久久久久久五月天 | 亚洲国产成人一区二区精品区 | 精品久久久久久久久久久久久久久久久久久 | 蜜桃臀一区二区三区 | 国产高清在线精品一区二区三区 | 国产一区二区久久久 | 久久亚洲一区二区三区四区五区高 | 国产精品一区二区三区在线 | 中文字幕一区二区在线观看 | 久久精品国产99国产精2020新增功能 | 国产成年人小视频 | 999精品视频| 国产精品久久久久久久久污网站 | 视色视频在线观看 | 日本不卡免费新一二三区 | 国产精品一二三区 | 日韩欧美国产成人一区二区 | 欧美一级黄视频 | 成人在线播放网站 | 99视频精品| 欧美精品一区二区三区在线四季 | 国产视频一区二区 | 成人在线高清视频 | 国产女人爽到高潮免费视频 | 国产精品美女久久久久久久久久久 | 日韩中文字幕av在线 | 农村末发育av片四区五区 | 国产午夜视频 | 欧美成人一区二区 | 日韩免费区 | 亚洲一区中文字幕在线观看 | 久久成人免费视频 | 亚洲免费观看 | 在线视频 91 | 日韩啊啊啊 | 亚洲日韩欧美一区二区在线 | jjzz18国产| 君岛美绪一区二区三区在线视频 | 最近免费中文字幕在线视频2 | 日韩欧美一区二区在线观看视频 | 91精品久久久久久久91蜜桃 | 成人精品一区二区三区电影黑人 | 日韩福利影院 | 日韩久久一区二区 | 日韩在线不卡一区 | 亚洲电影一区二区三区 | 不卡的一区二区 | 精品国产欧美 | 99这里只有精品视频 | 日韩一区精品视频 | 日日夜夜一区二区 | 一区二区三区视频免费在线观看 | 国产美女自拍视频 | 久在线视频 | 国产精品欧美一区二区 | 一区二区三区小视频 | 山岸逢花在线观看 | 日韩成人在线网站 | 国产精品久久久久久久久久久久久 | 亚洲 欧美 日韩 在线 | 日本免费黄色 | 99免费在线视频 | 91亚洲在线 | 日韩欧美一区二区在线观看 | 亚洲成人一区二区三区 | 精品欧美黑人一区二区三区 | 久久99精品国产91久久来源 | 日本久久久久久 | 韩国精品主播一区二区在线观看 | 成年人在线观看 | 999视频在线 | 成人国产精品久久 | 国产精品极品美女在线观看免费 | 97国产一区二区精品久久呦 | 亚洲成人精品影视 | 婷婷在线免费视频 | 欧美一区久久 | 日韩在线小视频 | 中文字幕在线三区 | 亚洲综合色视频在线观看 | 97在线观看视频 | 国产中文在线 | 色综合久久网 | 国产91在线播放精品91 | 精品久久久久久亚洲精品 | 浴室洗澡偷拍一区二区 | 成人在线视频一区 | 久久夜夜 | 国产乱视频 | 看毛片网 | 日韩成人一区二区 | 射久久| 美女视频一区 | 一级一级毛片 | 精品国产乱码久久久久久闺蜜 | 久久国产精品视频 | 色香蕉视频 | 国产老女人精品毛片久久 | 亚洲天堂一区二区 | 中文字幕在线观看精品视频 | 青青草国产成人av片免费 | 成人一区av | 欧美激情视频一区二区三区在线播放 | 国产高清不卡在线 | 欧美一区久久 | 国家aaa的一级看片 h片在线看 | 91色在线| 欧美成人精品一区二区男人看 | 精品久久久久国产免费 | 国产精品无码久久久久 | 成人精品一区二区三区 | 人人干天天干 | 国产精品美女久久久久久久久久久 | 国产一区二区久久 | www国产亚洲精品久久网站 | 日韩不卡一区二区三区 | 成人一区二区三区 | 国产成人精品免费视频大全 | 国产九九在线观看 | 在线免费视频一区二区 | 伊人一二三区 | 欧美日韩高清一区 | 91免费在线视频 | 久久久国产精品 | 午夜精品一区二区三区在线视频 | 亚洲精品欧美 | 日韩免费一区 | 日韩在线免费观看网站 | 亚洲精品一区二区三区在线看 | 久久天天躁狠狠躁夜夜躁2014 | 欧美www.| 亚洲aaa在线观看 | 国产最好的精华液网站 | av一区二区在线播放 | 这里只有精品视频 | 国产精品成人av | 久久亚洲欧美日韩精品专区 | 狠狠ri| 一区二区三区四区免费观看 | 综合激情av | 在线观看免费国产 | 一区二区三区精品视频免费看 | 欧美一区二区三区在线视频 | 国产精品国产成人国产三级 | 亚洲一区二区三区视频免费观看 | 欧美日韩中文 | 亚洲一区二区三区高清 | 91精品国产综合久久久久久软件 | 成人国产精品久久久 | 国产精品3区 | 中文字幕av一区 | 国产成人精品一区二区三区四区 | 日本在线免费 | 美女91| 999精品嫩草久久久久久99 | 久久综合精品视频 | 欧美精品在线一区二区三区 | 日本久久精品电影 | 天天夜夜操操 | 亚洲精品国产setv | 亚洲国产成人在线 | 国产一级高清视频 | 久久99精品久久久久久 | 成人午夜小视频 | 欧美不卡视频一区发布 | 久久久久久毛片免费播放 | 日本久久久久久久久久久久 | 国产亚洲精品久久久久久久 | 成年人网站在线免费观看 | 91精品中文字幕一区二区三区 | 国产精品久久久一区二区 | 色综合色综合 | 99热这里有精品 | 国产一区a | a一级片在线观看 | 日韩三级在线免费观看 | 日韩精品免费视频 | 亚洲综合久久网 | 欧美成人黄色小说 | 玖玖国产精品视频 | 国产精品久久久久久久久免费桃花 | 欧美日韩亚洲一区 | 国产精品免费视频观看 | 欧美视频一级片 | 国产精品第52页 | 91亚洲精品久久久 | 免费高清av | 午夜影院网站 | 亚洲av毛片一级二级在线 | 奇米成人影视 | 久久久久久免费免费 | 日韩一本 | 国产成人精品久久二区二区 | 国产一区二区三区四区五区 | 91免费观看视频 | 国产免费天天看高清影视在线 | 国产超碰人人模人人爽人人添 | 青青草免费在线 | www国产亚洲精品久久网站 | 看欧美黄色录像 | 五月婷婷综合网 | 曰本人一级毛片免费完整视频 | 精品久久国产老人久久综合 | 91精品国产色综合久久不卡98 | 91精品中文字幕一区二区三区 | 成人在线h | 夜夜操天天干 | 欧美午夜一区二区福利视频 | 国产成人综合一区二区三区 | 欧洲精品 | 国产精品理论电影 | 羞羞的视频在线 | 91精品国产一区二区三区蜜臀 | 久久精品99国产精品亚洲最刺激 | 亚色在线 | 性色在线| 欧美午夜一区 | 中文字幕一区在线观看视频 | 97精品久久 | 久久国产欧美一区二区三区精品 | 久久精品国产清自在天天线 | 91综合网 | 国产一区二区三区久久 | baoyu123成人免费看视频 | 欧美在线一区二区 | 欧美大片免费高清观看 | 成人福利视频 | 国产精品久久久久久久岛一牛影视 | 中文字幕在线观看网站 | 亚洲一级一片 | 91在线视频免费观看 | 午夜精品久久久久久久 | 成人国产精品免费网站 | 美女扒开尿口来摸 | 国产精品视频一区二区三区四蜜臂 | 欧美一区二区三区精品 | 亚州成人 | 久久久亚洲综合 | 91成人免费看片 | 一区二区三区精品视频 | 日韩成人在线观看 | 欧美视频免费看 | 亚洲视频中文字幕 | 国产a区 | 精品国产成人 | 91aiai | 99久久这里只有精品 | 亚洲国产成人av好男人在线观看 | 夜夜草视频 | 日韩欧美亚洲 | 精品国产一级毛片 | 天堂网av2020| 中文字幕99 | 亚洲激情av | 日韩一区二区三区在线观看 | 成人av综合| 伊人久久艹 | 宅男伊人| 北条麻妃99精品青青久久主播 | 成人一级片 | 天天干夜夜骑 | 免费一二区 | 欧美日韩亚洲国产综合 | 韩国成人精品a∨在线观看 国产伊人av | 国产电影一区二区三区图片 | 真人一级毛片 | 国产在线成人 | 欧美日韩精品一区二区三区 | 亚洲精品一区在线观看 | 国产乱码精品1区2区3区 | 色欧美日韩| 久久欧美精品一区 | 精品国产乱码久久久久久久软件 | 色天天综合久久久久综合片 | 在线欧美a| 黄色一级电影免费观看 | 中文字幕乱码一区二区三区 | 可以免费看的av | 久久小草 | 久久影视精品 | 超碰人人艹 | 网站av | 日韩在线观看成人 | 久久久久久国产精品 | 久久久精品日本 | 超碰首页 | 欧美性猛交一区二区三区精品 | 欧美一区二区三区视频 | 亚洲视频二区 | 天天干天天草 | 精品久久久久久 | 亚洲一区国产视频 | 亚洲免费不卡视频 | 毛片网子| 精品一区二区三区蜜桃 | 国产精品视频久久久 | 天堂中文网 | m豆传媒在线链接观看 | 国产精品久久久 | 香蕉久久网| 欧美一区2区三区4区公司二百 | 欧美一级做性受免费大片免费 | 国产一区二区三区免费 | 国产精品1区2区 | 久久久精品网 | 国产片在线观看 | 91九色国产视频 | www.日韩精品.com| 精品专区| 国产拍揄自揄精品视频麻豆 | 欧美一级淫片免费视频黄 | 欧产日产国产精品一二 | 亚洲综合大片69999 | 国产欧美精品 | 欧美日韩亚洲国产 | 久久久久久久久国产成人免费 | 中文字幕乱码亚洲精品一区 | 插插射啊爱视频日a级 | 一区二区三区在线看 | 国产视频三区 | 天天澡天天狠天天天做 | 国外成人在线视频网站 | 美女久久一区 | 久久精品国产99国产精2020新增功能 | 黄色一级视频 | 国产日产精品一区二区三区四区 | 亚洲午夜精品a | 最新午夜| 亚洲 成人 av | 精品96久久久久久中文字幕无 | 精品一区二区三区免费 | 久久99深爱久久99精品 | 黄色的视频免费 | 国产一区二区在线免费观看 | 欧美日韩国产一区二区三区 | 亚洲精品午夜 | 视频在线91 | 91人人爽人人爽人人精88v | av在线一区二区 | 久久四色 | 亚洲国产日韩欧美 | 国产毛片视频 | 男女羞羞视频免费观看 | 91精品国产自产精品男人的天堂 | 成人 在线| 盗摄精品av一区二区三区 | 黄视频网站免费看 | 嫩呦国产一区二区三区av | 91在线看| 明里在线观看 | 亚洲三级不卡 | 欧美日韩精品一区二区三区在线观看 | 国产亚洲精品久久久久动 | 天天干天天操天天爽 | 午夜精品久久久久久99热软件 | 国产羞羞视频在线观看 | 一区小视频 | 国产美女精品人人做人人爽 | 国产精品看片 | 久久一区 | 午夜午夜精品一区二区三区文 | 亚洲国产精品视频 | 欧美中文在线观看 | 国产精品久久久久久久久 | 一区二区网站 | 国产精品高颜值在线观看 | 日本一区二区三区免费观看 | 久久99国产精品久久99大师 | 中文字幕日韩av | 国产九九九 | 日韩欧美中文字幕在线视频 | 亚洲欧美高清 | 北条麻妃99精品青青久久 | 亚洲精品视频播放 | 国产中文视频 | 亚洲欧美激情精品一区二区 | 特黄一级 | 国产欧美一区二区 | 日韩一区二区在线观看 | 日韩精品一区二区三区在线 | 欧美亚洲综合久久 | 91亚洲国产精品 | 欧美激情自拍偷拍 | 超级碰在线视频 | 中文字幕一区二区三区不卡 | 亚洲日本二区 | 中文字幕精品一区久久久久 | 欧美国产日韩视频 | 久久久久久久久久久久久久久久久久久 | 国产中文视频 | 日本高清视频在线播放 | 日韩欧美一级片 | 99精品国产热久久91蜜凸 | 亚洲午夜精品 | 欧美三级视频 | 九九免费观看全部免费视频 | 久久久精品综合 | 夜添久久精品亚洲国产精品 | 91精品一区二区三区久久久久久 | 视频一区二区三区免费观看 | 国产美女精品 | 日本高清视频网站www | 日本一区高清 | 日韩视频一区在线观看 | 亚洲国产精品一区二区久久,亚洲午夜 | 99爱国产 | 久久久久国产一区二区三区四区 | 精品一区二区久久久久久久网站 | 国产一区二区三区在线视频 | 亚洲精品一区二区三区蜜桃久 | 国产老女人精品毛片久久 | 亚洲国产网站 | 精品99免费| 日韩福利 | 国产日产精品一区二区三区四区 | 国产在线观看免费av | 欧美日一区二区 | 在线永久免费观看日韩a | 国产精品久久九九 | 全黄大全大色全免费大片 | 精品国产鲁一鲁一区二区在线观看 | 国产全黄| 久久亚洲天堂 | www国产亚洲精品久久网站 | 亚洲激情av | 日本一区二区不卡 | 免费一二区 | 日韩一区在线视频 | 99pao成人国产永久免费视频 | 日本黄色电影网站 | 伊人久久艹 | 亚洲一区 中文字幕 | 久久久久久免费视频 | aaaaaaa片毛片免费观看 | www操com| 日韩午夜免费视频 | 国产精品一二三四区 | 婷婷丁香激情网 | 日本人做爰大片免费观看一老师 | 久艹精品 | 国产精品久久久久久久久久 | 免费观看一级黄色片 | 91久久久久久久久久久久久久久久 | 中文字幕av第一页 | 精品久久久久久久久久久久久久 | 国内精品久久久久 | 一区二区三区福利视频 | 欧美激情一区二区 | 视频在线一区 | 久久av资源 | 蜜桃一区二区 | 在线国产一区 | 精品亚洲一区二区三区 | 午夜私人影院 | 天天久久| 欧美成人综合视频 | 久久首页| 色婷婷av一区二区三区大白胸 | 国产色网| 在线观看视频一区 | 中文字幕avav | 日日操夜夜操免费视频 | 亚洲成人伊人 | 久久精品视频免费观看 | 久久综合久久综合久久综合 | 野狼在线社区2017入口 | 狠狠骚 | 亚洲综合视频 | av国产精品毛片一区二区小说 | 欧美久久久久 | 午夜国产在线 | 国产人免费人成免费视频 | 精品91久久久 | 三级视频在线 | 中文字幕在线播放不卡 | 国产一级黄色 | 亚洲一区日韩 | 久久精品亚洲 | 国产欧美精品一区二区 | 日韩一区二区在线观看 | 日本中文字幕一区二区 | 91精品国产高清久久久久久久久 | 国产精品久久久久久吹潮 | 国产美女自拍视频 | 亚洲国产欧美一区二区三区久久 | 日韩综合一区二区 | 涩涩综合 | 国产网站在线 | 99精品视频一区二区三区 | 欧美国产视频 | 国产精品久久久久久久久免费丝袜 |