久久福利_99r_国产日韩在线视频_直接看av的网站_中文欧美日韩_久久一

您的位置:首頁技術文章
文章詳情頁

html - 為什么BeautifulSoup find_all 返回的list都不是按照網頁顯示順序排序的?

瀏覽:114日期:2023-10-13 17:52:01

問題描述

我想爬糗百的段子,顯示作者,和對應的段子,先只爬第一面

import requestsfrom bs4 import BeautifulSoup as bspage = 1url = 'http://www.qiushibaike.com/hot/page/'r = requests.get(url+str(page))soup = bs(r.content,'html.parser')names = []for n in soup.find_all('a',{'href':True,'target':True,'title':True}): names += [n.h2.get_text()]print(names)

print 結果:

[’威信紅包接龍關注’, ’ZBZBZBZ’, ’養賊專業戶’, ’柱流年’, ’大風起兮雪飛揚’, ’依然家的麥芽糖’, ’小小&妖精’, ’蒼南下山耍流氓,黑衣格哥買紅糖’, ’九妹妹~’, ’親愛de橄欖綠’, ’有點胖的妮妮’, ’污奇奇’, ’沒辦法就是這么帥’, ’亦龍’, ’哇噻~桃寶’, ’單名一個飯字’, ’ni敢拿命疼我嗎?’, ’許我三日暖’, ’半闕詞曲丶’, ’誰動了我的糧食?’]

html.fromstring xpath 也這樣

from lxml import htmlimport requestspage = 1url = 'http://www.qiushibaike.com/hot/page/'r = requests.get(url+str(page))tree = html.fromstring(r.content)print(tree.xpath(’//*[@class='article block untagged mb15']/p[1]/a[2]/h2/text()’))

print 結果:

[’威信紅包接龍關注’, ’ZBZBZBZ’, ’養賊專業戶’, ’大風起兮雪飛揚’, ’柱流年’, ’依然家的麥芽糖’, ’小小&妖精’, ’蒼南下山耍流氓,黑衣格哥買紅糖’, ’九妹妹~’, ’親愛de橄欖綠’, ’有點胖的妮妮’, ’污奇奇’, ’沒辦法就是這么帥’, ’亦龍’, ’單名一個飯字’, ’ni敢拿命疼我嗎?’, ’許我三日暖’, ’半闕詞曲丶’, ’根@兒’, ’我是你的絕無僅有’]

但網頁的實際顯示順序是:

[’威信紅包接龍關注’, ’養賊專業戶’, ’ZBZBZBZ’, ’柱流年’, ’有點胖的妮妮’, ’依然家的麥芽糖’, ’小小&妖精’, ’大風起兮雪飛揚’, ’蒼南下山耍流氓,黑衣格哥買紅糖’, ’九妹妹~’, ’亦龍’...]

如何讓返回的list的元素的順序和網頁顯示順序相同?

問題解答

回答1:

應該是因為它頁面的內容的排序是在變動的。他的排序是根據評論里面的個“好笑”數來排的,好笑 數字接近的,順序變化正常,而且有時有新的段子加入這頁。你瀏覽器取得頁面的時間,和爬蟲爬取的時間不一樣,看到的段子順序不一樣很正常。

標簽: HTML
相關文章:
主站蜘蛛池模板: 欧美日韩中文在线 | 国产精品久久久久久久久小说 | 日韩中文字幕免费在线播放 | 成人免费av| 黄色四虎 | 精品日韩在线观看 | 亚洲网站在线 | 日日操视频 | 操操操干干干 | 欧美一级淫片免费看 | 久久久婷 | 国产一区二区三区在线免费观看 | 国产成人精品高清久久 | 91啦| 成人午夜sm精品久久久久久久 | 亚洲情欲网| 亚洲 自拍 另类 欧美 丝袜 | 久色成人 | 国内自拍偷拍视频 | 青青草一区 | 久久久久久久一区 | 日日操夜夜操天天操 | 免费观看国产精品 | 一区二区三区日韩 | 97精品国产97久久久久久粉红 | 亚洲午夜电影 | 欧美日韩成人一区 | 奇米精品一区二区三区在线观看 | 9999亚洲 | 一区二区免费看 | 国产在线综合视频 | 久久久国产一区二区三区 | 香蕉婷婷 | 午夜午夜精品一区二区三区文 | 一区小视频 | 午夜精品一区 | 国产91视频一区二区 | 一区二区三区高清 | 国产aaaaav久久久一区二区 | 羞羞视频在线观看视频 | 国产精品久久久久久久粉嫩 |