久久福利_99r_国产日韩在线视频_直接看av的网站_中文欧美日韩_久久一

您的位置:首頁技術文章
文章詳情頁

python - Scrapy如何得到原始的start_url

瀏覽:147日期:2022-06-27 15:45:21

問題描述

Scrapy爬蟲時,由于重定向或是其他原因,會導致原始的start_url發生改變,怎樣才能得到原始的start_url?

def start_requests(self): start_url = ’your_scrapy_start_url’ yield Request(start_url, self.parse) def parse(self, response): item = YourItem() item[’start_url’] = 原始請求的start_url yield item

問題解答

回答1:

參考文章:Scrapy爬蟲常見問題總結

利用Request中的meta參數傳遞信息

def start_requests(self): start_url = ’your_scrapy_start_url’ yield Request(start_url, self.parse, meta={’start_url’:start_url}) def parse(self, response): item = YourItem() item[’start_url’] = response.meta[’start_url’] yield item

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 可以免费看黄的网站 | 免费一级毛片 | 国产视频一区二区三区四区 | 亚洲视频在线看 | 成人a在线视频免费观看 | 久久精品视频一区 | 久久久性色精品国产免费观看 | 一区二区三区av | 日本一区二区不卡视频 | a毛片在线免费观看 | 欧美在线视频一区二区 | 国产黄色网址在线观看 | 91久久久久| 国产自在现线2019 | 中文成人在线 | 国产精品久久久久久吹潮 | 天天成人综合网 | www.久久精品视频 | 在线日韩中文字幕 | 国产精品原创巨作av | 二区中文字幕 | 一区二区三区 在线 | 不卡视频一区二区三区 | 日本不卡一二三 | 免费毛片在线 | 中文字幕亚洲字幕一区二区 | 成人二区 | 欧美日韩毛片 | 视频羞羞 | 91文字幕巨乱亚洲香蕉 | 亚洲网在线 | 天天插天天操天天干 | 日韩一二三区 | 黄色最新网站 | 欧美国产综合 | 免费激情av | 台湾av在线 | 天天干天天操天天爽 | av午夜| 亚洲成人精品在线观看 | 我看一级毛片 |