久久福利_99r_国产日韩在线视频_直接看av的网站_中文欧美日韩_久久一

您的位置:首頁技術文章
文章詳情頁

python - 用scrapy-splash爬取網站 為啥iframe下的內容沒有被返回

瀏覽:124日期:2022-08-10 09:23:22

問題描述

用scrapy-splash爬取網站 為啥iframe下的內容沒有被返回?

import scrapyfrom scrapy import Selectorclass Music163Spider(scrapy.Spider): name = 'music163' allowed_domains = ['music.163.com/#/discover/toplist'] start_urls = [’http://music.163.com/#/discover/toplist/’] def parse(self, response):print('parse:',response.text) def start_requests(self):for url in self.start_urls: yield scrapy.Request(url, self.parse, meta={’splash’: { ’endpoint’: ’render.html’, ’args’: {’wait’: 0.5, }} })

問題解答

回答1:

你需要在parse中獲取iframe的url再次請求內容。

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 欧美一区二区三区精品 | 永久91嫩草亚洲精品人人 | 欧美中文在线观看 | 婷婷国产成人精品视频 | 在线视频一区二区 | 成年人黄色一级片 | 欧美国产在线一区 | 国产一区不卡 | 成人不卡| 日韩城人网站 | 91视频免费观看 | 中文字幕日韩欧美一区二区三区 | 91亚洲国产成人久久精品网站 | 亚洲网站久久 | 亚洲综合区 | 一级黄色毛片 | 黄篇网址 | 国产高清视频在线观看 | 亚洲欧美激情精品一区二区 | 国产精品久久久久久久7电影 | 国产精品日本一区二区在线播放 | 日韩精品极品视频在线 | 欧美日韩视频 | 久草久草 | 久久国产精品精品国产 | 91久久91久久精品免观看 | 日韩精品一区二区三区中文字幕 | 亚洲一区二区三区日韩 | 国产中文区二幕区2012 | 久久精品亚洲 | 91在线观看 | 91久久综合亚洲鲁鲁五月天 | 夜夜草视频 | 国产精品视频播放 | 自拍偷拍一区二区三区 | 日日骚视频 | 91精品国产综合久久久亚洲 | 久久久网 | 成人在线一区二区 | 国产精品一区久久久久 | 亚洲在线视频 |