久久福利_99r_国产日韩在线视频_直接看av的网站_中文欧美日韩_久久一

您的位置:首頁技術文章
文章詳情頁

html - Python爬蟲,翻頁數(shù)據(jù)怎么爬,URL不變

瀏覽:114日期:2022-08-09 14:14:12

問題描述

網(wǎng)址:http://quote.eastmoney.com/ce...我想爬所有頁的名稱數(shù)據(jù),(這里只有兩頁),判斷有沒有下一頁的條件該怎么寫呢?代碼:

from selenium import webdriverdriver=webdriver.PhantomJS()url=’http://quote.eastmoney.com/center/list.html#28003684_0_2’driver.get(url)usoup = BeautifulSoup(driver.page_source, ’xml’)n=[]while True: t=usoup.find(’table’,{’id’:’fixed’}) utable=t.find_all(’a’,{’target’:’_blank’}) for i in range(len(utable)): if i % 6 ==1: n.append(utable[i].text) if #停止條件怎么寫: break driver.find_element_by_xpath(r’//*@id='pagenav']/a[2]’).click() usoup = BeautifulSoup(driver.page_source, ’xml’)

后面這里就不會寫了。。。

問題解答

回答1:

可以判斷每一頁的條目,每一頁共20條,如果當前頁不足20條的時候,說明此頁是最后一頁了,爬完當前頁就該停止了

回答2:

話說 這個表格不是都有個jsonp的返回接口嗎?為什么還要爬?

回答3:

走的就是jsonp接口,直接拿就好了。

非要抓取的話,只能用selenium + phantomjs 之類的模擬頁面去獲取了。

回答4:

http://nufm.dfcfw.com/EM_Fina...{rank:[(x)],pages:(pc)}&token=7bc05d0d4c3c22ef9fca8c2a912d779c&jsName=quote_123&_g=0.5385195357178545

標簽: Python 編程
主站蜘蛛池模板: 成人做爰9片免费视频 | 黄色大片网站在线观看 | 日韩av免费在线观看 | 婷婷国产精品 | 狠狠插狠狠操 | 精品伦精品一区二区三区视频 | 免费毛片网站 | 日韩中文字幕视频 | 午夜午夜精品一区二区三区文 | 美女一级a毛片免费观看97 | 成人在线精品视频 | 日韩精品一区二区三区中文在线 | 亚洲狠狠| jizz在线播放 | 久久在线视频 | 亚洲色图图片 | 欧美日韩中文在线 | 电影91久久久 | 欧美性区 | 国产亚洲成av人片在线观看桃 | 一级做a爰 | 日韩成人精品在线观看 | 亚洲 欧美 日韩在线 | 91精品国产乱码久久久久久久久 | 天堂精品久久 | 欧美大片一区二区 | 国产亚洲精品v | 91久久看片 | 俺要去97中文字幕 | 久久黄网 | 欧美黄色大片网站 | 久久综合久 | 亚洲一区中文字幕 | 99国产精品99久久久久久 | 欧美日韩电影一区二区三区 | 欧美日韩在线免费观看 | 国产欧美日韩综合精品一区二区 | 国产一区二区久久久 | 夜夜爽网址 | 日韩一区二区三区av | 久久精品亚洲 |