python實現(xiàn)Scrapy爬取網(wǎng)易新聞
在命令行窗口下輸入scrapy startproject scrapytest, 如下
然后就自動創(chuàng)建了相應(yīng)的文件,如下
打開scrapy框架自動創(chuàng)建的items.py文件,如下
# Define here the models for your scraped items## See documentation in:# https://docs.scrapy.org/en/latest/topics/items.htmlimport scrapyclass ScrapytestItem(scrapy.Item): # define the fields for your item here like: # name = scrapy.Field() pass
編寫里面的代碼,確定我要獲取的信息,比如新聞標(biāo)題,url,時間,來源,來源的url,新聞的內(nèi)容等
class ScrapytestItem(scrapy.Item): # define the fields for your item here like: # name = scrapy.Field() title = scrapy.Field() timestamp = scrapy.Field() category = scrapy.Field() content = scrapy.Field() url = scrapy.Field() pass3. 定義spider,創(chuàng)建一個爬蟲模板3.1 創(chuàng)建crawl爬蟲模板
在命令行窗口下面 創(chuàng)建一個crawl爬蟲模板(注意在文件的根目錄下面,指令檢查別輸入錯誤,-t 表示使用后面的crawl模板),會在spider文件夾生成一個news163.py文件
scrapy genspider -t crawl codingce news.163.com
然后看一下這個‘crawl’模板和一般的模板有什么區(qū)別,多了鏈接提取器還有一些爬蟲規(guī)則,這樣就有利于我們做一些深度信息的爬取
import scrapyfrom scrapy.linkextractors import LinkExtractorfrom scrapy.spiders import CrawlSpider, Ruleclass CodingceSpider(CrawlSpider): name = ’codingce’ allowed_domains = [’163.com’] start_urls = [’http://news.163.com/’] rules = ( Rule(LinkExtractor(allow=r’Items/’), callback=’parse_item’, follow=True), ) def parse_item(self, response): item = {} #item[’domain_id’] = response.xpath(’//input[@id='sid']/@value’).get() #item[’name’] = response.xpath(’//div[@id='name']’).get() #item[’description’] = response.xpath(’//div[@id='description']’).get() return item3.2 補(bǔ)充知識:selectors選擇器
支持xpath和css,xpath語法如下
/html/head/title/html/head/title/text()//td (深度提取的話就是兩個/)//div[@class=‘mine’]3.3. 分析網(wǎng)頁內(nèi)容
在谷歌chrome瀏覽器下,打在網(wǎng)頁新聞的網(wǎng)站,選擇查看源代碼,確認(rèn)我們可以獲取到itmes.py文件的內(nèi)容(其實那里面的要獲取的就是查看了網(wǎng)頁源代碼之后確定可以獲取的)
確認(rèn)標(biāo)題、時間、url、來源url和內(nèi)容可以通過檢查和標(biāo)簽對應(yīng)上,比如正文部分
主體
標(biāo)題
時間
分類
打開創(chuàng)建的爬蟲模板,進(jìn)行代碼的編寫,除了導(dǎo)入系統(tǒng)自動創(chuàng)建的三個庫,我們還需要導(dǎo)入news.items(這里就涉及到了包的概念了,最開始說的?init?.py文件存在說明這個文件夾就是一個包可以直接導(dǎo)入,不需要安裝)
注意:使用的類ExampleSpider一定要繼承自CrawlSpider,因為最開始我們創(chuàng)建的就是一個‘crawl’的爬蟲模板,對應(yīng)上
import scrapyfrom scrapy.linkextractors import LinkExtractorfrom scrapy.spiders import CrawlSpider, Rulefrom scrapytest.items import ScrapytestItemclass CodingceSpider(CrawlSpider): name = ’codingce’ allowed_domains = [’163.com’] start_urls = [’http://news.163.com/’] rules = ( Rule(LinkExtractor(allow=r’.*.163.com/d{2}/d{4}/d{2}/.*.html’), callback=’parse’, follow=True), ) def parse(self, response): item = {} content = ’<br>’.join(response.css(’.post_content p::text’).getall()) if len(content) < 100: return return item
Rule(LinkExtractor(allow=r’..163.com/d{2}/d{4}/d{2}/..html’), callback=‘parse’, follow=True), 其中第一個allow里面是書寫正則表達(dá)式的(也是我們核心要輸入的內(nèi)容),第二個是回調(diào)函數(shù),第三個表示是否允許深入
最終代碼
from datetime import datetimeimport reimport scrapyfrom scrapy.linkextractors import LinkExtractorfrom scrapy.spiders import CrawlSpider, Rulefrom scrapytest.items import ScrapytestItemclass CodingceSpider(CrawlSpider): name = ’codingce’ allowed_domains = [’163.com’] start_urls = [’http://news.163.com/’] rules = ( Rule(LinkExtractor(allow=r’.*.163.com/d{2}/d{4}/d{2}/.*.html’), callback=’parse’, follow=True), ) def parse(self, response): item = {} content = ’<br>’.join(response.css(’.post_content p::text’).getall()) if len(content) < 100: return title = response.css(’h1::text’).get() category = response.css(’.post_crumb a::text’).getall()[-1] print(category, '=======category') time_text = response.css(’.post_info::text’).get() timestamp_text = re.search(r’d{4}-d{2}-d{2} d{2}:d{2}:d{2}’, time_text).group() timestamp = datetime.fromisoformat(timestamp_text) print(title, '=========title') print(content, '===============content') print(timestamp, '==============timestamp') print(response.url) return item
到此這篇關(guān)于python實現(xiàn)Scrapy爬取網(wǎng)易新聞的文章就介紹到這了,更多相關(guān)python Scrapy爬取網(wǎng)易新聞內(nèi)容請搜索好吧啦網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持好吧啦網(wǎng)!
相關(guān)文章:
1. python 實現(xiàn)在無序數(shù)組中找到中位數(shù)方法2. python中復(fù)數(shù)的共軛復(fù)數(shù)知識點(diǎn)總結(jié)3. ASP動態(tài)網(wǎng)頁制作技術(shù)經(jīng)驗分享4. HTML DOM setInterval和clearInterval方法案例詳解5. idea重置默認(rèn)配置的方法步驟6. PHP中file_get_contents設(shè)置header請求頭,curl傳輸選項參數(shù)詳解說明7. jsp網(wǎng)頁實現(xiàn)貪吃蛇小游戲8. 愛因斯坦謎題的java解答方法9. html清除浮動的6種方法示例10. Springboot整合camunda+mysql的集成流程分析
