久久福利_99r_国产日韩在线视频_直接看av的网站_中文欧美日韩_久久一

您的位置:首頁技術(shù)文章
文章詳情頁

Python 批量下載陰陽師網(wǎng)站壁紙

瀏覽:6日期:2022-06-19 10:30:00
目錄最終版本過程借鑒代碼思考urllib.request和requestsBeautifulSoup優(yōu)化處理總結(jié)

代碼復(fù)制可直接使用,記得pip install下載requests和bs4

最終版本

# 引入系統(tǒng)類庫用于打開關(guān)閉文件import sys# 使用文檔解析類庫from bs4 import BeautifulSoup# 使用網(wǎng)絡(luò)請求類庫import requests#圖片保存目錄path = ’D:/陰陽師’ #陰陽師壁紙網(wǎng)站html_doc = 'https://yys.163.com/media/picture.html' # 請求requests_html_doc = requests.get(html_doc).text# 正則匹配所有href地址regex = re.compile(’.*?href='http://www.gepszalag.com/bcjs/(.*?)2732x2048.jpg' rel='external nofollow' ’)urls = regex.findall(requests_html_doc)# set集合可以防止下載的圖片重復(fù)result = set()for i in urls: result.add(i)# 計數(shù)器用于圖片命名num = 0# 文件路徑、操作模式、編碼 # r’’# 打開文件錄入圖片f = open(r’result.txt’, ’w’, encoding=’utf-8’)for a in urls: try:image_data = requests.get(a).contentimage_name = ’{}.jpg’.format(num) # 給每張圖片命名save_path = path + ’/’ + image_name # 圖片的保存地址with open(save_path, ’wb’) as f: f.write(image_data) print(image_name, ’=======================>下載成功!??!’) num = num+1 # 下一張圖片名字序號加一 except:pass# 關(guān)閉文件錄入f.close()print('rn掃描結(jié)果已寫入到result.txt文件中rn')過程借鑒代碼

自己從0開始,沒有頭緒,而且對python掌握度不高,那先借鑒別人的代碼開始,第一篇借鑒的代碼如下

# 引入系統(tǒng)類庫import sys# 使用文檔解析類庫from bs4 import BeautifulSoup# 使用網(wǎng)絡(luò)請求類庫import urllib.requestpath = ’D:/陰陽師’html_doc = 'https://yys.163.com/media/picture.html'# 獲取請求req = urllib.request.Request(html_doc)# 打開頁面webpage = urllib.request.urlopen(req)# 讀取頁面內(nèi)容html = webpage.read()# 解析成文檔對象soup = BeautifulSoup(html, ’html.parser’) # 文檔對象# 非法URL 1invalidLink1 = ’#’# 非法URL 2invalidLink2 = ’javascript:void(0)’# set集合可以防止下載的圖片連接重復(fù)result = set()# 計數(shù)器用于圖片命名num = 0# 查找文檔中所有a標簽for k in soup.find_all(’a’): # print(k) # 查找href標簽 link = k.get(’href’) # 過濾沒找到的 if(link is not None):# 過濾非法鏈接if link == invalidLink1: passelif link == invalidLink2: passelif link.find('javascript:') != -1: passelse: result.add(link)for a in result: # 文件路徑、操作模式、編碼 # r’’ f = open(r’result.txt’, ’w’, encoding=’utf-8’) # image_data = urllib.request.get(url=a).content image_data = requests.get(url=a).content image_name = ’{}.jpg’.format(num) # 給每張圖片命名 save_path = path + ’/’ + image_name # 圖片的保存地址 with open(save_path, ’wb’) as f:f.write(image_data)print(image_name, ’=======================>下載成功?。?!’)num = num+1 # 下一張圖片名字序號加一f.close()print('rn掃描結(jié)果已寫入到result.txt文件中rn')思考urllib.request和requests

借鑒的代碼中使用urllib.request來請求,剛開始學(xué)習(xí)看到的一些代碼實例也常用urllib.request來發(fā)起請求,之后看到有的代碼使用的是requests。對于我個人,主觀感受requests更加便捷,少寫了幾行代碼,于是便去查閱了解兩者的區(qū)別。

BeautifulSoup

接觸到了BeautifulSoup,并且在一些文章的評論中看到對BeautifulSoup的稱贊,進入文檔查閱了下用法,改變了我之前對python,獲取文檔中部分特征的元素節(jié)點的寫法困難的印象。

Beautiful Soup 4.4.0 文檔

優(yōu)化處理

之所以要加正則匹配,因為一開始獲取到的圖片鏈接里有空字符串的現(xiàn)象,在下載圖片的時候直接報錯整個程序掛掉,而且這個借鑒代碼中的invalidLink1和invalidLink2看起來屬實不舒服。所以添加了正則從源頭保證鏈接的有效性,并且在執(zhí)行下載代碼中,添加了try,except保證程序出錯也不會掛掉。

借鑒的代碼中每一次的下載,都會對要保存的目錄進行打開和關(guān)閉,于是將打開關(guān)閉抽離到最外層,下載的邏輯放在里面,下載圖片成功的提速果然肉眼可見~

總結(jié)

壁紙確實不戳~,希望下一個學(xué)習(xí)的腳本能更加有趣~

以上就是Python 批量下載陰陽師網(wǎng)站壁紙的詳細內(nèi)容,更多關(guān)于python 下載陰陽師網(wǎng)站壁紙的資料請關(guān)注好吧啦網(wǎng)其它相關(guān)文章!

標簽: Python 編程
相關(guān)文章:
主站蜘蛛池模板: 精品亚洲一区二区 | 黄免费观看 | 欧美成人伊人 | www.99热这里只有精品 | 成人精品一区二区三区中文字幕 | 久久久久久久一区二区三区 | 中文字幕在线观看 | 一本大道综合伊人精品热热 | 我要看a级毛片 | 国产一区二区日韩 | 日本午夜视频 | 麻豆视频国产 | 精品久久久久久久人人人人传媒 | 一区二区中文 | 欧洲免费av | 高清日韩av| 91免费在线看 | 91日韩精品一区二区三区 | 日本成人一二三区 | 小川阿佐美88av在线播放 | 欧美精品综合 | 成人片免费看 | 在线成人av | 欧美激情精品久久久久 | 国产伦精品一区二区三区四区视频 | 欧美成人h版在线观看 | 伊人电影综合 | 色免费在线观看 | 亚色在线 | 成人网av | 欧美日韩视频在线观看一区 | 久久精品国产免费 | 亚洲欧美一区二区三区不卡 | 国产三级日本三级美三级 | 日本黄网站在线观看 | 国产欧美综合视频 | 亚洲国产精品久久久久久 | 国产91色| 男人电影天堂 | 欧美2区 | 欧美一级爆毛片 |