久久福利_99r_国产日韩在线视频_直接看av的网站_中文欧美日韩_久久一

您的位置:首頁技術文章
文章詳情頁

python 如何獲取頁面所有a標簽下href的值

瀏覽:19日期:2022-06-20 14:31:38
看代碼吧~

# -*- coding:utf-8 -*-#python 2.7#http://tieba.baidu.com/p/2460150866#標簽操作 from bs4 import BeautifulSoupimport urllib.requestimport re #如果是網址,可以用這個辦法來讀取網頁#html_doc = 'http://tieba.baidu.com/p/2460150866'#req = urllib.request.Request(html_doc) #webpage = urllib.request.urlopen(req) #html = webpage.read() html='''<html><head><title>The Dormouse’s story</title></head><body><p name='dromouse'><b>The Dormouse’s story</b></p><p class='story'>Once upon a time there were three little sisters; and their names were<a rel='external nofollow' rel='external nofollow' id='xiaodeng'><!-- Elsie --></a>,<a rel='external nofollow' rel='external nofollow' id='link2'>Lacie</a> and<a rel='external nofollow' id='link3'>Tillie</a>;<a rel='external nofollow' rel='external nofollow' id='xiaodeng'>Lacie</a>and they lived at the bottom of a well.</p><p class='story'>...</p>'''soup = BeautifulSoup(html, ’html.parser’) #文檔對象 #查找a標簽,只會查找出一個a標簽#print(soup.a)#<a rel='external nofollow' rel='external nofollow' id='xiaodeng'><!-- Elsie --></a> for k in soup.find_all(’a’): print(k) print(k[’class’])#查a標簽的class屬性 print(k[’id’])#查a標簽的id值 print(k[’href’])#查a標簽的href值 print(k.string)#查a標簽的string

如果,標簽<a>中含有其他標簽,比如<em>..</em>,此時要提取<a>中的數據,需要用k.get_text()

soup = BeautifulSoup(html, ’html.parser’) #文檔對象#查找a標簽,只會查找出一個a標簽for k in soup.find_all(’a’): print(k) print(k[’class’])#查a標簽的class屬性 print(k[’id’])#查a標簽的id值 print(k[’href’])#查a標簽的href值 print(k.string)#查a標簽的string

如果,標簽<a>中含有其他標簽,比如<em>..</em>,此時要提取<a>中的數據,需要用k.get_text()

通常我們使用下面這種模式也是能夠處理的,下面的方法使用了get()。

html = urlopen(url) soup = BeautifulSoup(html, ’html.parser’) t1 = soup.find_all(’a’) print t1 href_list = [] for t2 in t1: t3 = t2.get(’href’) href_list.append(t3)

補充:python爬蟲獲取任意頁面的標簽和屬性(包括獲取a標簽的href屬性)

看代碼吧~

# coding=utf-8 from bs4 import BeautifulSoup import requests # 定義一個獲取url頁面下label標簽的attr屬性的函數 def getHtml(url, label, attr): response = requests.get(url) response.encoding = ’utf-8’ html = response.text soup = BeautifulSoup(html, ’html.parser’); for target in soup.find_all(label): try: value = target.get(attr) except: value = ’’ if value: print(value) url = ’https://baidu.com/’ label = ’a’ attr = ’href’ getHtml(url, label, attr)

python 如何獲取頁面所有a標簽下href的值

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持好吧啦網。如有錯誤或未考慮完全的地方,望不吝賜教。

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 欧美日本国产 | 成人午夜免费网站 | 色综合久久久久 | 国产精品一区二区三区在线 | h视频在线免费 | 99久久久无码国产精品 | 国产91久久久久 | 欧美xxxx做受欧美 | 日本不卡免费新一二三区 | 夜夜精品视频 | 一区二区在线视频 | 免费一区 | 在线播放亚洲 | 2021狠狠干| 国产一区欧美 | 一区二区三区在线免费播放 | 九九热免费看 | 蜜桃免费视频 | 久久精品国产一区 | 成人精品视频 | 久久精品久久精品国产大片 | 操操操av | 国产电影一区二区三区图片 | 亚洲成人影院在线观看 | 欧美精品一区二区在线观看 | 国产一级黄片毛片 | 黄色片免费看. | 成人a在线| 亚洲国产精品一区二区久久 | 偷拍电影一区二区三区 | 免费黄色在线 | 亚洲高清视频在线 | 日韩免费高清视频 | 国产69精品久久久久观看黑料 | 天天夜夜操 | 俺要去97中文字幕 | 黑人精品xxx一区一二区 | 色999国产 | 三区免费视频 | 国产一区二区视频在线观看 | 国产一区二区精品在线 |