網(wǎng)頁中有用的信息通常存在于網(wǎng)頁中的文本或各種不同標(biāo)簽的屬性值,為了獲得這些網(wǎng)頁信息,有必要有一些查找方法可以獲取這些文本值或標(biāo)簽屬性。而Beautiful Soup中內(nèi)置了一些查找方式:
- find()
- find_all()
- find_parent()
- find_parents()
- find_next_sibling()
- find_next_siblings()
- find_previous_sibling()
- find_previous_siblings()
- find_previous()
- find_all_previous()
- find_next()
- find_all_next()
使用find()查找
以下這段HTML是例程要用到的參考網(wǎng)頁
- <html>
- <body>
- <div class="ecopyramid">
- <ul id="producers">
- <li class="producerlist">
- <div class="name">plants</div>
- <div class="number">100000</div>
- </li>
- <li class="producerlist">
- <div class="name">algae</div>
- <div class="number">100000</div>
- </li>
- </ul>
- <ul id="primaryconsumers">
- <li class="primaryconsumerlist">
- <div class="name">deer</div>
- <div class="number">1000</div>
- </li>
- <li class="primaryconsumerlist">
- <div class="name">rabbit</div>
- <div class="number">2000</div>
- </li>
- <ul>
- <ul id="secondaryconsumers">
- <li class="secondaryconsumerlist">
- <div class="name">fox</div>
- <div class="number">100</div>
- </li>
- <li class="secondaryconsumerlist">
- <div class="name">bear</div>
- <div class="number">100</div>
- </li>
- </ul>
- <ul id="tertiaryconsumers">
- <li class="tertiaryconsumerlist">
- <div class="name">lion</div>
- <div class="number">80</div>
- </li>
- <li class="tertiaryconsumerlist">
- <div class="name">tiger</div>
- <div class="number">50</div>
- </li>
- </ul>
- </body>
- </html>
以上代碼是一個生態(tài)金字塔的簡單展示,為了找到其中的第一生產(chǎn)者,第一消費(fèi)者或第二消費(fèi)者,我們可以使用Beautiful Soup的查找方法。一般來說,為了找到BeautifulSoup對象內(nèi)任何第一個標(biāo)簽入口,我們可以使用find()方法。
找到第一生產(chǎn)者
可以明顯看到,生產(chǎn)者在第一個<ul>標(biāo)簽里,因為生產(chǎn)者是在整個HTML文檔中第一個<ul>標(biāo)簽中出現(xiàn),所以可以簡單的使用find()方法找到第一生產(chǎn)者。下圖HTML樹代表了第一個生產(chǎn)者所在位置。
然后在ecologicalpyramid.py中寫入下面一段代碼,使用ecologicalpyramid.html文件創(chuàng)建BeautifulSoup對象。
- from bs4 import BeautifulSoup
- with open("ecologicalpyramid.html","r") as ecological_pyramid:
- soup = BeautifulSoup(ecological_pyramid)
- producer_entries = soup.find("ul")
- print(producer_entries.li.div.string)
輸出得到:plants
find()說明
find()函數(shù)如下:
find(name,attrs,recursive,text,**wargs)
這些參數(shù)相當(dāng)于過濾器一樣可以進(jìn)行篩選處理。
不同的參數(shù)過濾可以應(yīng)用到以下情況:
- 查找標(biāo)簽,基于name參數(shù)
- 查找文本,基于text參數(shù)
- 基于正則表達(dá)式的查找
- 查找標(biāo)簽的屬性,基于attrs參數(shù)
- 基于函數(shù)的查找
通過標(biāo)簽查找
我們可以傳遞任何標(biāo)簽的名字來查找到它第一次出現(xiàn)的地方。找到后,find函數(shù)返回一個BeautifulSoup的標(biāo)簽對象。
- from bs4 import BeautifulSoup
-
- with open("ecologicalpyramid.html", "r") as ecological_pyramid:
- soup = BeautifulSoup(ecological_pyramid,"html")
- producer_entries = soup.find("ul")
- print(type(producer_entries))
輸出的得到 <class 'bs4.element.Tag'>
通過文本查找
直接字符串的話,查找的是標(biāo)簽。如果想要查找文本的話,則需要用到text參數(shù)。如下所示:
- from bs4 import BeautifulSoup
-
- with open("ecologicalpyramid.html", "r") as ecological_pyramid:
- soup = BeautifulSoup(ecological_pyramid,"html")
- plants_string = soup.find(text="plants")
- print(plants_string)
輸出:plants
通過正則表達(dá)式查找
有以下HTML代碼:
- <br/>
- <div>The below HTML has the information that has email ids.</div>
- abc@example.com
- <div>xyz@example.com</div>
- <span>foo@example.com</span>
如果想找出第一個郵箱地址,但是由于第一個郵箱地址沒有標(biāo)簽包含,所以通過其他方式很難找到。但是我們可以把郵箱地址進(jìn)行正則表達(dá)式處理,這樣就容易多了。
參考如下代碼:
- import re
- from bs4 import BeautifulSoup
-
- email_id_example = """<br/>
- <div>The below HTML has the information that has email ids.</div>
- abc@example.com
- <div>xyz@example.com</div>
- <span>foo@example.com</span>
- """
-
- soup = BeautifulSoup(email_id_example)
- emailid_regexp = re.compile("\w+@\w+\.\w+")
- first_email_id = soup.find(text=emailid_regexp)
- print(first_email_id)
輸出:abc@example.com
通過標(biāo)簽屬性進(jìn)行查找
觀看例程HTML代碼,其中第一消費(fèi)者在ul標(biāo)簽里面且id屬性為priaryconsumers.
因為第一消費(fèi)者出現(xiàn)的ul不是文檔中第一個ul,所以通過前面查找標(biāo)簽的辦法就行不通了?,F(xiàn)在通過標(biāo)簽屬性進(jìn)行查找,參考代碼如下:
- from bs4 import BeautifulSoup
-
- with open("ecologicalpyramid.html", "r") as ecological_pyramid:
- soup = BeautifulSoup(ecological_pyramid,"html")
- primary_consumer = soup.find(id="primaryconsumers")
- print(primary_consumer.li.div.string)
輸出:deer
通過標(biāo)簽屬性查找的方式適用于大多數(shù)標(biāo)簽屬性,包括id,style,title,但是有一組標(biāo)簽屬性例外。
此時,我們需要借助attrs參數(shù)來進(jìn)行傳遞。
基于定制屬性的查找
比如我們HTML5標(biāo)簽中的data-custom屬性,如果我們這樣
- customattr = ""'<p data-custom="custom">custom attribute
- example</p>"""
- customsoup = BeautifulSoup(customattr,'lxml')
- customSoup.find(data-custom="custom")
那么則會報錯。原因是在Python中變量不能呢含有-這個字符,而我們傳遞的data-custom有-這個字符。
解決的辦法是在attrs屬性用字典進(jìn)行傳遞參數(shù)。
- using_attrs = customsoup.find(attrs={'data-custom':'custom'})
- print(using_attrs)
基于CSS類的查找
因為class是Python的保留關(guān)鍵字,所以無法使用class這個關(guān)鍵字。所以解決辦法類似上面。
- css_class = soup.find(attrs={'class':'primaryconsumerlist'})
- print(css_class)
還有另一個辦法。BeautifulSoup有一個特別的關(guān)鍵字參數(shù)class_。示例:
方法1:
- css_class = soup.find(class_ = "primaryconsumers" )
方法2:
- css_class = soup.find(attrs={'class':'primaryconsumers'})
基于定義的函數(shù)進(jìn)行查找
可以傳遞函數(shù)到find()來基于函數(shù)定義的條件進(jìn)行查找。函數(shù)值必須返回true或者false。
例子:
- def is_secondary_consumers(tag):
- return tag.has_attr('id') and tag.get('id') ==
- 'secondaryconsumers'
- secondary_consumer = soup.find(is_secondary_consumers)
- print(secondary_consumer.li.div.string)
輸出:fox
把方法進(jìn)行組合后進(jìn)行查找
可以用其中任何方法進(jìn)行組合來進(jìn)行查找,比如同時基于標(biāo)簽名和id號。
使用find_all查找
find()用來查找第一個匹配結(jié)果出現(xiàn)的地方,而find_all()正如名字所示,將會找到所有匹配結(jié)果出現(xiàn)的地方。應(yīng)用到find()中的不同過濾參數(shù)同理可以用到find_all()中,實際上,過濾參數(shù)可以用于任何查找函數(shù),如find_parents()或和find_siblings()。
查找所有三級消費(fèi)者
- all_tertiaryconsumers =
- soup.find_all(class_="tertiaryconsumerslist")
其all_tertiaryconsumers的類型是列表。
所以我們對其列表進(jìn)行迭代,循環(huán)輸出三級消費(fèi)者的名字。
- for tertiaryconsumer in all_tertiaryconsumers:
- print(tertiaryconsumer.div.string)
輸出:
lion
tiger
理解用于find_all()的參數(shù)
相比find(),find_all()有個額外的參數(shù)limit,如下所示:
find_all(name,attrs,recursive,text,limit,**kwargs)
limit參數(shù)可以限制我們想要得到結(jié)果的數(shù)目。參照前面的郵件地址例子,我們可以得到所有右鍵地址通過:
- email_ids = soup.find_all(text=emailid_regexp)
- print(email_ids)
輸出:[u'abc@example.com',u'xyz@example.com',u'foo@example.com']
當(dāng)我們使用limit參數(shù),效果如下:
- email_ids_limited = soup.find_all(text=emailid_regexp,limit=2)
- print(email_ids_limited)
限制得到兩個結(jié)果,所以輸出為:
[u'abc@example.com',u'xyz@example.com']
說白了,find()也就是當(dāng)limit=1時的find_all()。
可以向find函數(shù)傳遞True或False參數(shù),如果我們傳遞True給find_all(),則返回所有soup對象的標(biāo)簽。對于find()來說,則返回第一個標(biāo)簽。
舉例查找文本,傳遞True將會返回所有文本。
- all_texts = soup.find_all(text=True)
- print(all_texts)
輸出:
[u'\n', u'\n', u'\n', u'\n', u'\n', u'plants', u'\n', u'100000',
u'\n', u'\n', u'\n', u'algae', u'\n', u'100000', u'\n', u'\n',
u'\n', u'\n', u'\n', u'deer', u'\n', u'1000', u'\n', u'\n',
u'\n', u'rabbit', u'\n', u'2000', u'\n', u'\n', u'\n',
u'\n', u'\n', u'fox', u'\n', u'100', u'\n', u'\n', u'\n',
u'bear', u'\n', u'100', u'\n', u'\n', u'\n', u'\n',
u'\n', u'lion', u'\n', u'80', u'\n', u'\n', u'\n',
u'tiger', u'\n', u'50', u'\n', u'\n', u'\n', u'\n',
u'\n']
同樣的,我們可以在傳遞text參數(shù)時傳遞一個字符串列表,那么find_all()會找到誒個在列表中定義過的字符串。
- all_texts_in_list = soup.find_all(text=["plants","algae"])
- print(all_texts_in_list)
輸出:
這個同樣適用于查找標(biāo)簽,標(biāo)簽屬性,定制屬性和CSS類。如:
- div_li_tags = soup.find_all(["div","li"])
find()和find_all()都會查找一個對象所有后輩們,不過我們可以控制它通過recursive參數(shù)。如果recursive=False,那么超找只會找到該對象的最近后代。
通過標(biāo)簽之間的關(guān)系進(jìn)行查找
我們可以通過find()和find_all()來查找到想要內(nèi)容。但有時候,我們需要查看的與之內(nèi)容相關(guān)先前的標(biāo)簽或者后面的標(biāo)簽來獲取額外的信息。比如方法find_parents()和find_next_siblings()等等。一般的,在find()和find_all()方法后使用上述方法,因為find()和find_all()可以找到特殊的一個標(biāo)簽,然后我們可以通過這個特殊的標(biāo)簽找到其他的想要的與之有關(guān)系的標(biāo)簽。
查找父標(biāo)簽
通過find_parents()或find_parent()。它們之間的不同就類似于find()和find_all()的區(qū)別。find_parents()返回全部的相匹配的父標(biāo)簽,而find_paret()返回最近的一個父標(biāo)簽。適用于find()的方法同樣也使用于這兩個方法。
在前面的第一消費(fèi)者例子中,我們可以找到離Primaryconsumer最近的ul父標(biāo)簽。
- primaryconsumers = soup.find_all(class_="primaryconsumerlist")
- primaryconsumer = primaryconsumers[0]
- parent_ul = primaryconsumer.find_parents('ul')
- print(parent_ul)
一個簡單的找到一個標(biāo)簽的父標(biāo)簽的方法就是使用find_parent()卻不帶任何參數(shù)。
- immediateprimary_consumer_parent = primary_consumer.find_parent()
查找同胞
如果標(biāo)簽在同一個等級的話,我們可以說這些標(biāo)簽是同胞的關(guān)系,比如參照上面金字塔例子,所有ul標(biāo)簽就是同胞的關(guān)系。
上圖ul標(biāo)簽下的producers,primaryconsumers,secondaryconsumers,teriaryconsumers就是同胞關(guān)系。
再看下面這個圖:
div下的plants和algae不是同胞關(guān)系,但是plants和臨近的number是同胞關(guān)系。
Beautiful Soup自帶有查找同胞的方法。
比如find_next_siblings()和find_next_sibling()查找對象下面的同胞。舉例:
- producers= soup.find(id='producers')
- next_siblings = producers.find_next_siblings()
- print(next_siblings)
將會輸出與之臨近的下面的所有同胞HTML代碼。
查找下一個
對每一個標(biāo)簽來說,下一個元素可能會是定位字符串,標(biāo)簽對象或者其他BeautifulSoup對象。我們定義下一個元素為與當(dāng)前元素最靠近的元素。這個不同于同胞定義。我們有方法可以找到我們想要標(biāo)簽的下一個其他元素對象。find_all_next()找到與當(dāng)前元素靠近的所有對象。而find_next()找到離當(dāng)前元素最接近的對象。
比如,找到在第一個div標(biāo)簽后的所有l(wèi)i標(biāo)簽
- first_div = soup.div
- all_li_tags = first_div.find_all_next("li")
輸出“:
[<li class="producerlist">
<div class="name">plants</div>
<div class="number">100000</div>
</li>, <li class="producerlist">
<div class="name">algae</div>
<div class="number">100000</div>
</li>, <li class="primaryconsumerlist">
<div class="name">deer</div>
<div class="number">1000</div>
</li>, <li class="primaryconsumerlist">
<div class="name">rabbit</div>
<div class="number">2000</div>
</li>, <li class="secondaryconsumerlist">
<div class="name">fox</div>
<div class="number">100</div>
</li>, <li class="secondaryconsumerlist">
<div class="name">bear</div>
<div class="number">100</div>
</li>, <li class="tertiaryconsumerlist">
<div class="name">lion</div>
<div class="number">80</div>
</li>, <li class="tertiaryconsumerlist">
<div class="name">tiger</div>
<div class="number">50</div>
</li>]
查找上一個
與查找下一個相反的是查找前一個。同理用于find_all_previous()和find_all_previous()
|