好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁(yè) > 知識(shí)庫(kù) > python爬蟲(chóng)學(xué)習(xí)筆記--BeautifulSoup4庫(kù)的使用詳解

python爬蟲(chóng)學(xué)習(xí)筆記--BeautifulSoup4庫(kù)的使用詳解

熱門(mén)標(biāo)簽:外呼并發(fā)線路 ai電銷(xiāo)機(jī)器人源碼 ai電話機(jī)器人哪里好 宿遷星美防封電銷(xiāo)卡 百度地圖標(biāo)注沒(méi)有了 長(zhǎng)沙高頻外呼系統(tǒng)原理是什么 地圖標(biāo)注審核表 湛江智能外呼系統(tǒng)廠家 西藏房產(chǎn)智能外呼系統(tǒng)要多少錢(qián)

使用范例

from bs4 import BeautifulSoup
#創(chuàng)建 Beautiful Soup 對(duì)象
# 使用lxml來(lái)進(jìn)行解析
soup = BeautifulSoup(html,"lxml")
print(soup.prettify())

返回結(jié)果

常用的對(duì)象–Tag

就是 HTML 中的一個(gè)個(gè)標(biāo)簽

在上面范例的基礎(chǔ)上添加

from bs4 import BeautifulSoup
#創(chuàng)建 Beautiful Soup 對(duì)象
# 使用lxml來(lái)進(jìn)行解析
soup = BeautifulSoup(html,"lxml")
#print(soup.prettify())


#創(chuàng)建 Beautiful Soup 對(duì)象
soup = BeautifulSoup(html,'lxml')

print (soup.title)#None因?yàn)檫@里沒(méi)有tiele標(biāo)簽所以返回none

print (soup.head)#None因?yàn)檫@里沒(méi)有head標(biāo)簽所以返回none

print (soup.a)#返回 a class="fill-dec"  target="_blank">編輯自我介紹,讓更多人了解你span class="write-icon">/span>/a>


print (type(soup.p))#返回 class 'bs4.element.Tag'>

print( soup.p)

其中print( soup.p)

返回結(jié)果為


同樣地,在上面地基礎(chǔ)上添加

print (soup.name)# [document] #soup 對(duì)象本身比較特殊,它的 name 即為 [document]

返回

print (soup.head.name)#head #對(duì)于其他內(nèi)部標(biāo)簽,輸出的值為標(biāo)簽本身的名稱(chēng)
print (soup.p.attrs)##把p標(biāo)簽的所有屬性打印出來(lái),得到的類(lèi)型是一個(gè)字典。

返回

print (soup.p['class'])#獲取P標(biāo)簽下地class標(biāo)簽
soup.p['class'] = "newClass"
print (soup.p) # 可以對(duì)這些屬性和內(nèi)容等等進(jìn)行修改

返回

常用的對(duì)象–NavigableString

前面地基礎(chǔ)上添加

print (soup.p.string)
# The Dormouse's story
print (type(soup.p.string))
# class 'bs4.element.NavigableString'>thon

返回結(jié)果

常用的對(duì)象–BeautifulSoup

beautiful soup對(duì)象表示文檔的全部?jī)?nèi)容。大多數(shù)情況下,它可以被視為標(biāo)記對(duì)象。它支持遍歷文檔樹(shù)并搜索文檔樹(shù)中描述的大多數(shù)方法因?yàn)锽eauty soup對(duì)象不是真正的HTML或XML標(biāo)記,所以它沒(méi)有名稱(chēng)和屬性。但是,有時(shí)查看其內(nèi)容很方便。Name屬性,因此美麗的湯對(duì)象包含一個(gè)特殊屬性。值為“[文檔]”的名稱(chēng)

print(soup.name)
#返回 '[document]'

常用的對(duì)象–Comment

用于解釋注釋部分的內(nèi)容

markup = "b>!--Hey, buddy. Want to buy a used parser?-->/b>"
soup = BeautifulSoup(markup)
comment = soup.b.string
type(comment)
# class 'bs4.element.Comment'>

對(duì)文檔樹(shù)的遍歷

在上面的基礎(chǔ)上添加

head_tag = soup.div
# 返回所有子節(jié)點(diǎn)的列表
print(head_tag.contents)

返回


同理

head_tag = soup.div

# 返回所有子節(jié)點(diǎn)的迭代器
for child in head_tag.children:
    print(child)

返回

tag中包含多個(gè)字符串的情況

可用 .strings 來(lái)循環(huán)獲取

for string in soup.strings:
    print(repr(string))

返回

.stripped_strings 去除空白內(nèi)容

for string in soup.stripped_strings:
    print(repr(string))

返回

搜索文檔樹(shù)–find和find_all

找到所有

print(soup.find_all("a",id='link2'))

find方法是找到第一個(gè)滿(mǎn)足條件的標(biāo)簽后立即返回,返回一個(gè)元素。find_all方法是把所有滿(mǎn)足條件的標(biāo)簽都選到,然后返回。

select方法(各種查找)

#通過(guò)標(biāo)簽名查找:
print(soup.select('a'))
#通過(guò)類(lèi)名查找:
#通過(guò)類(lèi)名,則應(yīng)該在類(lèi)的前面加一個(gè)'.'
print(soup.select('.sister'))
#通過(guò)id查找:
#通過(guò)id查找,應(yīng)該在id的名字前面加一個(gè)#號(hào)
print(soup.select("#link1"))

查找a標(biāo)簽返回的結(jié)果


其他因?yàn)榫W(wǎng)頁(yè)本身沒(méi)有,返回的是一個(gè)空列表

組合查找

print(soup.select("p #link1"))#查找 p 標(biāo)簽中,id 等于 link1的內(nèi)容

子標(biāo)簽查找

print(soup.select("head > title"))

通過(guò)屬性查找

print(soup.select('a[))#屬性與標(biāo)簽屬同一節(jié)點(diǎn),中間不能有空格

獲取內(nèi)容

先查看類(lèi)型

print (type(soup.select('div')))

for title in soup.select('div'):
    print (title.get_text())

返回

print (soup.select('div')[20].get_text())#選取第20個(gè)div標(biāo)簽的內(nèi)容

返回

總結(jié)

本篇文章就到這里了,希望能給你帶來(lái)幫助,也希望您能夠多多關(guān)注腳本之家的更多內(nèi)容!

您可能感興趣的文章:
  • Python BeautifulSoup基本用法詳解(通過(guò)標(biāo)簽及class定位元素)
  • python beautiful soup庫(kù)入門(mén)安裝教程
  • Python爬蟲(chóng)進(jìn)階之Beautiful Soup庫(kù)詳解
  • python爬蟲(chóng)beautifulsoup庫(kù)使用操作教程全解(python爬蟲(chóng)基礎(chǔ)入門(mén))
  • python網(wǎng)絡(luò)爬蟲(chóng)精解之Beautiful Soup的使用說(shuō)明

標(biāo)簽:普洱 林芝 漯河 盤(pán)錦 南平 寧夏 大同 海南

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《python爬蟲(chóng)學(xué)習(xí)筆記--BeautifulSoup4庫(kù)的使用詳解》,本文關(guān)鍵詞  python,爬蟲(chóng),學(xué)習(xí),筆記,--BeautifulSoup4,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《python爬蟲(chóng)學(xué)習(xí)筆記--BeautifulSoup4庫(kù)的使用詳解》相關(guān)的同類(lèi)信息!
  • 本頁(yè)收集關(guān)于python爬蟲(chóng)學(xué)習(xí)筆記--BeautifulSoup4庫(kù)的使用詳解的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    主站蜘蛛池模板: www.欧美视频.com| 日日麻批免费视频| 久久久久久精品免费观看乡村版| 晚上吃你的两颗小葡萄| 我和乖女小芳的婬乱生活h| 国产在线无码天堂| 大香线蕉免费观看视频75| 91在线网址| x8x8免费网站| 亚洲AV无码乱码精品国产| 和妽妽做爰1一5全文| 特大欧美黑人巨大XXOO| 撅起小屁股扒开调教bl| 无码人妻丰满熟妇区毛片樱花视频 | 美女黄色视屏| 亚洲成a人片在线观看无码亚洲| 网友自拍区一区二区三区| yy6080新视影视觉| 饥渴的老教授 (H)小说| 一区二区三区在线免费看| 娇妻的3p全文阅读| 日韩伦乱| 清纯女学生被?到爽爆小说| 从裙底摸到胸摸到爽| XXOO亚洲AV成人片| 国产r级在线| 久久久亚洲精品一区二区三区浴池 | 贪婪欲望之岛| 羞羞漫画网站免费| 少妇无码太爽了视频在线播放| 黄蓉洗澡被杂役| 欧美同志猛男videoes| 蜜桃成熟时4| 亚洲乱码一区二区三区国产精品| 午夜影视在线观看免费完整高清大全| 欧美老头gaygay1069| 免费小说阅读网| 小妖精把腿扒开让我爽H漫画| 果冻传媒播放观看免费| 亚洲国产天堂久久综合图区| 日本肥肉老太xxxx|