好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > python爬蟲之bs4數據解析

python爬蟲之bs4數據解析

熱門標簽:浙江電銷卡外呼系統好用嗎 房產電銷外呼系統 南京銷售外呼系統軟件 地圖標注的意義點 地圖標注微信發送位置不顯示 315電話機器人廣告 上海機器人外呼系統哪家好 地圖制圖標注位置改變是移位嗎 蓋州市地圖標注

一、實現數據解析

因為正則表達式本身有難度,所以在這里為大家介紹一下 bs4 實現數據解析。除此之外還有 xpath 解析。因為 xpath 不僅可以在 python 中使用,所以 bs4 和 正則解析一樣,僅僅是簡單地寫兩個案例(爬取可翻頁的圖片,以及爬取三國演義)。以后的重點會在 xpath 上。

二、安裝庫

閑話少說,我們先來安裝 bs4 相關的外來庫。比較簡單。

1.首先打開 cmd 命令面板,依次安裝bs4 和 lxml。

2. 命令分別是 pip install bs4 和 pip install lxml 。

3. 安裝完成后我們可以試著調用他們,看看會不會報錯。

因為本人水平有限,所以如果出現報錯,兄弟們還是百度一下好啦。(總不至于 cmd 命令打錯了吧 ~~)

三、bs4 的用法

閑話少說,先簡單介紹一下 bs4 的用法。


四、爬取圖片

import requests
from bs4 import BeautifulSoup
import os

if __name__ == "__main__":
    # 創建文件夾
    if not os.path.exists("./糗圖(bs4)"):
        os.mkdir("./糗圖(bs4)")

    # UA偽裝
    header = {
        "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.72 Safari/537.36"
        }

    # 指定 url
    for i in range(1, 3): # 翻兩頁
        url = "https://www.qiushibaike.com/imgrank/page/%s/" % str(i)
        # 獲取源碼數據
        page = requests.get(url = url, headers = header).text
        # 數據解析
        soup = BeautifulSoup(page, "lxml")
        data_list = soup.select(".thumb > a")
        for data in data_list:
            url = data.img["src"]
            title = url.split("/")[-1]
            new_url = "https:" + url
            photo = requests.get(url = new_url, headers = header).content
            # 存儲
            with open("./糗圖(bs4)/" + title, "wb") as fp:
                fp.write(photo)
            print(title, "下載完成!!!")
    print("over!!!")

五、爬取三國演義

import requests
from bs4 import BeautifulSoup

if __name__ == "__main__":
    # UA 偽裝
    header = {
        "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36"
        }

    # URL
    url = "http://sanguo.5000yan.com/"

    # 請求命令
    page_text = requests.get(url = url, headers = header)
    page_text.encoding = "utf-8"
    page_text = page_text.text
    soup = BeautifulSoup(page_text, "lxml")
    
    # bs4 解析
    li_list = soup.select(".sidamingzhu-list-mulu > ul > li")
    
    for li in li_list:
        print(li)
        new_url = li.a["href"]
        title = li.a.text

        # 新的請求命令
        response = requests.get(url = new_url, headers = header)
        response.encoding = "utf-8"
        new_page_text = response.text
        new_soup = BeautifulSoup(new_page_text, "lxml")

        page = new_soup.find("div", class_ = "grap").text

        with open("./三國演義.txt", "a", encoding = "utf-8") as fp:
            fp.write("\n" + title + ":" + "\n" + "\n" + page)

        print(title + "下載完成!!!")


到此這篇關于python爬蟲之bs4數據解析的文章就介紹到這了,更多相關python bs4數據解析內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python爬蟲請求庫httpx和parsel解析庫的使用測評
  • Python爬蟲之爬取最新更新的小說網站
  • 用Python爬蟲破解滑動驗證碼的案例解析
  • Python爬蟲爬取愛奇藝電影片庫首頁的實例代碼
  • Python爬蟲之爬取嗶哩嗶哩熱門視頻排行榜
  • 上手簡單,功能強大的Python爬蟲框架——feapder
  • python爬蟲之爬取百度翻譯
  • python爬蟲基礎之簡易網頁搜集器
  • python爬蟲之利用selenium模塊自動登錄CSDN
  • python爬蟲之爬取筆趣閣小說
  • python爬蟲之利用Selenium+Requests爬取拉勾網
  • python基礎之爬蟲入門

標簽:陽泉 臨汾 貴州 克拉瑪依 日照 金華 赤峰 雙鴨山

巨人網絡通訊聲明:本文標題《python爬蟲之bs4數據解析》,本文關鍵詞  python,爬蟲,之,bs4,數據,解析,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python爬蟲之bs4數據解析》相關的同類信息!
  • 本頁收集關于python爬蟲之bs4數據解析的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 99国产情侣在线视频| 窝窝午夜一级看片爽| 好吊色青青青国产在线播放| 巜痴汉电车强制肉欲2无码| 日韩欧美一中文字暮专区| 韩国a级毛片| 好大好硬好爽AAAAA视频| 国产剧情办公室黑色丝袜在线观看| 抓她双乳抵在门上疯狂进出| 韩国羞羞漫画无遮拦| 久久久久久精品国产三级下乡| 嫡女这般妩媚小说| 挺进撅起来的美妇肥臀| 怀上老男人的崽之后| 女被强伦姧bd高清电影| 被黑人伦流澡到高潮| 呦女网址www呦女| 黄色福利影院| 97色伦在线影院777www| 厨房边添边摸边做边爱| 女人18毛片免费视频播放| 天天影视综合色区| 国产人va在线| 国内精品BBW国语对白| 草蜢日本在线| 护士的诱惑| 日本黄色网站大全| 欧美一级爽快j9婬片高清| 纲手被扒开腿做?同人漫画免费| 啊啊啊啊啊啊水好多| 午夜啪视频| 国产精品爽爽久久久天天躁漫画| 国产一级特黄a高潮片| 秋霞电影网观看地址| 英语老师让我吃她的小兔子| 桃花源免费影院| 真人性做爰直播视频| 少妇精品久久久一区二区三区| 亚洲精品www久久久久久久软件| 骚虎影院在线观看| 女厕三沟厕盗摄wc偷窥|