好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > Python手拉手教你爬取貝殼房源數據的實戰教程

Python手拉手教你爬取貝殼房源數據的實戰教程

熱門標簽:富錦商家地圖標注 武漢外呼系統平臺 池州外呼調研線路 如何申請400電話費用 沈陽防封電銷卡品牌 江西省地圖標注 沈陽外呼系統呼叫系統 沈陽人工外呼系統價格 外呼系統哪些好辦

一、爬蟲是什么?

 在進行大數據分析或者進行數據挖掘的時候,數據源可以從某些提供數據統計的網站獲得,也可以從某些文獻或內部資料中獲得,但是這些獲得數據的方式,有時很難滿足我們對數據的需求,而手動從互聯網中去尋找這些數據,則耗費的精力過大。此時就可以利用爬蟲技術,自動地從互聯網中獲取我們感興趣的數據內容,并將這些數據內容爬取回來,作為我們的數據源,從而進行更深層次的數據分析,并獲得更多有價值的信息。 在使用爬蟲前首先要了解爬蟲所需的庫(requests)或者( urllib.request ),該庫是為了爬取數據任務而創建的。

 二、使用步驟

1.引入庫

代碼如下(示例):

import os
import urllib.request
import random
import time
class BeikeSpider:
    def __init__(self, save_path="./beike"):
        """
        貝殼爬蟲構造函數
        :param save_path: 網頁保存目錄
        """

2.讀入數據

代碼如下 :

# 網址模式
        self.url_mode = "http://{}.fang.ke.com/loupan/pg{}/"
        # 需爬取的城市
        self.cities = ["cd", "sh", "bj"]
        # 每個城市爬取的頁數
        self.total_pages = 20
        # 讓爬蟲程序隨機休眠5-10秒
        self.sleep = (5, 10)
        # 網頁下載保存根目錄
        self.save_path = save_path
        # 設置用戶代理,是爬蟲程序偽裝成瀏覽器
        self.headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.114 Safari/537.36"}
        # 代理IP的信息
        self.proxies = [
            {"https": "123.163.67.50:8118"},
            {"https": "58.56.149.198:53281"},
            {"https": "14.115.186.161:8118"}
        ]

        # 創建保存目錄
        if not os.path.exists(self.save_path):
            os.makedirs(self.save_path)
   def crawl(self):
        """
        執行爬取任務
        :return: None
        """

該處使用的url網絡請求的數據。

3.隨機選擇一個ip地址構建代理服務器

 for city in self.cities:
            print("正在爬取的城市:", city)
            # 每個城市的網頁用單獨的目錄存放
            path = os.path.join(self.save_path, city)
            if not os.path.exists(path):
                os.makedirs(path)

            for page in range(1, self.total_pages+1):
                # 構建完整的url
                url = self.url_mode.format(city, page)
                # 構建Request對象, 將url和請求頭放入對象中
                request = urllib.request.Request(url, headers=self.headers)

                # 隨機選擇一個代理IP
                proxy = random.choice(self.proxies)
                # 構建代理服務器處理器
                proxy_handler = urllib.request.ProxyHandler(proxy)
                # 構建opener
                opener = urllib.request.build_opener(proxy_handler)
                # 使用構建的opener打開網頁
                response = opener.open(request)
                html = response.read().decode("utf-8")
                # 網頁保存文件名(包含路徑)
                filename = os.path.join(path, str(page)+".html")

                # 保存網頁
                self.save(html, filename)
                print("第%d頁保存成功!" % page)

                # 隨機休眠
                sleep_time = random.randint(self.sleep[0], self.sleep[1])
                time.sleep(sleep_time)

該處除隨機選擇ip地址以外還會限制爬取數據的速度,避免暴力爬取。

4.運行代碼

def save(self, html, filename):
        """
        保存下載的網頁
        :param html: 網頁內容
        :param filename: 保存的文件名
        :return:
        """

        f = open(filename, 'w', encoding="utf-8")
        f.write(html)
        f.close()

    def parse(self):
        """
        解析網頁數據
        :return:
        """
        pass

if __name__ == "__main__":
    spider = BeikeSpider()
    spider.crawl()

運行結果就會這樣,會保存在你的文件夾中。

總結

這里對文章進行總結:今天分析這波代碼目的是為了讓大家清晰明亮的了解python爬蟲的運作,和大家一起學習
以上就是今天要講的內容,本文僅僅簡單介紹了pandas的使用,而urllib.request提供了大量能使我們快速便捷地爬取數據。

您可能感興趣的文章:
  • Python scrapy爬取蘇州二手房交易數據
  • Python爬蟲之爬取我愛我家二手房數據
  • python爬取鏈家二手房的數據
  • Python爬蟲之爬取二手房信息
  • 基于python爬取鏈家二手房信息代碼示例
  • python爬蟲 爬取58同城上所有城市的租房信息詳解
  • Python爬蟲入門案例之爬取二手房源數據

標簽:株洲 潛江 黑龍江 阿里 常德 呂梁 銅川 通遼

巨人網絡通訊聲明:本文標題《Python手拉手教你爬取貝殼房源數據的實戰教程》,本文關鍵詞  Python,手拉手,教你,爬取,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《Python手拉手教你爬取貝殼房源數據的實戰教程》相關的同類信息!
  • 本頁收集關于Python手拉手教你爬取貝殼房源數據的實戰教程的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 呦女iuu极品资源一| 精品无码久久久久久动漫| 成人??日本无码视频在线观看| 小野六花的区综合久久观看| 中文字幕一区久久久久| 亲嘴脱内衣??内裤| 男男互肉互攻H文| 日本一区不卡在线| 男生插女生下面的视频| 欧美????XXXX男人泡| 91成人在线| 国产精品亚洲AV色欲三区不卡| 精品久久无码中文字幕sex吧| 男男np肉文| 免费看福利| 粗大从后面狠狠贯穿hbl| 黃色A片三級三級三級免费看换脸 水浒传甘婷婷被揉到高潮 | 水野朝阳在线| 日本精品视频一区二区| 国产黄网| 辣妞范1000部18勿进你懂的| 日本丰满乳乳液| 在线听荤肉爽文有声小说软件 | 美女黄色免费在线观看| 受辱的美人们| 特种兵猛撞H花液h深| 两攻一受5P双龙H调教H| 在线观看国产精美视频| 岳美的大肥萍萍| 办公室的故事完整版| 久久久无码AV精品亚渊源阁 | 两男一女一起做爰电影| 人妻AV片778网站在线导航| 日本中文在线| 医生扒开腿揉捏花蒂h| 夜精品A片一区二区无码69堂 | 欧美一级特黄aa大片视频免费下载| 日韩一级一片| 天天搡天天狠天干天啪啪剧情 | 中美一级片| 毛片软件下载|