好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > python爬蟲scrapy框架之增量式爬蟲的示例代碼

python爬蟲scrapy框架之增量式爬蟲的示例代碼

熱門標簽:螳螂科技外呼系統怎么用 阿里電話機器人對話 電銷機器人系統廠家鄭州 qt百度地圖標注 正安縣地圖標注app 遼寧智能外呼系統需要多少錢 地圖地圖標注有嘆號 舉辦過冬奧會的城市地圖標注 400電話申請資格

scrapy框架之增量式爬蟲

一 、增量式爬蟲

什么時候使用增量式爬蟲:
增量式爬蟲:需求 當我們瀏覽一些網站會發現,某些網站定時的會在原有的基礎上更新一些新的數據。如一些電影網站會實時更新最近熱門的電影。那么,當我們在爬蟲的過程中遇到這些情況時,我們是不是應該定期的更新程序以爬取到更新的新數據?那么,增量式爬蟲就可以幫助我們來實現

二 、增量式爬蟲

概念:
通過爬蟲程序檢測某網站數據更新的情況,這樣就能爬取到該網站更新出來的數據

如何進行增量式爬取工作:
在發送請求之前判斷這個URL之前是不是爬取過
在解析內容之后判斷該內容之前是否爬取過
在寫入存儲介質時判斷內容是不是在該介質中

增量式的核心是 去重
去重的方法:
將爬取過程中產生的URL進行存儲,存入到redis中的set中,當下次再爬取的時候,對在存儲的URL中的set中進行判斷,如果URL存在則不發起請求,否則 就發起請求
對爬取到的網站內容進行唯一的標識,然后將該唯一標識存儲到redis的set中,當下次再爬取數據的時候,在進行持久化存儲之前,要判斷該數據的唯一標識在不在redis中的set中,如果在,則不在進行存儲,否則就存儲該內容

三、示例

爬蟲文件

# -*- coding: utf-8 -*-
import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from redis import Redis
from increment2_Pro.items import Increment2ProItem
import hashlib
class QiubaiSpider(CrawlSpider):
  name = 'qiubai'
  # allowed_domains = ['www.xxx.com']
  start_urls = ['https://www.qiushibaike.com/text/']

  rules = (
    Rule(LinkExtractor(allow=r'/text/page/\d+/'), callback='parse_item', follow=True),
  )

  def parse_item(self, response):

    div_list = response.xpath('//div[@class="article block untagged mb15 typs_hot"]')
    conn = Redis(host='127.0.0.1',port=6379)
    for div in div_list:
      item = Increment2ProItem()
      item['content'] = div.xpath('.//div[@class="content"]/span//text()').extract()
      item['content'] = ''.join(item['content'])
      item['author'] = div.xpath('./div/a[2]/h2/text() | ./div[1]/span[2]/h2/text()').extract_first()
      
			# 將當前爬取的數據做哈希唯一標識(數據指紋)
      sourse = item['content']+item['author']
      hashvalue = hashlib.sha256(sourse.encode()).hexdigest()

      ex = conn.sadd('qiubai_hash',hashvalue)
      if ex == 1:
        yield item
      else:
        print('沒有可更新的數據可爬取')


    # item = {}
    #item['domain_id'] = response.xpath('//input[@id="sid"]/@value').get()
    #item['name'] = response.xpath('//div[@id="name"]').get()
    #item['description'] = response.xpath('//div[@id="description"]').get()
    # return item

管道文件(管道文件也可以不用加)

from redis import Redis
class Increment2ProPipeline(object):
  conn = None
  def open_spider(self,spider):
    self.conn = Redis(host='127.0.0.1',port=6379)
  def process_item(self, item, spider):
    dic = {
      'author':item['author'],
      'content':item['content']
    }
    self.conn.lpush('qiubaiData',dic)
    print('爬取到一條數據,正在入庫......')
    return item

到此這篇關于python爬蟲之scrapy框架之增量式爬蟲的示例代碼的文章就介紹到這了,更多相關scrapy增量式爬蟲內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Python爬蟲基礎講解之scrapy框架
  • Python爬蟲實戰之使用Scrapy爬取豆瓣圖片
  • Python爬蟲框架-scrapy的使用
  • python scrapy項目下spiders內多個爬蟲同時運行的實現
  • Python爬蟲之教你利用Scrapy爬取圖片
  • 一文讀懂python Scrapy爬蟲框架
  • python爬蟲scrapy基本使用超詳細教程
  • Python爬蟲之Scrapy環境搭建案例教程

標簽:信陽 濟源 淘寶好評回訪 昭通 阜新 興安盟 隨州 合肥

巨人網絡通訊聲明:本文標題《python爬蟲scrapy框架之增量式爬蟲的示例代碼》,本文關鍵詞  python,爬蟲,scrapy,框架,之,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python爬蟲scrapy框架之增量式爬蟲的示例代碼》相關的同類信息!
  • 本頁收集關于python爬蟲scrapy框架之增量式爬蟲的示例代碼的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 纲手裸体被?视频无码2002| 精品视频二区| 国产精品污www在线观看| 欧美男女网站| 久久91精品国产91久久小草| 免费在线观看大片影视大全| 三亚三黄三色AAA毛片| 巨胸美女爆?免费网站软件| 一级二级三级视频| 四虎东方va私人影库在线观看| 揉我奶?啊?嗯高潮白洁和王乙| 凹凸熟女白浆精品视频2| 欧美国产综合| 3D XXX 动漫 同人 亚洲| 欧美精品免费观看| 免费a级试看片| 老师你下面好紧| 粉嫩虎白女张开腿任我玩弄下药| 欧美一级婬片A片无码电影荒村| 印度男人粗硬长配种视频| 91短视频在线观看| ×xxhd毛茸茸经典复古| 粗大挺进紧致抽搐喷潮h男男视频| 欧美激情不卡| se97se成人亚洲网站在线观看| 啊~cao死你个小sao货| 囯产精品久久久久久久久九秃爱| 国产精品亚洲欧美日韩区| 进去没几下就出来了| 将军被强摁做开腿呻吟H| 国产在线观看国偷精品| 男人下部进女人下部视频| 亚洲午夜在线播放| 色戒完整版在线观看hd| 日韩欧美国产一区二区三区| 人妻少妇91果冻传媒麻豆| 乳首特辑| 胸的样子| 印度丰满女人乱XXXX| 无遮挡高清一级毛片免费| 人与牲动交xxxbbb|