好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > Python中scrapy下載保存圖片的示例

Python中scrapy下載保存圖片的示例

熱門標簽:外賣地址有什么地圖標注 銀川電話機器人電話 企業彩鈴地圖標注 電銷機器人錄音要學習什么 長春極信防封電銷卡批發 預覽式外呼系統 如何地圖標注公司 上海正規的外呼系統最新報價 煙臺電話外呼營銷系統

        在日常爬蟲練習中,我們爬取到的數據需要進行保存操作,在scrapy中我們可以使用ImagesPipeline這個類來進行相關操作,這個類是scrapy已經封裝好的了,我們直接拿來用即可。

                                                                   

     在使用ImagesPipeline下載圖片數據時,我們需要對其中的三個管道類方法進行重寫,其中         — get_media_request   是對圖片地址發起請求

   — file path   是返回圖片名稱

   — item_completed  返回item,將其返回給下一個即將被執行的管道類

                                                

        那具體代碼是什么樣的呢,首先我們需要在pipelines.py文件中,導入ImagesPipeline類,然后重寫上述所說的3個方法:

from scrapy.pipelines.images import ImagesPipeline
import  scrapy
import os
 
 
class ImgsPipLine(ImagesPipeline):
    def get_media_requests(self, item, info):
        yield scrapy.Request(url = item['img_src'],meta={'item':item})
 
 
    #返回圖片名稱即可
    def file_path(self, request, response=None, info=None):
        item = request.meta['item']
        print('########',item)
        filePath = item['img_name']
        return filePath
 
    def item_completed(self, results, item, info):
        return item

        方法定義好后,我們需要在settings.py配置文件中進行設置,一個是指定圖片保存的位置IMAGES_STORE = 'D:\\ImgPro',然后就是啟用“ImgsPipLine”管道,

ITEM_PIPELINES = {
   'imgPro.pipelines.ImgsPipLine': 300,  #300代表優先級,數字越小優先級越高
}

         設置完成后,我們運行程序后就可以看到“D:\\ImgPro”下保存成功的圖片。

完整代碼如下:

spider文件代碼:

# -*- coding: utf-8 -*-
import scrapy
from imgPro.items import ImgproItem
 
 
 
class ImgSpider(scrapy.Spider):
    name = 'img'
    allowed_domains = ['www.521609.com']
    start_urls = ['http://www.521609.com/daxuemeinv/']
 
    def parse(self, response):
        #解析圖片地址和圖片名稱
        li_list = response.xpath('//div[@class="index_img list_center"]/ul/li')
        for li in li_list:
            item = ImgproItem()
            item['img_src'] = 'http://www.521609.com/'  + li.xpath('./a[1]/img/@src').extract_first()
            item['img_name'] = li.xpath('./a[1]/img/@alt').extract_first() + '.jpg'
            # print('***********')
            # print(item)
            yield item

items.py文件

import scrapy
 
 
class ImgproItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    img_src = scrapy.Field()
    img_name = scrapy.Field()

pipelines.py文件

from scrapy.pipelines.images import ImagesPipeline
import  scrapy
import os
from  imgPro.settings import IMAGES_STORE as IMGS
 
class ImgsPipLine(ImagesPipeline):
    def get_media_requests(self, item, info):
        yield scrapy.Request(url = item['img_src'],meta={'item':item})
 
 
    #返回圖片名稱即可
    def file_path(self, request, response=None, info=None):
        item = request.meta['item']
        print('########',item)
        filePath = item['img_name']
        return filePath
 
    def item_completed(self, results, item, info):
        return item

settings.py文件

import random
BOT_NAME = 'imgPro'
 
SPIDER_MODULES = ['imgPro.spiders']
NEWSPIDER_MODULE = 'imgPro.spiders'
 
IMAGES_STORE = 'D:\\ImgPro'   #文件保存路徑
LOG_LEVEL = "WARNING"
ROBOTSTXT_OBEY = False
#設置user-agent
USER_AGENTS_LIST = [
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1",
        "Mozilla/5.0 (X11; CrOS i686 2268.111.0) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.57 Safari/536.11",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1092.0 Safari/536.6",
        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1090.0 Safari/536.6",
        "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/19.77.34.5 Safari/537.1",
        "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.9 Safari/536.5",
        "Mozilla/5.0 (Windows NT 6.0) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.36 Safari/536.5",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3",
        "Mozilla/5.0 (Windows NT 5.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3",
        "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_0) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.0 Safari/536.3",
        "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24",
        "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24"
    ]
USER_AGENT = random.choice(USER_AGENTS_LIST)
DEFAULT_REQUEST_HEADERS = {
    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
    'Accept-Language': 'en',
   # 'User-Agent':"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36",
    'User-Agent':USER_AGENT
}
 
#啟動pipeline管道
ITEM_PIPELINES = {
   'imgPro.pipelines.ImgsPipLine': 300,
}

         以上即是使用ImagesPipeline下載保存圖片的方法,今天突生一個疑惑,爬蟲爬的好,真的是牢飯吃的飽嗎?還請各位大佬解答!更多相關Python scrapy下載保存內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python非標準時間的轉換
  • ROS系統將python包編譯為可執行文件的簡單步驟
  • Python中rapidjson參數校驗實現
  • Python動態規劃實現虛擬機部署的算法思想
  • python 多線程實現多任務的方法示例
  • python方差檢驗的含義及用法
  • Python函數實現學員管理系統
  • python調試模式無響應解決案例

標簽:佳木斯 西寧 上饒 潮州 盤錦 湖北 珠海 宜昌

巨人網絡通訊聲明:本文標題《Python中scrapy下載保存圖片的示例》,本文關鍵詞  Python,中,scrapy,下載,保存,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《Python中scrapy下載保存圖片的示例》相關的同類信息!
  • 本頁收集關于Python中scrapy下載保存圖片的示例的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 五月天堂AV无码| xxxx毛片| 国产视频一二| 亚洲 激情 综合 另类 在线| 最惨的女体拷问研究所| 一级片黄色片| 男男玉势疼哭调教h| 色系视频在线观看免费观看| 美女裸体羞羞?免费软件| 白浆四溢| **和毛片| 羞影院| 啪啪免费网站入口链接| 最年轻的小姨子| 深夜福利在线看| 免费三级网站| 高h翁妇肉吃奶| 欧美黑人粗大XXXX在线视频| 成人三级在线播放线观看| 男女靠b视频| 午夜亚洲国产理论秋霞| 国产一级特黄aa级特黄裸毛片| 嗯~用力啊~嗯~c我~视频软件 26uuu偷拍亚洲欧洲综合 | 777yy午夜电影理论片| 国产男女做爰免费网站| 武侠美妇被强疯狂迎合娇吟| 疯狂蹂躏禁脔欢爱h| 亚洲AV一区二区在线紧身裙教师| 97午夜精品| 被男人强揉扒开吃奶片段 | 亚洲AV电影一区二区| SP趴床脱裙子内裤打屁股视频| 办公室床震揉胸罩视频| 夜月视频高清在线观看| 用力?哦?高潮?喷了古装视频 | 18禁美女黄网站色大片下载 | 男女一级| 国产欧美日韩亚洲精品区2345| 波多野结衣初尝黑人138| 师尊被绑奶头跪爬羞辱调教| 岛国黑人精品视频在线网|