好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > python基礎(chǔ)之爬蟲入門

python基礎(chǔ)之爬蟲入門

熱門標(biāo)簽:陜西金融外呼系統(tǒng) 哈爾濱ai外呼系統(tǒng)定制 廣告地圖標(biāo)注app 公司電話機(jī)器人 騰訊外呼線路 唐山智能外呼系統(tǒng)一般多少錢 海南400電話如何申請 白銀外呼系統(tǒng) 激戰(zhàn)2地圖標(biāo)注

前言

python基礎(chǔ)爬蟲主要針對一些反爬機(jī)制較為簡單的網(wǎng)站,是對爬蟲整個(gè)過程的了解與爬蟲策略的熟練過程。
爬蟲分為四個(gè)步驟:請求,解析數(shù)據(jù),提取數(shù)據(jù),存儲數(shù)據(jù)。本文也會從這四個(gè)角度介紹基礎(chǔ)爬蟲的案例。

一、簡單靜態(tài)網(wǎng)頁的爬取

我們要爬取的是一個(gè)壁紙網(wǎng)站的所有壁紙

http://www.netbian.com/dongman/

1.1 選取爬蟲策略——縮略圖

首先打開開發(fā)者模式,觀察網(wǎng)頁結(jié)構(gòu),找到每一張圖對應(yīng)的的圖片標(biāo)簽,可以發(fā)現(xiàn)我們只要獲取到標(biāo)黃的img標(biāo)簽并向它發(fā)送請求就可以得到壁紙的預(yù)覽圖了。

隨后注意到網(wǎng)站不止一頁,打開前3頁的網(wǎng)站觀察url有沒有規(guī)律

http://www.netbian.com/dongman/index.htm#第一頁
http://www.netbian.com/dongman/index_2.htm#第二頁
http://www.netbian.com/dongman/index_3.htm#第三頁

我們發(fā)現(xiàn)除了第一頁其他頁數(shù)的url都是有著固定規(guī)律的,所以先構(gòu)建一個(gè)含有所有頁數(shù)url的列表

url_start = 'http://www.netbian.com/dongman/'
url_list=['http://www.netbian.com/dongman/index.htm']
if not os.path.exists('./exercise'):
    os.mkdir('./exercise')
for i in range(2,133):
    url = url_start+'index_'+str(i)+'.htm'
    url_list.append(url)

至此我們的基本爬蟲策略就確定了。

網(wǎng)頁請求

for url in url_list:
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36'
    }
    response = requests.get(url=url,headers=headers).text

解析數(shù)據(jù)

在這里我們選用etree解析數(shù)據(jù)

tree = etree.HTML(response)

提取數(shù)據(jù)

在這里我們選用xpath提取數(shù)據(jù)

leaf = tree.xpath('//div[@class="list"]//ul/li/a/img/@src')
for l in leaf:
      print(l)
      h = requests.get(url=l, headers=headers).content

存儲數(shù)據(jù)

i = 'exercise/' + l.split('/')[-1]
with open(i, 'wb') as fp:
      fp.write(h)

完整代碼

import requests
from lxml import etree
import os
url_start = 'http://www.netbian.com/dongman/'
url_list=['http://www.netbian.com/dongman/index.htm']
#http://www.netbian.com/dongman/index_2.htm
if not os.path.exists('./exercise'):
    os.mkdir('./exercise')
for i in range(2,133):
    url = url_start+'index_'+str(i)+'.htm'
    url_list.append(url)
print(url_list)
for url in url_list:
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36'
    }
    response = requests.get(url=url,headers=headers).text
    tree = etree.HTML(response)
    leaf = tree.xpath('//div[@class="list"]//ul/li/a/img/@src')
    for l in leaf:
        print(l)
        h = requests.get(url=l, headers=headers).content
        i = 'exercise/' + l.split('/')[-1]
        with open(i, 'wb') as fp:
            fp.write(h)

1.2 選取爬蟲策略——高清大圖

在剛剛的爬蟲中我們爬取到的只是壁紙的縮略圖,要想爬到高清版本,就需要我們更改策略。重新打開開發(fā)者工具進(jìn)行觀察,發(fā)現(xiàn)在原先爬取的img標(biāo)簽之上還有一個(gè)href標(biāo)簽,打開之后就會跳轉(zhuǎn)高清大圖。


那么此時(shí)我們的爬取策略就變成了提取這個(gè)href標(biāo)簽的內(nèi)容,向這個(gè)標(biāo)簽中的網(wǎng)站發(fā)送請求,隨后在該網(wǎng)站中找到img標(biāo)簽進(jìn)行再一次請求。

我們用到了正則表達(dá)式來提取href標(biāo)簽的內(nèi)容。正則表達(dá)式是比xpath語法更簡便的一種數(shù)據(jù)提取方法,具體有關(guān)語法可查看以下文檔

for url in url_list:
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36'
    }
    response = requests.get(url=url,headers=headers).text
    leaf = re.findall("desk/\d*.htm",response,re.S)
    for l in leaf:
        url = "http://www.netbian.com/"+str(l)
        h = requests.get(url=url, headers=headers).text
        leaf_ =re.findall('div class="pic">.*?(http://img.netbian.com/file/\d*/\d*/\w*.jpg)',h,re.S)

這樣輸出的leaf_就是我們要找的高清大圖的img標(biāo)簽,此時(shí)我們只需要再次發(fā)送請求隨后再保存數(shù)據(jù)就可以了。

存儲數(shù)據(jù)

for l_ in leaf_:
      print(l_)
      h = requests.get(url=l_, headers=headers).content
      i = 'exercise/' + l_.split('/')[-1]
      with open(i, 'wb') as fp:
          fp.write(h)

完整代碼

import requests
import os
import re
url_start = 'http://www.netbian.com/dongman/'
url_list=['http://www.netbian.com/dongman/index.htm']
if not os.path.exists('./exercise'):
    os.mkdir('./exercise')
for i in range(2,133):
    url = url_start+'index_'+str(i)+'.htm'
    url_list.append(url)
print(url_list)
for url in url_list:
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36'
    }
    response = requests.get(url=url,headers=headers).text
    leaf = re.findall("desk/\d*.htm",response,re.S)
    for l in leaf:
        url = "http://www.netbian.com/"+str(l)
        h = requests.get(url=url, headers=headers).text
        leaf_ =re.findall('div class="pic">.*?(http://img.netbian.com/file/\d*/\d*/\w*.jpg)',h,re.S)
        for l_ in leaf_:
            print(l_)
            h = requests.get(url=l_, headers=headers).content
            i = 'exercise/' + l_.split('/')[-1]
            with open(i, 'wb') as fp:
                fp.write(h)

    

二、動態(tài)加載網(wǎng)站的爬取

我們要爬取的是另一個(gè)壁紙網(wǎng)站的所有壁紙

https://sucai.gaoding.com/topic/9080?

2.1 選取爬蟲策略——selenium

首先打開開發(fā)者模式,觀察網(wǎng)頁結(jié)構(gòu),此時(shí)我們會發(fā)現(xiàn)一頁上的所有壁紙并不是全部都加載出來了的,也就是說隨著我們下拉滾動條,內(nèi)容會不斷實(shí)時(shí)加載出來,查看網(wǎng)頁元素時(shí)也能看到lazy-image這個(gè)代表動態(tài)加載的標(biāo)簽

由于是動態(tài)加載,因此不能用之前的直接發(fā)送請求的辦法來爬取數(shù)據(jù)了,面對這種情況我們就需要模擬瀏覽器發(fā)送一個(gè)請求,并且下拉頁面,來實(shí)現(xiàn)爬取一個(gè)實(shí)時(shí)加載網(wǎng)頁的目的。

觀察完網(wǎng)頁結(jié)構(gòu)之后我們又來觀察頁數(shù),這次就不多說了,想必大家也能發(fā)現(xiàn)規(guī)律

url_list=[]
for i in range(1,4):
    url =  'https://sucai.gaoding.com/topic/9080?p={}'.format(i)
    url_list.append(url)

網(wǎng)頁請求

在這里我們用到了selenium這個(gè)自動化測試框架

for url in url_list:
    driver = webdriver.Chrome()
    driver.get(url)
    driver.maximize_window()
    time.sleep(2)
    i=0
    while i10:#下拉滾動條加載頁面
        i+=1
        driver.execute_script("window.scrollBy(0,500)")
        driver.implicitly_wait(5)#顯式等待

解析提取數(shù)據(jù)

items = driver.find_elements_by_xpath("http://*[@class='gdd-lazy-image__img gdd-lazy-image__img--loaded']")
    for item in items:
            href = item.get_attribute('src')
            print(href)

至于數(shù)據(jù)的存儲只需要再請求我們爬下來的href標(biāo)簽的網(wǎng)站就可以了。

完整代碼

from selenium import webdriver
import time
import os
if not os.path.exists('./exercise'):
    os.mkdir('./exercise')
headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.75 Safari/537.36'
    }
url_list=[]
url_f_list=[]
for i in range(1,4):
    url =  'https://sucai.gaoding.com/topic/9080?p={}'.format(i)
    url_list.append(url)
for url in url_list:
    driver = webdriver.Chrome()
    driver.get(url)
    driver.maximize_window()
    time.sleep(2)
    i=0
    while i10:
        i+=1
        driver.execute_script("window.scrollBy(0,500)")
        driver.implicitly_wait(5)#顯式等待
    items = driver.find_elements_by_xpath("http://*[@class='gdd-lazy-image__img gdd-lazy-image__img--loaded']")
    for item in items:
            href = item.get_attribute('src')
            print(href)

2.2 選取爬蟲策略——api

眾所周知,api接口是個(gè)好東西,如果找到了它,我們就無需擔(dān)心動態(tài)加載,請求api返回給我們的是json格式的字典,里面或許有我們需要的東西也說不定。那么我們重新打開開發(fā)者工具搜索一番吧!

從Element切換到Network我們可以發(fā)現(xiàn)這里多了好多奇怪的東西,但是打開preview好像沒有我們能用到的。

這個(gè)時(shí)候別灰心,切換下頁面,等第二頁加載出來的時(shí)候最后又多出來了一個(gè)xhr文件,點(diǎn)開preview我們驚喜的發(fā)現(xiàn),這個(gè)里面有每一張圖id的信息!

搜尋一圈發(fā)現(xiàn)字典里有效的只有id這個(gè)值,那么id對于我們的圖片爬取有什么意義呢?通常情況下網(wǎng)址+id就可以定位到具體的圖片,于是我點(diǎn)進(jìn)去一張壁紙,驚喜的發(fā)現(xiàn)跟我想的一樣!

最后又到了我們老生常談的頁數(shù)環(huán)節(jié),在看到這個(gè)api的request url之后大家有沒有觀察到它其中帶著page_num=2page_size=100這兩個(gè)看著很像頁碼的參數(shù)呢?我們再往下就看到了參數(shù)中也正好有這兩個(gè)值!也就是說我們只需要更改page_num=2就可以實(shí)現(xiàn)翻頁了!

url='https://api-sucai.gaoding.com/api/csc-api/topics/9080/modules/18928/templets?'
headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36'
    }
params_list=[]
for i in range(1,4):
    parms ={
        'page_num': i,
        'page_size': 100
    }
    params_list.append(parms)

解析提取數(shù)據(jù)

for param in params_list:
    response = requests.get(url=url,params=param,headers=headers).json()
    for i in range(100):
        try:
            dict  =response[i]
            id = dict['id']
            url_f = 'https://sucai.gaoding.com/material/'+str(id)
            url_f_list.append(url_f)
        except:
            pass

存儲數(shù)據(jù)

for l in url_f_list:
    print(l)
    h = requests.get(url=l, headers=headers).content
    i = 'exercise/' + l.split('/')[-1]
    with open(i, 'wb') as fp:
        fp.write(h)

完整代碼

import os
import requests
if not os.path.exists('./exercise'):
    os.mkdir('./exercise')
url='https://api-sucai.gaoding.com/api/csc-api/topics/9080/modules/18928/templets?'
headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36'
    }
params_list=[]
url_f_list=[]
for i in range(1,4):
    parms ={
        'page_num': i,
        'page_size': 100
    }
    params_list.append(parms)
for param in params_list:
    response = requests.get(url=url,params=param,headers=headers).json()
    for i in range(100):
        try:
            dict  =response[i]
            id = dict['id']
            url_f = 'https://sucai.gaoding.com/material/'+str(id)
            url_f_list.append(url_f)
        except:
            pass
for l in url_f_list:
    print(l)
    #h = requests.get(url=l, headers=headers).content
    #i = 'exercise/' + l.split('/')[-1]
    #with open(i, 'wb') as fp:
    #    fp.write(h)

三、selenium模擬登錄

我們要爬取的網(wǎng)站總是免不了登錄這一關(guān)鍵環(huán)節(jié),因此模擬登錄也是一大爬蟲基礎(chǔ)。
我們要模擬登錄的網(wǎng)站如下

https://www.icourse163.org/course/BIT-268001

選取爬蟲策略

既然我們是用selenium模擬登陸,首先肯定要明確我們要模擬的具體內(nèi)容,歸納起來就是

點(diǎn)擊 登錄|注冊
點(diǎn)擊 其他登陸方式
點(diǎn)擊 手機(jī)號登錄
輸入賬號
輸入密碼
點(diǎn)擊 登錄

在明確該干些什么之后我們就打開開發(fā)者模式觀察一下這個(gè)登錄框吧。

不看不知道,一看嚇一跳,原來這里有一個(gè)iframe框架,這就意味著如果我們不做任何處理就查找元素的話可能會什么都查找不到。這就相當(dāng)于在王家找李家的東西一樣,我們首先需要切換到當(dāng)前iframe

driver.switch_to.frame(driver.find_element_by_xpath('//*[@id="j-ursContainer-1"]/iframe'))

經(jīng)過這一操作之后我們就可以正常按部就班的進(jìn)行模擬登陸了!

完整代碼

from selenium import webdriver
import time
url = 'https://www.icourse163.org/course/BIT-268001'
driver = webdriver.Chrome()
driver.get(url)
driver.maximize_window()
#time.sleep(2)
driver.find_element_by_xpath('//div[@class="unlogin"]/a').click()
driver.find_element_by_class_name('ux-login-set-scan-code_ft_back').click()
driver.find_element_by_xpath('//ul[@class="ux-tabs-underline_hd"]/li[2]').click()
driver.switch_to.frame(driver.find_element_by_xpath('//*[@id="j-ursContainer-1"]/iframe'))
driver.implicitly_wait(2)#給登錄框一些加載的時(shí)間
driver.find_element_by_css_selector('input[type="tel"]').send_keys('15201359153')
driver.find_element_by_css_selector('input[class="j-inputtext dlemail"]').send_keys('Asdasd123')
driver.implicitly_wait(2)#如果不等待的話可能密碼還沒輸入結(jié)束就點(diǎn)按登錄鍵了
driver.find_element_by_id('submitBtn').click()

到此這篇關(guān)于python基礎(chǔ)之爬蟲入門的文章就介紹到這了,更多相關(guān)python入門爬蟲內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Python爬蟲數(shù)據(jù)的分類及json數(shù)據(jù)使用小結(jié)
  • python爬蟲scrapy圖書分類實(shí)例講解
  • Python爬蟲實(shí)現(xiàn)的根據(jù)分類爬取豆瓣電影信息功能示例
  • Python異步爬蟲實(shí)現(xiàn)原理與知識總結(jié)
  • Python爬蟲之線程池的使用
  • python爬蟲請求庫httpx和parsel解析庫的使用測評
  • Python爬蟲之爬取最新更新的小說網(wǎng)站
  • 用Python爬蟲破解滑動驗(yàn)證碼的案例解析
  • Python爬蟲基礎(chǔ)之爬蟲的分類知識總結(jié)

標(biāo)簽:四川 益陽 黔西 惠州 鷹潭 黑龍江 上海 常德

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《python基礎(chǔ)之爬蟲入門》,本文關(guān)鍵詞  python,基礎(chǔ),之,爬蟲,入門,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《python基礎(chǔ)之爬蟲入門》相關(guān)的同類信息!
  • 本頁收集關(guān)于python基礎(chǔ)之爬蟲入門的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    主站蜘蛛池模板: 天天在线精品视频在线观看| 91人妻丨PORNY丨绿帽| 高H盲女| 台湾50部三级| 免费?无码?国产在线电影| 岳后面菊眼被弄肿了| 女人19毛片一级毛片| 女主快穿被调教成性玩物h| 在御花园进入太子妃的小说| ぱらだいす天堂中文网.WWW | 狂揉美女胸60分钟| 一级做a爰片性色毛片小说| 老师让我脱她蕾丝胸罩小说| 亚洲成年AV在线观看5566 | 前后夹击 撑满 两根| 欧洲老女人性视频观看| 小黄文污| 国产?高潮?白浆?喷| 桃花社区视频| 啊啊啊啊轻点| h版在线观看| 污污软件app| 餐桌下狂c亲女高| 和尚寡妇玉茎牝户| 国产农村精品一级毛片视频| 大肉大捧一进一出阿宾少年视频| 365天和我的黑道大佬2| 久久精品伦理| 国产精品久久久久久无码蜜臀漫画| 国产成人精品久久亚洲高清不卡 | 少妇高潮惨叫久久久久久| 国产精品久久综合桃花网 | 一个人免费观看播放视频免费| 国产a高清| 麻豆精品秘?国产传媒MV男同| 爽?好大?快?深点高文| 国产一区二区丝袜高跟鞋图片| 強姦丝袜人妻OL影视91| 免费国产调教视频在线观看| 乐乐亚洲精品综合影院| 极品欧美jiizzhd欧美|