好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > python爬蟲之利用Selenium+Requests爬取拉勾網

python爬蟲之利用Selenium+Requests爬取拉勾網

熱門標簽:地圖標注微信發送位置不顯示 蓋州市地圖標注 地圖標注的意義點 南京銷售外呼系統軟件 浙江電銷卡外呼系統好用嗎 房產電銷外呼系統 315電話機器人廣告 上海機器人外呼系統哪家好 地圖制圖標注位置改變是移位嗎

一、前言

利用selenium+requests訪問頁面爬取拉勾網招聘信息

二、分析url

觀察頁面可知,頁面數據屬于動態加載 所以現在我們通過抓包工具,獲取數據包

觀察其url和參數

url="https://www.lagou.com/jobs/positionAjax.json?px=defaultneedAddtionalResult=false"
參數:
city=%E5%8C%97%E4%BA%AC  ==》城市
first=true  ==》無用
pn=1  ==》頁數
kd=%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90  ==》商品關鍵詞

所以我們要想實現全站爬取,需要有city和頁數

三、獲取所有城市和頁數

我們打開拉勾網,觀察后發現,他的數據并不是完全展示的,比如說 在城市篩選選擇全國 僅僅只顯示30頁 但總頁數是遠遠大于30頁的;我又選擇北京發現是30頁又選擇北京下的海淀區又是30頁,可能我們無法把數據全部的爬取,但我們可以盡可能的將數據多的爬取


我們為了獲取全站數據,必然離不開的有兩個參數 一個是城市一個是頁數,所以我們利用selenium自動化去獲取所有城市和對應頁數

def City_Page(self):
    City_Page={}
    url="https://www.lagou.com/jobs/allCity.html?keyword=%spx=defaultcompanyNum=0isCompanySelected=falselabelWords="%(self.keyword)
    self.bro.get(url=url)
    sleep(30)
    print("開始獲取城市及其最大頁數")
    if "驗證系統" in self.bro.page_source:
        sleep(40)
    html = etree.HTML(self.bro.page_source)
    city_urls = html.xpath('//table[@class="word_list"]//li/input/@value')
    for city_url in city_urls:
        try:
            self.bro.get(city_url)
            if "驗證系統" in self.bro.page_source:
                sleep(40)
            city=self.bro.find_element_by_xpath('//a[@class="current_city current"]').text
            page=self.bro.find_element_by_xpath('//span[@class="span totalNum"]').text
            City_Page[city]=page
            sleep(0.5)
        except:
            pass
    self.bro.quit()
    data = json.dumps(City_Page)
    with open("city_page.json", 'w', encoding="utf-8")as f:
        f.write(data)
    return City_Page

四、生成params參數

我們有了每個城市對應的最大頁數,就可以生成訪問頁面所需的參數

def Params_List(self):
    with open("city_page.json", "r")as f:
        data = json.loads(f.read())
    Params_List = []
    for a, b in zip(data.keys(), data.values()):
        for i in range(1, int(b) + 1):
            params = {
                'city': a,
                'pn': i,
                'kd': self.keyword
            }
            Params_List.append(params)
    return Params_List

五、獲取數據

最后我們可以通過添加請求頭和使用params url來訪問頁面獲取數據

def Parse_Data(self,params):
    url = "https://www.lagou.com/jobs/positionAjax.json?needAddtionalResult=false"
    header={
        'referer': 'https://www.lagou.com/jobs/list_%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90?labelWords=fromSearch=truesuginput=',
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.114 Safari/537.36',
        'cookie':''
    }
    try:
        text = requests.get(url=url, headers=header, params=params).text
        if "頻繁" in text:
            print("操作頻繁,已被發現 當前為第%d個params"%(i))
        data=json.loads(text)
        result=data["content"]["positionResult"]["result"]
        for res in result:
            with open(".//lagou1.csv", "a",encoding="utf-8") as f:
                writer = csv.DictWriter(f, res.keys())
                writer.writerow(res)
        sleep(1)
    except Exception as e:
        print(e)
        pass

六、總結

盡管數據只顯示前30頁,但數據還是未完全獲取

在利用selenium獲取城市最大頁數時 應手動登錄拉勾網,并且其在訪問過程中可能會出現驗證系統需要驗證

利用requests訪問頁面獲取數據時 盡量sleep時間長一點,操作頻繁會封IP

到此這篇關于python爬蟲之利用Selenium+Requests爬取拉勾網的文章就介紹到這了,更多相關Selenium+Requests爬取拉勾網內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Python selenium模擬網頁點擊爬蟲交管12123違章數據
  • python爬蟲selenium模塊詳解
  • python實現selenium網絡爬蟲的方法小結
  • python爬蟲利用selenium實現自動翻頁爬取某魚數據的思路詳解
  • Python爬蟲之Selenium實現關閉瀏覽器
  • Python爬蟲中Selenium實現文件上傳
  • Python爬蟲之Selenium下拉框處理的實現
  • 教你如何使用Python selenium

標簽:貴州 赤峰 臨汾 陽泉 雙鴨山 克拉瑪依 金華 日照

巨人網絡通訊聲明:本文標題《python爬蟲之利用Selenium+Requests爬取拉勾網》,本文關鍵詞  python,爬蟲,之,利用,Selenium+Requests,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python爬蟲之利用Selenium+Requests爬取拉勾網》相關的同類信息!
  • 本頁收集關于python爬蟲之利用Selenium+Requests爬取拉勾網的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 成年网站在线看| 很黄很黄的小说| 男人桶女人桶到爽免费软件| 欧美性???动漫网站| 点击进入不卡毛片免费观看| 欧美一区二区三区视视频| 手机亚洲第一页| 国产sm主人调教女m视频| 最新伦理片一韩国a级片| 国产免费爽爽视频免费可以看| 国产乱XXⅩXX国语对白| 成在人线无码免费AV高潮水| 我是幸存者| 婬荡的寡妇在线播放 | ??我~慢爽好大~视频男女做| 69久久夜色精品国产69女警官 | 两个人在线观看视频| 公交车上的H文纯肉| 一级毛片免费播放视频| 双性宫口药物深处道具调教| 黄色小说情节| 68日本xxxⅹxxxxx18| 烈性摔跤在线观看| 日韩精品无码一区二区三区吴施蒙 | 欧美精品久久久久久久久爆乳| 十大笑死人的电影| 巴西一级片| 91热成人精品国产免费| 久久免费看视频| 日本无码疯狂做受XXXXX高潮| 男男又爽?又黄?免费韩国| 国产精品不卡在线观看| 公交车上解我胸罩玩我下面| 99久久国语露脸精品对白| 另类女人zozooz| 成人无圣光无遮挡全免费漫画| 久久66热这里只有精品| 久欠精品国国产99国产精2021使用方法| 欧美性另类高清| 18黄无遮挡免费视频| 丰满的护士HD高清|