好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > python實現爬蟲數據存到 MongoDB

python實現爬蟲數據存到 MongoDB

熱門標簽:云南外呼系統 怎么投訴地圖標注 呼和浩特電銷外呼系統加盟 電銷機器人是什么軟件 蘋果汽車租賃店地圖標注 濟南電銷機器人加盟公司 老虎洗衣店地圖標注 廣州長安公司怎樣申請400電話 杭州人工電銷機器人價格

在以上兩篇文章中已經介紹到了 Python 爬蟲和 MongoDB , 那么下面我就將爬蟲爬下來的數據存到 MongoDB 中去,首先來介紹一下我們將要爬取的網站, readfree 網站,這個網站非常的好,我們只需要每天簽到就可以免費下載三本書,良心網站,下面我就將該網站上的每日推薦書籍爬下來。

利用上面幾篇文章介紹的方法,我們很容易的就可以在網頁的源代碼中尋找到書籍的姓名和書籍作者的信息。

找到之后我們復制 XPath ,然后進行提取即可。源代碼如下所示

# coding=utf-8

import re
import requests
from lxml import etree
import pymongo
import sys

reload(sys)
sys.setdefaultencoding('utf-8')

def getpages(url, total):
  nowpage = int(re.search('(\d+)', url, re.S).group(1))
  urls = []

  for i in range(nowpage, total + 1):
    link = re.sub('(\d+)', '%s' % i, url, re.S)
    urls.append(link)

  return urls

def spider(url):
  html = requests.get(url)

  selector = etree.HTML(html.text)

  book_name = selector.xpath('//*[@id="container"]/ul/li//div/div[2]/a/text()')
  book_author = selector.xpath('//*[@id="container"]/ul/li//div/div[2]/div/a/text()')

  saveinfo(book_name, book_author)

def saveinfo(book_name, book_author):
  connection = pymongo.MongoClient()
  BookDB = connection.BookDB
  BookTable = BookDB.books

  length = len(book_name)

  for i in range(0, length):
    books = {}
    books['name'] = str(book_name[i]).replace('\n','')
    books['author'] = str(book_author[i]).replace('\n','')
    BookTable.insert_one(books)

if __name__ == '__main__':
  url = 'http://readfree.me/shuffle/?page=1'
  urls = getpages(url,3)

  for each in urls:
    spider(each)

注意,在寫入數據庫的過程中不要一下子將字典中的數據寫入數據庫,我一開始就這么寫的,但是我發現數據庫中只有三條信息,其他信息都不見了。所以采用一條一條的寫入。

還有源代碼的開頭部分,對默認編碼的設置一定不可以省略,否則可能會報編碼錯誤(真心感覺 Python 在編碼這方面好容易出錯,尷尬)。

有的人可能發現了,我將提取的信息轉換成了字符串,然后使用 replace() 方法將 \n 去掉了,因為我發現在提取的書籍信息前后存在換行符,看著十分礙眼。

熱情提醒一下,在程序運行的時候別忘記將你的 Mongo DB 運行起來,下來看看結果

好了,就這樣,如果發現代碼哪里存在錯誤或者說有可以改善的地方,希望留言給我,感謝。

您可能感興趣的文章:
  • python爬蟲數據保存到mongoDB的實例方法

標簽:雞西 玉林 興安盟 廈門 自貢 無錫 遼陽 泰安

巨人網絡通訊聲明:本文標題《python實現爬蟲數據存到 MongoDB》,本文關鍵詞  python,實現,爬蟲,數據,存,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python實現爬蟲數據存到 MongoDB》相關的同類信息!
  • 本頁收集關于python實現爬蟲數據存到 MongoDB的相關信息資訊供網民參考!
  • 推薦文章