好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > python爬取新聞門戶網站的示例

python爬取新聞門戶網站的示例

熱門標簽:上海機器人外呼系統哪家好 南京銷售外呼系統軟件 315電話機器人廣告 蓋州市地圖標注 房產電銷外呼系統 地圖標注微信發送位置不顯示 浙江電銷卡外呼系統好用嗎 地圖標注的意義點 地圖制圖標注位置改變是移位嗎

項目地址:

https://github.com/Python3Spiders/AllNewsSpider

如何使用

每個文件夾下的代碼就是對應平臺的新聞爬蟲

  1. py 文件直接運行
  2. pyd 文件需要,假設為 pengpai_news_spider.pyd

將 pyd 文件下載到本地,新建項目,把 pyd 文件放進去

項目根目錄下新建 runner.py,寫入以下代碼即可運行并抓取

import pengpai_news_spider
pengpai_news_spider.main()

示例代碼

百度新聞

# -*- coding: utf-8 -*-
# 文件備注信息       如果遇到打不開的情況,可以先在瀏覽器打開一下百度搜索引擎

import requests

from datetime import datetime, timedelta

from lxml import etree

import csv

import os

from time import sleep
from random import randint


def parseTime(unformatedTime):
    if '分鐘' in unformatedTime:
        minute = unformatedTime[:unformatedTime.find('分鐘')]
        minute = timedelta(minutes=int(minute))
        return (datetime.now() -
                minute).strftime('%Y-%m-%d %H:%M')
    elif '小時' in unformatedTime:
        hour = unformatedTime[:unformatedTime.find('小時')]
        hour = timedelta(hours=int(hour))
        return (datetime.now() -
                hour).strftime('%Y-%m-%d %H:%M')
    else:
        return unformatedTime


def dealHtml(html):
    results = html.xpath('//div[@class="result-op c-container xpath-log new-pmd"]')

    saveData = []

    for result in results:
        title = result.xpath('.//h3/a')[0]
        title = title.xpath('string(.)').strip()

        summary = result.xpath('.//span[@class="c-font-normal c-color-text"]')[0]
        summary = summary.xpath('string(.)').strip()

        # ./ 是直接下級,.// 是直接/間接下級
        infos = result.xpath('.//div[@class="news-source"]')[0]
        source, dateTime = infos.xpath(".//span[last()-1]/text()")[0], \

                           infos.xpath(".//span[last()]/text()")[0]

        dateTime = parseTime(dateTime)

        print('標題', title)
        print('來源', source)
        print('時間', dateTime)
        print('概要', summary)
        print('\n')

        saveData.append({
            'title': title,
            'source': source,
            'time': dateTime,
            'summary': summary
        })
    with open(fileName, 'a+', encoding='utf-8-sig', newline='') as f:
        writer = csv.writer(f)
        for row in saveData:
            writer.writerow([row['title'], row['source'], row['time'], row['summary']])


headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36',
    'Referer': 'https://www.baidu.com/s?rtt=1bsst=1cl=2tn=newsword=%B0%D9%B6%C8%D0%C2%CE%C5fr=zhidao'
}

url = 'https://www.baidu.com/s'

params = {
    'ie': 'utf-8',
    'medium': 0,
    # rtt=4 按時間排序 rtt=1 按焦點排序
    'rtt': 1,
    'bsst': 1,
    'rsv_dl': 'news_t_sk',
    'cl': 2,
    'tn': 'news',
    'rsv_bp': 1,
    'oq': '',
    'rsv_btype': 't',
    'f': 8,
}


def doSpider(keyword, sortBy = 'focus'):
    '''
    :param keyword: 搜索關鍵詞
    :param sortBy: 排序規則,可選:focus(按焦點排序),time(按時間排序),默認 focus
    :return:
    '''
    global fileName
    fileName = '{}.csv'.format(keyword)

    if not os.path.exists(fileName):
        with open(fileName, 'w+', encoding='utf-8-sig', newline='') as f:
            writer = csv.writer(f)
            writer.writerow(['title', 'source', 'time', 'summary'])

    params['wd'] = keyword
    if sortBy == 'time':
        params['rtt'] = 4

    response = requests.get(url=url, params=params, headers=headers)

    html = etree.HTML(response.text)

    dealHtml(html)

    total = html.xpath('//div[@id="header_top_bar"]/span/text()')[0]

    total = total.replace(',', '')

    total = int(total[7:-1])

    pageNum = total // 10

    for page in range(1, pageNum):
        print('第 {} 頁\n\n'.format(page))
        headers['Referer'] = response.url
        params['pn'] = page * 10

        response = requests.get(url=url, headers=headers, params=params)

        html = etree.HTML(response.text)

        dealHtml(html)

        sleep(randint(2, 4))
    ...


if __name__ == "__main__":
    doSpider(keyword = '馬保國', sortBy='focus')

以上就是python爬取新聞門戶網站的示例的詳細內容,更多關于python爬取新聞門戶網站的資料請關注腳本之家其它相關文章!

您可能感興趣的文章:
  • python 爬取壁紙網站的示例
  • Python爬取網站圖片并保存的實現示例
  • Python爬蟲設置Cookie解決網站攔截并爬取螞蟻短租的問題
  • python 多線程爬取壁紙網站的示例
  • python爬蟲爬取某網站視頻的示例代碼
  • python爬蟲實現爬取同一個網站的多頁數據的實例講解
  • Python實現JS解密并爬取某音漫客網站
  • python 爬取免費簡歷模板網站的示例
  • Python3 實現爬取網站下所有URL方式
  • 使用python爬取taptap網站游戲截圖的步驟

標簽:貴州 臨汾 克拉瑪依 陽泉 金華 雙鴨山 日照 赤峰

巨人網絡通訊聲明:本文標題《python爬取新聞門戶網站的示例》,本文關鍵詞  python,爬取,新聞,門戶,網,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python爬取新聞門戶網站的示例》相關的同類信息!
  • 本頁收集關于python爬取新聞門戶網站的示例的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 性欧美videos高清喷水| 欧美人添添性囗交做爰动态图| 色偷偷亚洲女性天堂| 久久久久久久精品女人| A级粗长硬爽猛免费视频| 国产AV日产AⅤ欧美AⅤ蜜臀| 嗯啊灬别停啊灬用力灬污文| 成人拍拍拍无遮挡免费视频| 亚洲w码欧洲s码免费| 女处被黑人破苞疼哭| 120秒无码试看区| 欧美爽爽爽特黄A片免费 | 97人妻人人揉人人躁人人爽| 工口里番肉侵犯全彩无码| 在丈夫面前被玩| 国产香蕉尹人视频在线麻豆| 免费做爰猛烈叫床视频| 国产小妹| 国产无套粉嫩白浆在线精品| 好爽?好紧?老师别夹视频| 911精品产国品一二| 中文字幕无线码一区二区三区| 国产69精品久久久久777| 亚洲国产精品秘?麻豆| 麻豆精产国品一二三产区区别大 | 女攻大唧唧双性受| 二次元女仆裸乳给主人吃奶| 中文字幕人妻熟女在线视色爱| 苍井そら50分钟无码流出| 暴露放荡娇妻肉多p| 舌尖撩拨她胸前的柔软| 亲吻高潮激烈视频| 国产激情一级毛片久久| 成熟丰满中国女人少妇| 可怜的校花被校长调教h| 九九免费视频| 成人福利app| 校花被邻居强迫np肉高H| 日本激情公妇厨房嗯嗯| 忘穿内裤让同桌摸出水| 成人??高潮片免费视频|