好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識(shí)庫 > 如何用python爬取微博熱搜數(shù)據(jù)并保存

如何用python爬取微博熱搜數(shù)據(jù)并保存

熱門標(biāo)簽:高德地圖標(biāo)注字母 騰訊地圖標(biāo)注有什么版本 400電話辦理費(fèi)用收費(fèi) 千呼ai電話機(jī)器人免費(fèi) 鎮(zhèn)江人工外呼系統(tǒng)供應(yīng)商 深圳網(wǎng)絡(luò)外呼系統(tǒng)代理商 申請(qǐng)辦個(gè)400電話號(hào)碼 外呼系統(tǒng)前面有錄音播放嗎 柳州正規(guī)電銷機(jī)器人收費(fèi)

主要用到requests和bf4兩個(gè)庫
將獲得的信息保存在d://hotsearch.txt下

import requests;
import bs4
mylist=[]
r = requests.get(url='https://s.weibo.com/top/summary?Refer=top_hottopnav=1wvr=6',timeout=10)
print(r.status_code) # 獲取返回狀態(tài)
r.encoding=r.apparent_encoding
demo = r.text
from bs4 import BeautifulSoup
soup = BeautifulSoup(demo,"html.parser")
for link in soup.find('tbody') :
 hotnumber=''
 if isinstance(link,bs4.element.Tag):
#  print(link('td'))
  lis=link('td')
  hotrank=lis[1]('a')[0].string#熱搜排名
  hotname=lis[1].find('span')#熱搜名稱
  if isinstance(hotname,bs4.element.Tag):
   hotnumber=hotname.string#熱搜指數(shù)
   pass
  mylist.append([lis[0].string,hotrank,hotnumber,lis[2].string])
f=open("d://hotsearch.txt","w+")
for line in mylist:
 f.write('%s %s %s %s\n'%(line[0],line[1],line[2],line[3]))

知識(shí)點(diǎn)擴(kuò)展:利用python爬取微博熱搜并進(jìn)行數(shù)據(jù)分析

爬取微博熱搜

import schedule
import pandas as pd
from datetime import datetime
import requests
from bs4 import BeautifulSoup

url = "https://s.weibo.com/top/summary?cate=realtimehotsudaref=s.weibo.comdisplay=0retcode=6102"
get_info_dict = {}
count = 0

def main():
  global url, get_info_dict, count
  get_info_list = []
  print("正在爬取數(shù)據(jù)~~~")
  html = requests.get(url).text
  soup = BeautifulSoup(html, 'lxml')
  for tr in soup.find_all(name='tr', class_=''):
    get_info = get_info_dict.copy()
    get_info['title'] = tr.find(class_='td-02').find(name='a').text
    try:
      get_info['num'] = eval(tr.find(class_='td-02').find(name='span').text)
    except AttributeError:
      get_info['num'] = None
    get_info['time'] = datetime.now().strftime("%Y/%m/%d %H:%M")
    get_info_list.append(get_info)
  get_info_list = get_info_list[1:16]
  df = pd.DataFrame(get_info_list)
  if count == 0:
    df.to_csv('datas.csv', mode='a+', index=False, encoding='gbk')
    count += 1
  else:
    df.to_csv('datas.csv', mode='a+', index=False, header=False, encoding='gbk')

# 定時(shí)爬蟲
schedule.every(1).minutes.do(main)

while True:
  schedule.run_pending()

pyecharts數(shù)據(jù)分析

import pandas as pd
from pyecharts import options as opts
from pyecharts.charts import Bar, Timeline, Grid
from pyecharts.globals import ThemeType, CurrentConfig

df = pd.read_csv('datas.csv', encoding='gbk')
print(df)
t = Timeline(init_opts=opts.InitOpts(theme=ThemeType.MACARONS)) # 定制主題
for i in range(int(df.shape[0]/15)):
  bar = (
    Bar()
      .add_xaxis(list(df['title'][i*15: i*15+15][::-1])) # x軸數(shù)據(jù)
      .add_yaxis('num', list(df['num'][i*15: i*15+15][::-1])) # y軸數(shù)據(jù)
      .reversal_axis() # 翻轉(zhuǎn)
      .set_global_opts( # 全局配置項(xiàng)
      title_opts=opts.TitleOpts( # 標(biāo)題配置項(xiàng)
        title=f"{list(df['time'])[i * 15]}",
        pos_right="5%", pos_bottom="15%",
        title_textstyle_opts=opts.TextStyleOpts(
          font_family='KaiTi', font_size=24, color='#FF1493'
        )
      ),
      xaxis_opts=opts.AxisOpts( # x軸配置項(xiàng)
        splitline_opts=opts.SplitLineOpts(is_show=True),
      ),
      yaxis_opts=opts.AxisOpts( # y軸配置項(xiàng)
        splitline_opts=opts.SplitLineOpts(is_show=True),
        axislabel_opts=opts.LabelOpts(color='#DC143C')
      )
    )
      .set_series_opts( # 系列配置項(xiàng)
      label_opts=opts.LabelOpts( # 標(biāo)簽配置
        position="right", color='#9400D3')
    )
  )
  grid = (
    Grid()
      .add(bar, grid_opts=opts.GridOpts(pos_left="24%"))
  )
  t.add(grid, "")
  t.add_schema(
    play_interval=1000, # 輪播速度
    is_timeline_show=False, # 是否顯示 timeline 組件
    is_auto_play=True, # 是否自動(dòng)播放
  )

t.render('時(shí)間輪播圖.html')

到此這篇關(guān)于如何用python爬取微博熱搜數(shù)據(jù)并保存的文章就介紹到這了,更多相關(guān)python爬取微博熱搜數(shù)據(jù)內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python爬取天氣數(shù)據(jù)的實(shí)例詳解
  • 用python爬取歷史天氣數(shù)據(jù)的方法示例
  • python爬取哈爾濱天氣信息
  • python3爬取各類天氣信息
  • Python爬取國外天氣預(yù)報(bào)網(wǎng)站的方法
  • Python爬蟲爬取微博熱搜保存為 Markdown 文件的源碼
  • python+selenium爬取微博熱搜存入Mysql的實(shí)現(xiàn)方法
  • Python網(wǎng)絡(luò)爬蟲之爬取微博熱搜
  • python趣味挑戰(zhàn)之爬取天氣與微博熱搜并自動(dòng)發(fā)給微信好友

標(biāo)簽:烏蘭察布 平頂山 合肥 大慶 郴州 烏蘭察布 哈爾濱 海南

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《如何用python爬取微博熱搜數(shù)據(jù)并保存》,本文關(guān)鍵詞  如,何用,python,爬取,微博,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《如何用python爬取微博熱搜數(shù)據(jù)并保存》相關(guān)的同類信息!
  • 本頁收集關(guān)于如何用python爬取微博熱搜數(shù)據(jù)并保存的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    主站蜘蛛池模板: 超级床上人之喜怒哀乐| 亚洲AV无码秘?蜜桃香奈| 书记轻点灬太粗嗯太深了用力| 亚洲永久精品网站| 手机在线免费看片| 国产精品美女久久久久aⅴ国产馆| 成人做爰免费视频免费看| 欧美久久超级碰碰碰二区三区| 91粉嫩大胸女学生喷水| ?爆乳女神▌麻酥酥▌| 男人把女人桶爽| 美女被?奶头吸乳羞羞网站| 91亚洲免费视频| 日本与黑人?╳乄?| 亚洲六月婷婷| 顶级肉欲(出轨高H)| 乱码丰满人妻一二三区麻豆 | 久久久久久精品国自产| 69蝴蝶交友俱乐部视频| 伊人久久综在合线亚洲91| 香港三级〈欲色情痴迷〉| 娇妻出轨爽文100系列| 24小时日本在线观看手机免费| 沙特一级婬片A片AA| 亚洲绝美精品一区二区_第01集 | 午夜黄页网站在线播放| 91人人爱| 日本交换无码亚洲成a人片| 抱着cao才爽视频| 被各种道具调教肉np文| 看三级黄色片| 377P粉嫩日本欧洲色噜噜| 立即播放免费毛片一级| 日韩三级一区二区| 国产在线h视频| 亚洲性图在线| 91亚色app| 婷婷亚洲久悠悠色悠在线播放| 艹逼视频软件| chinese18xxxxvideos| 丰满的妺妺3伦理播放|