好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > python爬蟲之爬取百度翻譯

python爬蟲之爬取百度翻譯

熱門標簽:地圖標注的意義點 浙江電銷卡外呼系統好用嗎 315電話機器人廣告 地圖制圖標注位置改變是移位嗎 蓋州市地圖標注 南京銷售外呼系統軟件 地圖標注微信發送位置不顯示 上海機器人外呼系統哪家好 房產電銷外呼系統

破解百度翻譯

翻譯是一件麻煩的事情,如果可以寫一個爬蟲程序直接爬取百度翻譯的翻譯結果就好了,可當我打開百度翻譯的頁面,輸入要翻譯的詞時突然發現不管我要翻譯什么,網址都沒有任何變化,那么百度翻譯要怎么爬取呢?

爬取百度翻譯之前,我們先要明白百度翻譯是怎么在不改變網址的情況下實現翻譯的。百度做到這一點是用 AJAX 實現的,簡單地說,AJAX的作用是在不重新加載網頁的情況下進行局部的刷新。

了解了這一點,那么我們要怎么得到 AJAX 工作時請求的URL呢?老規矩,使用抓包工具。

爬蟲步驟

在 “百度翻譯” 頁面右鍵,選擇“Notework”選擇 “ XHR ”

如果畫面沒有任何數據,可以試著輸入要翻譯的詞,比如說我輸入“dog”時,就發生了如下的變化

我們看到此時的 kw 是我要翻譯的詞,說明這是我們要找的東西。

(注意:我們發現其中有三個 sug ,我選的只是其中一個。如果我們全都帶點開看,就會發現,他們的 kw 分別是:d 和 do。這是因為我打 dog 時一個單詞一個單詞打的,而 AJAX 是時時刷新。如果輸入中文就不會出現這種情況。翻譯中文時,我們找的也不是 sug 了,具體是什么,就看哪個包的 data 的值是我們要翻譯的詞。)

然后我們在回到上面,找到我們需要指定的 URL 、我們要選擇的請求命令以及爬取到的數據的類型。

歐克,做到這里我們的前期準備就完成了,下面就可以開始著手寫代碼了。

import requests

if __name__ == "__main__":
    # 指定 url
    url = "https://fanyi.baidu.com/sug"

    # 要翻譯的詞
    keyword = input("需要翻譯的詞:")

    data = {
        "kw": keyword
        }

    # UA 偽裝
    header = {
        "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36"
        }

    # 發送請求
    response = requests.post(url = url, data = data, headers = header).json()

    print(response)

我們運行程序發現結果是這樣的:

因為請求到的數據比較短,所以我們比較容易地看出數據的結構是字典里有列表,列表里又有字典結構。如果比較長,我們可以使用在線 json 轉換,轉換后的數據是這樣的

我們只需要 dog 的釋義,所以我們還可以對我們代碼進行優化

print(response["data"][0]["v"])

注意

關于 data 的字典,并不是說只需要 “ kw ”: dog, data 的字典里要存儲的是抓包工具里 from data 里所有的值,如果沒有值,那么相對應的值就是空字符串。

如果學會了,你試著自己寫一個破解有道翻譯的爬蟲程序吧!

到此這篇關于python爬蟲之爬取百度翻譯的文章就介紹到這了,更多相關python爬取百度翻譯內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python做翻譯軟件詳解,小白也看得明白
  • 告別網頁搜索!教你用python實現一款屬于自己的翻譯詞典軟件
  • 用 Python 寫的文檔批量翻譯工具效果竟然超出想象
  • 教你如何利用Python批量翻譯英文Word文檔并保留格式
  • 三大Python翻譯神器再也不用擔心學不好英語

標簽:日照 貴州 赤峰 金華 陽泉 雙鴨山 克拉瑪依 臨汾

巨人網絡通訊聲明:本文標題《python爬蟲之爬取百度翻譯》,本文關鍵詞  python,爬蟲,之爬,取,百度,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python爬蟲之爬取百度翻譯》相關的同類信息!
  • 本頁收集關于python爬蟲之爬取百度翻譯的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 泰勒裸爱被?视频无码| 男人的天堂久久精品激情| 西西人体www大胆高清视频| 108tv酱潘春春15分钟未删减| 变态美女被强摸尿口扒开屁股| 夜夜爽毛片| 二次元捆绑图片4区acga区acg| 一级毛片免费在线| 国产97色在线亚洲桃色| 991在线无码精品秘?人口| 人禽交欧美网站| 公翁高H细节吃奶肉爽文 | ffee性护士vihaos中国 | 贱奴跪趴撅下给主人玩| 爆?喷水?洗澡?AI| 夜夜躁天天躁很躁| 美女揉胸罩gif动态图放肆吧| 善良的小姨子在线| 性生活片一级| 1024金沙人妻一区二区三区| 亚洲午夜一区| 国产黄大片在线观| 国内精品久久久久久久小说 | 国产在线拍偷自揄拍无码成人| 午夜无码人妻AV大片| 韩国穿丝袜三级bd高清| 欧洲精品美女一品二品三品四品| 被十几个男人扒开腿猛猛视频| 人妖和女人互交性XXXX| 囯产蒋久久久1111111| 调教(SM)系列文| 国产91丝袜在线播放动漫| 国产凌凌漆国语完整版免费观看 | 桃子视频免费观看完整版高清全文| 尻穴视频| 无码人妻AⅤ一区二区三区蓬泽谣| 《老师脱了内裤摸爆乳动漫》 | 国产精品久久久久桃色tv| 大尺度激情吻胸吃奶视频| 男人扎爽进女人j免费视频| 免费看特黄特黄欧美大片|