自帶庫
一、datetime
datetime是Python處理日期和時間的標準庫。
1、獲取當前日期和時間
>>> from datetime import datetime
>>> now = datetime.now()
>>> print(now)
2021-06-14 09:33:10.460192
>>> print(type(now))
class 'datetime.datetime'>
2、獲取指定日期和時間
>>> from datetime import datetime
>>> dt = datetime(2021,6,10,12,0)
>>> print(dt)
2021-06-10 12:00:00
3、datetime轉換為timestamp
在計算機中,時間實際上是用數字表示的。我們把1970年1月1日 00:00:00 UTC+00:00時區的時刻稱為epoch time,記為0
(1970年以前的時間timestamp為負數),當前時間就是相對于epoch time的秒數,稱為timestamp(時間戳)。
>>> from datetime import datetime
>>> now = datetime.now()
>>> now
datetime.datetime(2021, 6, 14, 9, 38, 34, 969006)
>>> now.timestamp() #把datetime轉換為timestamp
1623634714.969006
4、timestamp轉換為datetime
>>> from datetime import datetime
>>> timestamp = 1623634714.969006
>>> print(datetime.fromtimestamp(timestamp))
2021-06-14 09:38:34.969006
5、str轉換為datetime
>>> from datetime import datetime
>>> day = datetime.strptime('2021-6-10 12:12:12','%Y-%m-%d %H:%M:%S')
>>> print(day)
2021-06-10 12:12:12
6、datetime轉換為str
>>> from datetime import datetime
>>> now = datetime.now()
>>> print(now)
2021-06-14 09:49:02.281820
>>> print(type(now))
class 'datetime.datetime'>
>>> str_day = now.strftime('%Y-%m-%d %H:%M:%S')
>>> print(str_day)
2021-06-14 09:49:02
>>> print(type(str_day))
class 'str'>
二、collections
collections是Python內建的一個集合模塊,提供了許多有用的集合類,其中統計功能非常實用。
Counter
Counter
是一個簡單的計數器,例如,統計字符出現的個數
>>> from collections import Counter
>>> c = Counter()
>>> str = 'jdkjefwnewnfjqbefbqbefqbferbb28934`83278784727'
>>> c.update(str)
>>> c
Counter({'b': 6, 'e': 5, 'f': 5, '8': 4, '7': 4, 'j': 3, 'q': 3, '2': 3, 'w': 2, 'n': 2, '3': 2, '4': 2, 'd': 1, 'k': 1, 'r': 1, '9': 1, '`': 1})
三、base64
Base64是一種用64個字符來表示任意二進制數據的方法。
用記事本打開exe
、jpg
、pdf
這些文件時,我們都會看到一大堆亂碼,因為二進制文件包含很多無法顯示和打印的字符,所以,如果要讓記事本這樣的文本處理軟件能處理二進制數據,就需要一個二進制到字符串的轉換方法。Base64是一種最常見的二進制編碼方法。
>>> import base64
>>> base64.b64encode(b'binary\x00string')
b'YmluYXJ5AHN0cmluZw=='
>>> base64.b64decode(b'YmluYXJ5AHN0cmluZw==')
b'binary\x00string'
四、hashlib
Python的hashlib提供了常見的摘要算法,如MD5,SHA1等等。
什么是摘要算法呢?摘要算法又稱哈希算法、散列算法。它通過一個函數,把任意長度的數據轉換為一個長度固定的數據串(通常用16進制的字符串表示)。
我們以常見的摘要算法MD5為例,計算出一個字符串的MD5值:
>>> import hashlib
>>> md5 = hashlib.md5()
>>> md5.update("程序員唐丁".encode('utf-8'))
>>> print(md5.hexdigest())
05eb21a61d2cf0cf84e474d859c4c055
摘要算法能應用到什么地方?舉個常用例子:
任何允許用戶登錄的網站都會存儲用戶登錄的用戶名和口令。如何存儲用戶名和口令呢?方法是存到數據庫表中。如果以明文保存用戶口令,如果數據庫泄露,所有用戶的口令就落入黑客的手里。此外,網站運維人員是可以訪問數據庫的,也就是能獲取到所有用戶的口令。正確的保存口令的方式是不存儲用戶的明文口令,而是存儲用戶口令的摘要,比如MD5,當用戶登錄時,首先計算用戶輸入的明文口令的MD5,然后和數據庫存儲的MD5對比,如果一致,說明口令輸入正確,如果不一致,口令肯定錯誤。
第三方庫
一、requests
requests是一個Python第三方庫,處理URL資源特別方便。在之前的”爬蟲簡介“文章中我們已經初步認識了它。
1、安裝requests
如果安裝了Anaconda,requests就已經可用了。否則,需要在命令行下通過pip安裝:
如果遇到Permission denied安裝失敗,請加上sudo重試。
2、通過GET訪問豆瓣首頁,只需要幾行代碼:
>>> import requests
>>> r = requests.get('https://www.douban.com/') # 豆瓣首頁
>>> r.status_code
200
>>> r.text
r.text
'!DOCTYPE HTML>\nhtml>\nhead>\nmeta name="description" content="提供圖書、電影、音樂唱片的推薦、評論和...'
3、對于帶參數的URL,傳入一個dict作為params
參數:
>>> r = requests.get('https://www.douban.com/search', params={'q': 'python', 'cat': '1001'})
>>> r.url # 實際請求的URL
'https://www.douban.com/search?q=pythoncat=1001'
4、requests自動檢測編碼,可以使用encoding
屬性查看:
5、無論響應是文本還是二進制內容,我們都可以用content
屬性獲得bytes
對象:
>>> r.content
b'!DOCTYPE html>\nhtml>\nhead>\nmeta http-equiv="Content-Type" content="text/html; charset=utf-8">\n...'
6、requests的方便之處還在于,對于特定類型的響應,例如JSON,可以直接獲取:
>>> r = requests.get('https://query.yahooapis.com/v1/public/yql?q=select%20*%20from%20weather.forecast%20where%20woeid%20%3D%202151330format=json')
>>> r.json()
{'query': {'count': 1, 'created': '2017-11-17T07:14:12Z', ...
7、需要傳入HTTP Header時,我們傳入一個dict作為headers
參數:
>>> r = requests.get('https://www.douban.com/', headers={'User-Agent': 'Mozilla/5.0 (iPhone; CPU iPhone OS 11_0 like Mac OS X) AppleWebKit'})
>>> r.text
'!DOCTYPE html>\nhtml>\nhead>\nmeta charset="UTF-8">\n title>豆瓣(手機版)/title>...'
8、要發送POST請求,只需要把get()
方法變成post()
,然后傳入data
參數作為POST請求的數據:
>>> r = requests.post('https://accounts.douban.com/login', data={'form_email': 'abc@example.com', 'form_password': '123456'})
9、requests默認使用application/x-www-form-urlencoded
對POST數據編碼。如果要傳遞JSON數據,可以直接傳入json參數:
params = {'key': 'value'}
r = requests.post(url, json=params) # 內部自動序列化為JSON
10、類似的,上傳文件需要更復雜的編碼格式,但是requests把它簡化成files
參數:
>>> upload_files = {'file': open('report.xls', 'rb')}
>>> r = requests.post(url, files=upload_files)
在讀取文件時,注意務必使用'rb'
即二進制模式讀取,這樣獲取的bytes
長度才是文件的長度。
把post()
方法替換為put()
,delete()
等,就可以以PUT或DELETE方式請求資源。
11、除了能輕松獲取響應內容外,requests對獲取HTTP響應的其他信息也非常簡單。例如,獲取響應頭:
>>> r.headers
{Content-Type': 'text/html; charset=utf-8', 'Transfer-Encoding': 'chunked', 'Content-Encoding': 'gzip', ...}
>>> r.headers['Content-Type']
'text/html; charset=utf-8'
12、requests對Cookie做了特殊處理,使得我們不必解析Cookie就可以輕松獲取指定的Cookie:
>>> r.cookies['ts']
'example_cookie_12345'
13、要在請求中傳入Cookie,只需準備一個dict傳入cookies
參數:
>>> cs = {'token': '12345', 'status': 'working'}
>>> r = requests.get(url, cookies=cs)
14、最后,要指定超時,傳入以秒為單位的timeout參數:
>>> r = requests.get(url, timeout=2.5) # 2.5秒后超時
二、chardet
字符串編碼一直是令人非常頭疼的問題,尤其是我們在處理一些不規范的第三方網頁的時候。雖然Python提供了Unicode表示的str
和bytes
兩種數據類型,并且可以通過encode()
和decode()
方法轉換,但是,在不知道編碼的情況下,對bytes
做decode()
不好做。
對于未知編碼的bytes
,要把它轉換成str
,需要先“猜測”編碼。猜測的方式是先收集各種編碼的特征字符,根據特征字符判斷,就能有很大概率“猜對”。
當然,我們肯定不能從頭自己寫這個檢測編碼的功能,這樣做費時費力。chardet這個第三方庫正好就派上了用場。用它來檢測編碼,簡單易用。
1、安裝chardet
如果安裝了Anaconda,chardet就已經可用了。否則,需要在命令行下通過pip安裝:
如果遇到Permission denied安裝失敗,請加上sudo重試。
2、當我們拿到一個bytes
時,就可以對其檢測編碼。用chardet檢測編碼,只需要一行代碼:
>>> chardet.detect(b'Hello, world!')
{'encoding': 'ascii', 'confidence': 1.0, 'language': ''}
三、psutil
用Python來編寫腳本簡化日常的運維工作是Python的一個重要用途。在Linux下,有許多系統命令可以讓我們時刻監控系統運行的狀態,如ps
,top
,free
等等。要獲取這些系統信息,Python可以通過subprocess
模塊調用并獲取結果。但這樣做顯得很麻煩,尤其是要寫很多解析代碼。
在Python中獲取系統信息的另一個好辦法是使用psutil
這個第三方模塊,它不僅可以通過一兩行代碼實現系統監控,還可以跨平臺使用,支持Linux/UNIX/OSX/Windows等,是系統管理員和運維小伙伴不可或缺的必備模塊。
1、安裝psutil
如果安裝了Anaconda,psutil就已經可用了。否則,需要在命令行下通過pip安裝:
如果遇到Permission denied安裝失敗,請加上sudo重試。
2、獲取CPU信息
我們先來獲取CPU的信息:
>>> import psutil
>>> psutil.cpu_count() # CPU邏輯數量
4
>>> psutil.cpu_count(logical=False) # CPU物理核心
2
# 2說明是雙核超線程, 4則是4核非超線程
3、統計CPU的用戶/系統/空閑時間:
>>> psutil.cpu_times()
scputimes(user=10963.31, nice=0.0, system=5138.67, idle=356102.45)
4、獲取內存信息
使用psutil獲取物理內存和交換內存信息,分別使用:
>>> psutil.virtual_memory()
svmem(total=8589934592, available=2866520064, percent=66.6, used=7201386496, free=216178688, active=3342192640, inactive=2650341376, wired=1208852480)
>>> psutil.swap_memory()
sswap(total=1073741824, used=150732800, free=923009024, percent=14.0, sin=10705981440, sout=40353792)
返回的是字節為單位的整數,可以看到,總內存大小是8589934592 = 8 GB,已用7201386496 = 6.7 GB,使用了66.6%。
而交換區大小是1073741824 = 1 GB。
5、獲取磁盤信息
可以通過psutil獲取磁盤分區、磁盤使用率和磁盤IO信息:
>>> psutil.disk_partitions() # 磁盤分區信息
[sdiskpart(device='/dev/disk1', mountpoint='/', fstype='hfs', opts='rw,local,rootfs,dovolfs,journaled,multilabel')]
>>> psutil.disk_usage('/') # 磁盤使用情況
sdiskusage(total=998982549504, used=390880133120, free=607840272384, percent=39.1)
>>> psutil.disk_io_counters() # 磁盤IO
sdiskio(read_count=988513, write_count=274457, read_bytes=14856830464, write_bytes=17509420032, read_time=2228966, write_time=1618405)
好了,就先介紹這么多吧,更多實用的Python庫后面唐丁再給大家一一介紹
到此這篇關于總結幾個非常實用的Python庫的文章就介紹到這了,更多相關Python庫內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!
您可能感興趣的文章:- 一篇文章入門Python生態系統(Python新手入門指導)
- 學會Python數據可視化必須嘗試這7個庫
- 3個用于數據科學的頂級Python庫
- 七個生態系統核心庫[python自學收藏]