本文主要介紹了在python3.9下如何安裝scrapy的方法,分享給大家,具體如下:
安裝命令:
pip install scrapy -i https://pypi.douban.com/simple
如果安裝失敗的話像下圖這樣(解決方法如下):

出現(xiàn)原因:我在python3.7版本里安裝沒有出現(xiàn)這樣的情況,但是在3.9版本中出現(xiàn)了這樣的錯誤。在這里scrapy會自動將一些常用的配置包給我們安裝上,但是twisted這個包安裝的時候會報錯。
解決方法:
1.面對這個問題,其實我們無法通過用pip install Twisted -i https://pypi.douban.com/simple直接安裝.我們采用安裝whl(whl是文件類型)的方式來安裝twisted. https://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted (這是下載鏈接,所有的第三方庫都在這個網(wǎng)頁里)
2.在上面的鏈接中我們找到自己對應(yīng)的版本,我的系統(tǒng)是win64,所以需要安裝第一個,點擊下載它:


3.在下載好Twisted之前我們要安裝wheel,這樣我們才能安裝Twisted.whl.
3.1打開命令行在自己的python文件夾下安裝

3.2然后輸入:
pip install wheel -i https://pypi.douban.com/simple
4.我把Twisted.whl放在了D:\software\python3.9里,現(xiàn)在來安裝它
pip install D:\software\python3.9\Twisted-20.3.0-cp39-cp39-win_amd64.whl



5.最后安裝scrapy
pip install scrapy -i https://pypi.douban.com/simple


到此這篇關(guān)于在python3.9下如何安裝scrapy的方法的文章就介紹到這了,更多相關(guān)python3.9安裝scrapy內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
您可能感興趣的文章:- Python爬蟲框架-scrapy的使用
- python scrapy項目下spiders內(nèi)多個爬蟲同時運行的實現(xiàn)
- python爬蟲scrapy基本使用超詳細(xì)教程
- python實現(xiàn)scrapy爬蟲每天定時抓取數(shù)據(jù)的示例代碼
- python Scrapy爬蟲框架的使用
- Python爬蟲基礎(chǔ)之初次使用scrapy爬蟲實例