python中安裝Scrapy模塊依賴包匯總
本地虛擬環(huán)境開發(fā)完成之后,上線過程中需要一一安裝依賴包,做個記錄如下:
CentOS 安裝python3.5.3
wget https://www.python.org/ftp/python/3.5.3/Python-3.5.3.tgz tar -xf Python-3.5.3.tgz cd Python-3.5.3 ./configure --prefix=/usr/local/python353 make & make install
完成安裝python3.5.3,在不刪除系統(tǒng)自帶的python2.x情況下,做幾個軟鏈:
#做python3軟鏈 ln -s /usr/local/python353/bin/python3 /usr/local/bin/ #pip3軟鏈 ln -s /usr/local/python353/bin/pip3 /usr/local/bin/
上傳程序,安裝scrapy及其依賴包:
#user agent包 pip3 install fake-useragent -i https://pypi.douban.com/simple/ #pymysql包 pip3 install pymysql -i https://pypi.douban.com/simple/ #PooledDB依賴包 pip3 install DBUtils -i https://pypi.douban.com/simple/ #PIL模塊依賴包 pip3 install Image -i https://pypi.douban.com/simple/
在Centos系統(tǒng)中安裝過程中,出現一個較為淡疼的問題:系統(tǒng)沒有安裝sqlite3,故此一直提示:
解決上面問題,下載sqlite3
sudo wget http://www.sqlite.org/2017/sqlite-autoconf-3190300.tar.gz
編譯安裝:
tar zxvf sqlite-autoconf-3190300.tar.gz cd sqlite-autoconf-3190300 ./configure --prefix=/usr/local/sqlite3 make && make install
重新編譯Python,找到Python3.5.3的安裝文件路徑,編輯setup.py腳本,找到 “sqlite3”
sqlite_inc_paths = [ '/usr/include', '/usr/include/sqlite', '/usr/include/sqlite3', '/usr/local/include', '/usr/local/include/sqlite', '/usr/local/include/sqlite3', ]
在最后一行加入sqlite3編譯安裝路徑,如下:
sqlite_inc_paths = [ '/usr/include', '/usr/include/sqlite', '/usr/include/sqlite3', '/usr/local/include', '/usr/local/include/sqlite', '/usr/local/include/sqlite3', '/usr/local/sqlite3', ]
重新編譯Python3.5.3:
./configure --prefix=/usr/local/python353 make && make install
- 在python3.9下如何安裝scrapy的方法
- Python3環(huán)境安裝Scrapy爬蟲框架過程及常見錯誤
- 圖文詳解python安裝Scrapy框架步驟
- 詳解Python網絡框架Django和Scrapy安裝指南
- 詳解Python安裝scrapy的正確姿勢
- mac下給python3安裝requests庫和scrapy庫的實例
- Python之Scrapy爬蟲框架安裝及簡單使用詳解
- Python2.7下安裝Scrapy框架步驟教程
- Python3安裝Scrapy的方法步驟
- python安裝Scrapy圖文教程
- windows10系統(tǒng)中安裝python3.x+scrapy教程
- 在Linux系統(tǒng)上安裝Python的Scrapy框架的教程
- Python安裝Scrapy庫的常見報錯解決
相關文章
python連接MySQL、MongoDB、Redis、memcache等數據庫的方法
這篇文章主要介紹了python連接操作MySQL、MongoDB、Redis、memcache等數據庫的方法,大家可以參考使用2013-11-11python爬蟲MeterSphere平臺執(zhí)行報告流程解析
這篇文章主要為大家介紹了python爬蟲MeterSphere平臺執(zhí)行報告流程解析,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪2023-12-12python中pandas nlargest()的詳細用法小結
df.nlargest()是一個DataFrame的方法,用于返回DataFrame中最大的n個值所在的行,通過調用nlargest()方法,我們返回了分數最高的三個行,并按照降序排列,本文結合實例代碼給大家介紹的非常詳細,需要的朋友參考下吧2023-10-10