摘要:好啦一切準(zhǔn)備工作就緒,現(xiàn)在開始安裝庫(kù)安裝成功后,安裝就簡(jiǎn)單了,在命令提示符窗口直接輸入命令回車現(xiàn)在一切都搞定了,可以新建一個(gè)測(cè)試,敲一個(gè)基于框架的爬蟲程序咯。
最近忽然有了想要學(xué)習(xí)python爬蟲的想法,但是首先需要安裝工具。python安裝倒是很輕松,只要傻瓜式一鍵安裝即可,但是在Windows下安裝scrapy倒不是件容易的事情。言歸正傳,說(shuō)下我從昨天下午到今天上午安裝的步驟:
1、python的安裝進(jìn)入python的官網(wǎng)https://www.python.org/,點(diǎn)擊downloads選項(xiàng)進(jìn)入下載頁(yè),如圖:
根據(jù)自己的機(jī)型,選擇下載對(duì)應(yīng)的安裝包,我下載的是python 3.5.3版本的:
選定下載位置,傻瓜式一鍵安裝即可。實(shí)際上,32位和64位的版本安裝起來(lái)沒(méi)有區(qū)別,雙擊打開后,第一步要記得勾上add python to Path 選項(xiàng),這樣的好處是自動(dòng)配置環(huán)境變量
可在命令提示符中用命令python --version,驗(yàn)證安裝是否成功:
到此,python已經(jīng)安裝好了?。。∈遣皇莌in簡(jiǎn)單~接下來(lái)安裝scrapy吧^-^
先安裝pywin32,進(jìn)入https://sourceforge.net/proje...,下載與已安裝python版本對(duì)應(yīng)的pywin64安裝包,例如python3.4 64位對(duì)應(yīng)的安裝包為pywin32-218.win-amd64-py3.4.exe,下載完成后一直next安裝,依然是傻瓜式安裝法
檢查安裝結(jié)果,在python命令行輸入import win32api,如果沒(méi)有報(bào)錯(cuò)說(shuō)明安裝完成,如果報(bào)錯(cuò)說(shuō)明PYTHONPATH環(huán)境變量沒(méi)有配置
配置PYTHONPATH環(huán)境變量,將python安裝目錄下lib目錄中的site-packages路徑添加到PYTHONPATH環(huán)境變量,再次檢驗(yàn)安裝結(jié)果
安裝Twisted,進(jìn)入http://www.lfd.uci.edu/~gohlk...下載對(duì)應(yīng)twisted和lxml
打開命令提示符窗口,輸入命令:
pip install D:downloadsTwisted-16.4.1-cp35-cp35m-win_amd64.whl(下載好的twisted模塊的whl文件路徑),盜一下別人的圖
再輸入命令:pip --version,檢查安裝是否成功
如圖:
但是,如果安裝pip的話,同樣要去python的官網(wǎng)下載,下載地址是https://pypi.python.org/pypi/... ,選擇相應(yīng)版本下載,下載完成之后,解壓到文件夾。在該文件夾的目錄下使用控制臺(tái)命令:輸入python setup.py install;并添加入環(huán)境變量。
好啦!一切準(zhǔn)備工作就緒,現(xiàn)在開始安裝scrapy~
twisted庫(kù)安裝成功后,安裝scrapy就簡(jiǎn)單了,在命令提示符窗口直接輸入命令: pip install scrapy 回車現(xiàn)在一切都搞定了,可以新建一個(gè)Scrapy測(cè)試,敲一個(gè)基于Scrapy框架的爬蟲程序咯。
心得:Windows下的安裝過(guò)程還是很麻煩的,因?yàn)橛泻芏嘁蕾囈砑?,不過(guò)在各方查找資料以后仿佛就不是那么難了!一步一步在cmd中運(yùn)行測(cè)試,還要看錯(cuò)誤提示,少哪一個(gè)依賴就下載哪一個(gè)安裝哪一個(gè)!環(huán)境框架已經(jīng)搭好,接下來(lái)就是學(xué)習(xí)如何寫爬蟲程序了。
再貼兩個(gè)鏈接吧:
1、 https://segmentfault.com/a/11...
2、 http://jingyan.baidu.com/arti...
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/40670.html
摘要:一基礎(chǔ)環(huán)境由于不是職業(yè)的開發(fā)者,因此環(huán)境是基于的。二安裝打開命令行工具創(chuàng)建虛擬環(huán)境,默認(rèn)情況下會(huì)創(chuàng)建目錄,所有的虛擬環(huán)境都會(huì)產(chǎn)生一個(gè)子目錄保存在此,里面包含基本程序文件以及庫(kù)文件。 目錄 基于 Python 的 Scrapy 爬蟲入門:環(huán)境搭建 基于 Python 的 Scrapy 爬蟲入門:頁(yè)面提取 基于 Python 的 Scrapy 爬蟲入門:圖片處理 作為一個(gè)全棧工程師(...
摘要:所以如果對(duì)爬蟲有一定基礎(chǔ),上手框架是一種好的選擇。缺少包,使用安裝即可缺少包,使用安裝即可上一篇文章網(wǎng)絡(luò)爬蟲實(shí)戰(zhàn)爬取相關(guān)庫(kù)的安裝的安裝下一篇文章網(wǎng)絡(luò)爬蟲實(shí)戰(zhàn)爬蟲框架的安裝 上一篇文章:Python3網(wǎng)絡(luò)爬蟲實(shí)戰(zhàn)---9、APP爬取相關(guān)庫(kù)的安裝:Appium的安裝下一篇文章:Python3網(wǎng)絡(luò)爬蟲實(shí)戰(zhàn)---11、爬蟲框架的安裝:ScrapySplash、ScrapyRedis 我們直接...
摘要:也就是說(shuō),這些基本庫(kù)都要安裝好。這次的安裝環(huán)境是,電腦是位,主要用安裝。最后就是安裝了,在里面安裝直接用安裝說(shuō)明聽說(shuō)用安裝可簡(jiǎn)單了,一個(gè)命令就搞定了,可惜我懶得試了。 0 前言 因?yàn)橐獙W(xué)一點(diǎn)爬蟲,我要安裝 Scrapy 這個(gè)庫(kù),直接用 Pycharm 安裝就報(bào)錯(cuò), pip 也不行,所以要把 Scrapy 依賴的庫(kù)安裝好,然后再安裝 Scrapy 。也就是說(shuō),lxml、pyOpenSS...
閱讀 2141·2021-11-22 15:24
閱讀 2439·2021-09-09 11:53
閱讀 3056·2021-09-04 16:40
閱讀 1652·2019-08-30 15:52
閱讀 3368·2019-08-29 13:47
閱讀 2750·2019-08-26 17:40
閱讀 1564·2019-08-26 13:24
閱讀 2260·2019-08-26 12:01