成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

scrapy添加新命令

CastlePeaK / 842人閱讀

摘要:允許開發(fā)者自定義命令,假設(shè)工程名字為,在工程的根目錄有一個文件內(nèi)容如下在文件里設(shè)置,就可以在的幫助中看到這個命令,運行時用。自定義命令的默認(rèn)設(shè)置會和工程的設(shè)置合并到一起,但是相比在文件里和命令行定義的設(shè)置優(yōu)先級要低。

COMMANDS_MODULE允許開發(fā)者自定義命令,假設(shè)工程名字為properties,在工程的根目錄有一個hi.py文件內(nèi)容如下:

from scrapy.commands import ScrapyCommand
class Command(ScrapyCommand):

   default_settings = {"LOG_ENABLED": False}
   def run(self, args, opts):
       print("hello")

在settings.py文件里設(shè)置COMMANDS_MODULE = "properties.hi" ,就可以在Scrapy的幫助中看到這個命令,運行時用scrapy hi。自定義命令的默認(rèn)設(shè)置default_settings會和工程的設(shè)置合并到 一起,但是相比在settings.py文件里和命令行定義的設(shè)置優(yōu)先級要低。

如果需要自定義多個命令,則可以在工程的根目錄下建立一個文件夾,又如commands,里面放一些類似上面hi.py文件的命令,然后設(shè)置COMMANDS_MODULE = "properties.commands即可

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/42335.html

相關(guān)文章

  • scrapy入門教程3:scrapy的shell命令

    摘要:用例運行爬蟲命令基本語法是否需要項目存在當(dāng)然是不需要咯貌似這個命令是不依托一個項目而直接運行一個爬蟲的命令。用例我終于寫完了,喜歡的就收藏推薦一下吧,這樣我就會更有動力寫新的教程了,哇哈哈 0. 基本環(huán)境說明 本文截圖及運行環(huán)境均在Win8上實現(xiàn)(是的,我放假回家了,家里的機器是win8的沒有辦法),但基本步驟與win 7環(huán)境基本相同。(應(yīng)該把~)ps:我后來換了臺win7的電腦,所...

    zhongmeizhi 評論0 收藏0
  • 基于 Python 的 Scrapy 爬蟲入門:環(huán)境搭建

    摘要:一基礎(chǔ)環(huán)境由于不是職業(yè)的開發(fā)者,因此環(huán)境是基于的。二安裝打開命令行工具創(chuàng)建虛擬環(huán)境,默認(rèn)情況下會創(chuàng)建目錄,所有的虛擬環(huán)境都會產(chǎn)生一個子目錄保存在此,里面包含基本程序文件以及庫文件。 目錄 基于 Python 的 Scrapy 爬蟲入門:環(huán)境搭建 基于 Python 的 Scrapy 爬蟲入門:頁面提取 基于 Python 的 Scrapy 爬蟲入門:圖片處理 作為一個全棧工程師(...

    Gu_Yan 評論0 收藏0
  • scrapy-redis分布式爬蟲框架詳解

    摘要:分布式爬蟲框架詳解隨著互聯(lián)網(wǎng)技術(shù)的發(fā)展與應(yīng)用的普及,網(wǎng)絡(luò)作為信息的載體,已經(jīng)成為社會大眾參與社會生活的一種重要信息渠道。下載器中間件位于引擎和下載器之間的框架,主要是處理引擎與下載器之間的請求及響應(yīng)。 scrapy-redis分布式爬蟲框架詳解 隨著互聯(lián)網(wǎng)技術(shù)的發(fā)展與應(yīng)用的普及,網(wǎng)絡(luò)作為信息的載體,已經(jīng)成為社會大眾參與社會生活的一種重要信息渠道。由于互聯(lián)網(wǎng)是開放的,每個人都可以在網(wǎng)絡(luò)上...

    myeveryheart 評論0 收藏0
  • 18、 Python快速開發(fā)分布式搜索引擎Scrapy精講—Scrapy啟動文件的配置—xpath表

    摘要:百度云搜索,搜各種資料搜網(wǎng)盤,搜各種資料我們自定義一個來作為啟動文件導(dǎo)入執(zhí)行命令方法給解釋器,添加模塊新路徑將文件所在目錄添加到解釋器執(zhí)行命令爬蟲文件表達(dá)式基本使用設(shè)置爬蟲起始域名設(shè)置爬蟲起始地址默認(rèn)爬蟲回調(diào)函數(shù),返 【百度云搜索,搜各種資料:http://www.bdyss.cn】 【搜網(wǎng)盤,搜各種資料:http://www.swpan.cn】 我們自定義一個main.py來作為啟動...

    rubyshen 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<