成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

scrapy 學(xué)習(xí)之路上的那些坑

xiaodao / 5300人閱讀

摘要:前言本文記錄自己在學(xué)習(xí)當(dāng)中遇到的各種大小問題,持續(xù)更新。錯誤分析本身是一個網(wǎng)絡(luò)引擎框架,的運(yùn)行依賴于。在打開新建的項(xiàng)目后,報(bào)錯顯示。錯誤分析的默認(rèn)依賴項(xiàng)當(dāng)中沒有,或者說默認(rèn)查找的路徑中找不到。

前言

本文記錄自己在學(xué)習(xí)scrapy當(dāng)中遇到的各種大小問題,持續(xù)更新。

環(huán)境簡介:
語言版本 爬蟲框架 IDE 系統(tǒng)
python3.5 scrapy1.4.0 pycharm win10 x64
scrapy安裝失敗

報(bào)錯顯示缺少Twisted。
錯誤分析:Twisted本身是一個網(wǎng)絡(luò)引擎框架,scrapy的運(yùn)行依賴于Twisted。
解決辦法:通過 http://www.lfd.uci.edu/~gohlk...,在通過pip install xxxpath(xxxpath 指代whl下載到本機(jī)的路徑)。

No module named scrapy

在pycharm打開scrapy新建的項(xiàng)目后,import scrapy 報(bào)錯顯示No module named scrapy。
錯誤分析:pycharm的默認(rèn)依賴項(xiàng)當(dāng)中沒有scrapy,或者說默認(rèn)查找的路徑中找不到scrapy。
解決辦法:通過file=>Default Settings=>Project Interpreter 重新關(guān)聯(lián)python,pycharm的local中加入本地的python.exe

XPaths谷歌插件使用

插件下載地址:
https://chrome.google.com/web...
安裝完畢xpath之后,需要重新加載頁面,方可使用。

scrapy 生成json文件中文是Unicode字符

錯誤分析:scrapy在做json序列化的時候默認(rèn)使用的是ensure_ascii 編碼。
解決辦法:在設(shè)置當(dāng)中(settings.py),加入FEED_EXPORT_ENCODING = "utf-8"。

解決爬取數(shù)據(jù)頻繁時,被禁止

錯誤分析:網(wǎng)站本身有反爬蟲,會針對頻繁快速拉去的ip和用戶進(jìn)行封鎖。
解決辦法:設(shè)置動態(tài)的用會代理和動態(tài)的ip代理。
在中間件文件middlewares.py中,增加動態(tài)IP代理類和動態(tài)用戶代理類。

import random

PROXIES = [
    {"ip_port": "106.39.179.244:80"},
    {"ip_port": "65.52.223.99:80"},
    {"ip_port": "1.52.248.207:3128"},
    {"ip_port": "45.77.198.207:3128"},
    {"ip_port": "177.125.119.16:8080"},
    {"ip_port": "174.138.65.233:3128"}
]


class RandomUserAgent(object):
    """Randomly rotate user agents based on a list of predefined ones"""

    def __init__(self, agents):
        self.agents = agents

    @classmethod
    def from_crawler(cls, crawler):
        return cls(crawler.settings.getlist("USER_AGENTS"))

    def process_request(self, request, spider):
        # print "**************************" + random.choice(self.agents)
        request.headers.setdefault("User-Agent", random.choice(self.agents))


class ProxyMiddleware(object):
    def process_request(self, request, spider):
        proxy = random.choice(PROXIES)
        print("**************ProxyMiddleware no pass************" + proxy["ip_port"])
        request.meta["proxy"] = "http://%s" % proxy["ip_port"]

這組動態(tài)IP需要注意的是,隔一段時間可能會失效,需要重新獲取IP。
在配置文件settings.py中增加

    DOWNLOADER_MIDDLEWARES = {
        "tutorial.middlewares.RandomUserAgent": 1,
        "scrapy.contrib.downloadermiddleware.httpproxy.HttpProxyMiddleware": 110,
        "tutorial.middlewares.ProxyMiddleware": 100
    }
    USER_AGENTS = [
    "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; AcooBrowser; .NET CLR 1.1.4322; .NET CLR 2.0.50727)",
    "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0; Acoo Browser; SLCC1; .NET CLR 2.0.50727; Media Center PC 5.0; .NET CLR 3.0.04506)",
    "Mozilla/4.0 (compatible; MSIE 7.0; AOL 9.5; AOLBuild 4337.35; Windows NT 5.1; .NET CLR 1.1.4322; .NET CLR 2.0.50727)",
    "Mozilla/5.0 (Windows; U; MSIE 9.0; Windows NT 9.0; en-US)",
    "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Win64; x64; Trident/5.0; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 2.0.50727; Media Center PC 6.0)",
    "Mozilla/5.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 1.0.3705; .NET CLR 1.1.4322)",
    "Mozilla/4.0 (compatible; MSIE 7.0b; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; InfoPath.2; .NET CLR 3.0.04506.30)",
    "Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN) AppleWebKit/523.15 (KHTML, like Gecko, Safari/419.3) Arora/0.3 (Change: 287 c9dfb30)",
    "Mozilla/5.0 (X11; U; Linux; en-US) AppleWebKit/527+ (KHTML, like Gecko, Safari/419.3) Arora/0.6",
    "Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.8.1.2pre) Gecko/20070215 K-Ninja/2.1.1",
    "Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9) Gecko/20080705 Firefox/3.0 Kapiko/3.0",
    "Mozilla/5.0 (X11; Linux i686; U;) Gecko/20070322 Kazehakase/0.4.5",
    "Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.8) Gecko Fedora/1.9.0.8-1.fc10 Kazehakase/0.5.6",
    "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11",
    "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_3) AppleWebKit/535.20 (KHTML, like Gecko) Chrome/19.0.1036.7 Safari/535.20",
    "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; fr) Presto/2.9.168 Version/11.52",
]

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/41101.html

相關(guān)文章

  • scrapy學(xué)習(xí)之路2(圖片下載與下載的路徑獲取)

    摘要:圖片下載和拿到下載后的路徑小封面圖的爬取,后面通過傳到中詳情頁的爬取詳情頁的完整地址下一頁的爬取與請求不明打開功能注意如要進(jìn)一步定制功能補(bǔ)充新建 圖片下載和拿到下載后的路徑 1 items.py import scrapy class InfoItem(scrapy.Item): url = scrapy.Field() url_object_id = scrapy....

    WelliJhon 評論0 收藏0
  • scrapy學(xué)習(xí)之路1(簡單的例子)

    摘要:的安裝環(huán)境是后面創(chuàng)建用來運(yùn)行的名網(wǎng)站域名在創(chuàng)建可以通過此文件運(yùn)行本文件名父文件名路徑和父文件名設(shè)置環(huán)境,必須以上運(yùn)行可能在下會報(bào)錯準(zhǔn)備工作完在下獲取列表頁每一個的把獲取到的交給 scrapy的安裝 環(huán)境:python3.6 1 pip install -i https://pypi.douban.com/simple/ scrapy 2 scrapy startpr...

    guqiu 評論0 收藏0
  • scrapy學(xué)習(xí)之路5(selenium集成到scrapy下(crawspider未測試))

    摘要:基本優(yōu)化為了不讓每次啟動添加它到定義類的初始方法中啟動優(yōu)化瀏覽器的自動開啟與關(guān)閉在中加入信號鏈爬蟲結(jié)束會輸出 1:基本 Middlewares.py(downloader)showImg(https://segmentfault.com/img/bV182i?w=893&h=311); spider/xxx.pyshowImg(https://segmentfault.com/img/...

    adie 評論0 收藏0
  • 整理了一周的Python資料,包含各階段所需網(wǎng)站、項(xiàng)目,收藏了慢慢來

    摘要:希望能夠幫助到大家,減少在起步階段的油耗,集中精神突破技術(shù)。關(guān)注公眾后,后臺回復(fù)關(guān)鍵字資料,獲取項(xiàng)目包本篇文章對不同階段的人群都適用,別再說怎么學(xué),沒有實(shí)戰(zhàn)項(xiàng)目了。 showImg(https://segmentfault.com/img/bVbpcg3?w=1318&h=730); 這周應(yīng)該有不少學(xué)校已經(jīng)開學(xué)了,那么同學(xué)們都該動起來了,把家里面的那些懶習(xí)慣給扔掉了可以。 不知怎么的,...

    liuhh 評論0 收藏0

發(fā)表評論

0條評論

xiaodao

|高級講師

TA的文章

閱讀更多
最新活動
閱讀需要支付1元查看
<