成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

Pyspider框架 —— Python爬蟲(chóng)實(shí)戰(zhàn)之爬取 V2EX 網(wǎng)站帖子

codecraft / 1513人閱讀

摘要:背景一個(gè)國(guó)人編寫的強(qiáng)大的網(wǎng)絡(luò)爬蟲(chóng)系統(tǒng)并帶有強(qiáng)大的??蚣軐W(xué)習(xí)時(shí)走過(guò)的一些坑錯(cuò)誤我所遇到的一些錯(cuò)誤首先,本爬蟲(chóng)目標(biāo)使用框架爬取網(wǎng)站的帖子中的問(wèn)題和內(nèi)容,然后將爬取的數(shù)據(jù)保存在本地。修飾器,表示每天會(huì)執(zhí)行一次,這樣就能抓到最新的帖子了。

背景:

PySpider:一個(gè)國(guó)人編寫的強(qiáng)大的網(wǎng)絡(luò)爬蟲(chóng)系統(tǒng)并帶有強(qiáng)大的WebUI。采用Python語(yǔ)言編寫,分布式架構(gòu),支持多種數(shù)據(jù)庫(kù)后端,強(qiáng)大的WebUI支持腳本編輯器,任務(wù)監(jiān)視器,項(xiàng)目管理器以及結(jié)果查看器。在線示例: http://demo.pyspider.org/

官方文檔: http://docs.pyspider.org/en/l...

Github : https://github.com/binux/pysp...

本文爬蟲(chóng)代碼 Github 地址:https://github.com/zhisheng17...

更多精彩文章可以在微信公眾號(hào):猿blog 閱讀到,歡迎關(guān)注。

說(shuō)了這么多,我們還是來(lái)看正文吧!

前提:

你已經(jīng)安裝好了Pyspider 和 MySQL-python(保存數(shù)據(jù))

如果你還沒(méi)安裝的話,請(qǐng)看看我的前一篇文章,防止你也走彎路。

Pyspider 框架學(xué)習(xí)時(shí)走過(guò)的一些坑

HTTP 599: SSL certificate problem: unable to get local issuer certificate錯(cuò)誤

我所遇到的一些錯(cuò)誤:

首先,本爬蟲(chóng)目標(biāo):使用 Pyspider 框架爬取 V2EX 網(wǎng)站的帖子中的問(wèn)題和內(nèi)容,然后將爬取的數(shù)據(jù)保存在本地。

V2EX 中大部分的帖子查看是不需要登錄的,當(dāng)然也有些帖子是需要登陸后才能夠查看的。(因?yàn)楹髞?lái)爬取的時(shí)候發(fā)現(xiàn)一直 error ,查看具體原因后才知道是需要登錄的才可以查看那些帖子的)所以我覺(jué)得沒(méi)必要用到 Cookie,當(dāng)然如果你非得要登錄,那也很簡(jiǎn)單,簡(jiǎn)單地方法就是添加你登錄后的 cookie 了。

我們?cè)?https://www.v2ex.com/ 掃了一遍,發(fā)現(xiàn)并沒(méi)有一個(gè)列表能包含所有的帖子,只能退而求其次,通過(guò)抓取分類下的所有的標(biāo)簽列表頁(yè),來(lái)遍歷所有的帖子: https://www.v2ex.com/?tab=tech 然后是 https://www.v2ex.com/go/progr... 最后每個(gè)帖子的詳情地址是 (舉例): https://www.v2ex.com/t/314683...

創(chuàng)建一個(gè)項(xiàng)目

在 pyspider 的 dashboard 的右下角,點(diǎn)擊 “Create” 按鈕

替換 on_start 函數(shù)的 self.crawl 的 URL:

@every(minutes=24 * 60)
    def on_start(self):
        self.crawl("https://www.v2ex.com/", callback=self.index_page, validate_cert=False)

self.crawl 告訴 pyspider 抓取指定頁(yè)面,然后使用 callback 函數(shù)對(duì)結(jié)果進(jìn)行解析。

@every) 修飾器,表示 on_start 每天會(huì)執(zhí)行一次,這樣就能抓到最新的帖子了。

validate_cert=False 一定要這樣,否則會(huì)報(bào) HTTP 599: SSL certificate problem: unable to get local issuer certificate錯(cuò)誤

首頁(yè):

點(diǎn)擊綠色的 run 執(zhí)行,你會(huì)看到 follows 上面有一個(gè)紅色的 1,切換到 follows 面板,點(diǎn)擊綠色的播放按鈕:

第二張截圖一開(kāi)始是出現(xiàn)這個(gè)問(wèn)題了,解決辦法看前面寫的文章,后來(lái)問(wèn)題就不再會(huì)出現(xiàn)了。

Tab 列表頁(yè) :

在 tab 列表頁(yè) 中,我們需要提取出所有的主題列表頁(yè) 的 URL。你可能已經(jīng)發(fā)現(xiàn)了,sample handler 已經(jīng)提取了非常多大的 URL

代碼:

@config(age=10 * 24 * 60 * 60)
    def index_page(self, response):
        for each in response.doc("a[href^="https://www.v2ex.com/?tab="]").items():
            self.crawl(each.attr.href, callback=self.tab_page, validate_cert=False)

由于帖子列表頁(yè)和 tab列表頁(yè)長(zhǎng)的并不一樣,在這里新建了一個(gè) callback 為 self.tab_page

@config (age=10 24 60 * 60) 在這表示我們認(rèn)為 10 天內(nèi)頁(yè)面有效,不會(huì)再次進(jìn)行更新抓取

Go列表頁(yè) :

代碼:

@config(age=10 * 24 * 60 * 60)
    def tab_page(self, response):
        for each in response.doc("a[href^="https://www.v2ex.com/go/"]").items():
            self.crawl(each.attr.href, callback=self.board_page, validate_cert=False)

帖子詳情頁(yè)(T):

你可以看到結(jié)果里面出現(xiàn)了一些reply的東西,對(duì)于這些我們是可以不需要的,我們可以去掉。

同時(shí)我們還需要讓他自己實(shí)現(xiàn)自動(dòng)翻頁(yè)功能。

代碼:

@config(age=10 * 24 * 60 * 60)
    def board_page(self, response):
        for each in response.doc("a[href^="https://www.v2ex.com/t/"]").items():
            url = each.attr.href
            if url.find("#reply")>0:
                url = url[0:url.find("#")]
            self.crawl(url, callback=self.detail_page, validate_cert=False)
        for each in response.doc("a.page_normal").items():
            self.crawl(each.attr.href, callback=self.board_page, validate_cert=False) #實(shí)現(xiàn)自動(dòng)翻頁(yè)功能

去掉后的運(yùn)行截圖:

實(shí)現(xiàn)自動(dòng)翻頁(yè)后的截圖:

此時(shí)我們已經(jīng)可以匹配了所有的帖子的 url 了。

點(diǎn)擊每個(gè)帖子后面的按鈕就可以查看帖子具體詳情了。

代碼:

@config(priority=2)
    def detail_page(self, response):
        title = response.doc("h1").text()
        content = response.doc("div.topic_content").html().replace(""", """)
        self.add_question(title, content)  #插入數(shù)據(jù)庫(kù)
        return {
            "url": response.url,
            "title": title,
            "content": content,
        }

插入數(shù)據(jù)庫(kù)的話,需要我們?cè)谥岸x一個(gè)add_question函數(shù)。

#連接數(shù)據(jù)庫(kù)
def __init__(self):
        self.db = MySQLdb.connect("localhost", "root", "root", "wenda", charset="utf8")

    def add_question(self, title, content):
        try:
            cursor = self.db.cursor()
            sql = "insert into question(title, content, user_id, created_date, comment_count) values ("%s","%s",%d, %s, 0)" % (title, content, random.randint(1, 10) , "now()");   #插入數(shù)據(jù)庫(kù)的SQL語(yǔ)句
            print sql
            cursor.execute(sql)
            print cursor.lastrowid
            self.db.commit()
        except Exception, e:
            print e
            self.db.rollback()

查看爬蟲(chóng)運(yùn)行結(jié)果:

先debug下,再調(diào)成running。pyspider框架在windows下的bug

設(shè)置跑的速度,建議不要跑的太快,否則很容易被發(fā)現(xiàn)是爬蟲(chóng)的,人家就會(huì)把你的IP給封掉的

查看運(yùn)行工作

查看爬取下來(lái)的內(nèi)容

然后再本地?cái)?shù)據(jù)庫(kù)GUI軟件上查詢下就可以看到數(shù)據(jù)已經(jīng)保存到本地了。

自己需要用的話就可以導(dǎo)入出來(lái)了。

在開(kāi)頭我就告訴大家爬蟲(chóng)的代碼了,如果詳細(xì)的看看那個(gè)project,你就會(huì)找到我上傳的爬取數(shù)據(jù)了。(僅供學(xué)習(xí)使用,切勿商用!)

當(dāng)然你還會(huì)看到其他的爬蟲(chóng)代碼的了,如果你覺(jué)得不錯(cuò)可以給個(gè) Star,或者你也感興趣的話,你可以fork我的項(xiàng)目,和我一起學(xué)習(xí),這個(gè)項(xiàng)目長(zhǎng)期更新下去。

最后:

代碼:

# created by 10412
# !/usr/bin/env python
# -*- encoding: utf-8 -*-
# Created on 2016-10-20 20:43:00
# Project: V2EX

from pyspider.libs.base_handler import *

import re
import random
import MySQLdb

class Handler(BaseHandler):
    crawl_config = {
    }

    def __init__(self):
        self.db = MySQLdb.connect("localhost", "root", "root", "wenda", charset="utf8")

    def add_question(self, title, content):
        try:
            cursor = self.db.cursor()
            sql = "insert into question(title, content, user_id, created_date, comment_count) values ("%s","%s",%d, %s, 0)" % (title, content, random.randint(1, 10) , "now()");
            print sql
            cursor.execute(sql)
            print cursor.lastrowid
            self.db.commit()
        except Exception, e:
            print e
            self.db.rollback()


    @every(minutes=24 * 60)
    def on_start(self):
        self.crawl("https://www.v2ex.com/", callback=self.index_page, validate_cert=False)

    @config(age=10 * 24 * 60 * 60)
    def index_page(self, response):
        for each in response.doc("a[href^="https://www.v2ex.com/?tab="]").items():
            self.crawl(each.attr.href, callback=self.tab_page, validate_cert=False)


    @config(age=10 * 24 * 60 * 60)
    def tab_page(self, response):
        for each in response.doc("a[href^="https://www.v2ex.com/go/"]").items():
            self.crawl(each.attr.href, callback=self.board_page, validate_cert=False)


    @config(age=10 * 24 * 60 * 60)
    def board_page(self, response):
        for each in response.doc("a[href^="https://www.v2ex.com/t/"]").items():
            url = each.attr.href
            if url.find("#reply")>0:
                url = url[0:url.find("#")]
            self.crawl(url, callback=self.detail_page, validate_cert=False)
        for each in response.doc("a.page_normal").items():
            self.crawl(each.attr.href, callback=self.board_page, validate_cert=False)


    @config(priority=2)
    def detail_page(self, response):
        title = response.doc("h1").text()
        content = response.doc("div.topic_content").html().replace(""", """)
        self.add_question(title, content)  #插入數(shù)據(jù)庫(kù)
        return {
            "url": response.url,
            "title": title,
            "content": content,
        }

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/44222.html

相關(guān)文章

  • 零基礎(chǔ)如何學(xué)爬蟲(chóng)技術(shù)

    摘要:楚江數(shù)據(jù)是專業(yè)的互聯(lián)網(wǎng)數(shù)據(jù)技術(shù)服務(wù),現(xiàn)整理出零基礎(chǔ)如何學(xué)爬蟲(chóng)技術(shù)以供學(xué)習(xí),。本文來(lái)源知乎作者路人甲鏈接楚江數(shù)據(jù)提供網(wǎng)站數(shù)據(jù)采集和爬蟲(chóng)軟件定制開(kāi)發(fā)服務(wù),服務(wù)范圍涵蓋社交網(wǎng)絡(luò)電子商務(wù)分類信息學(xué)術(shù)研究等。 楚江數(shù)據(jù)是專業(yè)的互聯(lián)網(wǎng)數(shù)據(jù)技術(shù)服務(wù),現(xiàn)整理出零基礎(chǔ)如何學(xué)爬蟲(chóng)技術(shù)以供學(xué)習(xí),http://www.chujiangdata.com。 第一:Python爬蟲(chóng)學(xué)習(xí)系列教程(來(lái)源于某博主:htt...

    KunMinX 評(píng)論0 收藏0
  • 寫這么多系列博客,怪不得找不到女朋友

    摘要:前提好幾周沒(méi)更新博客了,對(duì)不斷支持我博客的童鞋們說(shuō)聲抱歉了。熟悉我的人都知道我寫博客的時(shí)間比較早,而且堅(jiān)持的時(shí)間也比較久,一直到現(xiàn)在也是一直保持著更新?tīng)顟B(tài)。 showImg(https://segmentfault.com/img/remote/1460000014076586?w=1920&h=1080); 前提 好幾周沒(méi)更新博客了,對(duì)不斷支持我博客的童鞋們說(shuō)聲:抱歉了!。自己這段時(shí)...

    JerryWangSAP 評(píng)論0 收藏0
  • pyspider 實(shí)戰(zhàn)項(xiàng)目爬取去哪兒

    摘要:現(xiàn)在我們用一個(gè)實(shí)戰(zhàn)項(xiàng)目,來(lái)進(jìn)一步掌握框架的使用。此次的項(xiàng)目爬取的目標(biāo)是去哪兒網(wǎng),我要將所有攻略的作者標(biāo)題出發(fā)日期人均費(fèi)用攻略正文等保存下來(lái),存儲(chǔ)到中。代表當(dāng)前的爬取速率。 showImg(https://segmentfault.com/img/remote/1460000015563534); 閱讀文本大概需要 13 分鐘。 通過(guò)之前的文章介紹,你現(xiàn)在應(yīng)該對(duì) pyspider 有了一...

    banana_pi 評(píng)論0 收藏0
  • 首次公開(kāi),整理12年積累的博客收藏夾,零距離展示《收藏夾吃灰》系列博客

    摘要:時(shí)間永遠(yuǎn)都過(guò)得那么快,一晃從年注冊(cè),到現(xiàn)在已經(jīng)過(guò)去了年那些被我藏在收藏夾吃灰的文章,已經(jīng)太多了,是時(shí)候把他們整理一下了。那是因?yàn)槭詹貖A太亂,橡皮擦給設(shè)置私密了,不收拾不好看呀。 ...

    Harriet666 評(píng)論0 收藏0
  • Python爬蟲(chóng)學(xué)習(xí)路線

    摘要:以下這些項(xiàng)目,你拿來(lái)學(xué)習(xí)學(xué)習(xí)練練手。當(dāng)你每個(gè)步驟都能做到很優(yōu)秀的時(shí)候,你應(yīng)該考慮如何組合這四個(gè)步驟,使你的爬蟲(chóng)達(dá)到效率最高,也就是所謂的爬蟲(chóng)策略問(wèn)題,爬蟲(chóng)策略學(xué)習(xí)不是一朝一夕的事情,建議多看看一些比較優(yōu)秀的爬蟲(chóng)的設(shè)計(jì)方案,比如說(shuō)。 (一)如何學(xué)習(xí)Python 學(xué)習(xí)Python大致可以分為以下幾個(gè)階段: 1.剛上手的時(shí)候肯定是先過(guò)一遍Python最基本的知識(shí),比如說(shuō):變量、數(shù)據(jù)結(jié)構(gòu)、語(yǔ)法...

    liaoyg8023 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<