成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

node.js 89行爬蟲爬取智聯(lián)招聘信息

_ivan / 1535人閱讀

摘要:智聯(lián)其實一共寫了兩次,有興趣的可以在源碼看看,第一版的是回調(diào)版,只能一次一頁的爬取。

寫在前面的話,

   .......還是不寫了,直接上效果圖。附上源碼地址 github.lonhon


ok, 正文開始,先列出用到的和require的東西:

node.js,這個是必須的
request,然發(fā)送網(wǎng)絡(luò)請求更方便
bluebird,讓Promise更高效
cheerio,像jQuery一樣優(yōu)雅的解析頁面
fs,讀寫本地文件
之前寫的代理ip的爬取結(jié)果,代理池

由于自己的比較偏好數(shù)據(jù)方面,之前一直就想用python做一些爬蟲的東西,奈何一直糾結(jié)2.7還是3.x(逃...

上周在看慕課網(wǎng)上的node教程,就跟著課程敲了一次爬蟲,從慕課網(wǎng)上的課程開始入手,然后就開始了愉快的爬蟲之路。
這兩周的爬取路程如下:
慕課網(wǎng)所有課程含章節(jié)列表-->拉勾網(wǎng)招聘信息-->xiciIP的代理ip-->boss直聘招聘信息-->個人貼吧回帖記錄-->最后就是這次講的智聯(lián)招聘的爬蟲代碼。

智聯(lián)其實一共寫了兩次,有興趣的可以在源碼看看,第一版的是回調(diào)版,只能一次一頁的爬取?,F(xiàn)在講的是promise版(文件位置/zlzp/zlzp-pure.js),能夠很好的利用node的異步,快速爬取多個頁面,寫的時候測試了一下,爬取30頁,每頁60條數(shù)據(jù),耗時73s,這個結(jié)果主要受代理ip影響。

"use strict";
var http = require("http")
var cheerio = require("cheerio")
var request = require("request")
var fs = require("fs")
var Promise = require("bluebird")//雖然原生已經(jīng)支持,但bluebird效率更高
var iplist = require("../ip_http.json") //代理池

//發(fā)送請求,成功寫入文件,失敗換代理
var getHtml = function (url,ipac,ppp) {
    return new Promise(function(resolve,reject){
        if (ipac >= iplist.length){        
            console.log("page:"+ppp+"all died"); //代理用完,取消當(dāng)前頁面ppp的請求
            reject(url,false);
        }
        let prox = {    //設(shè)置代理
            url: url,
            proxy: "http://" + iplist[ipac],
            timeout: 5000,
            headers: {
                "Host": "sou.zhaopin.com",
                "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.96 Safari/537.36"
            }
        };
        request(prox, function (err, res, body) {
            if (err) {
                reject(url)//失敗,回傳當(dāng)前請求的頁面url
            } else {
                resolve(body, url)//成功回傳html和url
            }
        })
    }) 
}
//解析doc
function filterHtml(html,p,noww){
    let res = [];//存放結(jié)果集
    var $ = cheerio.load(html);
    if($("title").text().indexOf("招聘") === -1) {    //根據(jù)title判斷是否被代理重定向
        iplist.splice(noww[2],1);   //刪除假代理。
        return lhlh(noww[0],noww[1],noww[2]+1);
    }
    $(".newlist").each(function(item){
        res.push({
            zwmc: $(this).find(".zwmc").find("div").text().replace(/s+/g,"").replace(/
/g,""),
            gsmc: $(this).find(".gsmc").find("a").eq(0).text().replace(/s+/g,"").replace(/
/g,""),
            zwyx: $(this).find(".zwyx").text().replace(/s+/g,"").replace(/
/g,""),
            gzdd: $(this).find(".gzdd").text().replace(/s+/g,"").replace(/
/g,""),
            gxsj: $(this).find(".gxsj").find("span").text().replace(/s+/g,"").replace(/
/g,"")
        })
    })
    res.shift();//刪除表頭行
    if(res.length < 60){
        return lhlh(noww[0],noww[1],noww[2]+1);
    }
    return creatfile(res,p);
}
//寫入本地
function creatfile(list,page) {
    var ttxt = "page:" + page + "
";//每頁標(biāo)題
    list.forEach(function(el) {  //遍歷數(shù)據(jù)為文本
        ttxt += el.zwmc + ","+ el.gsmc + ","+ el.zwyx + ","+ el.gzdd + ","+ el.gxsj + "
";
    });
    fs.appendFile("./" + "zlzp-pure.txt", "page:"+ttxt+"
" , "utf-8", function (err) {
        if (!err) {
            let currTime = Math.round((Date.parse(new Date()) - startTime) / 1000); 
            console.log("page:" + page +" is ok:" +list.length + ",spend:" + currTime + "s" ); // page:1 is ok
        }
    })
}

//請求封裝為promise
function lhlh(url,page,ipac){
    getHtml(url,ipac,page).then((html,oldurl)=>{
        let noww= [url,page,ipac]
        filterHtml(html,page,noww);
    })
    .catch((url,type = true)=>{
        if(type){
            ipac += 1;
            lhlh(url,page,ipac);
        }
    })
} 
var target = "http://sou.zhaopin.com/jobs/searchresult.ashx?jl=%e6%88%90%e9%83%bd&kw=web%e5%89%8d%e7%ab%af&isadv=0&sg=8cd66893b0d14261bde1e33b154456f2&p=";
let ipacc = 0;
var startTime = Date.parse(new Date());
for(let i=1; i<31; i++){
    let ourl = target + i;
    lhlh(ourl, i, 0);
}

先貼出源碼,在線地址可以在文首獲取

現(xiàn)在說說本次爬蟲的流程

循環(huán)請求爬取的頁面,這里通過target和循環(huán)變量i,拼裝請求鏈接ourl;這里由于請求的是http協(xié)議鏈接,所以用的http的代理,如果是https,則切換為https代理池文件。

進(jìn)入lhlh方法,這里是對實際發(fā)送網(wǎng)絡(luò)請求的getHtnl方法做一個Promise的調(diào)用,也是通過遞歸該方法實現(xiàn)代理ip的切換。

getHtml方法,首先是對代理池是否用完做一個判斷,如果溢出則終止對當(dāng)前頁面的爬取,然后是配置request的option+代理的設(shè)置,然后return一個promise

filterHtml方法,對請求回來的頁面做解析,提取所需的數(shù)據(jù)

createfile方法,實現(xiàn)數(shù)據(jù)的本地存儲

接下來具體解析

1、怎么發(fā)送請求?

for(let i=1; i<31; i++){
    let ourl = target + i;
    lhlh(ourl, i, 0);
}

包括頭部的require、生成url。這里因為智聯(lián)每次最新的結(jié)果只有30頁,所有循環(huán)30次
這里使用循環(huán)發(fā)送request,因為request是一個異步操作,所以這里需要將url和當(dāng)前請求頁面page作為參數(shù)傳出去.
在調(diào)用lhlh方法的時候還傳入了一個0,這是一個代理池的初始值。

2.lhlh方法做了什么?
lhlh函數(shù)體內(nèi)主要是對getHtml方法返回的Promise做成功和失敗的處理,邏輯上是:
  成功-->調(diào)用filterHtml,并傳入請求結(jié)果
  失敗-->根據(jù)type判斷異常情況 ①切換代理,重新請求 ②代理用完,取消本頁請求
另外,對傳入進(jìn)來的url、page、代理池下標(biāo)做一個閉包,傳入每次的請求中,從而保證每次請求的可控性。

3.主角——getHtml方法,返回Promise
在一開始做一個判斷,代理池是否溢出,溢出就拋出reject。
生成請求option,主要配置了代理池和Headers,目的也是為了解決網(wǎng)站的反爬。(代理ip的爬取在上級的ip.js中,自?。?br>接下來就是把請求發(fā)送出去,發(fā)送請求意味著有兩種結(jié)果:
  成功-->返回response,進(jìn)行下一步解析
  失敗-->返回當(dāng)前請求的url
4.filterHtml對response解析
這里就需要結(jié)合頁面結(jié)構(gòu)進(jìn)行代碼的編寫了,先看看我們要請求的頁面長什么樣子:

用chrome的開發(fā)工具可以很容易看到招聘數(shù)據(jù)是放在一個class=“newlist”的table中,再結(jié)合cheerio,能夠很優(yōu)雅的對頁面中的dom進(jìn)行提取,具體步驟就是遍歷table,取出數(shù)據(jù),然后push到result中。

ps:①其實這里還能夠提高代碼質(zhì)量和效率的,就是直接生成創(chuàng)建txt文件所需的文本,這樣就少了對數(shù)據(jù)的一次遍歷,但是為了易于理解過程,還是push到result中傳出了。
②紅框中的第一個table其實是放表頭的,并沒有實際數(shù)據(jù),所以代碼中用了result.shift()刪除了第一個元素

5.本地保存爬回來的數(shù)據(jù)

對傳入的參數(shù)也就是上一步的result進(jìn)行遍歷,生成創(chuàng)建txt文件所需的字符串。

通過fs.appendFile方法就可以創(chuàng)建本地文件了 ,格式為:fs.appendFile 具體的用法可以百度一下。
最后在生成txt文件后打印了當(dāng)前頁流程走完的提示信息和所消耗的時間。
PS: ①.這里其實應(yīng)該存入本地數(shù)據(jù)庫or生成表格文件(將數(shù)據(jù)結(jié)構(gòu)化),但是由于需要搭建數(shù)據(jù)庫環(huán)境or引入新的模塊,故生成的是txt文件。另在createflie中遍歷生成ttxt時候,我在不同數(shù)據(jù)之間插入的分隔符“,”,這樣可以方便的導(dǎo)入到表格or數(shù)據(jù)庫中
②fs.appendFile之類的文件操作是異步的。從實際情況考慮,由于每次寫入的內(nèi)容不同和磁盤讀寫性能的影響,也注定fs的文件操作是一個異步過程。

個人總結(jié)

如果你看到這里了,相信你對本文感興趣,可以的話來個 star
promise的目的1:在異步操作結(jié)束把異步結(jié)果返回,讓代碼更扁平,比如:

function c(val){
  //本函數(shù)功能需要b的返回值才能實現(xiàn)
}
function b(){  放一些異步操作,返回 Promise   }
function a(){
    調(diào)用異步方法b
    b().then(function(val:resolve的返回值){
        這時候就可以直接使用c(val)
        使用原來的回調(diào)函數(shù)就必須把c方法放在async方法中執(zhí)行,當(dāng)回調(diào)過多的時候函數(shù)調(diào)用就會變成a(b(c(d(e(f(...)))))),層層嵌套
        而使用Promise函數(shù)調(diào)用就可以扁平為a()->b()->c()...,特別是當(dāng)理解了Promise的運行步驟后,
    })
}

promise缺點:性能上和回調(diào)函數(shù)比較會遜色一些,這也是本次爬蟲在node.js v-7.10.0完美實現(xiàn)promise的情況下還引入bluebird的主要原因。

閉包:閉包實現(xiàn)了面向?qū)ο笾械姆庋b。
異步操作的時候通過閉包可以獲取同一個變量,而不會改變其它線程在使用的變量,這也是js實現(xiàn)私有變量的
比如本次爬蟲中每次filterHtml解析網(wǎng)頁完成后的結(jié)果集res,如果放在外層,則會被正在運行的其它異步操作影響,導(dǎo)致傳入creatfile的res被影響,
再比如每次爬取的page,如果取for循環(huán)里面的i,那最后得到的是i最后的值,所以需要將i傳入方法,通過閉包實現(xiàn)每次輸出到txt文件的page是當(dāng)前爬取的page。
當(dāng)異步函數(shù)A、B同時在運行時,

            異步A    異步B
00:01       A=1      
00:02                A=2
00:03       A===2

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/88531.html

相關(guān)文章

  • Scrapy爬取智聯(lián)招聘

    摘要:之前接了一個活,做的功能是從智聯(lián)招聘爬取招聘信息賺了幾百塊零花錢實現(xiàn)了一個,如圖雖然比較丑,但是簡潔明了,落落大方已經(jīng)是我水平的天花板了具體功能說明就不了,大家都能看懂的。。。。智聯(lián)招聘鏈接網(wǎng)頁是這個樣子的,反爬蟲不強。 之前接了一個活,做的功能是從智聯(lián)招聘爬取招聘信息賺了幾百塊零花錢實現(xiàn)了一個GUI,如圖:showImg(https://segmentfault.com/img/bV...

    Tamic 評論0 收藏0
  • node.js爬取智聯(lián)全國的競爭最激烈的前十崗位

    摘要:項目分析爬取智聯(lián)網(wǎng)站上的全國的競爭最激烈三個月內(nèi)前十的崗位。模塊專為服務(wù)器設(shè)計的核心的快速,靈活和精益的實現(xiàn)。核心代碼發(fā)起請求獲取到的內(nèi)容放到模塊遍歷是通過分析頁面結(jié)構(gòu)得到的打印數(shù)據(jù)執(zhí)行就會得到如下結(jié)果。 node爬蟲 什么是爬蟲呢,是一種按照一定的規(guī)則,自動地抓取萬維網(wǎng)信息的程序或者腳本。為什么選用node呢,因為我是前端,當(dāng)然要用js實現(xiàn)。 項目分析 爬取http://top.zh...

    Pandaaa 評論0 收藏0
  • python爬蟲招聘網(wǎng)站(智聯(lián)

    摘要:年月日爬取,爬蟲代碼不知道是否失效文章目錄爬蟲目標(biāo)具體過程源碼爬蟲目標(biāo)要求搜索大數(shù)據(jù)專業(yè),爬相關(guān)公司的招聘信息。 2021年10月7日爬取,爬蟲代碼不知道是否失效 ...

    keelii 評論0 收藏0
  • 智聯(lián)招聘數(shù)據(jù)爬取準(zhǔn)備(1)-智聯(lián)招聘搜索列表源碼解析

    摘要:網(wǎng)頁源碼解析智聯(lián)招聘搜索列表一開始必須要解析智聯(lián)招聘搜索列表頁,從這里更方便實現(xiàn)各種深層級數(shù)據(jù)抓取。顯示不同源碼也不同,盡量選列表模式,源碼更好解析。 網(wǎng)頁源碼解析 - 智聯(lián)招聘搜索列表 一開始必須要解析智聯(lián)招聘搜索列表頁,從這里更方便實現(xiàn)各種深層級數(shù)據(jù)抓取。網(wǎng)頁地址是:http://sou.zhaopin.com/jobs/searchresult.ashx 搜索參數(shù) 智聯(lián)招聘的服務(wù)...

    VPointer 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<