成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

Node.js實現(xiàn)簡易爬蟲

BearyChat / 1490人閱讀

摘要:為什么選擇利用來寫爬蟲呢就是因為這個庫,全兼容語法,熟悉的話用起來真真是爽依賴選擇版的封裝了一個服務(wù)器和一個簡易的客戶端解決爬取網(wǎng)頁出現(xiàn)亂碼初步實現(xiàn)既然是要爬取網(wǎng)站內(nèi)容,那我們就應(yīng)該先去看看網(wǎng)站的基本構(gòu)成選取的是電影天堂作為目標(biāo)網(wǎng)站,想要

為什么選擇利用node來寫爬蟲呢?就是因為cheerio這個庫,全兼容jQuery語法,熟悉的話用起來真真是爽

依賴選擇

cheerio: Node.js 版的jQuery

http:封裝了一個HTPP服務(wù)器和一個簡易的HTTP客戶端

iconv-lite:解決爬取gb2312網(wǎng)頁出現(xiàn)亂碼

初步實現(xiàn)

既然是要爬取網(wǎng)站內(nèi)容,那我們就應(yīng)該先去看看網(wǎng)站的基本構(gòu)成
選取的是電影天堂作為目標(biāo)網(wǎng)站,想要去爬取所有最新電影的下載鏈接

分析頁面

頁面結(jié)構(gòu)如下:

我們可以看到每個電影的標(biāo)題都在一個classulinka標(biāo)簽下,再往上定位,我們可以看到最外部的盒子classco_content8

ok,可以開工了

獲取一頁電影標(biāo)題

首先引入依賴,并設(shè)定需要爬取的url

var cheerio = require("cheerio");
var http = require("http");
var iconv = require("iconv-lite");

var url = "http://www.ygdy8.net/html/gndy/dyzz/index.html";

核心代碼 index.js

http.get(url, function(sres) {
  var chunks = [];
  sres.on("data", function(chunk) {
    chunks.push(chunk);
  });
  // chunks里面存儲著網(wǎng)頁的 html 內(nèi)容,將它zhuan ma傳給 cheerio.load 之后
  // 就可以得到一個實現(xiàn)了 jQuery 接口的變量,將它命名為 `$`
  // 剩下就都是 jQuery 的內(nèi)容了
  sres.on("end", function() {
    var titles = [];
    //由于咱們發(fā)現(xiàn)此網(wǎng)頁的編碼格式為gb2312,所以需要對其進行轉(zhuǎn)碼,否則亂碼
    //依據(jù):“�
    var html = iconv.decode(Buffer.concat(chunks), "gb2312");
    var $ = cheerio.load(html, {decodeEntities: false});
    $(".co_content8 .ulink").each(function (idx, element) {
      var $element = $(element);
      titles.push({
        title: $element.text()
      })
    })    
    console.log(titles);     
  });
});

運行node index

�(jié)果如�

成功獲取電影title,那如果我想獲取多個頁面的title�,總不可能一個一個url去改�。這當(dāng)然有辦法,請往下看�

獲取多頁電影�(biāo)�

我們只要將之前的代碼封裝成一個函�(shù)并遞歸執(zhí)行就完成�

核心代碼 index.js

var index = 1; //頁面�(shù)控制
var url = "http://www.ygdy8.net/html/gndy/dyzz/list_23_";
var titles = []; //用于保存title

function getTitle(url, i) {
  console.log("正在獲取�" + i + "頁的�(nèi)�"); 
  http.get(url + i + ".html", function(sres) {
    var chunks = [];
    sres.on("data", function(chunk) {
      chunks.push(chunk);
    });
    sres.on("end", function() {
      var html = iconv.decode(Buffer.concat(chunks), "gb2312");
      var $ = cheerio.load(html, {decodeEntities: false});
      $(".co_content8 .ulink").each(function (idx, element) {
        var $element = $(element);
        titles.push({
          title: $element.text()
        })
      })  
      if(i < 2) { //為了方便只爬了兩�
        getTitle(url, ++index); //遞歸�(zhí)行,頁數(shù)+1
      } else {
        console.log(titles); 
        console.log("Title獲取完畢�");              
      }
    });
  });
}

function main() {
  console.log("開始爬取");
  getTitle(url, index);
}

main(); //運行主函�(shù)

�(jié)果如�

獲取電影下載連接

如果是人工操作,我們需要一次操�,通過點擊進入電影詳情頁才能找到下載地址
那我們通過node如何來實�(xiàn)�

常規(guī)先來分析頁面布局

我�?nèi)绻胍獪?zhǔn)確定位到下載鏈接,需要先找到idZoom的div,下載鏈接就在這�div下的tr下的a�(biāo)簽內(nèi)�

那我們就再定義一個函�(shù),用于獲取下載鏈�

getBtLink()

function getBtLink(urls, n) { //urls里面包含著所有詳情頁的地址
  console.log("正在獲取�" + n + "個url的內(nèi)�");
  http.get("http://www.ygdy8.net" + urls[n].title, function(sres) {
    var chunks = [];
    sres.on("data", function(chunk) {
      chunks.push(chunk);
    });
    sres.on("end", function() {
      var html = iconv.decode(Buffer.concat(chunks), "gb2312"); //進行�(zhuǎn)�
      var $ = cheerio.load(html, {decodeEntities: false});
      $("#Zoom td").children("a").each(function (idx, element) {
        var $element = $(element);
        btLink.push({
          bt: $element.attr("href")
        })
      })
      if(n < urls.length - 1) {
        getBtLink(urls, ++count); //遞�
      } else {
        console.log("btlink獲取完畢�");
        console.log(btLink);   
      }
    });
  });
}

再次運行 node index

就這樣我們將3個頁面內(nèi)所有電影的下載鏈接獲取完畢,是不是很簡��

保存�(shù)�(jù)

我們講這些�(shù)�(jù)爬取出來�(dāng)然是要進行保存的啊,在這里我選用了MongoDB來對其進行保存處理

�(shù)�(jù)保存函數(shù) save()

function save() {
  var MongoClient = require("mongodb").MongoClient; //�(dǎo)入依�
  MongoClient.connect(mongo_url, function (err, db) {
    if (err) {
      console.error(err);
      return;
    } else {
      console.log("成功連接�(shù)�(jù)�");
      var collection = db.collection("node-reptitle");
      collection.insertMany(btLink, function (err,result) { //插入�(shù)�(jù)
        if (err) {
          console.error(err);
        } else {
          console.log("保存�(shù)�(jù)成功");
        }
      })
      db.close();
    }
  });
}

這里的操作很簡單,就沒必要上mongoose�
再次運行 node index

這個Node.js實現(xiàn)的爬蟲就是這樣�,祝大家能爬到自己想要的�(shù)�(jù);)

最后附上源碼地址:https://github.com/HuangXiZho...

文章版權(quán)歸作者所�,未�(jīng)允許請勿�(zhuǎn)�,若此文章存在違規(guī)行為,您可以�(lián)系管理員刪除�

�(zhuǎn)載請注明本文地址:http://systransis.cn/yun/88184.html

相關(guān)文章

  • 如果有人問你爬蟲抓取技�(shù)的門�,請叫他來看這篇文章

    摘要:未授權(quán)的爬蟲抓取程序是危害原創(chuàng)�(nèi)容生�(tài)的一大元兇,因此要保護網(wǎng)站的�(nèi)�,首先就要考慮如何反爬蟲。反爬蟲的銀彈目前的反抓取機器人檢查手段,最可靠的還是驗證碼技�(shù)。機器人�(xié)議除此之�,在爬蟲抓取技�(shù)�(lǐng)域還有一個白道的手段,叫做協(xié)�� 本文首發(fā)于我的個人博客,同步發(fā)布于SegmentFault專欄,非商業(yè)�(zhuǎn)載請注明出處,商�(yè)�(zhuǎn)載請閱讀原文鏈接里的法律聲明� web是一個開放的平臺,這也奠定�...

    raoyi 評論0 收藏0
  • 2017-07-05 前端日報

    摘要:前端日報精選你可能不知道的前端知識點譯在服�(wù)端渲染的實現(xiàn)掘金小前端創(chuàng)建或文件并瀏覽器導(dǎo)出下載張鑫旭鑫空間鑫生活代理服務(wù)器淺析知乎專欄快速打造簡易高效的配置掘金中文譯組件解耦之道楓上霧棋的日志第期什么樣的工程師才能算老司� 2017-07-05 前端日報 精選 你可能不知道的前端知識點[譯] React 在服�(wù)端渲染的實現(xiàn) - 掘金小tip:JS前端�(chuàng)建html或json文件并瀏覽器導(dǎo)�...

    ISherry 評論0 收藏0
  • 前端那些小眾而又精美的網(wǎng)站及工具

    摘要:寫此文的目的是為了總結(jié)在開�(fā)中能增加我們開�(fā)速度及能給我們帶來方便的工具與網(wǎng)站及一些小眾框架只限于簡介不負(fù)�(zé)教程如有相應(yīng)的教程希望大家自薦或推薦我在這里感激不盡讓我們發(fā)�(xiàn)美并記錄它第一次寫文章請多多包涵如有我沒有寫到的但又是一些好用的工具� 寫此文的目的是為了總�(jié)在開�(fā)中能增加我們開�(fā)速度及能給我們帶來方便的工具與網(wǎng)站及一些小眾框架只限于簡介不負(fù)�(zé)教程如有相應(yīng)的教程希望大家自薦或推薦�...

    Edison 評論0 收藏0
  • 前端那些小眾而又精美的網(wǎng)站及工具

    摘要:寫此文的目的是為了總結(jié)在開�(fā)中能增加我們開�(fā)速度及能給我們帶來方便的工具與網(wǎng)站及一些小眾框架只限于簡介不負(fù)�(zé)教程如有相應(yīng)的教程希望大家自薦或推薦我在這里感激不盡讓我們發(fā)�(xiàn)美并記錄它第一次寫文章請多多包涵如有我沒有寫到的但又是一些好用的工具� 寫此文的目的是為了總�(jié)在開�(fā)中能增加我們開�(fā)速度及能給我們帶來方便的工具與網(wǎng)站及一些小眾框架只限于簡介不負(fù)�(zé)教程如有相應(yīng)的教程希望大家自薦或推薦�...

    tigerZH 評論0 收藏0

�(fā)表評�

0條評�

最新活�
閱讀需要支�1元查�
<