成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

爬取并下載妹子圖網(wǎng)站圖片

shiguibiao / 2311人閱讀

摘要:地址主要分為三個版本單頁版單圖版全圖版運(yùn)行環(huán)境使用方法單頁版主要是針對妹子圖每一頁的圖片進(jìn)行下載,比如此類鏈接的圖片進(jìn)行下載,我在代碼中設(shè)置的是獲取前四頁的內(nèi)容,即代碼如果你想下載全站的圖片,請修改為對應(yīng)的最大頁碼,測試效果如下圖單圖版主要

github地址 : https://github.com/leoyaojy/m...

主要分為三個版本:

單頁版、單圖版、全圖版

運(yùn)行環(huán)境

Ubuntu 16.04

Python 2.7.12

Pycharm 2016.2

使用方法
git clone https://github.com/leoyaojy/mzitu.git
cd mzitu
python page.py | single.py | full.py
單頁版

主要是針對妹子圖每一頁的圖片進(jìn)行下載,比如:http://www.mzitu.com/page/1 此類鏈接的圖片進(jìn)行下載,我在代碼中設(shè)置的是獲取前四頁的內(nèi)容,即代碼:for i in range(1, 5),如果你想下載全站的圖片,請修改5為對應(yīng)的最大頁碼 + 1,測試效果如下圖:

單圖版

主要是針對妹子圖每個套圖的第一張圖片進(jìn)行下載,比如:http://www.mzitu.com/69627此類鏈接的圖片進(jìn)行下載,我在代碼中設(shè)置的是獲取前四頁套圖的第一張圖片,即代碼:for i in range(1, 5),如果你想下載全站的圖片,請修改5為對應(yīng)的最大頁碼 + 1,測試效果如下圖:

全圖版

主要是針對妹子圖每個套圖的全部圖片進(jìn)行下載,由于套圖數(shù)量過多,我只設(shè)置下載第一頁的所有套圖,即代碼:for i in range(1, 2),如果你想下載全站的圖片,請修改2為對應(yīng)的最大頁碼 + 1,測試效果如下圖:

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/44246.html

相關(guān)文章

  • Scrapy 實(shí)戰(zhàn)之爬取妹子

    摘要:很多人學(xué)習(xí)爬蟲的第一驅(qū)動力就是爬取各大網(wǎng)站的妹子圖片,比如比較有名的。最后我們只需要運(yùn)行程序,即可執(zhí)行爬取,程序運(yùn)行命名如下完整代碼我已上傳到微信公眾號后臺,在癡海公眾號后臺回復(fù)即可獲取。本文首發(fā)于公眾號癡海,后臺回復(fù)即可獲取最新編程資源。 showImg(https://segmentfault.com/img/remote/1460000016780800); 閱讀文本大概需要 1...

    Achilles 評論0 收藏0
  • Python 爬蟲入門(二)——爬取妹子

    摘要:爬蟲入門聽說你寫代碼沒動力本文就給你動力,爬取妹子圖。分別進(jìn)入每個套圖中去,下載相應(yīng)的圖片。最大線程數(shù)設(shè)置為正在下載頁好了,之后運(yùn)行,我們的爬蟲就會孜孜不倦的為我們下載漂亮妹子啦。 Python 爬蟲入門 聽說你寫代碼沒動力?本文就給你動力,爬取妹子圖。如果這也沒動力那就沒救了。 GitHub 地址: https://github.com/injetlee/Python/blob/ma...

    cppprimer 評論0 收藏0
  • scrapy簡單學(xué)習(xí)5—下載,爬取妹子

    摘要:學(xué)習(xí)網(wǎng)站爬蟲,整站爬取妹子圖定義爬取的內(nèi)容的編寫提供了一種便捷的方式填充抓取到的是頁面源代碼,載入每個連接,用屬性請求連接,返回請求獲取頁碼集合打印頁碼如果頁碼集合圖片連接讀取頁碼集合的倒數(shù)第二個頁碼圖片連接替換成空返回請求用載 學(xué)習(xí)網(wǎng)站:爬蟲,整站爬取妹子圖 1.item.py(定義爬取的內(nèi)容) import scrapy class MeizituItem(scrapy.Ite...

    JerryZou 評論0 收藏0
  • Python爬蟲入門教程 2-100 妹子網(wǎng)站爬取

    摘要:為了寫好爬蟲,我們需要準(zhǔn)備一個火狐瀏覽器,還需要準(zhǔn)備抓包工具,抓包工具,我使用的是自帶的,加上,這兩款軟件的安裝和使用,建議你還是學(xué)習(xí)一下,后面我們應(yīng)該會用到。 妹子圖網(wǎng)站----前言 從今天開始就要擼起袖子,直接寫Python爬蟲了,學(xué)習(xí)語言最好的辦法就是有目的的進(jìn)行,所以,接下來我將用10+篇的博客,寫爬圖片這一件事情。希望可以做好。 為了寫好爬蟲,我們需要準(zhǔn)備一個火狐瀏覽器,還需...

    zqhxuyuan 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<