成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專(zhuān)欄INFORMATION COLUMN

Python爬蟲(chóng)入門(mén)教程 8-100 蜂鳥(niǎo)網(wǎng)圖片爬取之三

wfc_666 / 1893人閱讀

摘要:蜂鳥(niǎo)網(wǎng)圖片啰嗦兩句前幾天的教程內(nèi)容量都比較大,今天寫(xiě)一個(gè)相對(duì)簡(jiǎn)單的,爬取的還是蜂鳥(niǎo),依舊采用希望你喜歡爬取頁(yè)面本篇教程還是基于學(xué)習(xí)的目的,為啥選擇蜂鳥(niǎo),沒(méi)辦法,我瞎選的。

1. 蜂鳥(niǎo)網(wǎng)圖片-啰嗦兩句

前幾天的教程內(nèi)容量都比較大,今天寫(xiě)一個(gè)相對(duì)簡(jiǎn)單的,爬取的還是蜂鳥(niǎo),依舊采用aiohttp 希望你喜歡
爬取頁(yè)面https://tu.fengniao.com/15/ 本篇教程還是基于學(xué)習(xí)的目的,為啥選擇蜂鳥(niǎo),沒(méi)辦法,我瞎選的。

一頓熟悉的操作之后,我找到了下面的鏈接
https://tu.fengniao.com/ajax/ajaxTuPicList.php?page=2&tagsId=15&action=getPicLists

這個(gè)鏈接返回的是JSON格式的數(shù)據(jù)

page =2頁(yè)碼,那么從1開(kāi)始進(jìn)行循環(huán)就好了

tags=15 標(biāo)簽名稱(chēng),15是兒童,13是美女,6391是私房照,只能幫助你到這了,畢竟我這是專(zhuān)業(yè)博客 ヾ(?°?°?)??

action=getPicLists接口地址,不變的地方

2. 蜂鳥(niǎo)網(wǎng)圖片-數(shù)據(jù)有了,開(kāi)爬吧
import aiohttp
import asyncio

headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36",
           "X-Requested-With": "XMLHttpRequest",
           "Accept": "*/*"}

async def get_source(url):
    print("正在操作:{}".format(url))
    conn = aiohttp.TCPConnector(verify_ssl=False)  # 防止ssl報(bào)錯(cuò),其中一種寫(xiě)法
    async with aiohttp.ClientSession(connector=conn) as session:  # 創(chuàng)建session
        async with session.get(url, headers=headers, timeout=10) as response:  # 獲得網(wǎng)絡(luò)請(qǐng)求
            if response.status == 200:  # 判斷返回的請(qǐng)求碼
                source = await response.text()  # 使用await關(guān)鍵字獲取返回結(jié)果
                print(source)
            else:
                print("網(wǎng)頁(yè)訪(fǎng)問(wèn)失敗")


if __name__=="__main__":
        url_format = "https://tu.fengniao.com/ajax/ajaxTuPicList.php?page={}&tagsId=15&action=getPicLists"
        full_urllist= [url_format.format(i) for i in range(1,21)]
        event_loop = asyncio.get_event_loop()   #創(chuàng)建事件循環(huán)
        tasks = [get_source(url) for url in full_urllist]
        results = event_loop.run_until_complete(asyncio.wait(tasks))   #等待任務(wù)結(jié)束

上述代碼在執(zhí)行過(guò)程中發(fā)現(xiàn),順發(fā)了20個(gè)請(qǐng)求,這樣子很容易就被人家判定為爬蟲(chóng),可能會(huì)被封IP或者賬號(hào),我們需要對(duì)并發(fā)量進(jìn)行一下控制。
使Semaphore控制同時(shí)的并發(fā)量

import aiohttp
import asyncio
# 代碼在上面
sema = asyncio.Semaphore(3)
async def get_source(url):
    # 代碼在上面
    #######################
# 為避免爬蟲(chóng)一次性請(qǐng)求次數(shù)太多,控制一下
async def x_get_source(url):
    with(await sema):
        await get_source(url)

if __name__=="__main__":
        url_format = "https://tu.fengniao.com/ajax/ajaxTuPicList.php?page={}&tagsId=15&action=getPicLists"
        full_urllist= [url_format.format(i) for i in range(1,21)]
        event_loop = asyncio.get_event_loop()   #創(chuàng)建事件循環(huán)
        tasks = [x_get_source(url) for url in full_urllist]
        results = event_loop.run_until_complete(asyncio.wait(tasks))   #等待任務(wù)結(jié)束

走一波代碼,出現(xiàn)下面的結(jié)果,就可以啦!

在補(bǔ)充上圖片下載的代碼

import aiohttp
import asyncio

import json

# 代碼去上面找
async def get_source(url):
    print("正在操作:{}".format(url))
    conn = aiohttp.TCPConnector(verify_ssl=False)  # 防止ssl報(bào)錯(cuò),其中一種寫(xiě)法
    async with aiohttp.ClientSession(connector=conn) as session:  # 創(chuàng)建session
        async with session.get(url, headers=headers, timeout=10) as response:  # 獲得網(wǎng)絡(luò)請(qǐng)求
            if response.status == 200:  # 判斷返回的請(qǐng)求碼
                source = await response.text()  # 使用await關(guān)鍵字獲取返回結(jié)果
                ############################################################
                data = json.loads(source)
                photos = data["photos"]["photo"]
                for p in photos:
                    img = p["src"].split("?")[0]
                    try:
                        async with session.get(img, headers=headers) as img_res:
                            imgcode = await img_res.read()
                            with open("photos/{}".format(img.split("/")[-1]), "wb") as f:
                                f.write(imgcode)
                                f.close()
                    except Exception as e:
                        print(e)
                ############################################################
            else:
                print("網(wǎng)頁(yè)訪(fǎng)問(wèn)失敗")


# 為避免爬蟲(chóng)一次性請(qǐng)求次數(shù)太多,控制一下
async def x_get_source(url):
    with(await sema):
        await get_source(url)


if __name__=="__main__":
        #### 代碼去上面找

圖片下載成功,一個(gè)小爬蟲(chóng),我們又寫(xiě)完了,美滋滋



文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/19545.html

相關(guān)文章

  • Python爬蟲(chóng)入門(mén)教程 8-100 蜂鳥(niǎo)網(wǎng)圖片爬取之三

    摘要:蜂鳥(niǎo)網(wǎng)圖片啰嗦兩句前幾天的教程內(nèi)容量都比較大,今天寫(xiě)一個(gè)相對(duì)簡(jiǎn)單的,爬取的還是蜂鳥(niǎo),依舊采用希望你喜歡爬取頁(yè)面本篇教程還是基于學(xué)習(xí)的目的,為啥選擇蜂鳥(niǎo),沒(méi)辦法,我瞎選的。 1. 蜂鳥(niǎo)網(wǎng)圖片-啰嗦兩句 前幾天的教程內(nèi)容量都比較大,今天寫(xiě)一個(gè)相對(duì)簡(jiǎn)單的,爬取的還是蜂鳥(niǎo),依舊采用aiohttp 希望你喜歡爬取頁(yè)面https://tu.fengniao.com/15/ 本篇教程還是基于學(xué)習(xí)的...

    int64 評(píng)論0 收藏0
  • Python爬蟲(chóng)入門(mén)教程 7-100 蜂鳥(niǎo)網(wǎng)圖片取之

    摘要:蜂鳥(niǎo)網(wǎng)圖片簡(jiǎn)介今天玩點(diǎn)新鮮的,使用一個(gè)新庫(kù),利用它提高咱爬蟲(chóng)的爬取速度。上下文不在提示,自行搜索相關(guān)資料即可創(chuàng)建一個(gè)對(duì)象,然后用該對(duì)象去打開(kāi)網(wǎng)頁(yè)。可以進(jìn)行多項(xiàng)操作,比如等代碼中等待網(wǎng)頁(yè)數(shù)據(jù)返回創(chuàng)建線(xiàn)程,方法負(fù)責(zé)安排執(zhí)行中的任務(wù)。 1. 蜂鳥(niǎo)網(wǎng)圖片-簡(jiǎn)介 今天玩點(diǎn)新鮮的,使用一個(gè)新庫(kù) aiohttp ,利用它提高咱爬蟲(chóng)的爬取速度。 安裝模塊常規(guī)套路 pip install aiohtt...

    z2xy 評(píng)論0 收藏0
  • Python爬蟲(chóng)入門(mén)教程 7-100 蜂鳥(niǎo)網(wǎng)圖片取之

    摘要:蜂鳥(niǎo)網(wǎng)圖片簡(jiǎn)介今天玩點(diǎn)新鮮的,使用一個(gè)新庫(kù),利用它提高咱爬蟲(chóng)的爬取速度。上下文不在提示,自行搜索相關(guān)資料即可創(chuàng)建一個(gè)對(duì)象,然后用該對(duì)象去打開(kāi)網(wǎng)頁(yè)??梢赃M(jìn)行多項(xiàng)操作,比如等代碼中等待網(wǎng)頁(yè)數(shù)據(jù)返回創(chuàng)建線(xiàn)程,方法負(fù)責(zé)安排執(zhí)行中的任務(wù)。 1. 蜂鳥(niǎo)網(wǎng)圖片-簡(jiǎn)介 今天玩點(diǎn)新鮮的,使用一個(gè)新庫(kù) aiohttp ,利用它提高咱爬蟲(chóng)的爬取速度。 安裝模塊常規(guī)套路 pip install aiohtt...

    hufeng 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<