摘要:百度云搜索搜網(wǎng)盤(pán)如果爬蟲(chóng)沒(méi)有異常處理,那么爬行中一旦出現(xiàn)錯(cuò)誤,程序?qū)⒈罎⑼V构ぷ?,有異常處理即使出現(xiàn)錯(cuò)誤也能繼續(xù)執(zhí)行下去常見(jiàn)狀態(tài)碼重定向到新的,永久性重定向到臨時(shí),非永久性請(qǐng)求的資源未更新非法請(qǐng)求請(qǐng)求未經(jīng)授權(quán)禁止訪問(wèn)沒(méi)找到對(duì)應(yīng)頁(yè)面服務(wù)器內(nèi)部
【百度云搜索:http://www.lqkweb.com】 【搜網(wǎng)盤(pán):http://www.swpan.cn】
如果爬蟲(chóng)沒(méi)有異常處理,那么爬行中一旦出現(xiàn)錯(cuò)誤,程序?qū)⒈罎⑼V构ぷ鳎挟惓L幚砑词钩霈F(xiàn)錯(cuò)誤也能繼續(xù)執(zhí)行下去
1.常見(jiàn)狀態(tài)碼
301:重定向到新的URL,永久性
302:重定向到臨時(shí)URL,非永久性
304:請(qǐng)求的資源未更新
400:非法請(qǐng)求
401:請(qǐng)求未經(jīng)授權(quán)
403:禁止訪問(wèn)
404:沒(méi)找到對(duì)應(yīng)頁(yè)面
500:服務(wù)器內(nèi)部出現(xiàn)錯(cuò)誤
501:服務(wù)器不支持實(shí)現(xiàn)請(qǐng)求所需要的功能
2.異常處理
URLError捕獲異常信息
#!/usr/bin/env python # -*- coding: utf-8 -*- import urllib.request import urllib.error try: #嘗試執(zhí)行里面的內(nèi)容 html = urllib.request.urlopen("http://www.xiaohuar.com/").read().decode("utf-8") print(html) except urllib.error.URLError as e: #如果出現(xiàn)錯(cuò)誤 if hasattr(e,"code"): #如果有錯(cuò)誤代碼 print(e.code) #打印錯(cuò)誤代碼 if hasattr(e,"reason"): #如果有錯(cuò)誤信息 print(e.reason) #打印錯(cuò)誤信息 #返回 說(shuō)明網(wǎng)站禁止了爬蟲(chóng)訪問(wèn) # 403 # Forbidden
瀏覽器偽裝技術(shù)
很多網(wǎng)站,做了反爬技術(shù),一般在后臺(tái)檢測(cè)請(qǐng)求頭信息里是否有User-Agent瀏覽器信息,如果沒(méi)有說(shuō)明不是瀏覽器訪問(wèn),就屏蔽了這次請(qǐng)求
所以,我們需要偽裝瀏覽器報(bào)頭來(lái)請(qǐng)求
#!/usr/bin/env python # -*- coding: utf-8 -*- import urllib.request url = "https://www.qiushibaike.com/" #抓取頁(yè)面URL tou = ("User-Agent","Mozilla/5.0 (Windows NT 10.0; WOW64; rv:54.0) Gecko/20100101 Firefox/54.0") #設(shè)置模擬瀏覽器報(bào)頭 b_tou = urllib.request.build_opener() #創(chuàng)建請(qǐng)求對(duì)象 b_tou.addheaders=[tou] #添加報(bào)頭 html = b_tou.open(url).read().decode("utf-8") #開(kāi)始抓取頁(yè)面 print(html)
注意:我們可以看到這次請(qǐng)求并不是用urlopen()方法請(qǐng)求的,此時(shí)用urlopen()無(wú)法請(qǐng)求,但是我們就會(huì)感覺(jué)到這樣很費(fèi)勁,難道每次請(qǐng)求都要?jiǎng)?chuàng)建build_opener(),所以我們需要設(shè)置使用urlopen()方法請(qǐng)求自動(dòng)報(bào)頭
設(shè)置使用urlopen()方法請(qǐng)求自動(dòng)報(bào)頭,也就是設(shè)置用戶(hù)代理
install_opener()將報(bào)頭信息設(shè)置為全局,urlopen()方法請(qǐng)求時(shí)也會(huì)自動(dòng)添加報(bào)頭
#!/usr/bin/env python # -*- coding: utf-8 -*- import urllib.request #設(shè)置報(bào)頭信息 tou = ("User-Agent","Mozilla/5.0 (Windows NT 10.0; WOW64; rv:54.0) Gecko/20100101 Firefox/54.0") #設(shè)置模擬瀏覽器報(bào)頭 b_tou = urllib.request.build_opener() #創(chuàng)建請(qǐng)求對(duì)象 b_tou.addheaders=[tou] #添加報(bào)頭到請(qǐng)求對(duì)象 #將報(bào)頭信息設(shè)置為全局,urlopen()方法請(qǐng)求時(shí)也會(huì)自動(dòng)添加報(bào)頭 urllib.request.install_opener(b_tou) #請(qǐng)求 url = "https://www.qiushibaike.com/" html = urllib.request.urlopen(url).read().decode("utf-8") print(html)
創(chuàng)建用戶(hù)代理池
#!/usr/bin/env python # -*- coding: utf-8 -*- import urllib.request import random #引入隨機(jī)模塊文件 def yh_dl(): #創(chuàng)建用戶(hù)代理池 yhdl = [ "Mozilla/5.0 (Windows; U; Windows NT 6.1; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50", "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0", "Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0)", "Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:2.0.1) Gecko/20100101 Firefox/4.0.1", "Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1", "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11", "Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Maxthon 2.0)", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; TencentTraveler 4.0)", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; The World)", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; 360SE)", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Avant Browser)", "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)", "Mozilla/5.0 (iPhone; U; CPU iPhone OS 4_3_3 like Mac OS X; en-us) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8J2 Safari/6533.18.5", "User-Agent:Mozilla/5.0 (iPod; U; CPU iPhone OS 4_3_3 like Mac OS X; en-us) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8J2 Safari/6533.18.5", "Mozilla/5.0 (iPad; U; CPU OS 4_3_3 like Mac OS X; en-us) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8J2 Safari/6533.18.5", "Mozilla/5.0 (Linux; U; Android 2.3.7; en-us; Nexus One Build/FRF91) AppleWebKit/533.1 (KHTML, like Gecko) Version/4.0 Mobile Safari/533.1", "Opera/9.80 (Android 2.3.4; Linux; Opera Mobi/build-1107180945; U; en-GB) Presto/2.8.149 Version/11.10", "Mozilla/5.0 (Linux; U; Android 3.0; en-us; Xoom Build/HRI39) AppleWebKit/534.13 (KHTML, like Gecko) Version/4.0 Safari/534.13", "Mozilla/5.0 (BlackBerry; U; BlackBerry 9800; en) AppleWebKit/534.1+ (KHTML, like Gecko) Version/6.0.0.337 Mobile Safari/534.1+", "Mozilla/5.0 (compatible; MSIE 9.0; Windows Phone OS 7.5; Trident/5.0; IEMobile/9.0; HTC; Titan)", "UCWEB7.0.2.37/28/999", "NOKIA5700/ UCWEB7.0.2.37/28/999", "Openwave/ UCWEB7.0.2.37/28/999", "Mozilla/4.0 (compatible; MSIE 6.0; ) Opera/UCWEB7.0.2.37/28/999" ] thisua = random.choice(yhdl) #隨機(jī)獲取代理信息 headers = ("User-Agent",thisua) #拼接報(bào)頭信息 opener = urllib.request.build_opener() #創(chuàng)建請(qǐng)求對(duì)象 opener.addheaders=[headers] #添加報(bào)頭到請(qǐng)求對(duì)象 urllib.request.install_opener(opener) #將報(bào)頭信息設(shè)置為全局,urlopen()方法請(qǐng)求時(shí)也會(huì)自動(dòng)添加報(bào)頭 #請(qǐng)求 yh_dl() #執(zhí)行用戶(hù)代理池函數(shù) url = "https://www.qiushibaike.com/" html = urllib.request.urlopen(url).read().decode("utf-8") print(html)
這樣爬蟲(chóng)會(huì)隨機(jī)調(diào)用,用戶(hù)代理,也就是隨機(jī)報(bào)頭,保證每次報(bào)頭信息不一樣
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/44038.html
摘要:下面我們傳入多個(gè)參數(shù)構(gòu)建一個(gè)來(lái)感受一下在這里我們通過(guò)四個(gè)參數(shù)構(gòu)造了一個(gè),即請(qǐng)求,在中指定了和,傳遞的參數(shù)用了和方法來(lái)轉(zhuǎn)成字節(jié)流,另外指定了請(qǐng)求方式為。運(yùn)行結(jié)果如下通過(guò)觀察結(jié)果可以發(fā)現(xiàn),我們成功設(shè)置了,以及。用于處理重定向。 上一篇文章:Python3網(wǎng)絡(luò)爬蟲(chóng)實(shí)戰(zhàn)---19、代理基本原理下一篇文章:Python3網(wǎng)絡(luò)爬蟲(chóng)實(shí)戰(zhàn)---21、使用Urllib:處理異常 學(xué)習(xí)爬蟲(chóng),最初的操作便...
摘要:通過(guò)本文的學(xué)習(xí),可以快速掌握網(wǎng)絡(luò)爬蟲(chóng)基礎(chǔ),結(jié)合實(shí)戰(zhàn)練習(xí),寫(xiě)出一些簡(jiǎn)單的爬蟲(chóng)項(xiàng)目。從技術(shù)手段來(lái)說(shuō),網(wǎng)絡(luò)爬蟲(chóng)有多種實(shí)現(xiàn)方案,如。二網(wǎng)絡(luò)爬蟲(chóng)技術(shù)基礎(chǔ)在本次課中,將使用技術(shù)手段進(jìn)行項(xiàng)目的編寫(xiě)。 摘要:本文詳細(xì)講解了python網(wǎng)絡(luò)爬蟲(chóng),并介紹抓包分析等技術(shù),實(shí)戰(zhàn)訓(xùn)練三個(gè)網(wǎng)絡(luò)爬蟲(chóng)案例,并簡(jiǎn)單補(bǔ)充了常見(jiàn)的反爬策略與反爬攻克手段。通過(guò)本文的學(xué)習(xí),可以快速掌握網(wǎng)絡(luò)爬蟲(chóng)基礎(chǔ),結(jié)合實(shí)戰(zhàn)練習(xí),寫(xiě)出一些簡(jiǎn)單的...
摘要:編碼我們發(fā)現(xiàn),中有時(shí)候存在中文,這是就需要對(duì)進(jìn)行編碼。可以先將中文轉(zhuǎn)換成編碼,然后使用方法對(duì)參數(shù)進(jìn)行編碼后傳遞。 本文檔對(duì)日常學(xué)習(xí)中用 python 做數(shù)據(jù)爬取時(shí)所遇到的一些問(wèn)題做簡(jiǎn)要記錄,以便日后查閱,部分問(wèn)題可能因?yàn)檎J(rèn)識(shí)不到位會(huì)存在一些誤解,敬請(qǐng)告知,萬(wàn)分感謝,共同進(jìn)步。 估算網(wǎng)站規(guī)模 該小節(jié)主要針對(duì)于整站爬取的情況。爬取整站之前,肯定是要先對(duì)一個(gè)網(wǎng)站的規(guī)模進(jìn)行估計(jì)。這是可以使用g...
摘要:這就是我們第一個(gè)核心函數(shù)代碼,后面還有很多個(gè)喔明天待續(xù)中級(jí)玩家淘寶天貓商品搜索爬蟲(chóng)自動(dòng)化工具第二篇等不及,請(qǐng)武裝 查看·Github 使用Golang重構(gòu)PC版本搜索框:https://github.com/hunterhug/... 一、前言 大家好,今天我要來(lái)講講一個(gè)比較實(shí)用的爬蟲(chóng)工具,抓取淘寶的關(guān)鍵字商品信息,即是: showImg(https://segmentfault.co...
摘要:內(nèi)存池機(jī)制提供了對(duì)內(nèi)存的垃圾收集機(jī)制,但是它將不用的內(nèi)存放到內(nèi)存池而不是返回給操作系統(tǒng)。為了加速的執(zhí)行效率,引入了一個(gè)內(nèi)存池機(jī)制,用于管理對(duì)小塊內(nèi)存的申請(qǐng)和釋放。 注:答案一般在網(wǎng)上都能夠找到。1.對(duì)if __name__ == main的理解陳述2.python是如何進(jìn)行內(nèi)存管理的?3.請(qǐng)寫(xiě)出一段Python代碼實(shí)現(xiàn)刪除一個(gè)list里面的重復(fù)元素4.Python里面如何拷貝一個(gè)對(duì)象?...
閱讀 2860·2021-11-25 09:43
閱讀 2503·2021-10-09 09:44
閱讀 2817·2021-09-22 15:49
閱讀 2590·2021-09-01 11:43
閱讀 2557·2019-08-30 14:16
閱讀 478·2019-08-29 17:24
閱讀 3031·2019-08-29 14:00
閱讀 1396·2019-08-29 13:05