摘要:?jiǎn)翁锓及酌即髠b單田芳白眉大俠這個(gè)是他后臺(tái)臨時(shí)生成的下載地址,過(guò)幾分鐘就會(huì)失效。用直接拿到網(wǎng)頁(yè)單田芳白眉大俠單田芳白眉大俠,,都是固定的,變得只是下載的章數(shù)和動(dòng)態(tài)生成的地址碼。
爸爸經(jīng)常拿個(gè)收音機(jī)聽評(píng)書,最近想幫爸爸在網(wǎng)上下個(gè)全集。打開百度搜了下評(píng)書,發(fā)現(xiàn)有個(gè)叫評(píng)書網(wǎng)的網(wǎng)站。搜了下單田芳說(shuō)的《白眉大俠》。但是只能一回一次的單個(gè)點(diǎn)擊下載,那不得點(diǎn)死。所以就想到了批量搞它。本文用的方法很簡(jiǎn)單(大神勿噴)。 發(fā)現(xiàn)規(guī)律,http://www.5ips.net/down_120_001.htm這個(gè)是第一回的下載地址,用瀏覽器打開顯示網(wǎng)頁(yè)源碼發(fā)現(xiàn)下載地址就在里邊那就好辦了。url[2]= "/pingshu/單田芳_白眉大俠/單田芳_白眉大俠_001.mp3?key=8de4ff27ca1e24e711d0772ebe13b454_511093084"這個(gè)是他后臺(tái)臨時(shí)生成的下載地址,過(guò)幾分鐘就會(huì)失效。規(guī)律得到了,url地址是_001表示第一回,文件地址為_001.mp3, 如果是_002就表示第二回,文件地址為_002.mp3。以此類推 好吧直接搞起。用urllib2直接拿到網(wǎng)頁(yè)
psurl0 = "http://www.5ips.net/down_120_" psurl0_0 = ".htm" psurl1 = "http://p33d.5ips.net/pingshu/單田芳_白眉大俠/單田芳_白眉大俠_" def main(index): ji = ""; if index < 10: ji = "00%d" %index; elif index < 100: ji = "0%d" %index; else: ji = "%d" %index url_p = psurl0 + ji + psurl0_0 reque = urllib2.Request(url_p, headers = headers) content = urllib2.urlopen(reque).read() reg = ".mp3?key=.*"" reslut = re.search(reg, content).group() reslut = reslut.replace(""", "") newpath = psurl1 + ji + reslut #down(newpath, ji + ".mp3")
psurl0,psurl0_0,psurl1都是固定的,變得只是下載的章數(shù)和動(dòng)態(tài)生成的地址碼。由于下載地址直接顯示到網(wǎng)頁(yè)源碼中了,所以不需要復(fù)雜的解析,直接用正則找到下載地址reslut
拿到下載地址了直接用urllib2.urlopen下載失敗了,但是把地址帖到瀏覽器可以播放,應(yīng)該被網(wǎng)站禁止了。好吧,嘗試其他辦法。打開命令行用weget下載成功。問(wèn)題解決了。weget是linux系統(tǒng)自帶的下載工具,Mac和windows都需要自己安裝。
def down(url, file_name): option = "wget -O ./白眉大俠/%s %s" %(file_name, url) pop = subprocess.Popen(target, stdin = subprocess.PIPE, stdout = subprocess.PIPE) pop.communicate(mess)
一個(gè)循環(huán)把320回的MP3全部搞下
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/37816.html
摘要:打包成單文件所使用的命令為打包成文件夾所使用的命令為不管是哪種打包方式都會(huì)留下一個(gè)文件。這樣我們只需將腳本文件和腳本文件放置到同一文件夾下,運(yùn)行我們的腳本??梢钥吹揭呀?jīng)完美的反編譯出其中的腳本好了,相信大家已經(jīng)明白了反編譯的原理。 近期閱讀了一篇很感興趣的文章,為免后續(xù)文章被刪無(wú)法再閱讀,現(xiàn)...
摘要:一般常用爬蟲下載文本,圖片,視頻,聲音。此處以下載圖片為例,圖片也是相對(duì)最容易。格式的文件下載只要抓包或者得到請(qǐng)求鏈接,那么將上面的程序稍稍改動(dòng)一下,即可下載。比如只要能試聽,就會(huì)有鏈接。聲明部分參考了很有趣兒的爬蟲分享 一般常用爬蟲下載文本,圖片,視頻,聲音。此處以下載圖片為例,圖片也是相對(duì)最容易。 #-*- coding:utf-8 -*- import os,re,request...
摘要:在這之前,還是有必要對(duì)一些概念超輕量級(jí)反爬蟲方案后端掘金前言爬蟲和反爬蟲日益成為每家公司的標(biāo)配系統(tǒng)。 爬蟲修煉之道——從網(wǎng)頁(yè)中提取結(jié)構(gòu)化數(shù)據(jù)并保存(以爬取糗百文本板塊所有糗事為例) - 后端 - 掘金歡迎大家關(guān)注我的專題:爬蟲修煉之道 上篇 爬蟲修煉之道——編寫一個(gè)爬取多頁(yè)面的網(wǎng)絡(luò)爬蟲主要講解了如何使用python編寫一個(gè)可以下載多頁(yè)面的爬蟲,如何將相對(duì)URL轉(zhuǎn)為絕對(duì)URL,如何限速,...
摘要:一下安裝數(shù)據(jù)庫(kù)進(jìn)入官網(wǎng),選擇相應(yīng)的版本下載,安裝時(shí)默認(rèn)勾選安裝服務(wù)和修改一些數(shù)據(jù)庫(kù)配置,如已有數(shù)據(jù)庫(kù)連接工具,可取消默認(rèn)勾選的安裝。 一、Win下安裝數(shù)據(jù)庫(kù) 進(jìn)入mongo官網(wǎng),選擇相應(yīng)的msi版本下載,安裝時(shí)默認(rèn)勾選安裝MongoD服務(wù)和修改一些數(shù)據(jù)庫(kù)配置,如已有數(shù)據(jù)庫(kù)連接工具Robo 3T,可取消默認(rèn)勾選的compass安裝。 若啟動(dòng)服務(wù)報(bào)mp錯(cuò)誤,可修改binmongod.cfg...
摘要:如何使用下載文件當(dāng)你在或者上安裝配置好時(shí),你就可以通過(guò)其下載文件了。正文完參考文章下開機(jī)啟動(dòng)懶人安裝教程的開機(jī)啟動(dòng)文件夾在哪及開機(jī)自動(dòng)啟動(dòng)軟件 什么是 Aria2? aria2 是一個(gè)輕量級(jí)的多協(xié)議和多源命令行下載實(shí)用程序。 它支持 HTTP / HTTPS,F(xiàn)TP,SFTP,BitTorrent 和 Metalink。 aria2 可以通過(guò)內(nèi)置的 JSON-RPC 和 XML-RPC...
閱讀 1457·2019-08-29 17:14
閱讀 1656·2019-08-29 12:12
閱讀 738·2019-08-29 11:33
閱讀 3273·2019-08-28 18:27
閱讀 1449·2019-08-26 10:19
閱讀 912·2019-08-23 18:18
閱讀 3534·2019-08-23 16:15
閱讀 2548·2019-08-23 14:14