摘要:標(biāo)簽空格分隔爬蟲(chóng)一爬取網(wǎng)頁(yè),獲取需要內(nèi)容我們今天要爬取的是豆瓣電影頁(yè)面如下所示我們需要的是里面的電影分類(lèi),通過(guò)查看源代碼觀察可以分析出我們需要的東西。
標(biāo)簽(空格分隔):python爬蟲(chóng)
一、爬取網(wǎng)頁(yè),獲取需要內(nèi)容我們今天要爬取的是豆瓣電影top250
頁(yè)面如下所示:
我們需要的是里面的電影分類(lèi),通過(guò)查看源代碼觀察可以分析出我們需要的東西。直接進(jìn)入主題吧!
知道我們需要的內(nèi)容在哪里了,接下來(lái)就使用我們python強(qiáng)大的request庫(kù)先獲取網(wǎng)頁(yè)內(nèi)容下來(lái)吧!獲取內(nèi)容后,再使用一個(gè)好用的lxml庫(kù)來(lái)分析網(wǎng)頁(yè)內(nèi)容,然后獲取我們的內(nèi)容就可以做下一步操作了。
先貼出使用request庫(kù)和lxml分析的代碼
def get_page(i): url = "https://movie.douban.com/top250?start={}&filter=".format(i) html = requests.get(url).content.decode("utf-8") # 使用request庫(kù)獲取網(wǎng)頁(yè)內(nèi)容 selector = etree.HTML(html) # 使用lxml庫(kù)提取內(nèi)容 """ 通過(guò)觀察頁(yè)面就能發(fā)現(xiàn)內(nèi)容在下的一部分 """ content = selector.xpath("http://div[@class="info"]/div[@class="bd"]/p/text()") print(content) for i in content[1::2]: print(str(i).strip().replace(" ", "")) # print(str(i).split("/")) i = str(i).split("/") i = i[len(i) - 1] key = i.strip().replace(" ", "").split(" ") # 這里的strip和replace的使用目的是去除空格和空行之類(lèi) print(key)通過(guò)獲取下來(lái)的內(nèi)容我們發(fā)現(xiàn)一部電影的各項(xiàng)內(nèi)容都是用"/"分隔著,我們只需要提取電影分類(lèi)中的東西,所以我們需要使用
i = str(i).split("/")來(lái)把內(nèi)容分隔成幾項(xiàng)內(nèi)容,因?yàn)殡娪胺诸?lèi)排在最后,所以我們通過(guò)
i = i[len(i) - 1]來(lái)獲取分隔后的最后一項(xiàng)也就是我們需要的電影分類(lèi),還有最后一步我們需要完成的,因?yàn)橐徊侩娪袄锩嬉话愣加卸鄠€(gè)電影分類(lèi)的標(biāo)簽,所以我們還要繼續(xù)分隔獲取到的電影分類(lèi),并且觀察可以知道電影分類(lèi)之間只是用一個(gè)空格隔開(kāi),所以我們使用下面一行代碼就可以分離出各個(gè)分類(lèi):
key = i.strip().replace(" ", "").split(" ")二、接下來(lái)就是保存到mysql數(shù)據(jù)庫(kù)把電影分類(lèi)保存在mysql數(shù)據(jù)庫(kù)以便下面進(jìn)行數(shù)據(jù)分析,這里我們使用到pymysql來(lái)連接mysql數(shù)據(jù)庫(kù),首先我們需要在mysql數(shù)據(jù)庫(kù)建好表:
然后我們通過(guò)pymysql把數(shù)據(jù)保存到數(shù)據(jù)庫(kù)中,代碼如下:
首先要連接數(shù)據(jù)庫(kù):# 連接mysql數(shù)據(jù)庫(kù) conn = pymysql.connect(host = "localhost", user = "root", passwd = "2014081029", db = "mysql", charset = "utf8")? # user為數(shù)據(jù)庫(kù)的名字,passwd為數(shù)據(jù)庫(kù)的密碼,一般把要把字符集定義為utf8,不然存入數(shù)據(jù)庫(kù)容易遇到編碼問(wèn)題 cur = conn.cursor()? # 獲取操作游標(biāo) cur.execute("use douban")? # 使用douban這個(gè)數(shù)據(jù)庫(kù)在保存到數(shù)據(jù)庫(kù)之前,我們還有一個(gè)需要做得,那就是把250部電影的分類(lèi)匯總數(shù)量,所以我們定義了一個(gè)字典來(lái)統(tǒng)計(jì)電影分類(lèi)的個(gè)數(shù),這里的代碼是get_page函數(shù)的一部分,代碼如下:
for i in content[1::2]: print(str(i).strip().replace(" ", "")) # print(str(i).split("/")) i = str(i).split("/") i = i[len(i) - 1] key = i.strip().replace(" ", "").split(" ") print(key) for i in key: if i not in douban.keys(): douban[i] = 1 else: douban[i] += 1然后定義一個(gè)保存函數(shù),執(zhí)行插入操作,如果出現(xiàn)插入失敗,就執(zhí)行回滾操作,還有記得在操作完成之后,使用conn.close()和cur.close()來(lái)關(guān)閉數(shù)據(jù)庫(kù)連接,代碼如下:
def save_mysql(douban): print(douban) # douban在主函數(shù)中定義的字典 for key in douban: print(key) print(douban[key]) if key != "": try: sql = "insert douban(類(lèi)別, 數(shù)量) value(" + """ + key + ""," + """ + str(douban[key]) + """ + ");" cur.execute(sql) conn.commit() except: print("插入失敗") conn.rollback()三、使用matplotlib進(jìn)行數(shù)據(jù)可視化操作首先,從數(shù)據(jù)庫(kù)中把電影分類(lèi)和每個(gè)分類(lèi)的數(shù)量分別存入一個(gè)列表中,然后使用matplotlib進(jìn)行可視化操作,具體如下:
def pylot_show(): sql = "select * from douban;" cur.execute(sql) rows = cur.fetchall() # 把表中所有字段讀取出來(lái) count = [] # 每個(gè)分類(lèi)的數(shù)量 category = [] # 分類(lèi) for row in rows: count.append(int(row[2])) category.append(row[1]) y_pos = np.arange(len(category)) # 定義y軸坐標(biāo)數(shù) plt.barh(y_pos, count, align="center", alpha=0.4) # alpha圖表的填充不透明度(0~1)之間 plt.yticks(y_pos, category) # 在y軸上做分類(lèi)名的標(biāo)記 for count, y_pos in zip(count, y_pos): # 分類(lèi)個(gè)數(shù)在圖中顯示的位置,就是那些數(shù)字在柱狀圖尾部顯示的數(shù)字 plt.text(count, y_pos, count, horizontalalignment="center", verticalalignment="center", weight="bold") plt.ylim(+28.0, -1.0) # 可視化范圍,相當(dāng)于規(guī)定y軸范圍 plt.title(u"豆瓣電影250") # 圖表的標(biāo)題 plt.ylabel(u"電影分類(lèi)") # 圖表y軸的標(biāo)記 plt.subplots_adjust(bottom = 0.15) plt.xlabel(u"分類(lèi)出現(xiàn)次數(shù)") # 圖表x軸的標(biāo)記 plt.savefig("douban.png") # 保存圖片下面說(shuō)明一下matplotlib的一些簡(jiǎn)單使用,首先我們要導(dǎo)入matplotlib和numpy的包
import numpy as np import matplotlib.pyplot as plt這次可視化是柱狀圖,這里給出brah()函數(shù)的定義:
barh()
主要功能:做一個(gè)橫向條形圖,橫向條的矩形大小為: left, left + width, bottom, bottom + height
參數(shù):barh ( bottom , width , height =0.8, left =0, **kwargs )
返回類(lèi)型:一個(gè) class 類(lèi)別, matplotlib.patches.Rectangle**實(shí)例
參數(shù)說(shuō)明:bottom: Bars 的垂直位置的底部邊緣
width: Bars 的長(zhǎng)度
可選參數(shù):height: bars 的高度
left: bars 左邊緣 x 軸坐標(biāo)值
color: bars 顏色
edgecolor: bars 邊緣顏色
linewidth: bar 邊緣寬度;None 表示默認(rèn)寬度;0 表示不 i 繪制邊緣
xerr: 若不為 None,將在 bar 圖上生成 errobars
yerr: 若不為 None,將在 bar 圖上生成 errobars
ecolor: 指定 errorbar 顏色
capsize: 指定 errorbar 的頂部(cap)長(zhǎng)度
align: ‘edge’ (默認(rèn)) | ‘center’:‘edge’以底部為準(zhǔn)對(duì)齊;‘center’以 y 軸作為中心
log: [False|True] False (默認(rèn)),若為 True,使用 log 坐標(biāo)
然后就可以顯示出圖片來(lái)了
源碼在這里:# -*- coding: utf-8 -*- # !/usr/bin/env python from lxml import etree import requests import pymysql import matplotlib.pyplot as plt from pylab import * import numpy as np # 連接mysql數(shù)據(jù)庫(kù) conn = pymysql.connect(host = "localhost", user = "root", passwd = "2014081029", db = "mysql", charset = "utf8") cur = conn.cursor() cur.execute("use douban") def get_page(i): url = "https://movie.douban.com/top250?start={}&filter=".format(i) html = requests.get(url).content.decode("utf-8") selector = etree.HTML(html) content = selector.xpath("http://div[@class="info"]/div[@class="bd"]/p/text()") print(content) for i in content[1::2]: print(str(i).strip().replace(" ", "")) # print(str(i).split("/")) i = str(i).split("/") i = i[len(i) - 1] # print("zhe" +i) # print(i.strip()) # print(i.strip().split(" ")) key = i.strip().replace(" ", "").split(" ") print(key) for i in key: if i not in douban.keys(): douban[i] = 1 else: douban[i] += 1 def save_mysql(): print(douban) for key in douban: print(key) print(douban[key]) if key != "": try: sql = "insert douban(類(lèi)別, 數(shù)量) value(" + """ + key + ""," + """ + str(douban[key]) + """ + ");" cur.execute(sql) conn.commit() except: print("插入失敗") conn.rollback() def pylot_show(): sql = "select * from douban;" cur.execute(sql) rows = cur.fetchall() count = [] category = [] for row in rows: count.append(int(row[2])) category.append(row[1]) print(count) y_pos = np.arange(len(category)) print(y_pos) print(category) colors = np.random.rand(len(count)) # plt.barh() plt.barh(y_pos, count, align="center", alpha=0.4) plt.yticks(y_pos, category) for count, y_pos in zip(count, y_pos): plt.text(count, y_pos, count, horizontalalignment="center", verticalalignment="center", weight="bold") plt.ylim(+28.0, -1.0) plt.title(u"豆瓣電影250") plt.ylabel(u"電影分類(lèi)") plt.subplots_adjust(bottom = 0.15) plt.xlabel(u"分類(lèi)出現(xiàn)次數(shù)") plt.savefig("douban.png") if __name__ == "__main__": douban = {} for i in range(0, 250, 25): get_page(i) # save_mysql() pylot_show() cur.close() conn.close()文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/38061.html
摘要:行代碼實(shí)現(xiàn)爬取豆瓣電影排行榜代碼基于,用到的類(lèi)庫(kù)有標(biāo)題文字通過(guò)偽造請(qǐng)求頭或設(shè)置代理等方式獲取頁(yè)面內(nèi)容,參考文檔對(duì)頁(yè)面進(jìn)行解析,提取數(shù)據(jù),參考文檔版本中用于操作數(shù)據(jù)庫(kù),中則使用,安裝用到的幾個(gè)類(lèi)庫(kù)分析豆瓣電影頁(yè)面頁(yè)面分析爬取數(shù)據(jù)之前,我們都需 48行代碼實(shí)現(xiàn)Python3爬取豆瓣電影排行榜代碼基于python3,用到的類(lèi)庫(kù)有: 標(biāo)題文字 requests:通過(guò)偽造請(qǐng)求頭或設(shè)置代理等方式獲...
摘要:這次我們爬取的內(nèi)容準(zhǔn)備步驟找到格式網(wǎng)頁(yè)中需要爬取的數(shù)據(jù)的例如我們需要爬取圖片的這里用的是不會(huì)用的同學(xué)請(qǐng)百度然后我們開(kāi)始建立工程打開(kāi)然后在你想要建立工程的目錄下面輸入就會(huì)自動(dòng)建立一個(gè)工程然后去根目錄建立一個(gè)去這個(gè)目錄里建立一個(gè)注意這里的主爬蟲(chóng) 這次我們爬取的內(nèi)容 showImg(https://segmentfault.com/img/bVSirX?w=1021&h=521); 準(zhǔn)備步驟...
摘要:查看源碼下載頁(yè)面并處理提取數(shù)據(jù)觀察該網(wǎng)站結(jié)構(gòu)可知該頁(yè)面下所有電影包含在標(biāo)簽下。使用語(yǔ)句獲取該標(biāo)簽在標(biāo)簽中遍歷每個(gè)標(biāo)簽獲取單個(gè)電影的信息。以電影名字為例清洗數(shù)據(jù)其余部分詳見(jiàn)源碼頁(yè)面跳轉(zhuǎn)檢查后頁(yè)標(biāo)簽。 查看源碼 1 下載頁(yè)面并處理 DOWNLOAD_URL = http://movie.douban.com/top250/ html = requests.get(url).text tr...
摘要:本文內(nèi)容爬取豆瓣電影頁(yè)面內(nèi)容,字段包含排名,片名,導(dǎo)演,一句話描述有的為空,評(píng)分,評(píng)價(jià)人數(shù),上映時(shí)間,上映國(guó)家,類(lèi)別抓取數(shù)據(jù)存儲(chǔ)介紹爬蟲(chóng)框架教程一入門(mén)創(chuàng)建項(xiàng)目創(chuàng)建爬蟲(chóng)注意,爬蟲(chóng)名不能和項(xiàng)目名一樣應(yīng)對(duì)反爬策略的配置打開(kāi)文件,將修改為。 本文內(nèi)容 爬取豆瓣電影Top250頁(yè)面內(nèi)容,字段包含:排名,片名,導(dǎo)演,一句話描述 有的為空,評(píng)分,評(píng)價(jià)人數(shù),上映時(shí)間,上映國(guó)家,類(lèi)別 抓取數(shù)據(jù)存儲(chǔ) ...
閱讀 2896·2023-04-26 00:26
閱讀 3504·2023-04-25 14:30
閱讀 3397·2021-10-09 09:44
閱讀 3688·2021-09-28 09:35
閱讀 1877·2021-09-22 16:02
閱讀 1261·2021-09-03 10:30
閱讀 3233·2019-08-30 15:53
閱讀 2168·2019-08-30 14:07