摘要:本文章屬于爬蟲入門到精通系統(tǒng)教程第七講直接開始案例吧。本次我們實現(xiàn)如何模擬登陸知乎。
本文章屬于爬蟲入門到精通系統(tǒng)教程第七講
直接開始案例吧。
本次我們實現(xiàn)如何模擬登陸知乎。
1.抓包首先打開知乎登錄頁 知乎 - 與世界分享你的知識、經(jīng)驗和見解
注意打開開發(fā)者工具后點擊“preserve log”,密碼記得故意輸入錯誤,然后點擊登錄
我們很簡單的就找到了 我們需要的請求
_xsrf:81aa4a69cd410c3454ce515187f2d4c9 password:*** email:[email protected]
可以看到請求一共有三個參數(shù)
email 和password就是我們需要登錄的賬號及密碼
那么_xsrf是什么?我們在哪能找到?
像“_xsrf”這種參數(shù),一般叫做頁面校檢碼,是來檢查你是否是從正常的登錄頁面過來的。
那我們復(fù)制這個值,在登錄頁面找找看。
//input[@name="_xsrf"]/@value
所以,本次登錄我們需要得到的數(shù)據(jù)已經(jīng)都得到了
步驟如下:
打開知乎登錄頁面,獲取_xsrf
把_xsrf和自己的賬號及密碼一起發(fā)送(模擬登錄)
2.模擬登錄import requests url = "https://www.zhihu.com/#signin" z = requests.get(url) print z.status_code
我們會看到 http狀態(tài)碼為500...
至于為什么會返回500狀態(tài)碼呢?是因為我們用程序來訪問知乎被發(fā)現(xiàn)了...
我們偽裝成瀏覽器,添加一行
可以看到返回正常了,http狀態(tài)碼為200(這就是headers的作用)
那我們現(xiàn)在獲取_xsrf
from lxml import etree sel = etree.HTML(z1.content) # 這個xsrf怎么獲取 我們上面有講到 _xsrf = sel.xpath("http://input[@name="_xsrf"]/@value")[0]
然后模擬登錄
loginurl = "https://www.zhihu.com/login/email" # 這里的_xsrf就是我們剛剛上面得到的 formdata = { "email":"[email protected]", "password":"你的密碼", "_xsrf":_xsrf } z2 = requests.post(url=loginurl,data=formdata,headers=headers) print z2.status_code #200 print z2.content # "{"r":0, "msg": "u767bu5f55u6210u529f" }" print z2.json()["msg"] # 登陸成功
可以看到已經(jīng)模擬登錄并成功了。
那我們來打開知乎 - 與世界分享你的知識、經(jīng)驗和見解來檢查下 是否有登錄成功
# 為什么用這個頁面呢? # 因為這個頁面只有登錄后才能看得到,如果沒有登錄的話 會自動跳轉(zhuǎn)讓你登錄的 mylog = "https://www.zhihu.com/people/pa-chong-21/logs" z3 = requests.get(url=mylog,headers=headers) print z3.status_code #200 print z3.url # u"https://www.zhihu.com/?next=%2Fpeople%2Fpa-chong-21%2Flogs"
發(fā)現(xiàn)頁面url是 (https://www.zhihu.com/?next=%...
并不是 我前面輸入的 (https://www.zhihu.com/people/...
說明知乎判斷我們沒有登錄,然后把我們跳轉(zhuǎn)到登錄頁面了.
如果感興趣的話,可以把z3.text 的返回值存為123.html,然后打開看看,是不是跳轉(zhuǎn)到登錄頁面了..
那么為什么會跳到登錄頁面呢?剛剛不是已經(jīng)登錄成功了么?
這是因為,我們這幾個模擬請求,相互間都是獨立的,所以z2登錄成功了,和z3并沒有什么關(guān)系。
那如果我現(xiàn)在想要z3不用再模擬登錄一次,也能登錄的話,怎么辦呢?
我們可以把z2登錄成功后得到的cookie給z3,這樣,z3也就能登錄成功了.
用程序?qū)崿F(xiàn)
再次判斷下是否登錄成功。
z3 = requests.get(url=mylog,headers=headers) print z3.url # u"https://www.zhihu.com/people/pa-chong-21/logs"
我們可以看到已經(jīng)正常訪問了。說明我們登錄成功了
所以,以后只要你帶著這個cookie,就可以訪問登錄后的頁面了.(這就是cookie的作用..)
最后附上一個小技巧.
當(dāng)你需要登錄,或者說你需要在一段會話中操作(也就是我們上面的操作)
會話對象高級用法 - Requests 2.10.0 文檔會話對象讓你能夠跨請求保持某些參數(shù)。它也會在同一個 Session 實例發(fā)出的所有請求之間保持 cookie, 期間使用 urllib3 的 connection pooling 功能。所以如果你向同一主機發(fā)送多個請求,底層的 TCP 連接將會被重用,從而帶來顯著的性能提升。 (參見 HTTP persistent connection).
使用會話后,我們上面的代碼可以改成這樣
可以看到我們沒有把cookie傳過去,但是還是登錄成功了,這是因為session會自動幫你處理這些,會自動幫你管理cookie
我們可以打印看下我們請求的headers
可以看到headers里面自動加上了cookie
最后所有的代碼都在kimg1234/pachong
最后再次總結(jié)一下看完本篇文章后,你應(yīng)該要
能理解User-Agent,cookie的作用
了解requests中的session用法
了解如何模擬登錄一個網(wǎng)頁
如果你對requests這個庫不太熟悉的話,你可以在快速上手 - Requests 2.10.0 文檔瀏覽。
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/38609.html
摘要:網(wǎng)頁的下載本文章屬于爬蟲入門到精通系統(tǒng)教程第四講在爬蟲入門到精通第二講中,我們了解了協(xié)議,那么我們現(xiàn)在使用這些協(xié)議來快速爬蟲吧本文的目標(biāo)當(dāng)你看完本文后,你應(yīng)該能爬取幾乎任何的網(wǎng)頁使用抓包抓包就是將網(wǎng)絡(luò)傳輸發(fā)送與接收的數(shù)據(jù)包進行截獲重發(fā)編輯轉(zhuǎn) 網(wǎng)頁的下載 本文章屬于爬蟲入門到精通系統(tǒng)教程第四講 在爬蟲入門到精通第二講中,我們了解了HTTP協(xié)議,那么我們現(xiàn)在使用這些協(xié)議來快速爬蟲吧 本文的...
摘要:協(xié)議的講解本文章屬于爬蟲入門到精通系統(tǒng)教程第三講什么是協(xié)議引用自維基百科超文本傳輸協(xié)議英文,縮寫是互聯(lián)網(wǎng)上應(yīng)用最為廣泛的一種網(wǎng)絡(luò)協(xié)議。通過或者協(xié)議請求的資源由統(tǒng)一資源標(biāo)識符,來標(biāo)識。假定其下層協(xié)議提供可靠的傳輸。 HTTP協(xié)議的講解 本文章屬于爬蟲入門到精通系統(tǒng)教程第三講 什么是HTTP協(xié)議? 引用自維基百科 超文本傳輸協(xié)議(英文:HyperText Transfer Protoco...
摘要:時間永遠都過得那么快,一晃從年注冊,到現(xiàn)在已經(jīng)過去了年那些被我藏在收藏夾吃灰的文章,已經(jīng)太多了,是時候把他們整理一下了。那是因為收藏夾太亂,橡皮擦給設(shè)置私密了,不收拾不好看呀。 ...
摘要:但這邊特別提醒的是里看到的代碼不等于請求網(wǎng)址拿到的返回值。這個文件包含了列表中所有請求的各項參數(shù)及返回值信息,以便你查找分析。理解了這幾步,大部分網(wǎng)上的數(shù)據(jù)都可以拿到,說解決一半的問題可不是標(biāo)題黨。 網(wǎng)上爬蟲的教程實在太多了,知乎上搜一下,估計能找到不下一百篇。大家樂此不疲地從互聯(lián)網(wǎng)上抓取著一個又一個網(wǎng)站。但只要對方網(wǎng)站一更新,很可能文章里的方法就不再有效了。 每個網(wǎng)站抓取的代碼各不相...
摘要:比如我們以知乎為例,直接利用來維持登錄狀態(tài)。測試后,發(fā)現(xiàn)同樣可以正常登錄知乎。上一篇文章網(wǎng)絡(luò)爬蟲實戰(zhàn)基本使用下一篇文章網(wǎng)絡(luò)爬蟲實戰(zhàn)正則表達式 上一篇文章:Python3網(wǎng)絡(luò)爬蟲實戰(zhàn)---24、requests:基本使用下一篇文章:Python3網(wǎng)絡(luò)爬蟲實戰(zhàn)---26、正則表達式 在前面一節(jié)我們了解了 Requests 的基本用法,如基本的 GET、POST 請求以及 Response...
閱讀 2186·2021-11-25 09:43
閱讀 2274·2021-11-24 09:39
閱讀 1588·2021-11-22 12:02
閱讀 3001·2021-11-17 09:33
閱讀 3425·2021-11-15 11:38
閱讀 2780·2021-10-13 09:40
閱讀 1084·2021-09-22 15:41
閱讀 1697·2019-08-30 10:58