摘要:按照同樣的方式扒取所有的自己的用戶。但是為了尊重人家隱私權,好吧,就這樣吧,我也不能做啥。
這幾天我很焦慮,受不了那些先follow我,等我follow回去后又unfollow的人,因為是他們先follow我的,我出于人道主義想著互粉一下的,結果這么對我,太不厚道了。github又不像微博那樣有互粉標志,這真的整得我很心煩,于是想著寫一個爬蟲,把這些“壞人”揪出來~
第一步,當然是放出代碼啦,代碼放在我的github上,歡迎給star:
https://github.com/laurel-he/...
我是一個python初學者,完全小白,所以只能用比較蠢的方法來扒,以下是我的步驟:
1 扒取整個頁面
# -*- coding:UTF-8 -*- import requests if __name__ == "__main__": target = "https://github.com/laurel-he?tab=followers" req = requests.get(url=target) fo = open("1.txt", "ab+") fo.write((req.text).encode("UTF-8")) fo.close()
以上代碼可以將整個文件的html扒取下來,接下來找到用戶,在follower里面隨便找到一個用戶,在剛才生成的txt文件中搜索,然后就可以得到如下匹配:
data-octo-dimensions="link_type:self".href="/(.?)"
可以直接匹配出用戶名。
2 根據正則獲取匹配的用戶
剛才已經把整個頁面扒取下來了,代碼放在spider/follwers/url.py,txt文件效果如下:
但是我想要獲取的是所有follwer,之前已經得到了對應的正則表達式,那么得到所有的follwer很容易,最終代碼如下:
# -*- coding:UTF-8 -*- import requests import re if __name__ == "__main__": target = "https://github.com/laurel-he?tab=followers" req = requests.get(url=target) context = req.text patt = re.compile(r"data-octo-dimensions="link_type:self".*href="/(.*?)"") ch = patt.findall(req.text) fo = open("flower.txt","ab+") for i in ch: line = str(i) + " " fo.write((line).encode("UTF-8")+b" ") fo.close
以上代碼可以直接扒取所有follwers,但是出現了兩遍,因為我這個表達式每個名字會匹配到兩次,下一版本會更換正則表達式,先將就用吧,然后如法炮制扒取第二頁第三頁,只需要更改鏈接地址,加上page就可以,同時也可以把文件寫入方式變成追加方式,或者干脆每次都新建一個文件,無所謂,總之最終將所有用戶扒取下來。按照同樣的方式扒取所有的自己follwing的用戶。
這里注意的是,代碼里一定要加上換行!換行符不加就是一團亂麻,啥也看不清。
換行符添加后不成功的話試試加上"r",也許就能成功了;
還是不成功的話看看報錯是不是這個樣子滴:
是的話加上b方法,轉化成byte~
3 接下來是最傻最騷的操作-對比
想要找出來那個沒有follow自己的人,只能進行對比,我目前用了一個很傻的辦法就是新建一個excel文件,按照列粘貼所有數據,然后按照升序或降序排行(兩列排列方式要一樣),然后肉眼來對比?。?!
其實我還是覺得我要瞎了,但是真的比起一個個看好多了,以后繼續(xù)想更好的辦法,總之我是揪出來那個壞人了。。。但是為了尊重人家隱私權,好吧,就這樣吧,我也不能做啥。
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規(guī)行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://systransis.cn/yun/41911.html
摘要:時間永遠都過得那么快,一晃從年注冊,到現在已經過去了年那些被我藏在收藏夾吃灰的文章,已經太多了,是時候把他們整理一下了。那是因為收藏夾太亂,橡皮擦給設置私密了,不收拾不好看呀。 ...
閱讀 2919·2021-11-24 09:39
閱讀 1176·2021-11-02 14:38
閱讀 4177·2021-09-10 11:26
閱讀 2764·2021-08-25 09:40
閱讀 2320·2019-08-30 15:54
閱讀 492·2019-08-30 10:56
閱讀 2758·2019-08-26 12:14
閱讀 3228·2019-08-26 12:13