摘要:本人想搞個采集微信文章的網(wǎng)站,無奈實在從微信本生無法找到入口鏈接,網(wǎng)上翻看了大量的資料,發(fā)現(xiàn)大家的做法總體來說大同小異,都是以搜狗為入口。下文是筆者整理的一份爬取微信文章的代碼,有興趣的歡迎閱讀,本人小站喜歡的話可以去首頁加官方微信或者。
本人想搞個采集微信文章的網(wǎng)站,無奈實在從微信本生無法找到入口鏈接,網(wǎng)上翻看了大量的資料,發(fā)現(xiàn)大家的做法總體來說大同小異,都是以搜狗為入口。下文是筆者整理的一份python爬取微信文章的代碼,有興趣的歡迎閱讀,本人小站:www.quzhuanpan.com喜歡的話可以去首頁加官方微信或者qq。
#coding:utf-8
author = "haoning"
**#!/usr/bin/env python
import time
import datetime
import requests**
import json
import sys
reload(sys)
sys.setdefaultencoding( "utf-8" )
import re
import xml.etree.ElementTree as ET
import os
#OPENID = "oIWsFtyel13ZMva1qltQ3pfejlwU"
OPENID = "oIWsFtw_-W2DaHwRz1oGWzL-wF9M&ext"
XML_LIST = []
# get current time in milliseconds
current_milli_time = lambda: int(round(time.time() * 1000))
def get_json(pageIndex):
global OPENID the_headers = { "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_9_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36", "Referer": "http://weixin.sogou.com/gzh?openid={0}".format(OPENID), "Host": "weixin.sogou.com" } url = "http://weixin.sogou.com/gzhjs?cb=sogou.weixin.gzhcb&openid={0}&page={1}&t={2}".format(OPENID, pageIndex, current_milli_time()) #url print(url) response = requests.get(url, headers = the_headers) # TO-DO; check if match the reg response_text = response.text print response_text json_start = response_text.index("sogou.weixin.gzhcb(") + 19 json_end = response_text.index(")") - 2 json_str = response_text[json_start : json_end] #get json #print(json_str) # convert json_str to json object json_obj = json.loads(json_str) #get json obj # print json_obj["totalPages"] return json_obj
def add_xml(jsonObj):
global XML_LIST xmls = jsonObj["items"] #get item #print type(xmls) XML_LIST.extend(xmls) #用新列表擴展原來的列表 **[#www.oksousou.com][2]**
# ------------ Main ----------------
print "play it :) "
# get total pages
default_json_obj = get_json(1)
total_pages = 0
total_items = 0
if(default_json_obj):
# add the default xmls add_xml(default_json_obj) # get the rest items total_pages = default_json_obj["totalPages"] total_items = default_json_obj["totalItems"] print total_pages # iterate all pages if(total_pages >= 2): for pageIndex in range(2, total_pages + 1): add_xml(get_json(pageIndex)) #extend print "load page " + str(pageIndex) print len(XML_LIST)
文章版權歸作者所有,未經(jīng)允許請勿轉載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉載請注明本文地址:http://systransis.cn/yun/37760.html
摘要:原文鏈接一個開源的微信個人接口,今天我們就用爬取微信好友信息,無圖言虛空三張圖分別是微信好友頭像拼接圖性別統(tǒng)計圖個性簽名統(tǒng)計圖微信好友頭像拼接圖性別統(tǒng)計圖個性簽名統(tǒng)計圖安裝主要用到的方法微信掃描二維碼登錄返回完整的好友列表,每個好友為一個字 原文鏈接:https://mp.weixin.qq.com/s/4EXgR4GkriTnAzVxluJxmg 「itchat」一個開源的微信個人...
摘要:今天為大家整理了個爬蟲項目。地址新浪微博爬蟲主要爬取新浪微博用戶的個人信息微博信息粉絲和關注。代碼獲取新浪微博進行登錄,可通過多賬號登錄來防止新浪的反扒。涵蓋鏈家爬蟲一文的全部代碼,包括鏈家模擬登錄代碼。支持微博知乎豆瓣。 showImg(https://segmentfault.com/img/remote/1460000018452185?w=1000&h=667); 今天為大家整...
摘要:時間永遠都過得那么快,一晃從年注冊,到現(xiàn)在已經(jīng)過去了年那些被我藏在收藏夾吃灰的文章,已經(jīng)太多了,是時候把他們整理一下了。那是因為收藏夾太亂,橡皮擦給設置私密了,不收拾不好看呀。 ...
摘要:爬蟲目標是獲取用戶的微博數(shù)關注數(shù)粉絲數(shù)。創(chuàng)建數(shù)據(jù)這部分我只需要個人信息,微博數(shù),關注數(shù)分數(shù)數(shù)這些基本信息就行。 前言 Scrapy學習(三) 爬取豆瓣圖書信息 接上篇之后。這次來爬取需要登錄才能訪問的微博。爬蟲目標是獲取用戶的微博數(shù)、關注數(shù)、粉絲數(shù)。為建立用戶關系圖(尚未實現(xiàn))做數(shù)據(jù)儲備 準備 安裝第三方庫requests和pymongo 安裝MongoDB 創(chuàng)建一個weibo爬蟲項...
閱讀 1896·2021-11-11 16:55
閱讀 2106·2021-10-08 10:13
閱讀 755·2019-08-30 11:01
閱讀 2166·2019-08-29 13:19
閱讀 3293·2019-08-28 18:18
閱讀 2631·2019-08-26 13:26
閱讀 588·2019-08-26 11:40
閱讀 1879·2019-08-23 17:17