成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

scrapy簡(jiǎn)單學(xué)習(xí)4—西刺Ip的爬取

huaixiaoz / 774人閱讀

摘要:學(xué)習(xí)網(wǎng)站麥子第九集的定義的編寫作用生成初始的定義空集設(shè)置變量頁(yè)碼到生成的放到中返回提取每一行的位置提取標(biāo)簽下的屬性變量加入標(biāo)簽定義空集的從以后開(kāi)始加載取文字取文字取到的屬性,再用正則匹配到數(shù)字把添加到項(xiàng)目返回項(xiàng)目保存成結(jié)果輸出

學(xué)習(xí)網(wǎng)站:麥子scrapy第九集

1.item.py的定義
import scrapy


class XiciItem(scrapy.Item):
    IP=scrapy.Field()
    PORT=scrapy.Field()
    POSITION=scrapy.Field()
    TYPE=scrapy.Field()
    SPEED=scrapy.Field()
    LAST_CHECK_TIME=scrapy.Field()
2.spider的編寫
# -*- coding: utf-8 -*-
import scrapy
from XiCi.items import XiciItem

class XiciSpider(scrapy.Spider):
    name = "xici"
    allowed_domains = ["xicidaili.com"]
    start_urls = (
        "http://www.xicidaili.com",
    )
    
    def start_requests(self):#作用:生成初始的request
        reqs=[]#定義resqs(空集)
        
        for i in range(1,206):#設(shè)置變量:頁(yè)碼1到206
            req=scrapy.Request("http://www.xicidaili.com/nn/%s"%i)
            reqs.append(req)#生成的request放到resqs中
        
        return reqs#返回reqs
    
    def parse(self, response):
        #提取每一行的xpath位置
        ip_list=response.xpath("http://table[@id="ip_list"]")#ip_list=xpath提?。╰able標(biāo)簽下的"ip_list"屬性)
        
        trs = ip_list[0].xpath("tr")#變量trs=ip_list加入tr標(biāo)簽
        
        items=[]#定義items空集
        
        for ip in trs[1:]:#ip的tr從[1以后開(kāi)始]
            pre_item=XiciItem()#pre_item=加載XiCiItem()
            
            pre_item["IP"] = ip.xpath("td[3]/text()")[0].extract()#取文字
            
            pre_item["PORT"] = ip.xpath("td[4]/text()")[0].extract()#取文字
            
            pre_item["POSITION"] = ip.xpath("string(td[5])")[0].extract().strip()
            
            pre_item["TYPE"] = ip.xpath("td[7]/text()")[0].extract()
            #speed取到td的title屬性,再用正則(匹配到數(shù)字)
            pre_item["SPEED"] = ip.xpath(
                "td[8]/div[@class="bar"]/@title").re("d{0,2}.d{0,}")[0]
                
            pre_item["LAST_CHECK_TIME"] = ip.xpath("td[10]/text()")[0].extract()
            
            items.append(pre_item)#把pre_item添加到項(xiàng)目
            
        return items#返回項(xiàng)目
3.保存成csv
scrapy crawl xici -o xici.csv
4.結(jié)果輸出

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/44163.html

相關(guān)文章

  • python爬蟲(chóng)實(shí)戰(zhàn):爬取西刺代理的代理ip(二)

    摘要:爬蟲(chóng)實(shí)戰(zhàn)二爬取西刺代理的代理對(duì)于剛?cè)腴T的同學(xué)來(lái)說(shuō),本次實(shí)戰(zhàn)稍微有點(diǎn)難度,但是簡(jiǎn)單的爬取圖片文本之類的又沒(méi)營(yíng)養(yǎng),所以這次我選擇了爬取西刺代理的地址,爬取的代理也能在以后的學(xué)習(xí)中用到本次實(shí)戰(zhàn)用的主要知識(shí)很多,其中包括自動(dòng)保存利用抓包工具獲取和匹 爬蟲(chóng)實(shí)戰(zhàn)(二):爬取西刺代理的代理ip 對(duì)于剛?cè)腴T的同學(xué)來(lái)說(shuō),本次實(shí)戰(zhàn)稍微有點(diǎn)難度,但是簡(jiǎn)單的爬取圖片、文本之類的又沒(méi)營(yíng)養(yǎng),所以這次我選擇了爬...

    fsmStudy 評(píng)論0 收藏0
  • 首次公開(kāi),整理12年積累的博客收藏夾,零距離展示《收藏夾吃灰》系列博客

    摘要:時(shí)間永遠(yuǎn)都過(guò)得那么快,一晃從年注冊(cè),到現(xiàn)在已經(jīng)過(guò)去了年那些被我藏在收藏夾吃灰的文章,已經(jīng)太多了,是時(shí)候把他們整理一下了。那是因?yàn)槭詹貖A太亂,橡皮擦給設(shè)置私密了,不收拾不好看呀。 ...

    Harriet666 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

閱讀需要支付1元查看
<