欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

關(guān)于Scrapy框架下Spider類(lèi)的簡(jiǎn)介

這篇文章主要介紹關(guān)于Scrapy框架下Spider類(lèi)的簡(jiǎn)介,文中介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們一定要看完!

在撫州等地區(qū),都構(gòu)建了全面的區(qū)域性戰(zhàn)略布局,加強(qiáng)發(fā)展的系統(tǒng)性、市場(chǎng)前瞻性、產(chǎn)品創(chuàng)新能力,以專(zhuān)注、極致的服務(wù)理念,為客戶(hù)提供成都做網(wǎng)站、網(wǎng)站制作、成都外貿(mào)網(wǎng)站建設(shè) 網(wǎng)站設(shè)計(jì)制作定制網(wǎng)站建設(shè),公司網(wǎng)站建設(shè),企業(yè)網(wǎng)站建設(shè),成都品牌網(wǎng)站建設(shè),成都全網(wǎng)營(yíng)銷(xiāo)推廣,外貿(mào)營(yíng)銷(xiāo)網(wǎng)站建設(shè),撫州網(wǎng)站建設(shè)費(fèi)用合理。

Spider類(lèi)

Spider類(lèi)定義了如何爬取某個(gè)(或某些)網(wǎng)站。包括了爬取的動(dòng)作(例如:是否跟進(jìn)鏈接)以及如何從網(wǎng)頁(yè)的內(nèi)容中提取結(jié)構(gòu)化數(shù)據(jù)(爬取item)。

換句話說(shuō),Spider就是您定義爬取的動(dòng)作及分析某個(gè)網(wǎng)頁(yè)(或者是有些網(wǎng)頁(yè))的地方。

class scrapy.Spider是最基本的類(lèi),所有編寫(xiě)的爬蟲(chóng)必須繼承這個(gè)類(lèi)。

主要用到的函數(shù)及調(diào)用順序?yàn)椋?/p>

__init__() : 初始化爬蟲(chóng)名字和start_urls列表

start_requests() 調(diào)用make_requests_from url():生成Requests對(duì)象交給Scrapy下載并返回response

parse() : 解析response,并返回Item或Requests(需指定回調(diào)函數(shù))。Item傳給Item pipline持久化 , 而Requests交由Scrapy下載,并由指定的回調(diào)函數(shù)處理(默認(rèn)parse()),一直進(jìn)行循環(huán),直到處理完所有的數(shù)據(jù)為止。

源碼參考

#所有爬蟲(chóng)的基類(lèi),用戶(hù)定義的爬蟲(chóng)必須從這個(gè)類(lèi)繼承
class Spider(object_ref):
    #定義spider名字的字符串(string)。spider的名字定義了Scrapy如何定位(并初始化)spider,所以其必須是唯一的。
    #name是spider最重要的屬性,而且是必須的。
    #一般做法是以該網(wǎng)站(domain)(加或不加 后綴 )來(lái)命名spider。 例如,如果spider爬取 mywebsite.com ,該spider
    通常會(huì)被命名為 mywebsite
    name = None
    #初始化,提取爬蟲(chóng)名字,start_ruls
    def __init__(self, name=None, **kwargs):
        if name is not None:
            self.name = name
        # 如果爬蟲(chóng)沒(méi)有名字,中斷后續(xù)操作則報(bào)錯(cuò)
        elif not getattr(self, 'name', None):
            raise ValueError("%s must have a name" % type(self).__name__)
        # python 對(duì)象或類(lèi)型通過(guò)內(nèi)置成員__dict__來(lái)存儲(chǔ)成員信息
        self.__dict__.update(kwargs)
        #URL列表。當(dāng)沒(méi)有指定的URL時(shí),spider將從該列表中開(kāi)始進(jìn)行爬取。 因此,第一個(gè)被獲取到的頁(yè)面的URL
        將是該列表之一。 后續(xù)的URL將會(huì)從獲取到的數(shù)據(jù)中提取。
        if not hasattr(self, 'start_urls'):
            self.start_urls = []
    # 打印Scrapy執(zhí)行后的log信息
    def log(self, message, level=log.DEBUG, **kw):
        log.msg(message, spider=self, level=level, **kw)
    # 判斷對(duì)象object的屬性是否存在,不存在做斷言處理
    def set_crawler(self, crawler):
        assert not hasattr(self, '_crawler'), "Spider already bounded to %s" % crawler
        self._crawler = crawler
    @property
    def crawler(self):
        assert hasattr(self, '_crawler'), "Spider not bounded to any crawler"
        return self._crawler
    @property
    def settings(self):
        return self.crawler.settings
    #該方法將讀取start_urls內(nèi)的地址,并為每一個(gè)地址生成一個(gè)Request對(duì)象,交給Scrapy下載并返回Response
    #該方法僅調(diào)用一次
    def start_requests(self):
        for url in self.start_urls:
            yield self.make_requests_from_url(url)
    #start_requests()中調(diào)用,實(shí)際生成Request的函數(shù)。
    #Request對(duì)象默認(rèn)的回調(diào)函數(shù)為parse(),提交的方式為get
    def make_requests_from_url(self, url):
        return Request(url, dont_filter=True)
    #默認(rèn)的Request對(duì)象回調(diào)函數(shù),處理返回的response。
    #生成Item或者Request對(duì)象。用戶(hù)必須實(shí)現(xiàn)這個(gè)類(lèi)
    def parse(self, response):
        raise NotImplementedError
    @classmethod
    def handles_request(cls, request):
        return url_is_from_spider(request.url, cls)
    def __str__(self):
        return "<%s %r at 0x%0x>" % (type(self).__name__, self.name, id(self))
    __repr__ = __str__

主要屬性和方法

name
定義spider名字的字符串。
例如,如果spider爬取 mywebsite.com ,該spider通常會(huì)被命名為 mywebsite
allowed_domains
包含了spider允許爬取的域名(domain)的列表,可選。
start_urls
初始URL元祖/列表。當(dāng)沒(méi)有制定特定的URL時(shí),spider將從該列表中開(kāi)始進(jìn)行爬取。
start_requests(self)
該方法必須返回一個(gè)可迭代對(duì)象(iterable)。該對(duì)象包含了spider用于爬取(默認(rèn)實(shí)現(xiàn)是使用 start_urls 的url)的第一個(gè)Request。
當(dāng)spider啟動(dòng)爬取并且未指定start_urls時(shí),該方法被調(diào)用。
parse(self, response)
當(dāng)請(qǐng)求url返回網(wǎng)頁(yè)沒(méi)有指定回調(diào)函數(shù)時(shí),默認(rèn)的Request對(duì)象回調(diào)函數(shù)。用來(lái)處理網(wǎng)頁(yè)返回的response,以及生成Item或者Request對(duì)象。

以上是關(guān)于Scrapy框架下Spider類(lèi)的簡(jiǎn)介的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對(duì)大家有幫助,更多相關(guān)知識(shí),歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!

當(dāng)前標(biāo)題:關(guān)于Scrapy框架下Spider類(lèi)的簡(jiǎn)介
URL標(biāo)題:http://www.aaarwkj.com/article20/pjcdco.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供做網(wǎng)站、網(wǎng)站制作、網(wǎng)站內(nèi)鏈、自適應(yīng)網(wǎng)站、網(wǎng)站改版、品牌網(wǎng)站制作

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶(hù)投稿、用戶(hù)轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)

成都定制網(wǎng)站網(wǎng)頁(yè)設(shè)計(jì)
国产激情片午夜福利| 热热久久这里只有精品| 這裏隻有无码人妻久久| 日日躁夜夜躁狠狠躁黑人| 狠狠综合久久av一区二区大宝| 日本欧美三级高潮受不了| 久久成人日韩电影午夜| 在线观看男人的天堂av| 性生活免费在线观看视频| 欧美精品在线观看不卡一区| 免费直接在线看亚洲黄色| 在线中文字幕日韩精品| 黄色三级视频一区二区三区| 成人爱爱视频在线免费观看| 亚洲国产精品一区二区三| 欧美激情中文字幕日韩精品| 岛国少妇av之中文字幕| 久久精品一区二区三区不卡| 国产一区二区精品久久岳| 亚洲高清中文字幕一区二三区 | 亚洲成av人片乱码午夜| 特别黄的日本免费视频| 成人国产亚洲日本欧美| 日韩不卡高清免费在线视频| 中文字幕一区二区三区久久| 亚洲精品一区二区免费看| 欧美国产大片一区视频| 中文字幕乱码亚洲精品一区| 這裏隻有无码人妻久久| 很黄很刺激的视频中文字幕| 日韩精品一区二区在线天天狠天| 国产高清在线a视频大全| 野花日本免费高清完整| 91看看午夜福利视频| 91在线免费观看国产精品| 亚洲国产成人午夜精品| 欧美一区二区久久综合| 欧美日韩一区二区综合在线视频| 国产蜜臀视频在线播放| 日韩版色视频在线观看| 丰满人妻被黑人猛烈进入|