欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

Scrapy是什么框架,有什么用

本篇文章給大家分享的是有關(guān)Scrapy是什么框架,有什么用,小編覺得挺實用的,因此分享給大家學(xué)習(xí),希望大家閱讀完這篇文章后可以有所收獲,話不多說,跟著小編一起來看看吧。

網(wǎng)站建設(shè)哪家好,找成都創(chuàng)新互聯(lián)公司!專注于網(wǎng)頁設(shè)計、網(wǎng)站建設(shè)、微信開發(fā)、微信小程序、集團企業(yè)網(wǎng)站建設(shè)等服務(wù)項目。為回饋新老客戶創(chuàng)新互聯(lián)還提供了埇橋區(qū)免費建站歡迎大家使用!

網(wǎng)絡(luò)爬蟲(Web crawler),是一種按照一定的規(guī)則,自動地抓取萬維網(wǎng)信息的程序或者腳本,它們被廣泛用于互聯(lián)網(wǎng)搜索引擎或其他類似網(wǎng)站,可以自動采集所有其能夠訪問到的頁面,以獲取這些網(wǎng)站的內(nèi)容。而Scrapy則是一種十分強大的爬蟲框架,并且它是用python編寫的。下面我們來一起看看什么是Scrapy?

一、所需知識

需要的知識有:linux系統(tǒng) + Python語言 +Scrapy框架 + XPath(XML路徑語言) + 一些輔助工具(瀏覽器的開發(fā)者工具和XPath helper插件)。

我們的爬蟲是使用Python語言的Scrapy爬蟲框架開發(fā),在linux上運行,所以需要熟練掌握Python語言和Scrapy框架以及l(fā)inux操作系統(tǒng)的基本知識。

我們需要使用XPath從目標HTML頁面中提取我們想要的東西,包括漢語文字段落和“下一頁”的鏈接等。

瀏覽器的開發(fā)者工具是編寫爬蟲主要使用的輔助工具。使用該工具可以分析頁面鏈接的規(guī)律,可以用來定位HTML頁面中想要提取的元素,然后提取其XPath表達式用于爬蟲代碼中,還可以查看頁面請求頭的Referer、Cookie等信息。如果爬取的目標是動態(tài)網(wǎng)站,該工具還可以分析出背后的JavaScript請求。

XPath helper插件是chrome的一個插件,基于chrome核的瀏覽器也可以安裝。XPath helper可以用來調(diào)試XPath表達式。

二、環(huán)境搭建

安裝Scrapy可以使用pip命令:pip install Scrapy

Scrapy相關(guān)依賴較多,因此在安裝過程中可能遇到如下問題:

ImportError: No module named w3lib.http

解決:pip install w3lib

ImportError: No module named twisted

解決:pip install twisted

ImportError: No module named lxml.HTML

解決:pip install lxml

error: libxml/xmlversion.h: No such file or directory

解決:apt-get install libxml2-dev libxslt-dev

apt-get install Python-lxml

ImportError: No module named cssselect

解決:pip install cssselect

ImportError: No module named OpenSSL

解決:pip install pyOpenSSL

建議:

使用簡單的方法:使用anaconda安裝。

三、Scrapy框架

1. Scrapy簡介

Scrapy是大名鼎鼎的爬蟲框架,是使用Python編寫的。Scrapy可以很方便的進行web抓取,并且也可以很方便的根據(jù)自己的需求進行定制。

2.Scrapy組件

Scrapy主要包括了以下組件:

引擎(Scrapy)

用來處理整個系統(tǒng)的數(shù)據(jù)流,觸發(fā)事務(wù)(框架核心)。

調(diào)度器(Scheduler)

用來接受引擎發(fā)過來的請求,壓入隊列中, 并在引擎再次請求的時候返回. 可以想像成一個URL(抓取網(wǎng)頁的網(wǎng)址或者說是鏈接)的優(yōu)先隊列, 由它來決定下一個要抓取的網(wǎng)址是什么, 同時去除重復(fù)的網(wǎng)址。

下載器(Downloader)

用于下載網(wǎng)頁內(nèi)容, 并將網(wǎng)頁內(nèi)容返回給蜘蛛(Scrapy下載器是建立在twisted這個高效的異步模型上的) 。

爬蟲(Spiders)

爬蟲是主要干活的, 用于從特定的網(wǎng)頁中提取自己需要的信息, 即所謂的實體(Item)。用戶也可以從中提取出鏈接,讓Scrapy繼續(xù)抓取下一個頁面。

項目管道(Pipeline)

負責(zé)處理爬蟲從網(wǎng)頁中抽取的實體,主要的功能是持久化實體、驗證實體的有效性、清除不需要的信息。當頁面被爬蟲解析后,將被發(fā)送到項目管道,并經(jīng)過幾個特定的次序處理數(shù)據(jù)。

下載器中間件(Downloader Middlewares)

位于Scrapy引擎和下載器之間的框架,主要是處理Scrapy引擎與下載器之間的請求及響應(yīng)。

爬蟲中間件(Spider Middlewares)

介于Scrapy引擎和爬蟲之間的框架,主要工作是處理蜘蛛的響應(yīng)輸入和請求輸出。

調(diào)度中間件(Scheduler Middewares)

介于Scrapy引擎和調(diào)度之間的中間件,從Scrapy引擎發(fā)送到調(diào)度的請求和響應(yīng)。

Scrapy運行流程:

1.引擎從調(diào)度器中取出一個鏈接(URL)用于接下來的抓取

2.引擎把URL封裝成一個請求(Request)傳給下載器

3.下載器把資源下載下來,并封裝成應(yīng)答包(Response)

4.爬蟲解析Response

5.解析出實體(Item),則交給實體管道進行進一步的處理

6.解析出的是鏈接(URL),則把URL交給調(diào)度器等待抓取

以上就是Scrapy是什么框架,有什么用,小編相信有部分知識點可能是我們?nèi)粘9ぷ鲿姷交蛴玫降摹OM隳芡ㄟ^這篇文章學(xué)到更多知識。更多詳情敬請關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。

新聞名稱:Scrapy是什么框架,有什么用
標題網(wǎng)址:http://www.aaarwkj.com/article48/pdheep.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站策劃電子商務(wù)App開發(fā)、網(wǎng)站營銷、網(wǎng)站設(shè)計公司網(wǎng)站排名

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

商城網(wǎng)站建設(shè)
国产亚洲欧美精品在线观看| 亚洲精品隔壁傲慢人妻| 亚洲国产精品天堂av在线播放 | 国产午夜精品福利爽爽| 白白色发布青青在线视频观看| 精品人妻一区二区三区观看| 国产一区二区三区精品久久| 91精品国产高清91久久久久久| 久久久av在线免费观看| 成人免费视频一区二区三区| 亚洲国产欧美日韩久久| 2021最新四虎永久免费| 放荡成熟人妻中文字幕| 欧美日韩一级特黄大片| 四虎海外免费永久地址| 人妻中文字幕精品系列| 亚洲中文字幕乱码一二三| 亚洲一二三区精品与老人| 久久精品国产亚洲av无| 国内精品久久大型新型| 国产av综合一区二区三区最新| 午夜在线观看视频免费| 蜜桃视频手机在线观看| 风间由美亚洲一区二区三区 | 日韩性视频激情在线一区| 亚洲热妇热女久久精品| 亚洲欧美日韩专区一区| 国产成人一区二区二区三区| 午夜午色夜之日本福利片| 亚洲一区在线观看蜜臀| 国产高清毛片区1区二区三区 | 国产美女直播亚洲一区色| 91一区二区三区在线| 亚洲第一国产综合自拍| 成人看片亚欧大片在线观看 | 亚洲和欧洲一码二码区视频| 永久免费成人在线视频| 亚洲中文字幕女同系列av专区| 男女裸体做爰一进一出视频| 日本久久精品免费网站| 最新日本免费久久精品|