什么是Scrapy
Scrapy是一個(gè)為了爬取網(wǎng)站數(shù)據(jù),提取結(jié)構(gòu)性數(shù)據(jù)而編寫(xiě)的應(yīng)用框架。
框架就是將平常寫(xiě)爬蟲(chóng)的request (異步調(diào)度和處理)、下載器(多線(xiàn)程的 Downloader)、解析器(selector)和 twisted(異步處理)封裝到了一起,夠成了框架。而且使用起來(lái)更加方便,爬取速度更快。
Scrapy框架的應(yīng)用領(lǐng)域有很多,例如網(wǎng)絡(luò)爬蟲(chóng)開(kāi)發(fā)、數(shù)據(jù)挖掘、自動(dòng)化測(cè)試等,其最初是為了頁(yè)面抓取(網(wǎng)絡(luò)抓取)所設(shè)計(jì)的,也可以應(yīng)用在獲取API所返回的數(shù)據(jù)或者通用的網(wǎng)絡(luò)爬蟲(chóng)。官方網(wǎng)址是https://scrapy.org/
Scrapy的安裝
Windows系統(tǒng):
pip install scrapy
如果安裝過(guò)程中出錯(cuò)
錯(cuò)誤信息如下:
則需要安裝Microsoft Visual C++14,如果報(bào)錯(cuò)不是Microsoft Visual C++14比如Microsoft Visual C++15則對(duì)應(yīng)安裝即可。
如果安裝過(guò)程中過(guò)提示安裝Twisted安裝失敗,則需要來(lái)到這個(gè)網(wǎng)址:https://www.lfd.uci.edu/~gohlke/pythonlibs/自行下載wheel文件,
可能需要下載的是:pyOpenSSL、Twisted、PyWin32,可以根據(jù)安裝時(shí),報(bào)錯(cuò)的提示信息有針對(duì)性的下載。
下載之后放到一個(gè)固定的目錄中,進(jìn)入下載的目錄。執(zhí)行 pip3 install xxxxxx.whl (注意xxxxxx代表的是你下載的wheel的名字)
然后再次執(zhí)行:pip install scrapy
Linux和mac系統(tǒng)直接:pip3 install scrapy
scrapy工作流程
Scrapy工作流程的圖:
在圖中,Scrapy引擎是架構(gòu)的核心部分,調(diào)度器、管道、下載器和Spiders等組件都通過(guò)引擎來(lái)調(diào)控。在Scrapy引擎和下載器中間通過(guò)中間件傳遞信息,在下載中間件中,可以插入自定義代碼擴(kuò)展Scrapy的功能,例如實(shí)現(xiàn)IP池的應(yīng)用。引擎和Spiders之間也是通過(guò)爬蟲(chóng)中間件來(lái)傳遞信息,同樣可以自定義擴(kuò)展功能。
其中:
Scrapy引擎負(fù)責(zé)控制整個(gè)數(shù)據(jù)處理流程,處于整個(gè)Scrapy框架中心位置,協(xié)調(diào)調(diào)度器、管道、中間件、下載器、爬蟲(chóng)。
調(diào)度器負(fù)責(zé)存儲(chǔ)等待爬取的網(wǎng)址,確定網(wǎng)址優(yōu)先級(jí),相當(dāng)于一個(gè)隊(duì)列存儲(chǔ),同時(shí)也會(huì)過(guò)濾一些重復(fù)的網(wǎng)址。
下載器實(shí)現(xiàn)對(duì)等待爬取的網(wǎng)頁(yè)資源進(jìn)行高速下載,該組件通過(guò)網(wǎng)絡(luò)進(jìn)行大量數(shù)據(jù)傳輸,下載對(duì)應(yīng)的網(wǎng)頁(yè)資源后將數(shù)據(jù)傳遞給Scrapy引擎,再由引擎?zhèn)鬟f給爬蟲(chóng)處理。
下載中間件用于處理下載器與Scrapy引擎之間的通信,自定義代碼可以輕松擴(kuò)展Scrapy框架的功能
Spiders是實(shí)現(xiàn)Scrapy框架爬蟲(chóng)的核心部分。每個(gè)爬蟲(chóng)負(fù)責(zé)一個(gè)或多個(gè)指定的網(wǎng)站。爬蟲(chóng)組件負(fù)責(zé)接收Scrapy引擎中的Response響應(yīng),接收到響應(yīng)后分析處理,提取對(duì)應(yīng)重要信息
爬蟲(chóng)中間件是處理爬蟲(chóng)組件和Scrapy引擎之間通信的組件,可以自定義代碼擴(kuò)展Scrapy功能
管道用于接收從爬蟲(chóng)組件中提取的管道,接收到后進(jìn)行清洗、驗(yàn)證、存儲(chǔ)等系列操作
因此其流程可以描述如下:
爬蟲(chóng)中起始的url構(gòu)造成request對(duì)象-->爬蟲(chóng)中間件-->引擎-->調(diào)度器
調(diào)度器把request-->引擎-->下載中間件--->下載器
下載器發(fā)送請(qǐng)求,獲取response響應(yīng)---->下載中間件---->引擎--->爬蟲(chóng)中間件--->爬蟲(chóng)
爬蟲(chóng)提取url地址,組裝成request對(duì)象---->爬蟲(chóng)中間件--->引擎--->調(diào)度器,重復(fù)步驟2
爬蟲(chóng)提取數(shù)據(jù)--->引擎--->管道處理和保存數(shù)據(jù)
每部分的具體作用
scrapy常用命令
scrapy后面可以跟不同的命令,可以使用scrapy --help進(jìn)行查看,Scrapy框架中命令分為全局命令和項(xiàng)目命令,全局命令不需要進(jìn)入Scrapy項(xiàng)目即可在全局中直接運(yùn)行,項(xiàng)目命令必須在Scrapy項(xiàng)目中才可以運(yùn)行。
其中:
全局命令:
fetch命令是用來(lái)檢查spider下載頁(yè)面的方式
runspider命令通過(guò)Scrapy中的runspider命令可以直接運(yùn)行一個(gè)爬蟲(chóng)文件
settings命令是用來(lái)獲取Scrapy的配置信息。
shell命令可以啟動(dòng)Scrapy的交互終端
version命令用于查看Scrapy的版本信息
項(xiàng)目命令:
Scarpy的項(xiàng)目命令主要有bench、check、crawl、edit、genspider、list、parse。Scrapy全局命令可以在項(xiàng)目?jī)?nèi)外使用,而項(xiàng)目命令只能在Scrapy爬蟲(chóng)項(xiàng)目中使用。
bench命令可以測(cè)試本地硬件的性能。
genspider命令可以創(chuàng)建Scrapy爬蟲(chóng)文件,這是一種快速創(chuàng)建爬蟲(chóng)文件的方法
check命令可以實(shí)現(xiàn)對(duì)爬蟲(chóng)文件的測(cè)試
crawl命令可以啟動(dòng)某個(gè)爬蟲(chóng)
list命令可以列出當(dāng)前可使用的爬蟲(chóng)文件
parse命令可以獲取指定的URL網(wǎng)址,并使用對(duì)應(yīng)的爬蟲(chóng)文件分析處理
scrapy開(kāi)發(fā)步驟
創(chuàng)建項(xiàng)目:
scrapy startproject 爬蟲(chóng)項(xiàng)目名字
生成一個(gè)爬蟲(chóng):
scrapy genspider <爬蟲(chóng)名字> <允許爬取的域名>
提取數(shù)據(jù):
根據(jù)網(wǎng)站結(jié)構(gòu)在spider中實(shí)現(xiàn)數(shù)據(jù)采集相關(guān)內(nèi)容
保存數(shù)據(jù):
使用pipeline進(jìn)行數(shù)據(jù)后續(xù)處理和保存
創(chuàng)建項(xiàng)目
使用Scrapy創(chuàng)建一個(gè)爬蟲(chóng)項(xiàng)目,首先需要進(jìn)入存儲(chǔ)爬蟲(chóng)項(xiàng)目的文件夾,例如在“D:\python_spider”目錄中創(chuàng)建爬蟲(chóng)項(xiàng)目,如圖所示。
當(dāng)然如果你是Linux或者mac系統(tǒng)也需要進(jìn)入存儲(chǔ)爬蟲(chóng)項(xiàng)目的文件夾,然后新建項(xiàng)目
創(chuàng)建之后的爬蟲(chóng)項(xiàng)目myproject目錄結(jié)構(gòu)如下:
項(xiàng)目名字/
scrapy.cfg:
項(xiàng)目名字/
__init__.py
items.py
pipelines.py
settings.py
spiders/
__init__.py
scrapy.cfg 項(xiàng)目的主配置信息。(真正爬蟲(chóng)相關(guān)的配置信息在settings.py文件中)
items.py 設(shè)置數(shù)據(jù)存儲(chǔ)模板,用于結(jié)構(gòu)化數(shù)據(jù),如:Django的Model
pipelines 數(shù)據(jù)持久化處理
settings.py 配置文件,如:遞歸的層數(shù)、并發(fā)數(shù),延遲下載等
spiders 爬蟲(chóng)目錄,如:創(chuàng)建文件,編寫(xiě)爬蟲(chóng)解析規(guī)則
生成一個(gè)爬蟲(chóng)spider
進(jìn)入剛才創(chuàng)建的爬蟲(chóng)項(xiàng)目myproject目錄
然后執(zhí)行: scrapy genspider 應(yīng)用名稱(chēng) 爬取網(wǎng)頁(yè)的起始url (見(jiàn)下圖的3部分)
編寫(xiě)爬蟲(chóng)
在生成一個(gè)爬蟲(chóng)執(zhí)行完畢后,會(huì)在項(xiàng)目的spiders中生成一個(gè)應(yīng)用名的py爬蟲(chóng)文件
打開(kāi)文件進(jìn)行代碼編寫(xiě),大家看到的是默認(rèn)的格式,可以在parse方法中完善爬蟲(chóng)代碼
保存數(shù)據(jù)
數(shù)據(jù)的保存需要使用管道pipline,在pipelines.py文件中定義對(duì)數(shù)據(jù)的操作
定義一個(gè)管道類(lèi)
重寫(xiě)管道類(lèi)的process_item方法
process_item方法處理完item之后必須返回給引擎
然后在settings.py配置啟用管道
ITEM_PIPELINES = {
'myproject.pipelines.MyprojectPipeline': 400,
}
配置項(xiàng)中鍵為使用的管道類(lèi),管道類(lèi)使用.進(jìn)行分割,第一個(gè)為項(xiàng)目目錄,第二個(gè)為文件,第三個(gè)為定義的管道類(lèi)。
配置項(xiàng)中值為管道的使用順序,設(shè)置的數(shù)值約小越優(yōu)先執(zhí)行,該值一般設(shè)置為1000以?xún)?nèi)。
運(yùn)行scrapy
命令:在項(xiàng)目目錄下執(zhí)行scrapy crawl <爬蟲(chóng)名字>
示例:scrapy crawl qiubai
當(dāng)然本次只是給大家描述了一下爬蟲(chóng)中使用scrapy的基本步驟,20天學(xué)會(huì)爬蟲(chóng)后面會(huì)接連介紹scrapy的使用,敬請(qǐng)期待哦!