一区二区三区日韩精品-日韩经典一区二区三区-五月激情综合丁香婷婷-欧美精品中文字幕专区

分享

python爬蟲入門,10分鐘就夠了,這可能是我見過最簡(jiǎn)單的基礎(chǔ)教學(xué)

 wwshou 2019-08-27

一、基礎(chǔ)入門

1.1什么是爬蟲

爬蟲(spider,又網(wǎng)絡(luò)爬蟲),是指向網(wǎng)站/網(wǎng)絡(luò)發(fā)起請(qǐng)求,獲取資源后分析并提取有用數(shù)據(jù)的程序。

從技術(shù)層面來說就是 通過程序模擬瀏覽器請(qǐng)求站點(diǎn)的行為,把站點(diǎn)返回的HTML代碼/JSON數(shù)據(jù)/二進(jìn)制數(shù)據(jù)(圖片、視頻) 爬到本地,進(jìn)而提取自己需要的數(shù)據(jù),存放起來使用。

想要學(xué)習(xí)Python又缺少系統(tǒng)化學(xué)習(xí)方案的朋友可以關(guān)注并私信“01”免費(fèi)領(lǐng)取系統(tǒng)化的Python學(xué)習(xí)資料...愿大家都能在編程這條路,越走越遠(yuǎn)。

1.2爬蟲基本流程

用戶獲取網(wǎng)絡(luò)數(shù)據(jù)的方式:

方式1:瀏覽器提交請(qǐng)求--->下載網(wǎng)頁代碼--->解析成頁面

方式2:模擬瀏覽器發(fā)送請(qǐng)求(獲取網(wǎng)頁代碼)->提取有用的數(shù)據(jù)->存放于數(shù)據(jù)庫或文件中

爬蟲要做的就是方式2。

python爬蟲入門,10分鐘就夠了,這可能是我見過最簡(jiǎn)單的基礎(chǔ)教學(xué)

1

發(fā)起請(qǐng)求

使用http庫向目標(biāo)站點(diǎn)發(fā)起請(qǐng)求,即發(fā)送一個(gè)Request

Request包含:請(qǐng)求頭、請(qǐng)求體等

Request模塊缺陷:不能執(zhí)行JS 和CSS 代碼

2

獲取響應(yīng)內(nèi)容

如果服務(wù)器能正常響應(yīng),則會(huì)得到一個(gè)Response

Response包含:html,json,圖片,視頻等

3

解析內(nèi)容

解析html數(shù)據(jù):正則表達(dá)式(RE模塊)、xpath(主要使用)、beautiful soup、css

解析json數(shù)據(jù):json模塊

解析二進(jìn)制數(shù)據(jù):以wb的方式寫入文件

4

保存數(shù)據(jù)

數(shù)據(jù)庫(MySQL,Mongdb、Redis)或 文件的形式。

1.3http協(xié)議 請(qǐng)求與響應(yīng)

http協(xié)議

python爬蟲入門,10分鐘就夠了,這可能是我見過最簡(jiǎn)單的基礎(chǔ)教學(xué)

Request:用戶將自己的信息通過瀏覽器(socket client)發(fā)送給服務(wù)器(socket server)

Response:服務(wù)器接收請(qǐng)求,分析用戶發(fā)來的請(qǐng)求信息,然后返回?cái)?shù)據(jù)(返回的數(shù)據(jù)中可能包含其他鏈接,如:圖片,js,css等)

ps:瀏覽器在接收Response后,會(huì)解析其內(nèi)容來顯示給用戶,而爬蟲程序在模擬瀏覽器發(fā)送請(qǐng)求然后接收Response后,是要提取其中的有用數(shù)據(jù)。

1.3.1

request

(1) 請(qǐng)求方式

常見的請(qǐng)求方式:GET / POST

(2)請(qǐng)求的URL

url全球統(tǒng)一資源定位符,用來定義互聯(lián)網(wǎng)上一個(gè)唯一的資源 例如:一張圖片、一個(gè)文件、一段視頻都可以用url唯一確定

(3)請(qǐng)求頭

User-agent:請(qǐng)求頭中如果沒有user-agent客戶端配置,服務(wù)端可能將你當(dāng)做一個(gè)非法用戶host;

cookies:cookie用來保存登錄信息

注意:一般做爬蟲都會(huì)加上請(qǐng)求頭。

請(qǐng)求頭需要注意的參數(shù):

  • Referrer:訪問源至哪里來(一些大型網(wǎng)站,會(huì)通過Referrer 做防盜鏈策略;所有爬蟲也要注意模擬)
  • User-Agent:訪問的瀏覽器(要加上否則會(huì)被當(dāng)成爬蟲程序)
  • cookie:請(qǐng)求頭注意攜帶

(4)請(qǐng)求體

請(qǐng)求體 如果是get方式,請(qǐng)求體沒有內(nèi)容 (get請(qǐng)求的請(qǐng)求體放在 url后面參數(shù)中,直接能看到) 如果是post方式,請(qǐng)求體是format data

ps:1、登錄窗口,文件上傳等,信息都會(huì)被附加到請(qǐng)求體內(nèi) 2、登錄,輸入錯(cuò)誤的用戶名密碼,然后提交,就可以看到post,正確登錄后頁面通常會(huì)跳轉(zhuǎn),無法捕捉到post

1.3.2

response

(1)響應(yīng)狀態(tài)碼

  • 200:代表成功
  • 301:代表跳轉(zhuǎn)
  • 404:文件不存在
  • 403:無權(quán)限訪問
  • 502:服務(wù)器錯(cuò)誤

(2)response header

響應(yīng)頭需要注意的參數(shù):Set-Cookie:BDSVRTM=0; path=/:可能有多個(gè),是來告訴瀏覽器,把cookie保存下來

(3)preview就是網(wǎng)頁源代碼

json數(shù)據(jù)

如網(wǎng)頁html,圖片

二進(jìn)制數(shù)據(jù)等

02

二、基礎(chǔ)模塊

2.1requests

requests是python實(shí)現(xiàn)的簡(jiǎn)單易用的HTTP庫,是由urllib的升級(jí)而來。

開源地址:

https://github.com/kennethreitz/requests

中文API:

http://docs./zh_CN/latest/index.html

2.2re 正則表達(dá)式

在 Python 中使用內(nèi)置的 re 模塊來使用正則表達(dá)式。

缺點(diǎn):處理數(shù)據(jù)不穩(wěn)定、工作量大

2.3XPath

Xpath(XML Path Language) 是一門在 XML 文檔中查找信息的語言,可用來在 XML 文檔中對(duì)元素和屬性進(jìn)行遍歷。

在python中主要使用 lxml 庫來進(jìn)行xpath獲?。ㄔ诳蚣苤胁皇褂胠xml,框架內(nèi)直接使用xpath即可)

lxml 是 一個(gè)HTML/XML的解析器,主要的功能是如何解析和提取 HTML/XML 數(shù)據(jù)。

lxml和正則一樣,也是用 C 實(shí)現(xiàn)的,是一款高性能的 Python HTML/XML 解析器,我們可以利用之前學(xué)習(xí)的XPath語法,來快速的定位特定元素以及節(jié)點(diǎn)信息。

2.4BeautifulSoup

和 lxml 一樣,Beautiful Soup 也是一個(gè)HTML/XML的解析器,主要的功能也是如何解析和提取 HTML/XML 數(shù)據(jù)。

使用BeautifulSoup需要導(dǎo)入bs4庫

缺點(diǎn):相對(duì)正則和xpath處理速度慢

優(yōu)點(diǎn):使用簡(jiǎn)單

2.5Json

JSON(JavaScript Object Notation) 是一種輕量級(jí)的數(shù)據(jù)交換格式,它使得人們很容易的進(jìn)行閱讀和編寫。同時(shí)也方便了機(jī)器進(jìn)行解析和生成。適用于進(jìn)行數(shù)據(jù)交互的場(chǎng)景,比如網(wǎng)站前臺(tái)與后臺(tái)之間的數(shù)據(jù)交互。

在python中主要使用 json 模塊來處理 json數(shù)據(jù)。Json解析網(wǎng)站:

https://www./simple_json.html

2.6threading

使用threading模塊創(chuàng)建線程,直接從threading.Thread繼承,然后重寫__init__方法和run方法

03

三、方法實(shí)例

3.1get方法實(shí)例

demo_get.py

python爬蟲入門,10分鐘就夠了,這可能是我見過最簡(jiǎn)單的基礎(chǔ)教學(xué)

3.2post方法實(shí)例

demo_post.py

python爬蟲入門,10分鐘就夠了,這可能是我見過最簡(jiǎn)單的基礎(chǔ)教學(xué)

3.3添加代理

demo_proxies.py

python爬蟲入門,10分鐘就夠了,這可能是我見過最簡(jiǎn)單的基礎(chǔ)教學(xué)

3.4獲取ajax類數(shù)據(jù)實(shí)例

demo_ajax.py

python爬蟲入門,10分鐘就夠了,這可能是我見過最簡(jiǎn)單的基礎(chǔ)教學(xué)

3.5使用多線程實(shí)例

demo_thread.py

04

四、爬蟲框架

4.1Srcapy框架

  • Scrapy是用純Python實(shí)現(xiàn)一個(gè)為了爬取網(wǎng)站數(shù)據(jù)、提取結(jié)構(gòu)性數(shù)據(jù)而編寫的應(yīng)用框架,用途非常廣泛。
  • Scrapy 使用了 Twisted['tw?st?d](其主要對(duì)手是Tornado)異步網(wǎng)絡(luò)框架來處理網(wǎng)絡(luò)通訊,可以加快我們的下載速度,不用自己去實(shí)現(xiàn)異步框架,并且包含了各種中間件接口,可以靈活的完成各種需求。

4.2Scrapy架構(gòu)圖

python爬蟲入門,10分鐘就夠了,這可能是我見過最簡(jiǎn)單的基礎(chǔ)教學(xué)

4.3Scrapy主要組件

  • Scrapy Engine(引擎): 負(fù)責(zé)Spider、ItemPipeline、Downloader、Scheduler中間的通訊,信號(hào)、數(shù)據(jù)傳遞等。
  • Scheduler(調(diào)度器): 它負(fù)責(zé)接受引擎發(fā)送過來的Request請(qǐng)求,并按照一定的方式進(jìn)行整理排列,入隊(duì),當(dāng)引擎需要時(shí),交還給引擎。
  • Downloader(下載器):負(fù)責(zé)下載Scrapy Engine(引擎)發(fā)送的所有Requests請(qǐng)求,并將其獲取到的Responses交還給Scrapy Engine(引擎),由引擎交給Spider來處理,
  • Spider(爬蟲):它負(fù)責(zé)處理所有Responses,從中分析提取數(shù)據(jù),獲取Item字段需要的數(shù)據(jù),并將需要跟進(jìn)的URL提交給引擎,再次進(jìn)入Scheduler(調(diào)度器),
  • Item Pipeline(管道):它負(fù)責(zé)處理Spider中獲取到的Item,并進(jìn)行進(jìn)行后期處理(詳細(xì)分析、過濾、存儲(chǔ)等)的地方.
  • Downloader Middlewares(下載中間件):你可以當(dāng)作是一個(gè)可以自定義擴(kuò)展下載功能的組件。
  • Spider Middlewares(Spider中間件):你可以理解為是一個(gè)可以自定擴(kuò)展和操作引擎和Spider中間通信的功能組件(比如進(jìn)入Spider的Responses;和從Spider出去的Requests)

4.4Scrapy的運(yùn)作流程

  1. 引擎:Hi!Spider, 你要處理哪一個(gè)網(wǎng)站?
  2. Spider:老大要我處理xxxx.com。
  3. 引擎:你把第一個(gè)需要處理的URL給我吧。
  4. Spider:給你,第一個(gè)URL是xxxxxxx.com。
  5. 引擎:Hi!調(diào)度器,我這有request請(qǐng)求你幫我排序入隊(duì)一下。
  6. 調(diào)度器:好的,正在處理你等一下。
  7. 引擎:Hi!調(diào)度器,把你處理好的request請(qǐng)求給我。
  8. 調(diào)度器:給你,這是我處理好的request
  9. 引擎:Hi!下載器,你按照老大的下載中間件的設(shè)置幫我下載一下這個(gè)request請(qǐng)求
  10. 下載器:好的!給你,這是下載好的東西。(如果失?。簊orry,這個(gè)request下載失敗了。然后引擎告訴調(diào)度器,這個(gè)request下載失敗了,你記錄一下,我們待會(huì)兒再下載)
  11. 引擎:Hi!Spider,這是下載好的東西,并且已經(jīng)按照老大的下載中間件處理過了,你自己處理一下(注意!這兒responses默認(rèn)是交給def parse()這個(gè)函數(shù)處理的)
  12. Spider:(處理完畢數(shù)據(jù)之后對(duì)于需要跟進(jìn)的URL),Hi!引擎,我這里有兩個(gè)結(jié)果,這個(gè)是我需要跟進(jìn)的URL,還有這個(gè)是我獲取到的Item數(shù)據(jù)。
  13. 引擎:Hi !管道 我這兒有個(gè)item你幫我處理一下!調(diào)度器!這是需要跟進(jìn)URL你幫我處理下。然后從第四步開始循環(huán),直到獲取完老大需要全部信息。
  14. 管道``調(diào)度器:好的,現(xiàn)在就做!

4.5制作Scrapy爬蟲4步曲

1新建爬蟲項(xiàng)目scrapy startproject mySpider2明確目標(biāo) (編寫items.py)打開mySpider目錄下的items.py3制作爬蟲 (spiders/xxspider.py)scrapy genspider gushi365 'gushi365.com'4存儲(chǔ)內(nèi)容 (pipelines.py)設(shè)計(jì)管道存儲(chǔ)爬取內(nèi)容

05

五、常用工具

5.1fidder

fidder是一款抓包工具,主要用于手機(jī)抓包。

5.2XPath Helper

xpath helper插件是一款免費(fèi)的chrome爬蟲網(wǎng)頁解析工具。可以幫助用戶解決在獲取xpath路徑時(shí)無法正常定位等問題。

谷歌瀏覽器插件xpath helper 的安裝和使用:

https://jingyan.baidu.com/article/1e5468f94694ac484861b77d.html

06

六、分布式爬蟲

6.1scrapy-redis

Scrapy-redis是為了更方便地實(shí)現(xiàn)Scrapy分布式爬取,而提供了一些以redis為基礎(chǔ)的組件(pip install scrapy-redis)

github網(wǎng)站:https://github.com/rolando/scrapy-redis

6.2分布式策略

  • Master端(核心服務(wù)器) :搭建一個(gè)Redis數(shù)據(jù)庫,不負(fù)責(zé)爬取,只負(fù)責(zé)url指紋判重、Request的分配,以及數(shù)據(jù)的存儲(chǔ)
  • Slaver端(爬蟲程序執(zhí)行端) :負(fù)責(zé)執(zhí)行爬蟲程序,運(yùn)行過程中提交新的Request給Master

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多

    av免费视屏在线观看| 好吊视频一区二区在线| 美女被后入福利在线观看| 日韩中文无线码在线视频| 高清免费在线不卡视频| 91亚洲国产—区=区a| 精品日韩国产高清毛片| 国产亚洲精品俞拍视频福利区| 欧美亚洲91在线视频| 欧美日韩亚洲综合国产人| 日本女优一色一伦一区二区三区| 国产精品亚洲综合天堂夜夜| 日韩欧美一区二区不卡看片| 隔壁的日本人妻中文字幕版| 国产精品久久熟女吞精| 午夜色午夜视频之日本| 人妻一区二区三区在线| 日本精品中文字幕人妻| 免费观看潮喷到高潮大叫| 国产精品欧美激情在线播放| 国产一级特黄在线观看| 91欧美日韩中在线视频| 麻豆一区二区三区精品视频| 亚洲国产黄色精品在线观看| 欧美不卡午夜中文字幕| 国产伦精品一区二区三区精品视频 | 99久久国产综合精品二区| 日本欧美视频在线观看免费| av在线免费播放一区二区| 国产亚洲精品岁国产微拍精品| 老司机这里只有精品视频| 欧美人与动牲交a精品| 国产在线一区二区三区不卡 | 国产精品香蕉在线的人| 九九热国产这里只有精品| 国产精品成人一区二区三区夜夜夜| 国产精品一区二区不卡中文| 日韩欧美黄色一级视频| 午夜福利在线观看免费| 中文精品人妻一区二区| 欧美丰满人妻少妇精品|