一、基礎(chǔ)入門 1.1什么是爬蟲 爬蟲(spider,又網(wǎng)絡(luò)爬蟲),是指向網(wǎng)站/網(wǎng)絡(luò)發(fā)起請(qǐng)求,獲取資源后分析并提取有用數(shù)據(jù)的程序。 從技術(shù)層面來說就是 通過程序模擬瀏覽器請(qǐng)求站點(diǎn)的行為,把站點(diǎn)返回的HTML代碼/JSON數(shù)據(jù)/二進(jìn)制數(shù)據(jù)(圖片、視頻) 爬到本地,進(jìn)而提取自己需要的數(shù)據(jù),存放起來使用。 想要學(xué)習(xí)Python又缺少系統(tǒng)化學(xué)習(xí)方案的朋友可以關(guān)注并私信“01”免費(fèi)領(lǐng)取系統(tǒng)化的Python學(xué)習(xí)資料...愿大家都能在編程這條路,越走越遠(yuǎn)。1.2爬蟲基本流程 用戶獲取網(wǎng)絡(luò)數(shù)據(jù)的方式: 方式1:瀏覽器提交請(qǐng)求--->下載網(wǎng)頁代碼--->解析成頁面 方式2:模擬瀏覽器發(fā)送請(qǐng)求(獲取網(wǎng)頁代碼)->提取有用的數(shù)據(jù)->存放于數(shù)據(jù)庫或文件中 爬蟲要做的就是方式2。 1 發(fā)起請(qǐng)求 使用http庫向目標(biāo)站點(diǎn)發(fā)起請(qǐng)求,即發(fā)送一個(gè)Request Request包含:請(qǐng)求頭、請(qǐng)求體等 Request模塊缺陷:不能執(zhí)行JS 和CSS 代碼 2 獲取響應(yīng)內(nèi)容 如果服務(wù)器能正常響應(yīng),則會(huì)得到一個(gè)Response Response包含:html,json,圖片,視頻等 3 解析內(nèi)容 解析html數(shù)據(jù):正則表達(dá)式(RE模塊)、xpath(主要使用)、beautiful soup、css 解析json數(shù)據(jù):json模塊 解析二進(jìn)制數(shù)據(jù):以wb的方式寫入文件 4 保存數(shù)據(jù) 數(shù)據(jù)庫(MySQL,Mongdb、Redis)或 文件的形式。 1.3http協(xié)議 請(qǐng)求與響應(yīng) http協(xié)議 Request:用戶將自己的信息通過瀏覽器(socket client)發(fā)送給服務(wù)器(socket server) Response:服務(wù)器接收請(qǐng)求,分析用戶發(fā)來的請(qǐng)求信息,然后返回?cái)?shù)據(jù)(返回的數(shù)據(jù)中可能包含其他鏈接,如:圖片,js,css等) ps:瀏覽器在接收Response后,會(huì)解析其內(nèi)容來顯示給用戶,而爬蟲程序在模擬瀏覽器發(fā)送請(qǐng)求然后接收Response后,是要提取其中的有用數(shù)據(jù)。 1.3.1 request (1) 請(qǐng)求方式 常見的請(qǐng)求方式:GET / POST (2)請(qǐng)求的URL url全球統(tǒng)一資源定位符,用來定義互聯(lián)網(wǎng)上一個(gè)唯一的資源 例如:一張圖片、一個(gè)文件、一段視頻都可以用url唯一確定 (3)請(qǐng)求頭 User-agent:請(qǐng)求頭中如果沒有user-agent客戶端配置,服務(wù)端可能將你當(dāng)做一個(gè)非法用戶host; cookies:cookie用來保存登錄信息 注意:一般做爬蟲都會(huì)加上請(qǐng)求頭。 請(qǐng)求頭需要注意的參數(shù):
(4)請(qǐng)求體 請(qǐng)求體 如果是get方式,請(qǐng)求體沒有內(nèi)容 (get請(qǐng)求的請(qǐng)求體放在 url后面參數(shù)中,直接能看到) 如果是post方式,請(qǐng)求體是format data ps:1、登錄窗口,文件上傳等,信息都會(huì)被附加到請(qǐng)求體內(nèi) 2、登錄,輸入錯(cuò)誤的用戶名密碼,然后提交,就可以看到post,正確登錄后頁面通常會(huì)跳轉(zhuǎn),無法捕捉到post 1.3.2 response (1)響應(yīng)狀態(tài)碼
(2)response header 響應(yīng)頭需要注意的參數(shù):Set-Cookie:BDSVRTM=0; path=/:可能有多個(gè),是來告訴瀏覽器,把cookie保存下來 (3)preview就是網(wǎng)頁源代碼 json數(shù)據(jù) 如網(wǎng)頁html,圖片 二進(jìn)制數(shù)據(jù)等 02 二、基礎(chǔ)模塊 2.1requests requests是python實(shí)現(xiàn)的簡(jiǎn)單易用的HTTP庫,是由urllib的升級(jí)而來。 開源地址: https://github.com/kennethreitz/requests
中文API: http://docs./zh_CN/latest/index.html 2.2re 正則表達(dá)式 在 Python 中使用內(nèi)置的 re 模塊來使用正則表達(dá)式。 缺點(diǎn):處理數(shù)據(jù)不穩(wěn)定、工作量大 2.3XPath Xpath(XML Path Language) 是一門在 XML 文檔中查找信息的語言,可用來在 XML 文檔中對(duì)元素和屬性進(jìn)行遍歷。 在python中主要使用 lxml 庫來進(jìn)行xpath獲?。ㄔ诳蚣苤胁皇褂胠xml,框架內(nèi)直接使用xpath即可) lxml 是 一個(gè)HTML/XML的解析器,主要的功能是如何解析和提取 HTML/XML 數(shù)據(jù)。 lxml和正則一樣,也是用 C 實(shí)現(xiàn)的,是一款高性能的 Python HTML/XML 解析器,我們可以利用之前學(xué)習(xí)的XPath語法,來快速的定位特定元素以及節(jié)點(diǎn)信息。 2.4BeautifulSoup 和 lxml 一樣,Beautiful Soup 也是一個(gè)HTML/XML的解析器,主要的功能也是如何解析和提取 HTML/XML 數(shù)據(jù)。 使用BeautifulSoup需要導(dǎo)入bs4庫 缺點(diǎn):相對(duì)正則和xpath處理速度慢 優(yōu)點(diǎn):使用簡(jiǎn)單 2.5Json JSON(JavaScript Object Notation) 是一種輕量級(jí)的數(shù)據(jù)交換格式,它使得人們很容易的進(jìn)行閱讀和編寫。同時(shí)也方便了機(jī)器進(jìn)行解析和生成。適用于進(jìn)行數(shù)據(jù)交互的場(chǎng)景,比如網(wǎng)站前臺(tái)與后臺(tái)之間的數(shù)據(jù)交互。 在python中主要使用 json 模塊來處理 json數(shù)據(jù)。Json解析網(wǎng)站: https://www./simple_json.html
2.6threading 使用threading模塊創(chuàng)建線程,直接從threading.Thread繼承,然后重寫__init__方法和run方法 03 三、方法實(shí)例 3.1get方法實(shí)例 demo_get.py 3.2post方法實(shí)例 demo_post.py 3.3添加代理 demo_proxies.py 3.4獲取ajax類數(shù)據(jù)實(shí)例 demo_ajax.py 3.5使用多線程實(shí)例 demo_thread.py 04 四、爬蟲框架 4.1Srcapy框架
4.2Scrapy架構(gòu)圖 4.3Scrapy主要組件
4.4Scrapy的運(yùn)作流程
4.5制作Scrapy爬蟲4步曲 1新建爬蟲項(xiàng)目scrapy startproject mySpider2明確目標(biāo) (編寫items.py)打開mySpider目錄下的items.py3制作爬蟲 (spiders/xxspider.py)scrapy genspider gushi365 'gushi365.com'4存儲(chǔ)內(nèi)容 (pipelines.py)設(shè)計(jì)管道存儲(chǔ)爬取內(nèi)容 05 五、常用工具 5.1fidder fidder是一款抓包工具,主要用于手機(jī)抓包。 5.2XPath Helper xpath helper插件是一款免費(fèi)的chrome爬蟲網(wǎng)頁解析工具。可以幫助用戶解決在獲取xpath路徑時(shí)無法正常定位等問題。 谷歌瀏覽器插件xpath helper 的安裝和使用: https://jingyan.baidu.com/article/1e5468f94694ac484861b77d.html 06 六、分布式爬蟲 6.1scrapy-redis Scrapy-redis是為了更方便地實(shí)現(xiàn)Scrapy分布式爬取,而提供了一些以redis為基礎(chǔ)的組件(pip install scrapy-redis) github網(wǎng)站:https://github.com/rolando/scrapy-redis
6.2分布式策略
|
|