如果你仔細觀察,就不難發(fā)現(xiàn),懂爬蟲、學習爬蟲的人越來越多,一方面,互聯(lián)網(wǎng)可以獲取的數(shù)據(jù)越來越多,另一方面,像 Python這樣的編程語言提供越來越多的優(yōu)秀工具,讓爬蟲變得簡單、容易上手。 對于小白來說,爬蟲可能是一件非常復雜,技術門檻很高的事情,其實只要掌握正確方法,在短時間內(nèi)也是能夠做到精通的!這里給你一條平滑的,零基礎快速入門的學習路徑。 先來帶你簡單的爬取一下網(wǎng)絡圖片: 1. 概述 本文主要實現(xiàn)一個簡單的爬蟲,目的是從一個百度貼吧頁面下載圖片。下載圖片的步驟如下: (1)獲取網(wǎng)頁html文本內(nèi)容; (2)分析html中圖片的html標簽特征,用正則解析出所有的圖片url鏈接列表; (3)根據(jù)圖片的url鏈接列表將圖片下載到本地文件夾中。 如果你是零基礎小白,看不懂,沒關系!完整項目代碼+視頻使用教程+Python編程學習資料都給你帶走,有了這些 不怕你學不會! 不收取任何費用哦 2. urllib+re實現(xiàn) #!/usr/bin/python# coding:utf-8# 實現(xiàn)一個簡單的爬蟲,爬取百度貼吧圖片import urllibimport re# 根據(jù)url獲取網(wǎng)頁html內(nèi)容def getHtmlContent(url): page = urllib.urlopen(url) return page.read()# 從html中解析出所有jpg圖片的url# 百度貼吧html中jpg圖片的url格式為:<img ... src='XXX.jpg' width=...>def getJPGs(html): # 解析jpg圖片url的正則 jpgReg = re.compile(r'<img.+?src='(.+?\.jpg)' width') # 注:這里最后加一個'width'是為了提高匹配精確度 # 解析出jpg的url列表 jpgs = re.findall(jpgReg,html) return jpgs# 用圖片url下載圖片并保存成制定文件名defdownloadJPG(imgUrl,fileName): urllib.urlretrieve(imgUrl,fileName) # 批量下載圖片,默認保存到當前目錄下def batchDownloadJPGs(imgUrls,path ='./'): # 用于給圖片命名 count = 1 for url in imgUrls: downloadJPG(url,''.join([path,'{0}.jpg'.format(count)])) count = count + 1# 封裝:從百度貼吧網(wǎng)頁下載圖片def download(url): html = getHtmlContent(url) jpgs = getJPGs(html) batchDownloadJPGs(jpgs)def main(): url = 'http://tieba.baidu.com/p/2256306796' download(url)if __name__ == '__main__': main() 運行上面腳本,過幾秒種之后完成下載,可以在當前目錄下看到圖片已經(jīng)下載好了: 3. requests + re實現(xiàn) 下面用requests庫實現(xiàn)下載,把getHtmlContent和downloadJPG函數(shù)都用requests重新實現(xiàn)。 #!/usr/bin/python# coding:utf-8# 實現(xiàn)一個簡單的爬蟲,爬取百度貼吧圖片import requestsimport re# 根據(jù)url獲取網(wǎng)頁html內(nèi)容def getHtmlContent(url): page = requests.get(url): return page.text# 從html中解析出所有jpg圖片的url# 百度貼吧html中jpg圖片的url格式為:<img ... src='XXX.jpg' width=...>def getJPGs(html): # 解析jpg圖片url的正則 jpgReg = re.compile(r'<img.+?src='(.+?\.jpg)' width') # 注:這里最后加一個'width'是為了提高匹配精確度 # 解析出jpg的url列表 jpgs = re.findall(jpgReg,html) return jpgs# 用圖片url下載圖片并保存成制定文件名def downloadJPG(imgUrl,fileName): # 可自動關閉請求和響應的模塊 from contextlib import closing with closing(requests.get(imgUrl,stream = True)) as resp: with open(fileName,'wb') as f: for chunk in resp.iter_content(128): f.write(chunk)# 批量下載圖片,默認保存到當前目錄下defbatchDownloadJPGs(imgUrls,path ='./'): # 用于給圖片命名 count = 1 for url in imgUrls: downloadJPG(url,''.join([path,'{0}.jpg'.format(count)])) print '下載完成第{0}張圖片'.format(count) count = count + 1# 封裝:從百度貼吧網(wǎng)頁下載圖片def download(url): html = getHtmlContent(url) jpgs = getJPGs(html) batchDownloadJPGs(jpgs)def main(): url = 'http://tieba.baidu.com/p/2256306796' download(url)if __name__ == '__main__': main() 輸出:和前面一樣。 不知道這篇簡單的python爬蟲小案例有沒有幫到你呢?無論你是零基礎小白看不懂還是看懂了想體驗高難度!小伙伴們都不用擔心~小編已經(jīng)為你準備好了Python爬視頻教程請關注+私信回復小編我關鍵詞“學習”就可以拿到這份份我為大家準備的13天學會Python爬蟲分布式十三天具體干什么? 第一天: 第二天: 第三天: 第四天: 第五天: 第六天: 第七天: 第八天: 第九天: 第十天: 第十一天: 第十二天: 第十三天: 每天三兩個小時,13天輕松拿下python爬蟲,你就說牛不牛!溜不溜! |
|