一区二区三区日韩精品-日韩经典一区二区三区-五月激情综合丁香婷婷-欧美精品中文字幕专区

分享

用Python網絡爬蟲獲取Mikan動漫資源

 千鋒Python學堂 2020-08-26

【一、項目背景】

[蜜柑計劃 - Mikan Project] :新一代的動漫下載站。是一個專門為喜歡動漫的小伙伴們打造的動漫視頻在線播放網站,為大家第一時間分享最新動漫資源,每日精選最優(yōu)質的動漫推薦。

用Python網絡爬蟲獲取Mikan動漫資源

【二、項目目標】

實現獲取動漫種子鏈接,并下載保存在文檔。

【三、涉及的庫和網站】

1、網址如下:

https:///Home/Classic/{}

2、涉及的庫:**reques****ts、****lxml、**fake_useragent

3、軟件**:PyCharm**

【四、項目分析】

首先需要解決如何對下一頁的網址進行請求的問題??梢渣c擊下一頁的按鈕,觀察到網站的變化分別如下所示:

https:///Home/Classic/1

https:///Home/Classic/2

https:///Home/Classic/3

點擊下一頁時,每增加一頁Classic/()自增加1,用{}代替變換的變量,再用for循環(huán)遍歷這網址,實現多個網址請求。

【五、反爬措施】

1、獲取正常的 http請求頭,并在requests請求時設置這些常規(guī)的http請求頭。

2、使用 fake_useragent ,產生隨機的UserAgent進行訪問。

【六、項目實施】

1、我們定義一個class類繼承object,然后定義init方法繼承self,再定義一個主函數main繼承self。導入需要的庫和網址。

import requests
from lxml import etree
from fake_useragent import UserAgent

class Mikan(object):
def __init__(self):
self.url = "https:///Home/Classic/{}"

def main(self):
pass

if __name__ == '__main__':
Siper = Mikan()
Siper.main()

2、主方法(main):for循環(huán)實現多個網頁請求。

stat = int(input("start :"))
end = int(input(" end:"))
for page in range(stat, end + 1):
url = self.url.format(page)
print(url)

3、 隨機產生UserAgent。

for i in range(1, 50):
self.headers = {
'User-Agent': ua.random,
}

4、發(fā)送請求 獲取響應, 頁面回調,方便下次請求。

def get_page(self, url):
res = requests.get(url=url, headers=self.headers)
html = res.content.decode("utf-8")
return html

5、xpath解析一級頁面數據,for循環(huán)遍歷補全網址,獲取二級頁面網址。

parse_html = etree.HTML(html)
one = parse_html.xpath('//tbody//tr//td[3]/a/@href')
for li in one:
yr = "https://" + li

6、二級頁面請求 ,先找到頁面父節(jié)點,for循環(huán)遍歷,再用path獲取到種子的下載地址。補全種子鏈接地址。

tow = parse_html2.xpath('//body')
for i in tow:
four = i.xpath('.//p[@class="episode-title"]//text()')[0].strip()
fif = i.xpath('.//div[@class="leftbar-nav"]/a[1]/@href')[0].strip()
# print(four)
t = "https://" + fif
print(t)

7、保存在word文檔 。

 dirname = "./種子/" + four[:15] + four[-20:] + '.torrent'
# print(dirname)
html3 = requests.get(url=t, headers=self.headers).content
with open(dirname, 'wb') as f:
f.write(html3)
print("\n%s下載成功" % four)

8、調用方法,實現功能。

 html = self.get_page(url)
self.parse_page(html)

【七、效果展示】

1、運行程序,在控制臺輸入起始頁,終止頁,如下圖所示。

用Python網絡爬蟲獲取Mikan動漫資源

2、將下載成功的圖片信息顯示在控制臺,如下圖所示。

用Python網絡爬蟲獲取Mikan動漫資源

3、保存.torrent文檔。

用Python網絡爬蟲獲取Mikan動漫資源

4、如何打開種子文件?先上傳到百度云盤,如下圖所示。

用Python網絡爬蟲獲取Mikan動漫資源

5、雙擊解析下載,如下圖所示。

用Python網絡爬蟲獲取Mikan動漫資源

【八、總結】

1、不建議抓取太多數據,容易對服務器造成負載,淺嘗輒止即可。

2、本文章就python爬取Mikan Project,在下載種子的難點和重點,以及如何防止反爬,做出了相對于的解決方案。

3、介紹了如何去拼接字符串,以及列表如何進行類型的轉換。

4、歡迎大家積極嘗試,有時候看到別人實現起來很簡單,但是到自己動手實現的時候,總會有各種各樣的問題,切勿眼高手低,勤動手,才可以理解的更加深刻。

    本站是提供個人知識管理的網絡存儲空間,所有內容均由用戶發(fā)布,不代表本站觀點。請注意甄別內容中的聯系方式、誘導購買等信息,謹防詐騙。如發(fā)現有害或侵權內容,請點擊一鍵舉報。
    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多

    国产又粗又猛又长又黄视频| 国产在线成人免费高清观看av| 国产成人国产精品国产三级| 国产精品成人一区二区在线| 成人精品亚洲欧美日韩| 国产不卡免费高清视频| 午夜福利视频日本一区| 深夜视频在线观看免费你懂| 成人午夜视频在线播放| 亚洲中文字幕剧情在线播放| 欧美91精品国产自产| 国产性色精品福利在线观看| 精品人妻一区二区三区免费| 二区久久久国产av色| 日韩国产亚洲一区二区三区| 欧美日韩国产精品黄片| 色综合久久中文综合网| 国产性色精品福利在线观看| 国产亚洲午夜高清国产拍精品 | 国产精品一区二区成人在线| 免费一区二区三区少妇| 国产麻豆成人精品区在线观看| 国产亚洲视频香蕉一区| 国产色偷丝袜麻豆亚洲| 肥白女人日韩中文视频| 欧美日韩三区在线观看| 欧美日韩国产精品第五页| 国产午夜精品在线免费看| 好吊妞视频只有这里有精品| 精品香蕉国产一区二区三区| 中文日韩精品视频在线| 欧美整片精品日韩综合| 沐浴偷拍一区二区视频| 欧美日韩亚洲精品内裤| 久久少妇诱惑免费视频| 欧美日韩一级aa大片| 亚洲精品av少妇在线观看| 日韩av生活片一区二区三区| 国产亚洲精品久久久优势| 国产精品人妻熟女毛片av久| 国语久精品在视频在线观看|