国产片侵犯亲女视频播放_亚洲精品二区_在线免费国产视频_欧美精品一区二区三区在线_少妇久久久_在线观看av不卡

腳本之家,腳本語言編程技術(shù)及教程分享平臺(tái)!
分類導(dǎo)航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務(wù)器之家 - 腳本之家 - Python - python3爬取torrent種子鏈接實(shí)例

python3爬取torrent種子鏈接實(shí)例

2020-04-19 11:13海峰-清歡 Python

今天小編就為大家分享一篇python3爬取torrent種子鏈接實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧

本文環(huán)境是python3,采用的是urllib,BeautifulSoup搭建。

說下思路,這個(gè)項(xiàng)目分為管理器,url管理器,下載器,解析器,html文件生產(chǎn)器。各司其職,在管理器進(jìn)行調(diào)度。最后將解析到的種子連接生產(chǎn)html文件顯示。當(dāng)然也可以保存在文件。最后效果如圖。

首先在管理器SpiderMain()這個(gè)類的構(gòu)造方法里初始化下載器,解析器,html生產(chǎn)器。代碼如下。

?
1
2
3
4
5
6
def__init__(self):
 
  self.urls = url_manager.UrlManager()
  self.downloader = html_downloader.HtmlDownloader()
  self.parser = html_parser.HtmlParser()
  self.outputer = html_outputer.HtmlOutputer()

然后在主方法里寫入主連接并開始下載解析和輸出。

?
1
2
3
4
5
6
if __name__ == '__main__':
  url = "http://www.btany.com/search/桃谷繪里香-first-asc-1"
  # 解決中文搜索問題 對(duì)于:?=不進(jìn)行轉(zhuǎn)義
  root_url = quote(url,safe='/:?=')
  obj_spider = SpiderMain()
  obj_spider.parser(root_url)

用下載器進(jìn)行下載,解析器解析下載好的網(wǎng)頁,最后輸出。管理器的框架邏輯就搭建完畢

?
1
2
3
4
def parser(self, root_url): 
  html = self.downloader.download(root_url) 
  datas = self.parser.parserTwo(html) 
  self.outputer.output_html3(datas)

downloader下載器代碼如下:

?
1
2
3
4
5
6
7
8
9
10
11
def download(self, chaper_url):
 
  if chaper_url is None:
    return None
  headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:23.0) Gecko/20100101 Firefox/23.0'}
  req = urllib.request.Request(url=chaper_url, headers=headers)
  response = urllib.request.urlopen(req)
  if response.getcode() != 200:
    return None
 
  return response.read()

headers是模仿瀏覽器的請(qǐng)求頭。不然下載不到html文件。

解析器代碼如下:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
# 解析種子文件
def parserTwo(self,html):
  if html is None:
    return
  soup = BeautifulSoup(html,'html.parser',from_encoding='utf-8')
  res_datas = self._get_data(soup)
  return res_datas
 
# 將種子文件的標(biāo)題,磁力鏈接和迅雷鏈接進(jìn)行封裝
def _get_data(self,soup):
  res_datas = []
  all_data = soup.findAll('a',href=re.compile(r"/detail"))
  all_data2 = soup.findAll('a', href=re.compile(r"magnet"))
  all_data3 = soup.findAll('a',href=re.compile(r"thunder"))
  for i in range(len(all_data)):
    res_data = {}
    res_data['title'] = all_data[i].get_text()
    res_data['cl'] = all_data2[i].get('href')
    res_data['xl'] = all_data3[i].get('href')
    res_datas.append(res_data)
  return res_datas

通過分析爬下來的html文件,種子鏈接在a標(biāo)簽下。然后提取magnet和thunder下的鏈接。

最后輸出器輸出html文件,代碼如下:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
def __init__(self):
  self.datas = []
 
def collect_data(self, data):
  if data is None:
    return
  self.datas.append(data)
#輸出表單
def output_html3(self,datas):
  fout = open('output.html', 'w', encoding="utf-8")
 
  fout.write("<html>")
  fout.write("<head><meta http-equiv="content-type" content="text/html;charset=utf-8"></head>")
  fout.write("<body>")
  fout.write("<table border = 1>")
 
  for data in datas:
    fout.write("<tr>")
    fout.write("<td>%s</td>" % data['title'])
    fout.write("<td>%s</td>" % data['cl'])
    fout.write("<td>%s</td>" % data['xl'])
    fout.write("</tr>")
 
  fout.write("</table>")
  fout.write("</body>")
  fout.write("</html>")
  fout.close()

python3爬取torrent種子鏈接實(shí)例

項(xiàng)目就結(jié)束了。源代碼已上傳,鏈接https://github.com/Ahuanghaifeng/python3-torrent,覺得有用請(qǐng)?jiān)趃ithub上給個(gè)star,您的鼓勵(lì)將是作者創(chuàng)作的動(dòng)力。

以上這篇python3爬取torrent種子鏈接實(shí)例就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持服務(wù)器之家。

原文鏈接:https://blog.csdn.net/u013692888/article/details/52660492

延伸 · 閱讀

精彩推薦
Weibo Article 1 Weibo Article 2 Weibo Article 3 Weibo Article 4 Weibo Article 5 Weibo Article 6 Weibo Article 7 Weibo Article 8 Weibo Article 9 Weibo Article 10 Weibo Article 11 Weibo Article 12 Weibo Article 13 Weibo Article 14 Weibo Article 15 Weibo Article 16 Weibo Article 17 Weibo Article 18 Weibo Article 19 Weibo Article 20 Weibo Article 21 Weibo Article 22 Weibo Article 23 Weibo Article 24 Weibo Article 25 Weibo Article 26 Weibo Article 27 Weibo Article 28 Weibo Article 29 Weibo Article 30 Weibo Article 31 Weibo Article 32 Weibo Article 33 Weibo Article 34 Weibo Article 35 Weibo Article 36 Weibo Article 37 Weibo Article 38 Weibo Article 39 Weibo Article 40
主站蜘蛛池模板: 国产精品久久久久久久久久新婚 | 欧美日韩一级二级三级 | 中文字幕天堂在线 | 精品九九 | 久久久久久久一区 | 在线播放视频一区二区 | 韩国三级午夜理伦三级三 | 欧美亚洲在线 | 欧美在线网站 | 日本高清无卡码一区二区久久 | 精品久久久久久久久久久 | 久久这里只有精品免费 | 国产精品美女久久久久久久网站 | 99精品视频在线 | 国产美女一区二区 | 欧美精品一区二区三区一线天视频 | 亚洲不卡在线 | av观看免费 | 亚洲h| 精品亚洲一区二区 | 国产福利91精品一区二区三区 | 亚洲精品视频在线 | 黄色一级毛片在线观看 | 日韩国产在线观看 | 亚洲视频在线不卡 | 亚洲欧美日韩一区二区 | 日韩国产欧美视频 | 国产精品观看 | 中文字幕一区三级久久日本 | 婷婷国产 | 亚洲一区精品在线 | 久久久夜色精品亚洲 | 亚洲精品中文字幕在线观看 | 国产精品一区二区久久 | 欧美成人免费在线观看 | 国产亚洲欧美一区 | 国产成人高清精品免费5388 | 一级黄色国产视频 | 一本大道香蕉大a√在线 | 激情五月婷 | 精品国产乱码久久久久久闺蜜 |