国产片侵犯亲女视频播放_亚洲精品二区_在线免费国产视频_欧美精品一区二区三区在线_少妇久久久_在线观看av不卡

腳本之家,腳本語言編程技術及教程分享平臺!
分類導航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務器之家 - 腳本之家 - Python - python爬蟲_自動獲取seebug的poc實例

python爬蟲_自動獲取seebug的poc實例

2020-11-30 00:20腳本之家 Python

下面小編就為大家帶來一篇python爬蟲_自動獲取seebug的poc實例。小編覺得挺不錯的,現在就分享給大家,也給大家做個參考。一起跟隨小編過來看看吧

簡單的寫了一個爬取www.seebug.org上poc的小玩意兒~

首先我們進行一定的抓包分析

我們遇到的第一個問題就是seebug需要登錄才能進行下載,這個很好處理,只需要抓取返回值200的頁面,將我們的headers信息復制下來就行了

(這里我就不放上我的headers信息了,不過headers里需要修改和注意的內容會在下文講清楚)

 
?
1
 
2
3
4
5
6
7
8
9
headers = {
 'Host':******,
 'Connection':'close',
 'Accept':******,
 'User-Agent':******,
 'Referer':'https://www.seebug.org/vuldb/ssvid-',
 'Accept-Language':'zh-CN,zh;q=0.8',
 'Cookie':***********
}

由上所知,我們的中點就是referer這一項,是我們后面要進行修改的

那么怎么去修改這個呢?

我先進行點擊下載鏈接抓包發現,seebug的poc下載鏈接特別的整齊:

'https://www.seebug.org/vuldb/downloadPoc/xxxxx',

后面只需要加上一個五位數就行,而且五位數是連號的哦!

這就一目了然,我更改了五位數再次進行請求時發現,并沒有返回美麗的200狀態碼,瞄了一眼header,發現了referer這一項:

'Referer':'https://www.seebug.org/vuldb/ssvid-xxxxx'

也就是說referer這一項的五位數字也要隨之變化,這樣我們的get請求頭部就完成了

接下來是線程的問題

使用了queue和threading進行多線程處理,發現我們不能圖快,不然會被反爬蟲發現

于是導入time增加time.sleep(1),能有一秒的休眠就行了,線程數給了2個(這樣看來好像線程的意義并不大,不過也就這么寫啦)

 
?
1
 
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
# coding=utf-8
 
import requests
import threading
import Queueimport time
 
headers = {
   ******
  }
url_download = 'https://www.seebug.org/vuldb/downloadPoc/'
 
class SeeBugPoc(threading.Thread):
 def __init__(self,queue):
  threading.Thread.__init__(self)
  self._queue = queue
 
 def run(self):
  while not self._queue.empty():
   url_download = self._queue.get_nowait()
   self.download_file(url_download)
 
 
 def download_file(self,url_download):
  r = requests.get(url = url_download,headers = headers)
  print r.status_code
  name = url_download.split('/')[-1]
  print name
  if r.status_code == 200:
   f = open('E:/poc/'+name+'.txt','w')
   f.write(r.content)
   f.close()
   print 'it ok!'
  else:
   print 'what fuck !'
  time.sleep(1)
'''
 def get_html(self,url):
 
  r = requests.get(url = url,headers = headers)
  print r.status_code
  print time.time()
'''
 
 
def main():
 queue = Queue.Queue()
 for i in range(93000,93236):
  headers['Referer'] = 'https://www.seebug.org/vuldb/ssvid-'+str(i)
  queue.put('https://www.seebug.org/vuldb/downloadPoc/'+str(i))
 
 
  #queue用來存放設計好的url,將他們放入一個隊列中,以便后面取用
 
 threads = []
 thread_count = 2
 for i in range(thread_count):
  threads.append(SeeBugPoc(queue))
 
 for i in threads:
  i.start()
 
 for i in threads:
  i.join()
 
if __name__ == '__main__':
 main()

代碼如上

控制下載的range()中的兩個五位數,大家只要去seebug庫中找一找想要掃描的庫的開頭和結尾編碼的五位數就行了(也就是他們的編號)

關于返回的狀態碼,如果項目不提供poc下載、poc下載不存在、poc需要兌換幣才能下載,就不能夠返回正常的200啦(非正常:404/403/521等)

當然,如果一直出現521,可以考慮刷新網頁重新獲取header并修改代碼

最后進行一個狀態碼的判斷,并且將200的文件寫出來就好了
 

  表示慚愧感覺自己寫的很簡單

  如果大家發現錯誤或者有疑惑可以留言討論哦

以上這篇python爬蟲_自動獲取seebug的poc實例就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持服務器之家。

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 欧美一区二区 | 亚洲精品综合 | 久久国产精品电影 | 羞羞视频免费观看 | 免费观看国产视频在线 | 黄色一级大片在线免费看产 | 成人国产精品一区二区免费麻豆 | 国产日韩欧美在线观看 | 国产在线第一页 | 精品国产一区二区三区久久 | 欧洲一级视频 | 亚洲第一成年人网站 | 精品一区二区三区在线观看 | 精品视频免费观看 | 亚洲精品乱码久久久久久金桔影视 | 久久精品黄色 | 日日韩av | 日韩在线免费 | 91亚洲一区| 日本一区二区三区视频免费看 | 天天操天天干天天爽 | 国产精品国产a | 国产精品免费视频一区二区三区 | 9191国产视频 | 精品免费久久久久 | 精品一区二区三区四区五区 | 伊人电影综合网 | 欧美大片免费高清观看 | 黄色午夜 | 日本黄a三级三级三级 | 色婷婷网 | 亚洲欧美在线观看 | 亚洲欧洲精品成人久久奇米网 | 欧美在线国产 | 爱操av | 久久久久久香蕉 | 欧美日韩国产一区二区三区不卡 | 美女久久久 | 欧美一区二区三区四区五区 | 成人深夜在线观看 | 91 在线|