国产片侵犯亲女视频播放_亚洲精品二区_在线免费国产视频_欧美精品一区二区三区在线_少妇久久久_在线观看av不卡

腳本之家,腳本語言編程技術及教程分享平臺!
分類導航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務器之家 - 腳本之家 - Python - Python爬蟲scrapy框架Cookie池(微博Cookie池)的使用

Python爬蟲scrapy框架Cookie池(微博Cookie池)的使用

2021-08-24 00:35MXuDong Python

這篇文章主要介紹了Python爬蟲scrapy框架Cookie池(微博Cookie池)的使用,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧

下載代碼cookie池(這里主要是微博登錄,也可以自己配置置其他的站點網址)

下載代碼github:https://github.com/python3webspider/cookiespool

Python爬蟲scrapy框架Cookie池(微博Cookie池)的使用

下載安裝過后注意看網頁下面的相關基礎配置和操作!!!!!!!!!!!!!

自己的設置主要有下面幾步:

1、配置其他設置

Python爬蟲scrapy框架Cookie池(微博Cookie池)的使用

2、設置使用的瀏覽器

Python爬蟲scrapy框架Cookie池(微博Cookie池)的使用

Python爬蟲scrapy框架Cookie池(微博Cookie池)的使用

3、設置模擬登陸

Python爬蟲scrapy框架Cookie池(微博Cookie池)的使用

源碼cookies.py的修改(以下兩處不修改可能會產生bug)

Python爬蟲scrapy框架Cookie池(微博Cookie池)的使用

 Python爬蟲scrapy框架Cookie池(微博Cookie池)的使用

4、獲取cookie

隨機獲取cookies: http://localhost:5000/weibo/random(注意:cookie使用時是需要后期處理的!!)

Python爬蟲scrapy框架Cookie池(微博Cookie池)的使用

簡單的處理方式,如下代碼(偶爾需要對獲取的cookie處理):

?
1
2
3
4
5
6
7
8
9
10
11
def get_cookie(self):
    return requests.get('http://127.0.0.1:5000/weibo/random').text
 
  def stringtodict(self,cookie):
    itemdict = {}
    items = cookie.replace(':', '=').split(',')
    for item in items:
      key = item.split('=')[0].replace(' ', '').strip(' "')
      value = item.split('=')[1].strip(' "')
      itemdict[key] = value
    return itemdict

scrapy爬蟲的使用示例(爬取微博):

middlewares.py中自定義請求中間件

?
1
2
3
4
5
6
7
8
9
10
11
12
13
def start_requests(self):
    ua = useragent()
    headers = {
      'user-agent': ua.random,
      }
    cookies = self.stringtodict(str(self.get_cookie().strip('{|}')))
 
    yield scrapy.request(url=self.start_urls[0], headers=headers,
               cookies=cookies, callback=self.parse)
cookies = self.stringtodict(str(self.get_cookie().strip('{|}')))
 
    yield scrapy.request(url=self.start_urls[0], headers=headers,
               cookies=cookies, callback=self.parse)

settings.py 中的配置:

Python爬蟲scrapy框架Cookie池(微博Cookie池)的使用

5、錄入賬號和密碼:

Python爬蟲scrapy框架Cookie池(微博Cookie池)的使用

格式規定(賬號----密碼)

Python爬蟲scrapy框架Cookie池(微博Cookie池)的使用

6、驗證:(注意:使用cmd)

Python爬蟲scrapy框架Cookie池(微博Cookie池)的使用

7、使用時注意保持cmd打開運行!!

使用時一定要打開cmd,并運行如第6步。

得到cookie是判斷是否處理處理cookie(幾乎都需要!!)類比第4步!!!

到此這篇關于python爬蟲scrapy框架cookie池(微博cookie池)的使用的文章就介紹到這了,更多相關scrapy cookie池內容請搜索服務器之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持服務器之家!

原文鏈接:https://blog.csdn.net/qq_33472765/article/details/80957853

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 亚洲国产日韩一区 | 日本福利视频 | 成人精品 | 91久久国产精品 | 91在线视频免费观看 | 久久国产精品亚洲 | 中文字幕在线资源 | 懂色中文一区二区在线播放 | 亚洲视频免费 | 精品国产乱码久久久久久影片 | 亚洲自拍不卡 | 国产精品久久久久久久久久久久 | a在线看 | 大毛片 | 久久久91精品国产一区二区三区 | 国产精品久久久久久久久久久久久 | 国产综合一区二区 | 1000部精品久久久久久久久 | 91超碰在线观看 | 国产精品视频久久久 | 日韩欧美国产精品综合嫩v 日韩a∨精品日韩在线观看 | 理伦影院| 精品久久久久久久久久久久 | 国产一区二区在线免费观看 | 视频一区二区三 | jizzjizzjizz亚洲女 | 欧美一区二区三区免费 | 亚洲精品视频一区二区三区 | 日韩三级 | 香草久久| 色欧美片视频在线观看 | 国产欧美日韩综合精品 | 欧美精品在线一区 | 久久久久久综合 | 日日干天天干 | 午夜精品久久久久久久久久久久 | 国产不卡免费视频 | 欧美日韩视频 | 亚洲一区在线视频 | 久久久精品久久久久 | 91av爱爱 |