国产片侵犯亲女视频播放_亚洲精品二区_在线免费国产视频_欧美精品一区二区三区在线_少妇久久久_在线观看av不卡

腳本之家,腳本語(yǔ)言編程技術(shù)及教程分享平臺(tái)!
分類導(dǎo)航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務(wù)器之家 - 腳本之家 - Python - 詳解Python爬蟲爬取博客園問(wèn)題列表所有的問(wèn)題

詳解Python爬蟲爬取博客園問(wèn)題列表所有的問(wèn)題

2021-08-26 00:34Winqihe Python

這篇文章主要介紹了詳解Python爬蟲爬取博客園問(wèn)題列表所有的問(wèn)題,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧

一.準(zhǔn)備工作

  • 首先,本文使用的技術(shù)為 python+requests+bs4,沒(méi)有了解過(guò)可以先去了解一下。
  • 我們的需求是將博客園問(wèn)題列表中的所有問(wèn)題的題目爬取下來(lái)。

詳解Python爬蟲爬取博客園問(wèn)題列表所有的問(wèn)題

二.分析:

  • 首先博客園問(wèn)題列表頁(yè)面右鍵點(diǎn)擊檢查
  • 通過(guò)Element查找問(wèn)題所對(duì)應(yīng)的屬性或標(biāo)簽

詳解Python爬蟲爬取博客園問(wèn)題列表所有的問(wèn)題

可以發(fā)現(xiàn)在div class ="one_entity"中存在頁(yè)面中分別對(duì)應(yīng)每一個(gè)問(wèn)題
接著div class ="news_item"中h2標(biāo)簽下是我們想要拿到的數(shù)據(jù)

三.代碼實(shí)現(xiàn)

首先導(dǎo)入requests和BeautifulSoup

  1. import requests
  2. from bs4 import BeautifulSoup

由于很多網(wǎng)站定義了反爬策略,所以進(jìn)行偽裝一下

  1. headers = {
  2. 'User-Agent': 'Mozilla / 5.0(WindowsNT10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 87.0.4280.141Safari / 537.36'
  3. }

在這里User-Agent只是其中的一種方式,而且大家的User-Agent可能不同。

爬取數(shù)據(jù)main代碼

  1. url = 'https://q.cnblogs.com/list/unsolved?'
  2. fp = open('blog', 'w', encoding='utf-8')
  3. for page in range(1,26):
  4. page = str(page)
  5. param = {
  6. 'page':page
  7. }
  8. page_text = requests.get(url=url,params=param,headers=headers).text
  9. page_soup = BeautifulSoup(page_text,'lxml')
  10. text_list = page_soup.select('.one_entity > .news_item > h2')
  11. for h2 in text_list:
  12. text = h2.a.string
  13. fp.write(text+'\n')
  14. print('第'+page+'頁(yè)爬取成功!')

注意一下這里,由于我們需要的是多張頁(yè)面的數(shù)據(jù),所以在發(fā)送請(qǐng)求的url中我們就要針對(duì)不同的頁(yè)面發(fā)送請(qǐng)求,https://q.cnblogs.com/list/unsolved?page=我們要做的是在發(fā)送請(qǐng)求的url時(shí)候,根據(jù)參數(shù)來(lái)填充頁(yè)數(shù)page,
代碼實(shí)現(xiàn):

  1. url = 'https://q.cnblogs.com/list/unsolved?'
  2. for page in range(1,26):
  3. page = str(page)
  4. param = {
  5. 'page':page
  6. }
  7. page_text = requests.get(url=url,params=param,headers=headers).text

將所有的h2數(shù)組拿到,進(jìn)行遍歷,通過(guò)取出h2中a標(biāo)簽中的文本,并將每取出來(lái)的文本寫入到文件中,由于要遍歷多次,所以保存文件在上面的代碼中。

  1. text_list = page_soup.select('.one_entity > .news_item > h2')
  2. for h2 in text_list:
  3. text = h2.a.string
  4. fp.write(text+'\n')

完整代碼如下:

  1. import requests
  2. from bs4 import BeautifulSoup
  3. if __name__ == '__main__':
  4. headers = {
  5. 'User-Agent': 'Mozilla / 5.0(WindowsNT10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 87.0.4280.141Safari / 537.36'
  6. }
  7. url = 'https://q.cnblogs.com/list/unsolved?'
  8. fp = open('blog', 'w', encoding='utf-8')
  9. for page in range(1,26):
  10. page = str(page)
  11. param = {
  12. 'page':page
  13. }
  14. page_text = requests.get(url=url,params=param,headers=headers).text
  15. page_soup = BeautifulSoup(page_text,'lxml')
  16. text_list = page_soup.select('.one_entity > .news_item > h2')
  17. for h2 in text_list:
  18. text = h2.a.string
  19. fp.write(text+'\n')
  20. print('第'+page+'頁(yè)爬取成功!')

四.運(yùn)行結(jié)果

運(yùn)行代碼:

詳解Python爬蟲爬取博客園問(wèn)題列表所有的問(wèn)題

詳解Python爬蟲爬取博客園問(wèn)題列表所有的問(wèn)題

到此這篇關(guān)于詳解Python爬蟲爬取博客園問(wèn)題列表所有的問(wèn)題的文章就介紹到這了,更多相關(guān)Python爬蟲爬取列表內(nèi)容請(qǐng)搜索服務(wù)器之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持服務(wù)器之家!

原文鏈接:https://blog.csdn.net/weixin_45462732/article/details/112682565

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 精品久| 日韩中文字幕一区二区 | 欧美国产一区二区 | 中文字幕视频在线观看 | 综合久久精品 | 久久久久久黄 | h视频免费观看 | 亚洲视频欧美视频 | 日本不卡一区二区三区在线观看 | 黑人精品 | 狠狠干美女 | 亚洲免费一区 | 一区二区免费看 | 精品亚洲一区二区三区 | 亚洲精品二区三区 | av网站免费看 | 亚洲激情综合 | 最好看的2019年中文在线观看 | 亚洲欧美日韩精品 | 欧美视频网站 | 午夜精品久久久久久久久久久久久 | 在线观看午夜免费视频 | 色婷婷网| 天天拍天天干天天操 | 亚洲91 | 欧美日韩久久久 | 视频一区二区中文字幕 | av免费一区二区 | 久久国产综合 | 91久久精品国产91久久性色tv | 91黄色片 | 免费精品视频 | 亚洲精品在线看 | 精品无人乱码一区二区三区 | 91精品国产综合久久久久久漫画 | 免费久久久久 | 美国特级a毛片免费网站 | 国产久| 中文字幕欧美日韩 | 狠狠久| 久久91av|