国产片侵犯亲女视频播放_亚洲精品二区_在线免费国产视频_欧美精品一区二区三区在线_少妇久久久_在线观看av不卡

腳本之家,腳本語(yǔ)言編程技術(shù)及教程分享平臺(tái)!
分類導(dǎo)航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務(wù)器之家 - 腳本之家 - Python - Python爬蟲——爬取豆瓣電影Top250代碼實(shí)例

Python爬蟲——爬取豆瓣電影Top250代碼實(shí)例

2021-06-18 00:30Fighting_No1 Python

這篇文章主要介紹了Python爬取豆瓣電影Top250實(shí)例,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧

利用python爬取豆瓣電影top250的相關(guān)信息,包括電影詳情鏈接,圖片鏈接,影片中文名,影片外國(guó)名,評(píng)分,評(píng)價(jià)數(shù),概況,導(dǎo)演,主演,年份,地區(qū),類別這12項(xiàng)內(nèi)容,然后將爬取的信息寫入excel表中。基本上爬取結(jié)果還是挺好的。具體代碼如下:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
#!/usr/bin/python
#-*- coding: utf-8 -*-
import sys
reload(sys)
sys.setdefaultencoding('utf8')
from bs4 import beautifulsoup
import re
import urllib2
import xlwt
 
#得到頁(yè)面全部?jī)?nèi)容
def askurl(url):
  request = urllib2.request(url)#發(fā)送請(qǐng)求
  try:
    response = urllib2.urlopen(request)#取得響應(yīng)
    html= response.read()#獲取網(wǎng)頁(yè)內(nèi)容
    #print html
  except urllib2.urlerror, e:
    if hasattr(e,"code"):
      print e.code
    if hasattr(e,"reason"):
      print e.reason
  return html
 
#獲取相關(guān)內(nèi)容
def getdata(baseurl):
  findlink=re.compile(r'<a href="(.*?)" rel="external nofollow" >')#找到影片詳情鏈接
  findimgsrc=re.compile(r'<img.*src="(.*jpg)"',re.s)#找到影片圖片
  findtitle=re.compile(r'<span class="title">(.*)</span>')#找到片名
  #找到評(píng)分
  findrating=re.compile(r'<span class="rating_num" property="v:average">(.*)</span>')
  #找到評(píng)價(jià)人數(shù)
  findjudge=re.compile(r'<span>(\d*)人評(píng)價(jià)</span>')
  #找到概況
  findinq=re.compile(r'<span class="inq">(.*)</span>')
  #找到影片相關(guān)內(nèi)容:導(dǎo)演,主演,年份,地區(qū),類別
  findbd=re.compile(r'<p class="">(.*?)</p>',re.s)
  #去掉無關(guān)內(nèi)容
  remove=re.compile(r'              |\n|</br>|\.*')
  datalist=[]
  for i in range(0,10):
    url=baseurl+str(i*25)
    html=askurl(url)
    soup = beautifulsoup(html, "html.parser")
    for item in soup.find_all('div',class_='item'):#找到每一個(gè)影片項(xiàng)
      data=[]
      item=str(item)#轉(zhuǎn)換成字符串
      #print item
      link=re.findall(findlink,item)[0]
      data.append(link)#添加詳情鏈接
      imgsrc=re.findall(findimgsrc,item)[0]
      data.append(imgsrc)#添加圖片鏈接
      titles=re.findall(findtitle,item)
      #片名可能只有一個(gè)中文名,沒有外國(guó)名
      if(len(titles)==2):
        ctitle=titles[0]
        data.append(ctitle)#添加中文片名
        otitle=titles[1].replace(" / ","")#去掉無關(guān)符號(hào)
        data.append(otitle)#添加外國(guó)片名
      else:
        data.append(titles[0])#添加中文片名
        data.append(' ')#留空
      rating=re.findall(findrating,item)[0]
      data.append(rating)#添加評(píng)分
      judgenum=re.findall(findjudge,item)[0]
      data.append(judgenum)#添加評(píng)論人數(shù)
      inq=re.findall(findinq,item)
      #可能沒有概況
      if len(inq)!=0:
        inq=inq[0].replace("。","")#去掉句號(hào)
        data.append(inq)#添加概況
      else:
        data.append(' ')#留空
      bd=re.findall(findbd,item)[0]
      bd=re.sub(remove,"",bd)
      bd=re.sub('<br>'," ",bd)#去掉<br>
      bd=re.sub('/'," ",bd)#替換/
      #data.append(bd)
      words=bd.split(" ")
      for s in words:
        if len(s)!=0 and s!=' ':#去掉空白內(nèi)容
           data.append(s)
      #主演有可能因?yàn)閷?dǎo)演內(nèi)容太長(zhǎng)而沒有
      if(len(data)!=12):
        data.insert(8,' ')#留空
      datalist.append(data)
  return datalist
 
#將相關(guān)數(shù)據(jù)寫入excel中
def savedata(datalist,savepath):
  book=xlwt.workbook(encoding='utf-8',style_compression=0)
  sheet=book.add_sheet('豆瓣電影top250',cell_overwrite_ok=true)
  col=('電影詳情鏈接','圖片鏈接','影片中文名','影片外國(guó)名',
        '評(píng)分','評(píng)價(jià)數(shù)','概況','導(dǎo)演','主演','年份','地區(qū)','類別')
  for i in range(0,12):
    sheet.write(0,i,col[i])#列名
  for i in range(0,250):
    data=datalist[i]
    for j in range(0,12):
      sheet.write(i+1,j,data[j])#數(shù)據(jù)
  book.save(savepath)#保存
 
def main():
  baseurl='https://movie.douban.com/top250?start='
  datalist=getdata(baseurl)
  savapath=u'豆瓣電影top250.xlsx'
  savedata(datalist,savapath)
 
main()

excel表部分內(nèi)容如下:

Python爬蟲——爬取豆瓣電影Top250代碼實(shí)例

以上所述是小編給大家介紹的python爬取豆瓣電影top250實(shí)例詳解整合,希望對(duì)大家有所幫助,如果大家有任何疑問請(qǐng)給我留言,小編會(huì)及時(shí)回復(fù)大家的。在此也非常感謝大家對(duì)服務(wù)器之家網(wǎng)站的支持!

原文鏈接:https://blog.csdn.net/Fighting_No1/article/details/50926008

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 久久91精品 | 一本一道久久a久久精品综合 | 精品久久久久久久久久 | 亚洲黄色特级片 | av中文字幕在线 | 国产精品一区久久久 | 欧美日韩国产影院 | 欧美疯狂性受xxxxx另类 | 精品伦精品一区二区三区视频 | av午夜电影 | 国产偷亚洲偷欧美偷精品 | 91 在线| 最近的中文字幕在线看视频 | 伊人婷婷 | 久久国产综合 | 亚洲视频精品 | 亚洲欧美精品一区二区三区 | 一级黄色免费片 | 欧洲色视频| a天堂中文在线观看 | 精品国产乱码久久久久久88av | 久草免费福利 | 二区影院 | 久久国产精品免费一区二区三区 | 日本黄色免费播放 | 日韩欧美一区二区精品 | 欧州一区二区三区 | 亚洲国产综合在线 | 日本精品久久 | 亚洲精品乱码8久久久久久日本 | 国产欧美精品一区二区 | 国产精品久久久久无码av | 伊人一区| 中文字幕在线播放一区 | 欧美a v在线播放 | 爱免费视频 | 色婷婷综合久久 | 免费一级在线 | 国产羞羞视频 | 欧美日韩在线免费观看 | 亚洲国产精品久久久久 |