国产片侵犯亲女视频播放_亚洲精品二区_在线免费国产视频_欧美精品一区二区三区在线_少妇久久久_在线观看av不卡

腳本之家,腳本語言編程技術及教程分享平臺!
分類導航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務器之家 - 腳本之家 - Python - 編寫Python腳本抓取網絡小說來制作自己的閱讀器

編寫Python腳本抓取網絡小說來制作自己的閱讀器

2020-07-30 11:34一線涯 Python

這篇文章主要介紹了編寫Python腳本抓取網絡小說來制作自己的閱讀器的方法,包括對小說的章節排列等方面的優化,對于Python學習者來說非常具有實踐意義!需要的朋友可以參考下

你是否苦惱于網上無法下載的“小說在線閱讀”內容?或是某些文章的內容讓你很有收藏的沖動,卻找不到一個下載的鏈接?是不是有種自己寫個程序把全部搞定的沖動?是不是學了 python,想要找點東西大展拳腳,告訴別人“哥可是很牛逼的!”?那就讓我們開始吧! 哈哈~
    好吧,我就是最近寫 Yii 寫多了,想找點東西調劑一下.... = =

    本項目以研究為目的,所有版權問題我們都是站在作者的一邊,以看盜版小說為目的的讀者們請自行面壁!
    說了這么多,我們要做的就是把小說正文的內容從網頁上爬下來,我們的研究對象是全本小說網....再次聲明,不對任何版權負責....
    一開始先做最基礎的內容,就是把某一章的內容抓取下來。

    環境:Ubuntu, Python 2.7

    基礎知識
    這個程序涉及到的知識點有幾個,在這里列出來,不詳細講,有疑問的直接百度會有一堆的。
    1.urllib2 模塊的 request 對像來設置 HTTP 請求,包括抓取的 url,和偽裝瀏覽器的代理。然后就是 urlopen 和 read 方法,都很好理解。
    2.chardet 模塊,用于檢測網頁的編碼。在網頁上抓取數據很容易遇到亂碼的問題,為了判斷網頁是 gtk 編碼還是 utf-8 ,所以用 chardet 的 detect 函數進行檢測。在用 Windows 的同學可以在這里 http://download.csdn.net/detail/jcjc918/8231371 下載,解壓到 python 的 lib 目錄下就好。
    3. decode 函數將字符串從某種編碼轉為 unicode 字符,而 encode 把 unicode 字符轉為指定編碼格式的字符串。
     4. re 模塊正則表達式的應用。search 函數可以找到和正則表達式對應匹配的一項,而 replace 則是把匹配到的字符串替換。

    思路分析:
    我們選取的 url 是 http://www.quanben.com/xiaoshuo/0/910/59302.html,斗羅大陸的第一章。你可以查看網頁的源代碼,會發現只有一個 content 標簽包含了所有章節的內容,所以可以用正則把 content 的標簽匹配到,抓取下來。試著把這一部分內容打印出來,會發現很多 <br /> 和 &nbsp,<br /> 要替換成換行符, &nbsp 是網頁中的占位符,即空格,替換成空格就好。這樣一章的內容就很美觀的出來了。完整起見,同樣用正則把標題爬下來。

    程序

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
# -*- coding: utf-8 -*-
 
import urllib2
import re
import chardet
 
 
class Book_Spider:
 
  def __init__(self):
    self.pages = []
 
  # 抓取一個章節
  def GetPage(self):
    myUrl = "http://www.quanben.com/xiaoshuo/0/910/59302.html";
    user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
    headers = { 'User-Agent' : user_agent }
    request = urllib2.Request(myUrl, headers = headers)
    myResponse = urllib2.urlopen(request)
    myPage = myResponse.read()
 
    #先檢測網頁的字符編碼,最后統一轉為 utf-8
    charset = chardet.detect(myPage)
    charset = charset['encoding']
    if charset == 'utf-8' or charset == 'UTF-8':
      myPage = myPage
    else:
      myPage = myPage.decode('gb2312','ignore').encode('utf-8')
    unicodePage = myPage.decode("utf-8")
 
    try:
      #抓取標題
      my_title = re.search('<h1>(.*?)</h1>',unicodePage,re.S)
      my_title = my_title.group(1)
    except:
      print '標題 HTML 變化,請重新分析!'
      return False
     
    try:
      #抓取章節內容
      my_content = re.search('<div.*?id="htmlContent" class="contentbox">(.*?)<div',unicodePage,re.S)
      my_content = my_content.group(1)
    except:
      print "內容 HTML 變化,請重新分析!"
      return False
     
    #替換正文中的網頁代碼
    my_content = my_content.replace("<br />","\n")
    my_content = my_content.replace(" "," ")
 
    #用字典存儲一章的標題和內容
    onePage = {'title':my_title,'content':my_content}
    return onePage
 
 
  # 用于加載章節
  def LoadPage(self):
    try:
      # 獲取新的章節
      myPage = self.GetPage()
       
      if myPage == False:
        print '抓取失敗!'
        return False
       
      self.pages.append(myPage)
    except:
      print '無法連接服務器!'
 
  #顯示一章
  def ShowPage(self,curPage):
      print curPage['title']
      print curPage['content']
 
  def Start(self):
    print u'開始閱讀......\n'
    #把這一頁加載進來
    self.LoadPage()
    # 如果self的pages數組中存有元素
    if self.pages:
      nowPage = self.pages[0]
      self.ShowPage(nowPage)
 
 
#----------- 程序的入口處 -----------
print u"""
---------------------------------------
  程序:閱讀呼叫轉移
  版本:0.1
  作者:angryrookie
  日期:2014-07-05
  語言:Python 2.7
  功能:按下回車瀏覽章節
---------------------------------------
"""
 
print u'請按下回車:'
raw_input()
myBook = Book_Spider()
myBook.Start()

程序運行完在我這里可是很好看的,不信請看:^_^

編寫Python腳本抓取網絡小說來制作自己的閱讀器

理所當然地,接下來我們要把整本小說都爬下來。首先,我們要把程序從原來的讀完一章就結束,改成讀完一章之后可以繼續進行下一章的閱讀。
    注意到每個小說章節的網頁下面都有下一頁的鏈接。通過查看網頁源代碼,稍微整理一下(&nbsp; 不顯示了),我們可以看到這一部分的 HTML 是下面這種格式的:

?
1
2
3
4
5
6
<div id="footlink">
 <script type="text/javascript" charset="utf-8" src="/scripts/style5.js"></script>
 <a href="http://www.quanben.com/xiaoshuo/0/910/59301.html">上一頁</a>  
 <a href="http://www.quanben.com/xiaoshuo/0/910/">返回目錄</a>  
 <a href="http://www.quanben.com/xiaoshuo/0/910/59303.html">下一頁</a>
</div>

     上一頁 、返回目錄、下一頁都在一個 id 為 footlink  的 div 中,如果想要對每個鏈接進行匹配的話,會抓取到網頁上大量的其他鏈接,但是 footlink 的 div 只有一個啊!我們可以把這個 div 匹配到,抓下來,然后在這個抓下來的 div  里面再匹配 <a> 的鏈接,這時就只有三個了。只要取最后一個鏈接就是下一頁的 url 的,用這個 url 更新我們抓取的目標 url ,這樣就能一直抓到下一頁。用戶閱讀邏輯為每讀一個章節后,等待用戶輸入,如果是 quit 則退出程序,否則顯示下一章。

     基礎知識:
     上一篇的基礎知識加上 Python 的 thread 模塊.

     源代碼:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
# -*- coding: utf-8 -*-
 
import urllib2
import re
import thread
import chardet
 
class Book_Spider:
 
  def __init__(self):
    self.pages = []
    self.page = 1
    self.flag = True
    self.url = "http://www.quanben.com/xiaoshuo/10/10412/2095096.html"
 
  # 將抓取一個章節
  def GetPage(self):
    myUrl = self.url
    user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
    headers = { 'User-Agent' : user_agent }
    req = urllib2.Request(myUrl, headers = headers)
    myResponse = urllib2.urlopen(req)
    myPage = myResponse.read()
 
    charset = chardet.detect(myPage)
    charset = charset['encoding']
    if charset == 'utf-8' or charset == 'UTF-8':
      myPage = myPage
    else:
      myPage = myPage.decode('gb2312','ignore').encode('utf-8')
    unicodePage = myPage.decode("utf-8")
 
    # 找出 id="content"的div標記
    try:
      #抓取標題
      my_title = re.search('<h1>(.*?)</h1>',unicodePage,re.S)
      my_title = my_title.group(1)
    except:
      print '標題 HTML 變化,請重新分析!'
      return False
     
    try:
      #抓取章節內容
      my_content = re.search('<div.*?id="htmlContent" class="contentbox">(.*?)<div',unicodePage,re.S)
      my_content = my_content.group(1)
    except:
      print "內容 HTML 變化,請重新分析!"
      return False
     
    my_content = my_content.replace("<br />","\n")
    my_content = my_content.replace(" "," ")
 
    #用字典存儲一章的標題和內容
    onePage = {'title':my_title,'content':my_content}
 
    try:
      #找到頁面下方的連接區域
      foot_link = re.search('<div.*?class="chapter_Turnpage">(.*?)</div>',unicodePage,re.S)
      foot_link = foot_link.group(1)
      #在連接的區域找下一頁的連接,根據網頁特點為第三個
      nextUrl = re.findall(u'<a.*?href="(.*?)".*?>(.*?)</a>',foot_link,re.S)
      nextUrl = nextUrl[2][0]
      # 更新下一次進行抓取的鏈接
      self.url = nextUrl
    except:
      print "底部鏈接變化,請重新分析!"
      return False
 
    return onePage
 
  # 用于加載章節
  def LoadPage(self):
    while self.flag:
      if(len(self.pages) - self.page < 3):
        try:
          # 獲取新的頁面
          myPage = self.GetPage()
 
          if myPage == False:
            print '抓取失敗!'
            self.flag = False
       
          self.pages.append(myPage)
        except:
          print '無法連接網頁!'
          self.flag = False
 
  #顯示一章
  def ShowPage(self,curPage):
      print curPage['title']
      print curPage['content']
      print "\n"
      user_input = raw_input("當前是第 %d 章,回車讀取下一章或者輸入 quit 退出:" % self.page)
      if(user_input == 'quit'):
        self.flag = False
      print "\n"
 
  def Start(self):
    print u'開始閱讀......\n'
 
    # 新建一個線程
    thread.start_new_thread(self.LoadPage,())
 
    # 如果self的page數組中存有元素
    while self.flag:
      if self.page <= len(self.pages):
        nowPage = self.pages[self.page-1]
        self.ShowPage(nowPage)
        self.page += 1
 
    print u"本次閱讀結束"
 
 
#----------- 程序的入口處 -----------
print u"""
---------------------------------------
  程序:閱讀呼叫轉移
  版本:0.2
  作者:angryrookie
  日期:2014-07-07
  語言:Python 2.7
  功能:按下回車瀏覽下一章節
---------------------------------------
"""
 
print u'請按下回車:'
raw_input(' ')
myBook = Book_Spider()
myBook.Start()

現在這么多小說閱讀器,我們只需要把我們要的小說抓取到本地的 txt 文件里就好了,然后自己選個閱讀器看,怎么整都看你了。

    其實上個程序我們已經完成了大部分邏輯,我們接下來的改動只需要把抓取到每一章的時候不用顯示出來,而是存入 txt 文件之中。另外一個是程序是不斷地根據下一頁的 Url 進行抓取的,那么什么時候結束呢?注意當到達小說的最后一章時下一頁的鏈接是和返回目錄的鏈接是一樣的。所以我們抓取一個網頁的時候就把這兩個鏈接拿出來,只要出現兩個鏈接一樣的時候,就停止抓取。最后就是我們這個程序不需要多線程了,我們只要一個不斷在抓取小說頁面的線程就行了。
    不過,小說章節多一點時候,等待完成的時間會有點久。目前就不考慮這么多了,基本功能完成就 OK....

    基礎知識:前面的基礎知識 - 多線程知識 + 文件操作知識。

     源代碼:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
# -*- coding:utf-8 -*-
 
import urllib2
import urllib
import re
import thread
import chardet
 
class Book_Spider:
 
  def __init__(self):
    self.pages = []
    self.page = 1
    self.flag = True
    self.url = "http://www.quanben.com/xiaoshuo/0/910/59302.html"
 
  # 將抓取一個章節
  def GetPage(self):
    myUrl = self.url
    user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
    headers = { 'User-Agent' : user_agent }
    req = urllib2.Request(myUrl, headers = headers)
    myResponse = urllib2.urlopen(req)
    myPage = myResponse.read()
 
    charset = chardet.detect(myPage)
    charset = charset['encoding']
    if charset == 'utf-8' or charset == 'UTF-8':
      myPage = myPage
    else:
      myPage = myPage.decode('gb2312','ignore').encode('utf-8')
    unicodePage = myPage.decode("utf-8")
 
    # 找出 id="content"的div標記
    try:
      #抓取標題
      my_title = re.search('<h1>(.*?)</h1>',unicodePage,re.S)
      my_title = my_title.group(1)
    except:
      print '標題 HTML 變化,請重新分析!'
      return False
     
    try:
      #抓取章節內容
      my_content = re.search('<div.*?id="htmlContent" class="contentbox">(.*?)<div',unicodePage,re.S)
      my_content = my_content.group(1)
    except:
      print "內容 HTML 變化,請重新分析!"
      return False
     
    my_content = my_content.replace("<br />","\n")
    my_content = my_content.replace(" "," ")
 
    #用字典存儲一章的標題和內容
    onePage = {'title':my_title,'content':my_content}
 
    try:
      #找到頁面下方的連接區域
      foot_link = re.search('<div.*?class="chapter_Turnpage">(.*?)</div>',unicodePage,re.S)
      foot_link = foot_link.group(1)
      #在連接的區域找下一頁的連接,根據網頁特點為第三個
      nextUrl = re.findall(u'<a.*?href="(.*?)".*?>(.*?)</a>',foot_link,re.S)
      #目錄鏈接
      dir_url = nextUrl[1][0]
      nextUrl = nextUrl[2][0]
      # 更新下一次進行抓取的鏈接
      self.url = nextUrl
 
      if(dir_url == nextUrl):
        self.flag = False
         
      return onePage
    except:
      print "底部鏈接變化,請重新分析!"
      return False
 
  # 用于加載章節
  def downloadPage(self):
 
    f_txt = open(u"斗羅大陸.txt",'w+')
    while self.flag:
      try:
        # 獲取新的頁面
        myPage = self.GetPage()
         
        if myPage == False:
            print '抓取失敗!'
            self.flag = False
 
        title = myPage['title'].encode('utf-8')
        content = myPage['content'].encode('utf-8')
 
        f_txt.write(title + '\n\n')
        f_txt.write(content)
        f_txt.write('\n\n\n')
 
        print "已下載 ",myPage['title']
 
      except:
        print '無法連接服務器!'
        self.flag = False
         
    f_txt.close()
 
  def Start(self):
    print u'開始下載......\n'
 
    self.downloadPage()
 
 
    print u"下載完成"
 
 
#----------- 程序的入口處 -----------
print u"""
---------------------------------------
  程序:閱讀呼叫轉移
  版本:0.3
  作者:angryrookie
  日期:2014-07-08
  語言:Python 2.7
  功能:按下回車開始下載
---------------------------------------
"""
 
print u'請按下回車:'
raw_input(' ')
myBook = Book_Spider()
myBook.Start()

編寫Python腳本抓取網絡小說來制作自己的閱讀器

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 春色导航 | 国产精品夜间视频香蕉 | 黄色在线免费 | 国产在线观看91一区二区三区 | 日本久久久久久久久久 | 久久久久久久9 | 欧美一区二区三区视频在线 | 黄片毛片 | 久久亚洲视频 | 四季久久免费一区二区三区四区 | 日韩在线免费视频 | 日韩一二区视频 | 成人av观看| 香蕉国产精品 | 久久99精品久久久 | 日本一区二区高清不卡 | 亚洲一区欧美 | 成人在线视频免费观看 | 欧美日韩一级在线观看 | 日韩成人免费电影 | av在线一区二区 | 欧美福利网 | 在线观看一区 | 狠狠中文字幕 | 亚洲一二| 色综合久久88色综合天天6 | 久久精品小视频 | 国产精品久久久久久久久久久久冷 | 中文字幕一区二区三区四区五区 | 国产色 | 日本久久久久久 | 久久婷婷av| 亚洲xxxxx| 黄色大片网站 | 中文字幕一区二区三区四区五区 | 欧美激情精品久久久久久黑人 | 日日干夜夜操 | 免费v片| 日本精品在线观看视频 | 91黄色免费视频 | 国产在线一区二区三区 |