国产片侵犯亲女视频播放_亚洲精品二区_在线免费国产视频_欧美精品一区二区三区在线_少妇久久久_在线观看av不卡

腳本之家,腳本語言編程技術及教程分享平臺!
分類導航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

香港云服务器
服務器之家 - 腳本之家 - Python - python實現精準搜索并提取網頁核心內容

python實現精準搜索并提取網頁核心內容

2022-02-22 00:04Python 技術 Python

這篇文章主要為大家介紹了python實現精準搜索并提取網頁核心內容的實現,有需要的的朋友可以借鑒參考下,希望能有所幫助祝大家多多進步

python實現精準搜索并提取網頁核心內容

文 | 李曉飛

來源:Python 技術「ID: pythonall」

爬蟲程序想必大家都很熟悉了,隨便寫一個就可以獲取網頁上的信息,甚至可以通過請求自動生成 Python 腳本[1]。

最近我遇到一個爬蟲項目,需要爬取網上的文章。感覺沒有什么特別的,但問題是沒有限定爬取范圍,意味著沒有明確的頁面的結構。

對于一個頁面來說,除了核心文章內容外,還有頭部,尾部,左右列表欄等等。有的頁面框架用 div 布局,有的用 table,即使都用 div,不太的網站風格和布局也不同。

但問題必須解決,我想,既然搜索引擎抓取到各種網頁的核心內容,我們也應該可以搞定,拎起 Python, 說干就干!

各種嘗試

如何解決呢?

生成PDF

開始想了一個取巧的方法,就是利用工具(wkhtmltopdf[2])將目標網頁生成 PDF 文件。

好處是不必關心頁面的具體形式,就像給頁面拍了一張照片,文章結構是完整的。

雖然 PDF 是可以源碼級檢索,但是,生成 PDF 有諸多缺點:

耗費計算資源多、效率低、出錯率高,體積太大。

幾萬條數據已經兩百多G,如果數據量上來光存儲就是很大的問題。

提取文章內容

不生成PDF,有簡單辦法就是通過 xpath[3] 提取頁面上的所有文字。

但是內容將失去結構,可讀性差。更要命的是,網頁上有很多無關內容,比如側邊欄,廣告,相關鏈接等,也會被提取下來,影響內容的精確性。

為了保證有一定的結構,還要識別到核心內容,就只能識別并提取文章部分的結構了。像搜索引擎學習,就是想辦法識別頁面的核心內容。

我們知道,通常情況下,頁面上的核心內容(如文章部分)文字比較集中,可以從這個地方著手分析。

于是編寫了一段代碼,我是用 Scrapy[4] 作為爬蟲框架的,這里只截取了其中提取文章部分的代碼 :

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
divs = response.xpath("body//div")
sel = None
maxvalue = 0
for d in divs:
  ds = len(d.xpath(".//div"))
  ps = len(d.xpath(".//p"))
  value = ps - ds
  if value > maxvalue:
    sel = {
      "node": d,
      "value": value
    }
    maxvalue = value
print("".join(sel['node'].getall()))
  • response 是頁面的一個響應,其中包含了頁面的所有內容,可以通過 xpath 提取想要的部分
  • "body//div" 的意思是提取所以 body 標簽下的 div 子標簽,注意:// 操作是遞歸的
  • 遍歷所有提取到的標簽,計算其中包含的 div 數量,和 p 數量
  • p 數量 和 div 數量的差值作為這個元素的權值,意思是如果這個元素里包含了大量的 p 時,就認為這里是文章主體
  • 通過比較權值,選擇出權值最大的元素,這便是文章主體
  • 得到文章主體之后,提取這個元素的內容,相當于 jQuery[5] 的 outerHtml

簡單明了,測試了幾個頁面確實挺好。

不過大量提取時發現,很多頁面提取不到數據。仔細查看發現,有兩種情況。

  • 有的文章內容被放在了 <article> 標簽里了,所以沒有獲取到
  • 有的文章每個 <p> 外面都包裹了一個 <div>,所以 p 的數量 和 div 的抵消了

再調整了一下策略,不再區分 div,查看所有的元素。

另外優先選擇更多的 p,在其基礎上再看更少的 div。調整后的代碼如下:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
divs = response.xpath("body//*")
sels = []
maxvalue = 0
for d in divs:
  ds = len(d.xpath(".//div"))
  ps = len(d.xpath(".//p"))
  if ps >= maxvalue:
    sel = {
      "node": d,
      "ps": ps,
      "ds": ds
    }
    maxvalue = ps
    sels.append(sel)
 
sels.sort(lambda x: x.ds)
 
sel = sels[0]
 
print("".join(sel['node'].getall()))
  • 方法主體里,先挑選出 p 數量比較大的節點,注意 if 判斷條件中 換成了 >= 號,作用時篩選出同樣具有 p 數量的結點
  • 經過篩選之后,按照 div 數量排序,然后選取 div 數量最少的

經過這樣修改之后,確實在一定程度上彌補了前面的問題,但是引入了一個更麻煩的問題。

就是找到的文章主體不穩定,特別容易受到其他部分有些 p 的影響。

選擇最優

既然直接計算不太合適,需要重新設計一個算法。

我發現,文字集中的地方是往往是文章主體,而前面的方法中,沒有考慮到這一點,只是機械地找出了最大的 p

還有一點,網頁結構是個顆 DOM 樹[6]

python實現精準搜索并提取網頁核心內容

那么越靠近 p 標簽的地方應該越可能是文章主體,也就是說,計算是越靠近 p 的節點權值應該越大,而遠離 p 的結點及時擁有很多 p 但是權值也應該小一點。

經過試錯,最終代碼如下:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
def find(node, sel):
    value = 0
    for n in node.xpath("*"):
        if n.xpath("local-name()").get() == "p":
            t = "".join([s.strip() for s in (n.xpath('text()').getall() + n.xpath("*/text()").getall())])
            value += len(t)
        else:
            value += find(n, a)*0.5
    if value > sel["value"]:
        sel["node"] = node
        sel["value"] = value
    return value
 
sel = {
    'value': 0,
    'node': None
}
find(response.xpath("body"), sel)
  • 定義了一個 find 函數,這是為了方便做遞歸,第一次調用的參數是 body 標簽,和前面一樣
  • 進入方法里,只找出該節點的直接孩子們,然后遍歷這些孩子
  • 判斷如果孩子是 p 節點,提取出其中的所有文字,包括子節點的,然后將文字的長度作為權值
  • 提取文字的地方比較繞,先取出直接的文本,和間接文本,合成 list,對每部分文本做了去除前后空字符,最后合并為一個字符串,得到了所包含的文本
  • 如果孩子節點不是 p,就遞歸調用 find 方法,而 find 方法返回的是 指定節點所包含的文本長度
  • 在獲取子節點的長度時,做了縮減處理,用以體現距離越遠,權值越低的規則
  • 最終通過 引用傳遞的 sel 參數,記錄權值最高的節點

通過這樣改造之后,效果特別好。

為什么呢?其實利用了密度原理,就是說越靠近中心的地方,密度越高,遠離中心的地方密度成倍的降低,這樣就能篩選出密度中心了。

50% 的坡度比率是如何得到的呢?

其實是通過實驗確定的,剛開始時我設置為 90%,但結果時 body 節點總是最優的,因為 body 里包含了所有的文字內容。

反復實驗后,確定 50% 是比較好的值,如果在你的應用中不合適,可以做調整。

總結

描述了我如何選取文章主體的方法后,后沒有發現其實很是很簡單的方法。而這次解決問題的經歷,讓我感受到了數學的魅力。

一直以來我認為只要了解常規處理問題的方式就足以應對日常編程了,可以當遇到不確定性問題,沒有辦法抽取出簡單模型的問題時,常規思維顯然不行。

所以平時我們應該多看一些數學性強的,解決不確定性問題的方法,以便提高我們的編程適應能力,擴展我們的技能范圍。

期望這篇短文能對你有所啟發,歡迎在留言區交流討論,比心!

參考資料

[1]

Curl 轉 Python: https://curlconverter.com/

[2]

wkhtmltopdf: https://wkhtmltopdf.org/

[3]

xpath: https://www.w3school.com.cn/xpath/xpath_syntax.asp

[4]

Scrapy: https://scrapy.org/

[5]

jQuery: jquery.com

[6]

DOM 樹: https://baike.baidu.com/item/DOM%20Tree/6067246

以上就是python實現精準搜索并提取網頁核心內容的詳細過程,更多關于python搜索并提取網頁內容的資料請關注服務器之家其它相關文章!

原文鏈接:https://blog.csdn.net/weixin_48923393/article/details/120964027

延伸 · 閱讀

精彩推薦
1081
主站蜘蛛池模板: 亚洲天堂第一页 | 欧美视频一区 | 国产日韩视频 | www.爱色av.com| 精品久久久久久亚洲综合网 | 中文字幕四虎 | 欧美精品影院 | 久久久久黑人 | 国产免费一区 | 精品自拍视频在线观看 | 91麻豆蜜桃一区二区三区 | 国产成人精品亚洲日本在线观看 | 激情欧美日韩一区二区 | 91精品视频导航 | 欧美一区二区公司 | 超黄毛片 | 色橹橹欧美在线观看视频高清 | 欧美日韩在线不卡 | 婷婷精品久久久久久久久久不卡 | 99视频精品在线 | 欧美性一区 | 中文字幕精品一区 | 99热精品在线| 久久天天 | 一二三精品区 | 中文字幕一区二区三区乱码在线 | 亚洲国产精品久久久久久 | 丁香伊人 | 激情婷婷 | 久久亚洲高清 | 久久免费国产 | 亚洲视频 欧美视频 | www久久九 | 久久综合成人精品亚洲另类欧美 | 午夜免费视频 | 中国在线观看片 | 亚洲精品第一区在线观看 | 日韩在线 中文字幕 | 91在线精品一区二区三区 | 久久久国产一区二区三区四区小说 | 欧美成人一区二区 |