在編程的時候或者寫網絡爬蟲的時候,經常需要對html進行解析,抽取其中有用的數據。一款好的工具是特別有用的,能提供很多的幫助,網上有很多這樣的工具,比如:htmlcleaner、htmlparser
經使用比較:感覺 htmlcleaner 比 htmlparser 好用,尤其是htmlcleaner 的 xpath特好用。
下面針對htmlcleaner進行舉例說明,需求為:取出title,name=”my_href” 的鏈接,div的class=”d_1″下的所有li內容。
一、HtmlCleaner使用:
1、HtmlCleaner
HtmlCleaner是一個開源的Java語言的Html文檔解析器。HtmlCleaner能夠重新整理HTML文檔的每個元素并生成結構良好(Well-Formed)的 HTML 文檔。默認它遵循的規則是類似于大部份web瀏覽器為創文檔對象模型所使用的規則。然而,用戶可以提供自定義tag和規則組來進行過濾和匹配。
主頁地址:http://htmlcleaner.sourceforge.net/
2、基本示例,在wikipedia中抓取機場信息
html-clean-demo.html
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
|
html-clean-demo.html <!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd "> < html xmlns = "http://www.w3.org/1999/xhtml " xml:lang = "zh-CN" dir = "ltr" > < head > < meta http-equiv = "Content-Type" content = "text/html; charset=GBK" /> < meta http-equiv = "Content-Language" content = "zh-CN" /> < title >html clean demo </ title > </ head > < body > < div class = "d_1" > < ul > < li >bar </ li > < li >foo </ li > < li >gzz </ li > </ ul > </ div > < div > < ul > < li >< a name = "my_href" href = "1.html" >text-1 </ a ></ li > < li >< a name = "my_href" href = "2.html" >text-2 </ a ></ li > < li >< a name = "my_href" href = "3.html" >text-3 </ a ></ li > < li >< a name = "my_href" href = "4.html" >text-4 </ a ></ li > </ ul > </ div > </ body > </ html > |
HtmlCleanerDemo.java
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
|
package com.chenlb; import java.io.File; import org.htmlcleaner.HtmlCleaner; import org.htmlcleaner.TagNode; /** * htmlcleaner 使用示例. * */ public class HtmlCleanerDemo { public static void main(String[] args) throws Exception { HtmlCleaner cleaner = new HtmlCleaner(); TagNode node = cleaner.clean( new File( "html/html-clean-demo.html" ), "GBK" ); //按tag取. Object[] ns = node.getElementsByName( "title" , true ); //標題 if (ns.length > 0 ) { System.out.println( "title=" +((TagNode)ns[ 0 ]).getText()); } System.out.println( "ul/li:" ); //按xpath取 ns = node.evaluateXPath( "//div[@class='d_1']//li" ); for (Object on : ns) { TagNode n = (TagNode) on; System.out.println( " text=" +n.getText()); } System.out.println( "a:" ); //按屬性值取 ns = node.getElementsByAttValue( "name" , "my_href" , true , true ); for (Object on : ns) { TagNode n = (TagNode) on; System.out.println( " href=" +n.getAttributeByName( "href" )+ ", text=" +n.getText()); } } } |
cleaner.clean()中的參數,可以是文件,可以是url,可以是字符串內容。比較常用的應該是evaluateXPath、 getElementsByAttValue、getElementsByName方法了。另外說明下,htmlcleaner 對不規范的html兼容性比較好。
在wikipedia中抓取機場信息
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
|
import java.io.UnsupportedEncodingException; import org.htmlcleaner.HtmlCleaner; import org.htmlcleaner.TagNode; import org.htmlcleaner.XPatherException; import org.slf4j.Logger; import org.slf4j.LoggerFactory; //import com.moore.index.BabyStory; import com.moore.util.HttpClientUtil; /** * 用途:TODO * * @author bbdtek */ public class ParserAirport { private static Logger log = LoggerFactory.getLogger(ParserAirport. class ); /** * @param args * @throws UnsupportedEncodingException * @throws XPatherException */ public static void main(String[] args) throws UnsupportedEncodingException, XPatherException { String url = "http://zh.wikipedia.org/wiki/%E4%B8%AD%E5%8D%8E%E4%BA%BA%E6%B0%91%E5%85%B1%E5%92%8C%E5%9B%BD%E6%9C%BA%E5%9C%BA%E5%88%97%E8%A1%A8" ; String contents = HttpClientUtil.getUtil().getCon(url); HtmlCleaner hc = new HtmlCleaner(); TagNode tn = hc.clean(contents); String xpath = "//div[@class='mw-content-ltr']//table[@class='wikitable + sortable']//tbody//tr[@align='right']" ; Object[] objarr = null ; objarr = tn.evaluateXPath(xpath); if (objarr != null && objarr.length > 0 ) { for (Object obj : objarr) { TagNode tntr = (TagNode) obj; String xptr = "//td[@align='left']//a" ; Object[] objarrtr = null ; objarrtr = tntr.evaluateXPath(xptr); if (objarrtr != null && objarrtr.length > 0 ) { for (Object obja : objarrtr) { TagNode tna = (TagNode) obja; String str = tna.getText().toString(); log.info(str); } } } } } } |
二、XPath初探
1、XPath簡介:
XPath 是一門在 XML 文檔中查找信息的語言。XPath 可用來在 XML 文檔中對元素和屬性進行遍歷。
2、XPath節點選取
XPath 使用路徑表達式在 XML 文檔中選取節點。節點是通過沿著路徑或者 step 來選取的。
下面列出了最有用的路徑表達式:
表達式 |
描述 |
---|---|
nodename |
選取此節點的所有子節點。 |
/ |
從根節點選取。 |
// |
從匹配選擇的當前節點選擇文檔中的節點,而不考慮它們的位置。 |
. |
選取當前節點。 |
.. |
選取當前節點的父節點。 |
@ |
選取屬性。 |
一些常用表達式
路徑表達式 |
結果 |
---|---|
/bookstore/book[1] |
選取屬于 bookstore 子元素的第一個 book 元素。 |
/bookstore/book[last()] |
選取屬于 bookstore 子元素的最后一個 book 元素。 |
/bookstore/book[last()-1] |
選取屬于 bookstore 子元素的倒數第二個 book 元素。 |
/bookstore/book[position()<3] |
選取最前面的兩個屬于 bookstore 元素的子元素的 book 元素。 |
//title[@lang] |
選取所有擁有名為 lang 的屬性的 title 元素。 |
//title[@lang='eng'] |
選取所有 title 元素,且這些元素擁有值為 eng 的 lang 屬性。 |
/bookstore/book[price>35.00] |
選取 bookstore 元素的所有 book 元素,且其中的 price 元素的值須大于 35.00。 |
/bookstore/book[price>35.00]/title |
選取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值須大于 35.00。 |