本文假設hadoop環境在遠程機器(如linux服務器上),hadoop版本為2.5.2
注:本文eclipse/intellij idea 遠程調試hadoop 2.6.0主要參考了并在其基礎上有所調整
由于我喜歡在win7 64位上安裝32位的軟件,比如32位jdk,32位eclipse,所以雖然本文中的操作系統是win7 64位,但是所有的軟件都是32位的。
軟件版本:
操作系統:win7 64位
eclipse: eclipse-jee-mars-2-win32
java: 1.8.0_77 32位
hadoop:2.5.2
一、安裝hadoop
1、在win7中隨便找一個目錄解壓hadoop-2.5.2.tar.gz,比如D:\app\hadoop-2.5.2\
2、配置環境變量
HADOOP_HOME = D:\app\hadoop-2.5.2\
二、安裝hadoop eclipse插件
1、下載hadoop-eclipse-plugin
hadoop-eclipse-plugin是一個專門用于eclipse的hadoop插件,可以直接在IDE環境中查看hdfs的目錄和文件內容。其源代碼托管于github上,官網地址是https://github.com/winghc/hadoop2x-eclipse-plugin 下載release文件夾中的hadoop-eclipse-plugin-2.6.0.jar即可
2、下載windows 32位平臺的hadoop插件包(hadoop.dll,winutils.exe)
由于我們的軟件環境是32位的,所以需要下載32位的hadoop.dll和winutils.exe,下載地址大家可以百度 hadoop.dll 32
比如下載這個:eclipse-hadoop.rar
將winutils.exe復制到$HADOOP_HOME\bin目錄,將hadoop.dll復制到C:\Windows\SysWOW64目錄下(注:由于我們的操作系統是64位,而軟件是32位,所以我們是拷到這個目錄下,另外,如果你的操作系統就是32位,那么就直接拷到c:\windwos\system32目錄下)
3、配置hadoop-eclipse-plugin插件
啟動eclipse,window->preferences->hadoop map/reduce 指定win7上的hadoop根目錄(即:$HADOOP_HOME)
切換Map/reduce視圖
windows->show view->other Map/Reduce Locations
然后在下面的Map/Reduce Locations 面板中添加新的Location
按照如下配置
Location name 這里就是起個名字,隨便起
Map/Reduce(V2) Master Host 這里就是虛擬機里hadoop master對應的IP地址,下面的端口對應 hdfs-site.xml里dfs.datanode.ipc.address屬性所指定的端口
DFS Master Port這里的端口,對應core-site.xml里fs.defaultFS所指定的端口
最后的user name要跟虛擬機里運行hadoop的用戶名一致,我是用hadoop身份安裝運行hadoop 2.6.0的,所以這里填寫hadoop,如果你是用root安裝的,相應的改成root
這些參數指定好以后,點擊Finish,eclipse就知道如何去連接hadoop了,一切順利的話,在Project Explorer面板中,就能看到hdfs里的目錄和文件了
可以在文件上右擊,選擇刪除試下,通常第一次是不成功的,會提示一堆東西,大意是權限不足之類,原因是當前的win7登錄用戶不是虛擬機里hadoop的運行用戶,解決辦法有很多,比如你可以在win7上新建一個hadoop的管理員用戶,然后切換成hadoop登錄win7,再使用eclipse開發,但是這樣太煩,最簡單的辦法:
hdfs-site.xml里添加
1
2
3
4
|
<property> <name>dfs.permissions.enabled</name> <value> false </value> </property> |
總而言之,就是徹底把hadoop的安全檢測關掉(學習階段不需要這些,正式生產上時,不要這么干),最后重啟hadoop,再到eclipse里,重復剛才的刪除文件操作試下,應該可以了。
注:如果無法連接,請先嘗試telnet 192.168.1.6 9000 (請將ip和端口換成自己的hadoop server ip和端口)確保端口可以訪問。
如果telnet不成功,可能是core-site.xml里fs.defaultFS的值有問題,比如配置的是localhost:9000,可以考慮把localhost換成主機名
三、編寫wordcount示例
1、新建一個項目,選擇Map/Reduce Project
后面的Next就行了,然后新建一個類WodCount.java 代碼如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
|
import java.io.IOException; import java.util.StringTokenizer; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; import org.apache.hadoop.util.GenericOptionsParser; public class WordCount { public static class TokenizerMapper extends Mapper<Object, Text, Text, IntWritable> { private final static IntWritable one = new IntWritable( 1 ); private Text word = new Text(); public void map(Object key, Text value, Context context) throws IOException, InterruptedException { StringTokenizer itr = new StringTokenizer(value.toString()); while (itr.hasMoreTokens()) { word.set(itr.nextToken()); context.write(word, one); } } } public static class IntSumReducer extends Reducer<Text, IntWritable, Text, IntWritable> { private IntWritable result = new IntWritable(); public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException { int sum = 0 ; for (IntWritable val : values) { sum += val.get(); } result.set(sum); context.write(key, result); } } public static void main(String[] args) throws Exception { Configuration conf = new Configuration(); String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs(); if (otherArgs.length < 2 ) { System.err.println( "Usage: wordcount <in> [<in>...] <out>" ); System.exit( 2 ); } Job job = Job.getInstance(conf, "word count" ); job.setJarByClass(WordCount. class ); job.setMapperClass(TokenizerMapper. class ); job.setCombinerClass(IntSumReducer. class ); job.setReducerClass(IntSumReducer. class ); job.setOutputKeyClass(Text. class ); job.setOutputValueClass(IntWritable. class ); for ( int i = 0 ; i < otherArgs.length - 1 ; ++i) { FileInputFormat.addInputPath(job, new Path(otherArgs[i])); } FileOutputFormat.setOutputPath(job, new Path(otherArgs[otherArgs.length - 1 ])); System.exit(job.waitForCompletion( true ) ? 0 : 1 ); } } |
然后再src目錄下創建一個log4j.properties,內容如下:(為了方便運行起來后,查看各種輸出)
1
2
3
4
5
6
7
8
9
10
11
|
log4j.rootLogger=INFO, stdout #log4j.logger.org.springframework=INFO #log4j.logger.org.apache.activemq=INFO #log4j.logger.org.apache.activemq.spring=WARN #log4j.logger.org.apache.activemq.store.journal=INFO #log4j.logger.org.activeio.journal=INFO log4j.appender.stdout=org.apache.log4j.ConsoleAppender log4j.appender.stdout.layout=org.apache.log4j.PatternLayout log4j.appender.stdout.layout.ConversionPattern=%d{ABSOLUTE} | %- 5 .5p | %- 16 .16t | %- 32 .32c{ 1 } | %- 32 .32C %4L | %m%n |
最終目錄結構如下:
2、配置運行參數
因為WordCount是輸入一個文件用于統計單詞字,然后輸出到另一個文件夾下,所以給二個參數,參考上圖,在Program arguments里,輸入
hdfs://192.168.1.6:9000/user/nub1.txt
hdfs://192.168.1.6:9000/user/output
注意的是,如果user/nub1.txt文件沒有,請先手動上傳(使用eclipse中DFS Location工具的右鍵),然后/output/ 必須是不存在的,否則程序運行到最后,發現目標目錄存在,也會報錯。
好了,運行即可
以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持服務器之家。