小編給大家分享一下Hadoop中WordCount如何實現,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
創(chuàng)新互聯(lián)建站自2013年創(chuàng)立以來,是專業(yè)互聯(lián)網技術服務公司,擁有項目成都網站設計、網站制作網站策劃,項目實施與項目整合能力。我們以讓每一個夢想脫穎而出為使命,1280元溫宿做網站,已為上家服務,為溫宿各地企業(yè)和個人服務,聯(lián)系電話:028-86922220
WordCount 是 Hadoop 應用最經典的例子。
使用 hadoop-2.6.0 版本,需要引入的包目錄位于 hadoop-2.6.0/share/hadoop/common/lib
。
import java.io.IOException; import java.util.StringTokenizer; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; import org.apache.hadoop.mapreduce.lib.input.TextInputFormat; import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat; public class WordCount { public static class WordCountMap extends Mapper <Object, Text, Text, IntWritable> { private final static IntWritable one = new IntWritable(1); private Text word = new Text(); public void map(Object key, Text value, Context context) throws IOException, InterruptedException { String line = value.toString(); StringTokenizer tokenizer = new StringTokenizer(line); while (tokenizer.hasMoreTokens()){ word.set(tokenizer.nextToken()); context.write(word, one); } } } public static class WordCountReduce extends Reducer <Text, IntWritable, Text, IntWritable> { public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException { int sum = 0; for (IntWritable val : values) { sum += val.get(); } context.write(key, new IntWritable(sum)); } } public static void main(String[] args) throws Exception { Configuration conf = new Configuration(); Job job = new Job(conf); job.setJarByClass(WordCount.class); job.setJobName("wordcount"); job.setOutputKeyClass(Text.class); job.setOutputValueClass(IntWritable.class); job.setMapperClass(WordCountMap.class); job.setReducerClass(WordCountReduce.class); job.setInputFormatClass(TextInputFormat.class); job.setOutputFormatClass(TextOutputFormat.class); FileInputFormat.addInputPath(job, new Path(args[0])); FileOutputFormat.setOutputPath(job, new Path(args[1])); job.waitForCompletion(true); } }
Mapper 的輸入類型為文本,鍵用 Object
代替,值為文本 (Text)。
Mapper 的輸出類型為文本,鍵為 Text,值為 IntWritable,相當于java中Integer整型變量。將分割后的字符串形成鍵值對 <單詞,1>。
對于每一行輸入文本,都會調用一次 map 方法,對輸入的行進行切分。
while (tokenizer.hasMoreTokens()){ word.set(tokenizer.nextToken()); context.write(word, one); }
將一行文本變?yōu)?lt;單詞,出現次數>這樣的鍵值對。
對于每個鍵,都會調用一次 reduce 方法,對鍵出現次數進行求和。
用 eclipse 導出 WordCount 的 Runable jar 包,放到目錄 hadoop-2.6.0/bin
。
在目錄 hadoop-2.6.0/bin
下新建 input 文件夾,并新建文件 file1, file2。
file1 內容為 one titus two titus three titus
file2 內容為 one huangyi two huangyi
. ├── container-executor ├── hadoop ├── hadoop.cmd ├── hdfs ├── hdfs.cmd ├── input │ ├── file1.txt │ └── file2.txt ├── mapred ├── mapred.cmd ├── rcc ├── test-container-executor ├── wordcount.jar ├── yarn └── yarn.cmd
運行 ./hadoop jar wordcount.jar input output
會生成 output 目錄和結果。
huangyi 2 one 2 three 1 titus 3 two 2
以上是“Hadoop中WordCount如何實現”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注創(chuàng)新互聯(lián)行業(yè)資訊頻道!
分享標題:Hadoop中WordCount如何實現
文章分享:http://m.rwnh.cn/article34/pcddse.html
成都網站建設公司_創(chuàng)新互聯(lián),為您提供網站導航、外貿網站建設、微信公眾號、小程序開發(fā)、域名注冊、響應式網站
聲明:本網站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)