欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

Hadoop中WordCount如何實(shí)現(xiàn)

小編給大家分享一下Hadoop中WordCount如何實(shí)現(xiàn),相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

創(chuàng)新互聯(lián)建站自2013年創(chuàng)立以來,是專業(yè)互聯(lián)網(wǎng)技術(shù)服務(wù)公司,擁有項(xiàng)目成都網(wǎng)站設(shè)計(jì)、網(wǎng)站制作網(wǎng)站策劃,項(xiàng)目實(shí)施與項(xiàng)目整合能力。我們以讓每一個(gè)夢想脫穎而出為使命,1280元溫宿做網(wǎng)站,已為上家服務(wù),為溫宿各地企業(yè)和個(gè)人服務(wù),聯(lián)系電話:028-86922220

WordCount 是 Hadoop 應(yīng)用最經(jīng)典的例子。

使用 hadoop-2.6.0 版本,需要引入的包目錄位于 hadoop-2.6.0/share/hadoop/common/lib。

源碼

import java.io.IOException;  
import java.util.StringTokenizer;  

import org.apache.hadoop.conf.Configuration;  
import org.apache.hadoop.fs.Path;  
import org.apache.hadoop.io.IntWritable;  
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;  
import org.apache.hadoop.mapreduce.Mapper;  
import org.apache.hadoop.mapreduce.Reducer;  
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;  
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;   

import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;


public class WordCount {
	
	public static class WordCountMap extends Mapper <Object, Text, Text, IntWritable> {
		private final static IntWritable one = new IntWritable(1);
		private Text word = new Text();
	
		public void map(Object key, Text value, Context context)
				throws IOException, InterruptedException {
			String line = value.toString();
			StringTokenizer tokenizer = new StringTokenizer(line);
		
			while (tokenizer.hasMoreTokens()){
				word.set(tokenizer.nextToken());
				context.write(word, one);
			}
		}
		}
	
	public static class WordCountReduce extends Reducer <Text, IntWritable, Text, IntWritable> {
		
		public void reduce(Text key, Iterable<IntWritable> values, Context context)
				throws IOException, InterruptedException {
			int sum = 0;
			for (IntWritable val : values) {
				sum += val.get();
			}
			context.write(key, new IntWritable(sum));
	    }
	}
	
	public static void main(String[] args) throws Exception {
		Configuration conf = new Configuration();  
		Job job = new Job(conf);  
		job.setJarByClass(WordCount.class);  
		job.setJobName("wordcount");  

		job.setOutputKeyClass(Text.class);  
		job.setOutputValueClass(IntWritable.class);  

		job.setMapperClass(WordCountMap.class);  
		job.setReducerClass(WordCountReduce.class);  

		job.setInputFormatClass(TextInputFormat.class);  
		job.setOutputFormatClass(TextOutputFormat.class);  

		FileInputFormat.addInputPath(job, new Path(args[0]));  
		FileOutputFormat.setOutputPath(job, new Path(args[1]));  

		job.waitForCompletion(true);  
		
	}
}

Mapper 的輸入類型為文本,鍵用 Object 代替,值為文本 (Text)。

Mapper 的輸出類型為文本,鍵為 Text,值為 IntWritable,相當(dāng)于java中Integer整型變量。將分割后的字符串形成鍵值對 <單詞,1>。

對于每一行輸入文本,都會(huì)調(diào)用一次 map 方法,對輸入的行進(jìn)行切分。

while (tokenizer.hasMoreTokens()){
    word.set(tokenizer.nextToken());
    context.write(word, one);
}

將一行文本變?yōu)?lt;單詞,出現(xiàn)次數(shù)>這樣的鍵值對。

對于每個(gè)鍵,都會(huì)調(diào)用一次 reduce 方法,對鍵出現(xiàn)次數(shù)進(jìn)行求和。

運(yùn)行測試

用 eclipse 導(dǎo)出 WordCount 的 Runable jar 包,放到目錄 hadoop-2.6.0/bin。

在目錄 hadoop-2.6.0/bin 下新建 input 文件夾,并新建文件 file1, file2。

file1 內(nèi)容為 one titus two titus three titus

file2 內(nèi)容為 one huangyi two huangyi

.
├── container-executor
├── hadoop
├── hadoop.cmd
├── hdfs
├── hdfs.cmd
├── input
│   ├── file1.txt
│   └── file2.txt
├── mapred
├── mapred.cmd
├── rcc
├── test-container-executor
├── wordcount.jar
├── yarn
└── yarn.cmd

運(yùn)行 ./hadoop jar wordcount.jar input output

會(huì)生成 output 目錄和結(jié)果。

huangyi	2
one	2
three	1
titus	3
two	2

以上是“Hadoop中WordCount如何實(shí)現(xiàn)”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!

分享標(biāo)題:Hadoop中WordCount如何實(shí)現(xiàn)
文章分享:http://www.aaarwkj.com/article34/pcddse.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站導(dǎo)航、外貿(mào)網(wǎng)站建設(shè)、微信公眾號(hào)小程序開發(fā)、域名注冊、響應(yīng)式網(wǎng)站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

成都app開發(fā)公司
中文色婷婷国产精品视频| 国产成人啪精品视频免费| 福利成人午夜国产一区| 风韵丰满熟妇啪啪老熟女| 欧美日韩激情在线不卡三区| 亚洲欧美日韩在线第三页| 日本午夜视频一区二区| 69久久精品费精品国产| 亚洲精品露脸自拍高清在线观看| 999久久免费精品国产| 97国产在线视频观看| av东京热狠狠男人的天堂| 色婷婷久久综合中文久久| 禁止18观看视频软件| 九九视频在线观看免费专区| 午夜福利中文在线观看| 日本韩国亚洲欧美一区二区| 日本的黄色录像一级带| 国产精品一二三在线看| 热久久视频这里只有精品| 日本一区二区电影在线看| 亚洲邻家人妻一区二区| 日韩精品国产专区一区| 99久久免费热在线观看| 日本伦理三级在线观看| 国产精品久久久久久久亚洲| 亚洲女久久久噜噜噜综合| 91欧美一区二区在线视频| 日韩中文在线中文网三级| 四虎在线经典视频播放| 亚洲三级黄色在线观看| 久久精品国产亚洲av高清不卡| 凹凸69堂国产成人精品| 少妇精品久久久一区二区三区| 成人黄色av大片在线观看| 91久久精品凹凸一区二区| 91内射视频在线播放| 日韩成人免费观看视频| 91蜜臀在线视频播放| 久青青国产综合自拍视频在线观看 | 免费特黄特黄的欧美大片|