Hadoop怎么实现数据去重
这篇文章主要讲解了“Hadoop怎么实现数据去重”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Hadoop怎么实现数据去重”吧!
定制网站设计可以根据自己的需求进行定制,成都做网站、成都网站建设构思过程中功能建设理应排到主要部位公司成都做网站、成都网站建设的运用实际效果公司网站制作网站建立与制做的实际意义
import java.io.IOException;
import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; import org.apache.hadoop.util.GenericOptionsParser;
public class QuChong { /** * 数据去重 利用并化的的思想 * @author hadoop * */ public static class Engine extends Mapper
public static void main(String[] args) throws Exception { //设置引擎配置类,包括引擎地址,引擎输入输出参数(目录) Configuration conf = new Configuration(); String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs(); if (otherArgs.length != 2) { System.err.println("Usage: wordcount"); System.exit(2); } Job job = new Job(conf, "word count"); job.setJarByClass(QuChong.class); //设置Map、Combine和Reduce处理类 job.setMapperClass(Engine.class); job.setCombinerClass(IntSumReducer.class); job.setReducerClass(IntSumReducer.class); //设置输出类 job.setOutputKeyClass(Text.class); job.setOutputValueClass(Text.class); //设置输入类及输入目录 FileInputFormat.addInputPath(job, new Path(otherArgs[0])); FileOutputFormat.setOutputPath(job, new Path(otherArgs[1])); System.exit(job.waitForCompletion(true) ? 0 : 1); } }
感谢各位的阅读,以上就是“Hadoop怎么实现数据去重”的内容了,经过本文的学习后,相信大家对Hadoop怎么实现数据去重这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是创新互联,小编将为大家推送更多相关知识点的文章,欢迎关注!
当前标题:Hadoop怎么实现数据去重
URL标题:http://pwwzsj.com/article/jgcsoi.html