Hadoop中如何自定义-创新互联

小编给大家分享一下Hadoop中如何自定义,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

创新互联公司专注为客户提供全方位的互联网综合服务,包含不限于网站设计、成都网站设计、金台网络推广、小程序定制开发、金台网络营销、金台企业策划、金台品牌公关、搜索引擎seo、人物专访、企业宣传片、企业代运营等,从售前售中售后,我们都将竭诚为您服务,您的肯定,是我们大的嘉奖;创新互联公司为所有大学生创业者提供金台建站搭建服务,24小时服务热线:18982081108,官方网址:www.cdcxhl.com
  1. 自定义计数器

    计数器用来监控,hadoop中job的运行进度和状态。

    如源文件内容为:

    a    b

    c    d    e    f

    g    h    i

    现在需要找出字段数大于3和小于3的记录条数,可以使用计数器来实现,代码如下:

     public void map(LongWritable key, Text value,

     OutputCollector output, Reporter reporter)

     throws IOException {

     String[] split = value.toString().split("\t");

     if(split.length>3){

     org.apache.hadoop.mapred.Counters.Counter counter = reporter.getCounter("MyCounter", "isLong");

     counter.increment(1);

     }else if(split.length<3){

     org.apache.hadoop.mapred.Counters.Counter counter = reporter.getCounter("MyCounter","isShort");

     counter.increment(1);

     }

2. hadoop中的自定义数据类型

    hadoop中默认的数据类型有:

  • BooleanWritable:标准布尔型数值

  • ByteWritable:单字节数值

  • DoubleWritable:双字节数值

  • FloatWritable:浮点数

  • IntWritable:整型数

  • LongWritable:长整型数

  • Text:使用UTF8格式存储的文本

  • NullWritable:当中的key或value为空时使用

    自定义数据类型的实现:

    1.实现Writable接口,并重写内部write()和readFields()方法,从而完成序列化之后的网络传输和文件输入或输出。

    2.如果该数据类型被作为mapreduce中的key,则该key需要为可比较的,需要实现WriableComparable接口,并重写内部write()和readFields()、compare()方法。



    代码如下:


    代码一:


public class Person implements Writable{

long id;

String name;

long age;

@Override

public void readFields(DataInput in) throws IOException {

this.id = in.readLong();

this.name = in.readUTF();

this.age = in.readLong();

}

@Override

public void write(DataOutput out) throws IOException {

out.writeLong(id);

out.writeUTF(name);

out.writeLong(age);

}

        @Override

public String toString() {

return "id:"+id+" name:"+name+" age:"+age;

}

public long getId() {

return id;

}

public String getName() {

return name;

}

public long getAge() {

return age;

}

}

    代码二:基于key的比较


package cn.com.bonc.hadoop;

import java.io.DataInput;

import java.io.DataOutput;

import java.io.IOException;

import org.apache.hadoop.io.WritableComparable;

public class PersonSortByAge implements WritableComparable{

long id;

String name;

long age;

@Override

public void readFields(DataInput in) throws IOException {

in.readLong();

in.readUTF();

in.readLong();

}

@Override

public void write(DataOutput out) throws IOException {

out.writeLong(id);

out.writeUTF(name);

out.writeLong(age);

}

@Override

public int compareTo(PersonSortByAge o) {

return (int) (this.id - o.id);

}

@Override

public String toString() {

return "id:"+id+" name:"+name+" age:"+age;

}

}

以上是“Hadoop中如何自定义”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注创新互联行业资讯频道!

另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。


当前题目:Hadoop中如何自定义-创新互联
分享URL:http://pwwzsj.com/article/deishe.html