ValueAggregatorBaseDescriptor.java
上传用户:quxuerui
上传日期:2018-01-08
资源大小:41811k
文件大小:5k
源码类别:

网格计算

开发平台:

Java

  1. /**
  2.  * Licensed to the Apache Software Foundation (ASF) under one
  3.  * or more contributor license agreements.  See the NOTICE file
  4.  * distributed with this work for additional information
  5.  * regarding copyright ownership.  The ASF licenses this file
  6.  * to you under the Apache License, Version 2.0 (the
  7.  * "License"); you may not use this file except in compliance
  8.  * with the License.  You may obtain a copy of the License at
  9.  *
  10.  *     http://www.apache.org/licenses/LICENSE-2.0
  11.  *
  12.  * Unless required by applicable law or agreed to in writing, software
  13.  * distributed under the License is distributed on an "AS IS" BASIS,
  14.  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  15.  * See the License for the specific language governing permissions and
  16.  * limitations under the License.
  17.  */
  18. package org.apache.hadoop.mapred.lib.aggregate;
  19. import java.util.ArrayList;
  20. import java.util.Map.Entry;
  21. import org.apache.hadoop.io.Text;
  22. import org.apache.hadoop.mapred.JobConf;
  23. /** 
  24.  * This class implements the common functionalities of 
  25.  * the subclasses of ValueAggregatorDescriptor class.
  26.  */
  27. public class ValueAggregatorBaseDescriptor implements ValueAggregatorDescriptor {
  28.   static public final String UNIQ_VALUE_COUNT = "UniqValueCount";
  29.   static public final String LONG_VALUE_SUM = "LongValueSum";
  30.   static public final String DOUBLE_VALUE_SUM = "DoubleValueSum";
  31.   static public final String VALUE_HISTOGRAM = "ValueHistogram";
  32.   
  33.   static public final String LONG_VALUE_MAX = "LongValueMax";
  34.   
  35.   static public final String LONG_VALUE_MIN = "LongValueMin";
  36.   
  37.   static public final String STRING_VALUE_MAX = "StringValueMax";
  38.   
  39.   static public final String STRING_VALUE_MIN = "StringValueMin";
  40.   
  41.   private static long maxNumItems = Long.MAX_VALUE;
  42.   
  43.   public String inputFile = null;
  44.   private static class MyEntry implements Entry<Text, Text> {
  45.     Text key;
  46.     Text val;
  47.     public Text getKey() {
  48.       return key;
  49.     }
  50.     public Text getValue() {
  51.       return val;
  52.     }
  53.     public Text setValue(Text val) {
  54.       this.val = val;
  55.       return val;
  56.     }
  57.     public MyEntry(Text key, Text val) {
  58.       this.key = key;
  59.       this.val = val;
  60.     }
  61.   }
  62.   /**
  63.    * 
  64.    * @param type the aggregation type
  65.    * @param id the aggregation id
  66.    * @param val the val associated with the id to be aggregated
  67.    * @return an Entry whose key is the aggregation id prefixed with 
  68.    * the aggregation type.
  69.    */
  70.   public static Entry<Text, Text> generateEntry(String type, String id, Text val) {
  71.     Text key = new Text(type + TYPE_SEPARATOR + id);
  72.     return new MyEntry(key, val);
  73.   }
  74.   /**
  75.    * 
  76.    * @param type the aggregation type
  77.    * @return a value aggregator of the given type.
  78.    */
  79.   static public ValueAggregator generateValueAggregator(String type) {
  80.     ValueAggregator retv = null;
  81.     if (type.compareToIgnoreCase(LONG_VALUE_SUM) == 0) {
  82.       retv = new LongValueSum();
  83.     } if (type.compareToIgnoreCase(LONG_VALUE_MAX) == 0) {
  84.       retv = new LongValueMax();
  85.     } else if (type.compareToIgnoreCase(LONG_VALUE_MIN) == 0) {
  86.       retv = new LongValueMin();
  87.     } else if (type.compareToIgnoreCase(STRING_VALUE_MAX) == 0) {
  88.       retv = new StringValueMax();
  89.     } else if (type.compareToIgnoreCase(STRING_VALUE_MIN) == 0) {
  90.       retv = new StringValueMin();
  91.     } else if (type.compareToIgnoreCase(DOUBLE_VALUE_SUM) == 0) {
  92.       retv = new DoubleValueSum();
  93.     } else if (type.compareToIgnoreCase(UNIQ_VALUE_COUNT) == 0) {
  94.       retv = new UniqValueCount(maxNumItems);
  95.     } else if (type.compareToIgnoreCase(VALUE_HISTOGRAM) == 0) {
  96.       retv = new ValueHistogram();
  97.     }
  98.     return retv;
  99.   }
  100.   /**
  101.    * Generate 1 or 2 aggregation-id/value pairs for the given key/value pair.
  102.    * The first id will be of type LONG_VALUE_SUM, with "record_count" as
  103.    * its aggregation id. If the input is a file split,
  104.    * the second id of the same type will be generated too, with the file name 
  105.    * as its aggregation id. This achieves the behavior of counting the total number
  106.    * of records in the input data, and the number of records in each input file.
  107.    * 
  108.    * @param key
  109.    *          input key
  110.    * @param val
  111.    *          input value
  112.    * @return a list of aggregation id/value pairs. An aggregation id encodes an
  113.    *         aggregation type which is used to guide the way to aggregate the
  114.    *         value in the reduce/combiner phrase of an Aggregate based job.
  115.    */
  116.   public ArrayList<Entry<Text, Text>> generateKeyValPairs(Object key,
  117.                                                           Object val) {
  118.     ArrayList<Entry<Text, Text>> retv = new ArrayList<Entry<Text, Text>>();
  119.     String countType = LONG_VALUE_SUM;
  120.     String id = "record_count";
  121.     Entry<Text, Text> e = generateEntry(countType, id, ONE);
  122.     if (e != null) {
  123.       retv.add(e);
  124.     }
  125.     if (this.inputFile != null) {
  126.       e = generateEntry(countType, this.inputFile, ONE);
  127.       if (e != null) {
  128.         retv.add(e);
  129.       }
  130.     }
  131.     return retv;
  132.   }
  133.   /**
  134.    * get the input file name.
  135.    * 
  136.    * @param job a job configuration object
  137.    */
  138.   public void configure(JobConf job) {
  139.     this.inputFile = job.get("map.input.file");
  140.     maxNumItems = job.getLong("aggregate.max.num.unique.values",
  141.                               Long.MAX_VALUE);
  142.   }
  143. }