TestStreamReduceNone.java
上传用户:quxuerui
上传日期:2018-01-08
资源大小:41811k
文件大小:4k
源码类别:

网格计算

开发平台:

Java

  1. /**
  2.  * Licensed to the Apache Software Foundation (ASF) under one
  3.  * or more contributor license agreements.  See the NOTICE file
  4.  * distributed with this work for additional information
  5.  * regarding copyright ownership.  The ASF licenses this file
  6.  * to you under the Apache License, Version 2.0 (the
  7.  * "License"); you may not use this file except in compliance
  8.  * with the License.  You may obtain a copy of the License at
  9.  *
  10.  *     http://www.apache.org/licenses/LICENSE-2.0
  11.  *
  12.  * Unless required by applicable law or agreed to in writing, software
  13.  * distributed under the License is distributed on an "AS IS" BASIS,
  14.  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  15.  * See the License for the specific language governing permissions and
  16.  * limitations under the License.
  17.  */
  18. package org.apache.hadoop.streaming;
  19. import junit.framework.TestCase;
  20. import java.io.*;
  21. import java.util.*;
  22. import org.apache.hadoop.conf.Configuration;
  23. import org.apache.hadoop.fs.FileSystem;
  24. import org.apache.hadoop.fs.Path;
  25. /**
  26.  * This class tests hadoopStreaming in MapReduce local mode.
  27.  * It tests the case where number of reducers is set to 0.
  28.    In this case, the mappers are expected to write out outputs directly.
  29.    No reducer/combiner will be activated.
  30.  */
  31. public class TestStreamReduceNone extends TestCase
  32. {
  33.   protected File INPUT_FILE = new File("stream_reduce_none_input.txt");
  34.   protected File OUTPUT_DIR = new File("stream_reduce_none_out");
  35.   protected String input = "roses.are.rednviolets.are.bluenbunnies.are.pinkn";
  36.   // map parses input lines and generates count entries for each word.
  37.   protected String map = StreamUtil.makeJavaCommand(TrApp.class, new String[]{".", "\n"});
  38.   protected String outputExpect = "rosestnaretnredtnvioletstnaretnbluetnbunniestnaretnpinktn";
  39.   private StreamJob job;
  40.   public TestStreamReduceNone() throws IOException
  41.   {
  42.     UtilTest utilTest = new UtilTest(getClass().getName());
  43.     utilTest.checkUserDir();
  44.     utilTest.redirectIfAntJunit();
  45.   }
  46.   protected void createInput() throws IOException
  47.   {
  48.     DataOutputStream out = new DataOutputStream(
  49.                                                 new FileOutputStream(INPUT_FILE.getAbsoluteFile()));
  50.     out.write(input.getBytes("UTF-8"));
  51.     out.close();
  52.   }
  53.   protected String[] genArgs() {
  54.     return new String[] {
  55.       "-input", INPUT_FILE.getAbsolutePath(),
  56.       "-output", OUTPUT_DIR.getAbsolutePath(),
  57.       "-mapper", map,
  58.       "-reducer", "org.apache.hadoop.mapred.lib.IdentityReducer",
  59.       "-numReduceTasks", "0",
  60.       "-jobconf", "keep.failed.task.files=true",
  61.       "-jobconf", "stream.tmpdir="+System.getProperty("test.build.data","/tmp")
  62.     };
  63.   }
  64.   
  65.   public void testCommandLine()
  66.   {
  67.     String outFileName = "part-00000";
  68.     File outFile = null;
  69.     try {
  70.       try {
  71.         OUTPUT_DIR.getAbsoluteFile().delete();
  72.       } catch (Exception e) {
  73.       }
  74.       createInput();
  75.       boolean mayExit = false;
  76.       // During tests, the default Configuration will use a local mapred
  77.       // So don't specify -config or -cluster
  78.       job = new StreamJob(genArgs(), mayExit);      
  79.       job.go();
  80.       outFile = new File(OUTPUT_DIR, outFileName).getAbsoluteFile();
  81.       String output = StreamUtil.slurp(outFile);
  82.       System.err.println("outEx1=" + outputExpect);
  83.       System.err.println("  out1=" + output);
  84.       assertEquals(outputExpect, output);
  85.     } catch(Exception e) {
  86.       failTrace(e);
  87.     } finally {
  88.       outFile.delete();
  89.       File outFileCRC = new File(OUTPUT_DIR, "."+outFileName+".crc").getAbsoluteFile();
  90.       INPUT_FILE.delete();
  91.       outFileCRC.delete();
  92.       OUTPUT_DIR.getAbsoluteFile().delete();
  93.     }
  94.   }
  95.   private void failTrace(Exception e)
  96.   {
  97.     StringWriter sw = new StringWriter();
  98.     e.printStackTrace(new PrintWriter(sw));
  99.     fail(sw.toString());
  100.   }
  101.   public static void main(String[]args) throws Exception
  102.   {
  103.     new TestStreamReduceNone().testCommandLine();
  104.   }
  105. }