TestStreamingEmptyInpNonemptyOut.java
上传用户:quxuerui
上传日期:2018-01-08
资源大小:41811k
文件大小:4k
源码类别:

网格计算

开发平台:

Java

  1. /**
  2.  * Licensed to the Apache Software Foundation (ASF) under one
  3.  * or more contributor license agreements.  See the NOTICE file
  4.  * distributed with this work for additional information
  5.  * regarding copyright ownership.  The ASF licenses this file
  6.  * to you under the Apache License, Version 2.0 (the
  7.  * "License"); you may not use this file except in compliance
  8.  * with the License.  You may obtain a copy of the License at
  9.  *
  10.  *     http://www.apache.org/licenses/LICENSE-2.0
  11.  *
  12.  * Unless required by applicable law or agreed to in writing, software
  13.  * distributed under the License is distributed on an "AS IS" BASIS,
  14.  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  15.  * See the License for the specific language governing permissions and
  16.  * limitations under the License.
  17.  */
  18. package org.apache.hadoop.streaming;
  19. import junit.framework.TestCase;
  20. import java.io.*;
  21. /**
  22.  * This class tests hadoopStreaming in MapReduce local mode by giving
  23.  * empty input to mapper and the mapper generates nonempty output. Since map()
  24.  * is not called at all, output thread was not getting created and the mapper
  25.  * was hanging forever. Now this issue is solved. Similarly reducer is also
  26.  * checked for task completion with empty input and nonempty output.
  27.  */
  28. public class TestStreamingEmptyInpNonemptyOut extends TestCase
  29. {
  30.   protected File INPUT_FILE = new File("emptyInputFile.txt");
  31.   protected File OUTPUT_DIR = new File("out");
  32.   protected File SCRIPT_FILE = new File("perlScript.pl");
  33.   protected String map = "perlScript.pl";
  34.   protected String reduce = "org.apache.hadoop.mapred.lib.IdentityReducer";
  35.   protected String script = "#!/usr/bin/perlnfor($count = 1500; $count >= 1; $count--) {print "$count ";}";
  36.   private StreamJob job;
  37.   public TestStreamingEmptyInpNonemptyOut() throws IOException
  38.   {
  39.     UtilTest utilTest = new UtilTest(getClass().getName());
  40.     utilTest.checkUserDir();
  41.     utilTest.redirectIfAntJunit();
  42.   }
  43.   protected void createInputAndScript() throws IOException
  44.   {
  45.     DataOutputStream out = new DataOutputStream(
  46.                            new FileOutputStream(INPUT_FILE.getAbsoluteFile()));
  47.     out.close();
  48.     out = new DataOutputStream(
  49.           new FileOutputStream(SCRIPT_FILE.getAbsoluteFile()));
  50.     out.write(script.getBytes("UTF-8"));
  51.     out.close();
  52.   }
  53.   protected String[] genArgs() {
  54.     return new String[] {
  55.       "-input", INPUT_FILE.getAbsolutePath(),
  56.       "-output", OUTPUT_DIR.getAbsolutePath(),
  57.       "-mapper", map,
  58.       "-reducer", reduce,
  59.       //"-verbose",
  60.       //"-jobconf", "stream.debug=set"
  61.       "-jobconf", "keep.failed.task.files=true",
  62.       "-jobconf", "stream.tmpdir="+System.getProperty("test.build.data","/tmp")
  63.     };
  64.   }
  65.   
  66.   public void testEmptyInputNonemptyOutput() throws IOException
  67.   {
  68.     try {
  69.       try {
  70.         OUTPUT_DIR.getAbsoluteFile().delete();
  71.       } catch (Exception e) {
  72.       }
  73.       createInputAndScript();
  74.       boolean mayExit = false;
  75.       // During tests, the default Configuration will use a local mapred
  76.       // So don't specify -config or -cluster.
  77.       // First let us test if mapper doesn't hang for empty i/p and nonempty o/p
  78.       job = new StreamJob(genArgs(), mayExit);      
  79.       job.go();
  80.       File outFile = new File(OUTPUT_DIR, "part-00000").getAbsoluteFile();
  81.       outFile.delete();
  82.       // Now let us test if reducer doesn't hang for empty i/p and nonempty o/p
  83.       map = "org.apache.hadoop.mapred.lib.IdentityMapper";
  84.       reduce = "perlScript.pl";
  85.       job = new StreamJob(genArgs(), mayExit);      
  86.       job.go();
  87.       outFile = new File(OUTPUT_DIR, "part-00000").getAbsoluteFile();
  88.       outFile.delete();
  89.     } finally {
  90.       File outFileCRC = new File(OUTPUT_DIR, ".part-00000.crc").getAbsoluteFile();
  91.       INPUT_FILE.delete();
  92.       SCRIPT_FILE.delete();
  93.       outFileCRC.delete();
  94.       OUTPUT_DIR.getAbsoluteFile().delete();
  95.     }
  96.   }
  97.   public static void main(String[]args) throws Exception
  98.   {
  99.     new TestStreaming().testCommandLine();
  100.   }
  101. }