TestFileInputFormat.java
上传用户:quxuerui
上传日期:2018-01-08
资源大小:41811k
文件大小:3k
源码类别:

网格计算

开发平台:

Java

  1. /**
  2.  * Licensed to the Apache Software Foundation (ASF) under one
  3.  * or more contributor license agreements.  See the NOTICE file
  4.  * distributed with this work for additional information
  5.  * regarding copyright ownership.  The ASF licenses this file
  6.  * to you under the Apache License, Version 2.0 (the
  7.  * "License"); you may not use this file except in compliance
  8.  * with the License.  You may obtain a copy of the License at
  9.  *
  10.  *     http://www.apache.org/licenses/LICENSE-2.0
  11.  *
  12.  * Unless required by applicable law or agreed to in writing, software
  13.  * distributed under the License is distributed on an "AS IS" BASIS,
  14.  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  15.  * See the License for the specific language governing permissions and
  16.  * limitations under the License.
  17.  */
  18. package org.apache.hadoop.mapred;
  19. import java.io.DataOutputStream;
  20. import junit.framework.TestCase;
  21. import org.apache.hadoop.fs.BlockLocation;
  22. import org.apache.hadoop.fs.FileStatus;
  23. import org.apache.hadoop.fs.FileSystem;
  24. import org.apache.hadoop.fs.Path;
  25. import org.apache.hadoop.hdfs.MiniDFSCluster;
  26. public class TestFileInputFormat extends TestCase {
  27.   public void testLocality() throws Exception {
  28.     JobConf conf = new JobConf();
  29.     MiniDFSCluster dfs = null;
  30.     try {
  31.       dfs = new MiniDFSCluster(conf, 4, true,
  32.                                new String[]{"/rack0", "/rack0", 
  33.                                              "/rack1", "/rack1"},
  34.                                new String[]{"host0", "host1", 
  35.                                             "host2", "host3"});
  36.       FileSystem fs = dfs.getFileSystem();
  37.       System.out.println("FileSystem " + fs.getUri());
  38.       Path path = new Path("/foo/bar");
  39.       // create a multi-block file on hdfs
  40.       DataOutputStream out = fs.create(path, true, 4096, 
  41.                                        (short) 2, 512, null);
  42.       for(int i=0; i < 1000; ++i) {
  43.         out.writeChars("Hellon");
  44.       }
  45.       out.close();
  46.       System.out.println("Wrote file");
  47.       // split it using a file input format
  48.       TextInputFormat.addInputPath(conf, path);
  49.       TextInputFormat inFormat = new TextInputFormat();
  50.       inFormat.configure(conf);
  51.       InputSplit[] splits = inFormat.getSplits(conf, 1);
  52.       FileStatus fileStatus = fs.getFileStatus(path);
  53.       BlockLocation[] locations = 
  54.         fs.getFileBlockLocations(fileStatus, 0, fileStatus.getLen());
  55.       System.out.println("Made splits");
  56.       // make sure that each split is a block and the locations match
  57.       for(int i=0; i < splits.length; ++i) {
  58.         FileSplit fileSplit = (FileSplit) splits[i];
  59.         System.out.println("File split: " + fileSplit);
  60.         for (String h: fileSplit.getLocations()) {
  61.           System.out.println("Location: " + h);
  62.         }
  63.         System.out.println("Block: " + locations[i]);
  64.         assertEquals(locations[i].getOffset(), fileSplit.getStart());
  65.         assertEquals(locations[i].getLength(), fileSplit.getLength());
  66.         String[] blockLocs = locations[i].getHosts();
  67.         String[] splitLocs = fileSplit.getLocations();
  68.         assertEquals(2, blockLocs.length);
  69.         assertEquals(2, splitLocs.length);
  70.         assertTrue((blockLocs[0].equals(splitLocs[0]) && 
  71.                     blockLocs[1].equals(splitLocs[1])) ||
  72.                    (blockLocs[1].equals(splitLocs[0]) &&
  73.                     blockLocs[0].equals(splitLocs[1])));
  74.       }
  75.     } finally {
  76.       if (dfs != null) {
  77.         dfs.shutdown();
  78.       }
  79.     }
  80.   }
  81. }