TestFSOutputSummer.java
上传用户:quxuerui
上传日期:2018-01-08
资源大小:41811k
文件大小:5k
源码类别:

网格计算

开发平台:

Java

  1. /**
  2.  * Licensed to the Apache Software Foundation (ASF) under one
  3.  * or more contributor license agreements.  See the NOTICE file
  4.  * distributed with this work for additional information
  5.  * regarding copyright ownership.  The ASF licenses this file
  6.  * to you under the Apache License, Version 2.0 (the
  7.  * "License"); you may not use this file except in compliance
  8.  * with the License.  You may obtain a copy of the License at
  9.  *
  10.  *     http://www.apache.org/licenses/LICENSE-2.0
  11.  *
  12.  * Unless required by applicable law or agreed to in writing, software
  13.  * distributed under the License is distributed on an "AS IS" BASIS,
  14.  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  15.  * See the License for the specific language governing permissions and
  16.  * limitations under the License.
  17.  */
  18. package org.apache.hadoop.hdfs;
  19. import junit.framework.TestCase;
  20. import java.io.*;
  21. import java.util.Random;
  22. import org.apache.hadoop.conf.Configuration;
  23. import org.apache.hadoop.fs.FSDataInputStream;
  24. import org.apache.hadoop.fs.FSDataOutputStream;
  25. import org.apache.hadoop.fs.FileSystem;
  26. import org.apache.hadoop.fs.Path;
  27. /**
  28.  * This class tests if FSOutputSummer works correctly.
  29.  */
  30. public class TestFSOutputSummer extends TestCase {
  31.   private static final long seed = 0xDEADBEEFL;
  32.   private static final int BYTES_PER_CHECKSUM = 10;
  33.   private static final int BLOCK_SIZE = 2*BYTES_PER_CHECKSUM;
  34.   private static final int HALF_CHUNK_SIZE = BYTES_PER_CHECKSUM/2;
  35.   private static final int FILE_SIZE = 2*BLOCK_SIZE-1;
  36.   private static final short NUM_OF_DATANODES = 2;
  37.   private byte[] expected = new byte[FILE_SIZE];
  38.   private byte[] actual = new byte[FILE_SIZE];
  39.   private FileSystem fileSys;
  40.   /* create a file, write all data at once */
  41.   private void writeFile1(Path name) throws Exception {
  42.     FSDataOutputStream stm = fileSys.create(name, true, 
  43.                fileSys.getConf().getInt("io.file.buffer.size", 4096),
  44.                NUM_OF_DATANODES, BLOCK_SIZE);
  45.     stm.write(expected);
  46.     stm.close();
  47.     checkFile(name);
  48.     cleanupFile(name);
  49.   }
  50.   
  51.   /* create a file, write data chunk by chunk */
  52.   private void writeFile2(Path name) throws Exception {
  53.     FSDataOutputStream stm = fileSys.create(name, true, 
  54.                fileSys.getConf().getInt("io.file.buffer.size", 4096),
  55.                NUM_OF_DATANODES, BLOCK_SIZE);
  56.     int i=0;
  57.     for( ;i<FILE_SIZE-BYTES_PER_CHECKSUM; i+=BYTES_PER_CHECKSUM) {
  58.       stm.write(expected, i, BYTES_PER_CHECKSUM);
  59.     }
  60.     stm.write(expected, i, FILE_SIZE-3*BYTES_PER_CHECKSUM);
  61.     stm.close();
  62.     checkFile(name);
  63.     cleanupFile(name);
  64.   }
  65.   
  66.   /* create a file, write data with vairable amount of data */
  67.   private void writeFile3(Path name) throws Exception {
  68.     FSDataOutputStream stm = fileSys.create(name, true, 
  69.         fileSys.getConf().getInt("io.file.buffer.size", 4096),
  70.         NUM_OF_DATANODES, BLOCK_SIZE);
  71.     stm.write(expected, 0, HALF_CHUNK_SIZE);
  72.     stm.write(expected, HALF_CHUNK_SIZE, BYTES_PER_CHECKSUM+2);
  73.     stm.write(expected, HALF_CHUNK_SIZE+BYTES_PER_CHECKSUM+2, 2);
  74.     stm.write(expected, HALF_CHUNK_SIZE+BYTES_PER_CHECKSUM+4, HALF_CHUNK_SIZE);
  75.     stm.write(expected, BLOCK_SIZE+4, BYTES_PER_CHECKSUM-4);
  76.     stm.write(expected, BLOCK_SIZE+BYTES_PER_CHECKSUM, 
  77.         FILE_SIZE-3*BYTES_PER_CHECKSUM);
  78.     stm.close();
  79.     checkFile(name);
  80.     cleanupFile(name);
  81.   }
  82.   private void checkAndEraseData(byte[] actual, int from, byte[] expected,
  83.       String message) throws Exception {
  84.     for (int idx = 0; idx < actual.length; idx++) {
  85.       assertEquals(message+" byte "+(from+idx)+" differs. expected "+
  86.                         expected[from+idx]+" actual "+actual[idx],
  87.                         actual[idx], expected[from+idx]);
  88.       actual[idx] = 0;
  89.     }
  90.   }
  91.   
  92.   private void checkFile(Path name) throws Exception {
  93.     FSDataInputStream stm = fileSys.open(name);
  94.     // do a sanity check. Read the file
  95.     stm.readFully(0, actual);
  96.     checkAndEraseData(actual, 0, expected, "Read Sanity Test");
  97.     stm.close();
  98.   }
  99.   private void cleanupFile(Path name) throws IOException {
  100.     assertTrue(fileSys.exists(name));
  101.     fileSys.delete(name, true);
  102.     assertTrue(!fileSys.exists(name));
  103.   }
  104.   
  105.   /**
  106.    * Test write opeation for output stream in DFS.
  107.    */
  108.   public void testFSOutputSummer() throws Exception {
  109.     Configuration conf = new Configuration();
  110.     conf.setLong("dfs.block.size", BLOCK_SIZE);
  111.     conf.setInt("io.bytes.per.checksum", BYTES_PER_CHECKSUM);
  112.     conf.set("fs.hdfs.impl",
  113.              "org.apache.hadoop.hdfs.ChecksumDistributedFileSystem");      
  114.     MiniDFSCluster cluster = new MiniDFSCluster(
  115.         conf, NUM_OF_DATANODES, true, null);
  116.     fileSys = cluster.getFileSystem();
  117.     try {
  118.       Path file = new Path("try.dat");
  119.       Random rand = new Random(seed);
  120.       rand.nextBytes(expected);
  121.       writeFile1(file);
  122.       writeFile2(file);
  123.       writeFile3(file);
  124.     } finally {
  125.       fileSys.close();
  126.       cluster.shutdown();
  127.     }
  128.   }
  129. }