TestInterDatanodeProtocol.java
上传用户:quxuerui
上传日期:2018-01-08
资源大小:41811k
文件大小:4k
源码类别:

网格计算

开发平台:

Java

  1. /**
  2.  * Licensed to the Apache Software Foundation (ASF) under one
  3.  * or more contributor license agreements.  See the NOTICE file
  4.  * distributed with this work for additional information
  5.  * regarding copyright ownership.  The ASF licenses this file
  6.  * to you under the Apache License, Version 2.0 (the
  7.  * "License"); you may not use this file except in compliance
  8.  * with the License.  You may obtain a copy of the License at
  9.  *
  10.  *     http://www.apache.org/licenses/LICENSE-2.0
  11.  *
  12.  * Unless required by applicable law or agreed to in writing, software
  13.  * distributed under the License is distributed on an "AS IS" BASIS,
  14.  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  15.  * See the License for the specific language governing permissions and
  16.  * limitations under the License.
  17.  */
  18. package org.apache.hadoop.hdfs.server.datanode;
  19. import java.io.IOException;
  20. import java.util.List;
  21. import org.apache.hadoop.conf.Configuration;
  22. import org.apache.hadoop.fs.*;
  23. import org.apache.hadoop.hdfs.DFSTestUtil;
  24. import org.apache.hadoop.hdfs.MiniDFSCluster;
  25. import org.apache.hadoop.hdfs.DistributedFileSystem;
  26. import org.apache.hadoop.hdfs.protocol.Block;
  27. import org.apache.hadoop.hdfs.protocol.ClientProtocol;
  28. import org.apache.hadoop.hdfs.protocol.DatanodeInfo;
  29. import org.apache.hadoop.hdfs.protocol.LocatedBlock;
  30. import org.apache.hadoop.hdfs.protocol.LocatedBlocks;
  31. import org.apache.hadoop.hdfs.server.datanode.DataBlockScanner;
  32. import org.apache.hadoop.hdfs.server.datanode.DataNode;
  33. import org.apache.hadoop.hdfs.server.protocol.BlockMetaDataInfo;
  34. import org.apache.hadoop.hdfs.server.protocol.InterDatanodeProtocol;
  35. /**
  36.  * This tests InterDataNodeProtocol for block handling. 
  37.  */
  38. public class TestInterDatanodeProtocol extends junit.framework.TestCase {
  39.   public static void checkMetaInfo(Block b, InterDatanodeProtocol idp,
  40.       DataBlockScanner scanner) throws IOException {
  41.     BlockMetaDataInfo metainfo = idp.getBlockMetaDataInfo(b);
  42.     assertEquals(b.getBlockId(), metainfo.getBlockId());
  43.     assertEquals(b.getNumBytes(), metainfo.getNumBytes());
  44.     if (scanner != null) {
  45.       assertEquals(scanner.getLastScanTime(b),
  46.           metainfo.getLastScanTime());
  47.     }
  48.   }
  49.   public static LocatedBlock getLastLocatedBlock(
  50.       ClientProtocol namenode, String src
  51.   ) throws IOException {
  52.     //get block info for the last block
  53.     LocatedBlocks locations = namenode.getBlockLocations(src, 0, Long.MAX_VALUE);
  54.     List<LocatedBlock> blocks = locations.getLocatedBlocks();
  55.     DataNode.LOG.info("blocks.size()=" + blocks.size());
  56.     assertTrue(blocks.size() > 0);
  57.     return blocks.get(blocks.size() - 1);
  58.   }
  59.   /**
  60.    * The following test first creates a file.
  61.    * It verifies the block information from a datanode.
  62.    * Then, it updates the block with new information and verifies again. 
  63.    */
  64.   public void testBlockMetaDataInfo() throws Exception {
  65.     Configuration conf = new Configuration();
  66.     MiniDFSCluster cluster = null;
  67.     try {
  68.       cluster = new MiniDFSCluster(conf, 3, true, null);
  69.       cluster.waitActive();
  70.       //create a file
  71.       DistributedFileSystem dfs = (DistributedFileSystem)cluster.getFileSystem();
  72.       String filestr = "/foo";
  73.       Path filepath = new Path(filestr);
  74.       DFSTestUtil.createFile(dfs, filepath, 1024L, (short)3, 0L);
  75.       assertTrue(dfs.getClient().exists(filestr));
  76.       //get block info
  77.       LocatedBlock locatedblock = getLastLocatedBlock(dfs.getClient().namenode, filestr);
  78.       DatanodeInfo[] datanodeinfo = locatedblock.getLocations();
  79.       assertTrue(datanodeinfo.length > 0);
  80.       //connect to a data node
  81.       InterDatanodeProtocol idp = DataNode.createInterDataNodeProtocolProxy(
  82.           datanodeinfo[0], conf);
  83.       DataNode datanode = cluster.getDataNode(datanodeinfo[0].getIpcPort());
  84.       assertTrue(datanode != null);
  85.       
  86.       //stop block scanner, so we could compare lastScanTime
  87.       datanode.blockScannerThread.interrupt();
  88.       //verify BlockMetaDataInfo
  89.       Block b = locatedblock.getBlock();
  90.       InterDatanodeProtocol.LOG.info("b=" + b + ", " + b.getClass());
  91.       checkMetaInfo(b, idp, datanode.blockScanner);
  92.       //verify updateBlock
  93.       Block newblock = new Block(
  94.           b.getBlockId(), b.getNumBytes()/2, b.getGenerationStamp()+1);
  95.       idp.updateBlock(b, newblock, false);
  96.       checkMetaInfo(newblock, idp, datanode.blockScanner);
  97.     }
  98.     finally {
  99.       if (cluster != null) {cluster.shutdown();}
  100.     }
  101.   }
  102. }