DFSck.java
上传用户:quxuerui
上传日期:2018-01-08
资源大小:41811k
文件大小:6k
源码类别:

网格计算

开发平台:

Java

  1. /**
  2.  * Licensed to the Apache Software Foundation (ASF) under one
  3.  * or more contributor license agreements.  See the NOTICE file
  4.  * distributed with this work for additional information
  5.  * regarding copyright ownership.  The ASF licenses this file
  6.  * to you under the Apache License, Version 2.0 (the
  7.  * "License"); you may not use this file except in compliance
  8.  * with the License.  You may obtain a copy of the License at
  9.  *
  10.  *     http://www.apache.org/licenses/LICENSE-2.0
  11.  *
  12.  * Unless required by applicable law or agreed to in writing, software
  13.  * distributed under the License is distributed on an "AS IS" BASIS,
  14.  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  15.  * See the License for the specific language governing permissions and
  16.  * limitations under the License.
  17.  */
  18. package org.apache.hadoop.hdfs.tools;
  19. import java.io.IOException;
  20. import java.io.InputStream;
  21. import java.io.InputStreamReader;
  22. import java.io.BufferedReader;
  23. import java.net.URL;
  24. import java.net.URLConnection;
  25. import java.net.URLEncoder;
  26. import org.apache.hadoop.conf.Configuration;
  27. import org.apache.hadoop.conf.Configured;
  28. import org.apache.hadoop.hdfs.server.namenode.NamenodeFsck;
  29. import org.apache.hadoop.net.NetUtils;
  30. import org.apache.hadoop.util.Tool;
  31. import org.apache.hadoop.util.ToolRunner;
  32. /**
  33.  * This class provides rudimentary checking of DFS volumes for errors and
  34.  * sub-optimal conditions.
  35.  * <p>The tool scans all files and directories, starting from an indicated
  36.  *  root path. The following abnormal conditions are detected and handled:</p>
  37.  * <ul>
  38.  * <li>files with blocks that are completely missing from all datanodes.<br/>
  39.  * In this case the tool can perform one of the following actions:
  40.  *  <ul>
  41.  *      <li>none ({@link org.apache.hadoop.hdfs.server.namenode.NamenodeFsck#FIXING_NONE})</li>
  42.  *      <li>move corrupted files to /lost+found directory on DFS
  43.  *      ({@link org.apache.hadoop.hdfs.server.namenode.NamenodeFsck#FIXING_MOVE}). Remaining data blocks are saved as a
  44.  *      block chains, representing longest consecutive series of valid blocks.</li>
  45.  *      <li>delete corrupted files ({@link org.apache.hadoop.hdfs.server.namenode.NamenodeFsck#FIXING_DELETE})</li>
  46.  *  </ul>
  47.  *  </li>
  48.  *  <li>detect files with under-replicated or over-replicated blocks</li>
  49.  *  </ul>
  50.  *  Additionally, the tool collects a detailed overall DFS statistics, and
  51.  *  optionally can print detailed statistics on block locations and replication
  52.  *  factors of each file.
  53.  *  The tool also provides and option to filter open files during the scan.
  54.  *  
  55.  */
  56. public class DFSck extends Configured implements Tool {
  57.   DFSck() {}
  58.   
  59.   /**
  60.    * Filesystem checker.
  61.    * @param conf current Configuration
  62.    * @throws Exception
  63.    */
  64.   public DFSck(Configuration conf) throws Exception {
  65.     super(conf);
  66.   }
  67.   
  68.   private String getInfoServer() throws IOException {
  69.     return NetUtils.getServerAddress(getConf(), "dfs.info.bindAddress", 
  70.                                      "dfs.info.port", "dfs.http.address");
  71.   }
  72.   
  73.   /**
  74.    * Print fsck usage information
  75.    */
  76.   static void printUsage() {
  77.     System.err.println("Usage: DFSck <path> [-move | -delete | -openforwrite] [-files [-blocks [-locations | -racks]]]");
  78.     System.err.println("t<path>tstart checking from this path");
  79.     System.err.println("t-movetmove corrupted files to /lost+found");
  80.     System.err.println("t-deletetdelete corrupted files");
  81.     System.err.println("t-filestprint out files being checked");
  82.     System.err.println("t-openforwritetprint out files opened for write");
  83.     System.err.println("t-blockstprint out block report");
  84.     System.err.println("t-locationstprint out locations for every block");
  85.     System.err.println("t-rackstprint out network topology for data-node locations");
  86.     System.err.println("ttBy default fsck ignores files opened for write, " +
  87.                        "use -openforwrite to report such files. They are usually " +
  88.                        " tagged CORRUPT or HEALTHY depending on their block " +
  89.                         "allocation status");
  90.     ToolRunner.printGenericCommandUsage(System.err);
  91.   }
  92.   /**
  93.    * @param args
  94.    */
  95.   public int run(String[] args) throws Exception {
  96.     String fsName = getInfoServer();
  97.     if (args.length == 0) {
  98.       printUsage();
  99.       return -1;
  100.     }
  101.     StringBuffer url = new StringBuffer("http://"+fsName+"/fsck?path=");
  102.     String dir = "/";
  103.     // find top-level dir first
  104.     for (int idx = 0; idx < args.length; idx++) {
  105.       if (!args[idx].startsWith("-")) { dir = args[idx]; break; }
  106.     }
  107.     url.append(URLEncoder.encode(dir, "UTF-8"));
  108.     for (int idx = 0; idx < args.length; idx++) {
  109.       if (args[idx].equals("-move")) { url.append("&move=1"); }
  110.       else if (args[idx].equals("-delete")) { url.append("&delete=1"); }
  111.       else if (args[idx].equals("-files")) { url.append("&files=1"); }
  112.       else if (args[idx].equals("-openforwrite")) { url.append("&openforwrite=1"); }
  113.       else if (args[idx].equals("-blocks")) { url.append("&blocks=1"); }
  114.       else if (args[idx].equals("-locations")) { url.append("&locations=1"); }
  115.       else if (args[idx].equals("-racks")) { url.append("&racks=1"); }
  116.     }
  117.     URL path = new URL(url.toString());
  118.     URLConnection connection = path.openConnection();
  119.     InputStream stream = connection.getInputStream();
  120.     BufferedReader input = new BufferedReader(new InputStreamReader(
  121.                                               stream, "UTF-8"));
  122.     String line = null;
  123.     String lastLine = null;
  124.     int errCode = -1;
  125.     try {
  126.       while ((line = input.readLine()) != null) {
  127.         System.out.println(line);
  128.         lastLine = line;
  129.       }
  130.     } finally {
  131.       input.close();
  132.     }
  133.     if (lastLine.endsWith(NamenodeFsck.HEALTHY_STATUS)) {
  134.       errCode = 0;
  135.     } else if (lastLine.endsWith(NamenodeFsck.CORRUPT_STATUS)) {
  136.       errCode = 1;
  137.     } else if (lastLine.endsWith(NamenodeFsck.NONEXISTENT_STATUS)) {
  138.       errCode = 0;
  139.     }
  140.     return errCode;
  141.   }
  142.   static{
  143.     Configuration.addDefaultResource("hdfs-default.xml");
  144.     Configuration.addDefaultResource("hdfs-site.xml");
  145.   }
  146.   
  147.   public static void main(String[] args) throws Exception {
  148.     // -files option is also used by GenericOptionsParser
  149.     // Make sure that is not the first argument for fsck
  150.     int res = -1;
  151.     if ((args.length == 0 ) || ("-files".equals(args[0]))) 
  152.       printUsage();
  153.     else
  154.       res = ToolRunner.run(new DFSck(new Configuration()), args);
  155.     System.exit(res);
  156.   }
  157. }