hadoop-dfs-dir.txt
上传用户:quxuerui
上传日期:2018-01-08
资源大小:41811k
文件大小:3k
源码类别:

网格计算

开发平台:

Java

  1. #
  2. # This is a readme for hadoop-version-dfs-dir.tgz and hadoop-dfs-dir.txt.
  3. #
  4. # See HADOOP-1629 for more info if needed.
  5. # These two files are used by unit test TestDFSUpgradeFromImage.java 
  6. # hadoop-14-dfs-dir.tgz : 
  7. # ---------------------
  8. # This file contains the HDFS directory structure for one namenode and 4 datanodes.
  9. # The structure is setup similar to the structure used in MiniDFSCluster.
  10. # The directory was created with Hadoo-0.14.x.
  11. #
  12. # In the test, this directory is unpacked and MiniDFSCluster is run with 
  13. # "-upgrade" option. The test waits for the upgrade to complete 
  14. # (leave safe mode) and then all the files are read. The test checks that the
  15. # directory structure and file checksums exactly match the information
  16. # in this file.
  17. #
  18. # hadoop-dfs-dir.txt :
  19. # ---------------------
  20. # Along with this description this file contains the expected files and 
  21. # checksums or the files in the upgraded DFS.
  22. # The original DFS directory was created with various types of files and with
  23. # some recoverable errors (i.e. corrupt or missing .crc files).
  24. #
  25. # A similar set of files exist in two different DFS directories. 
  26. # For e.g. "top-dir-1Mb-512" contains files created with dfs.block.size of 1Mb 
  27. # and io.bytes.per.checksum of 512.
  28. #
  29. # In the future, when Hadoop project no longer supports upgrade from
  30. # Hadoop-0.12, then a new DFS directory image must be created.
  31. #
  32. # To generate checksum info for new files :
  33. # ---------------------------------------
  34. # Uncomment the last coment (starts with "printChecksums") and run the 
  35. # test again. When the test sees this line, it prints the checksum
  36. # information that should replace the checksum information in 
  37. # this file. When run in this mode, the test will fail with a descriptive IOException.
  38. #
  39. # Next, extract the checksum info from the test log like this:
  40. #  sed -n 's/.*CRC info for reference file : //p' test-log.txt >> this_file
  41. # This will append a new list of files and checksums to this file.  Be sure to remove the existing checksum info.
  42. #
  43. # For your reference, the format of the checksum info below is "filename whitespace*twhitespace* checksumn"
  44. #
  45. # Uncomment the following line to produce checksum info for a new DFS image.
  46. #printChecksums
  47. /1kb-multiple-checksum-blocks-64-16   191893480
  48. /top-dir-120000-60/1Mb-file   4079112547
  49. /top-dir-120000-60/4k-file   3716287280
  50. /top-dir-120000-60/5Mb-file   2563834633
  51. /top-dir-120000-60/directory1/500thousand-file   3036538664
  52. /top-dir-120000-60/directory1/file-with-corrupt-crc   1984689737
  53. /top-dir-120000-60/directory1/file-with-no-crc   4004594475
  54. /top-dir-120000-60/directory1/zero1   0
  55. /top-dir-120000-60/zerolen   0
  56. /top-dir-1Mb-512/1Mb-file   4079112547
  57. /top-dir-1Mb-512/4k-file   3716287280
  58. /top-dir-1Mb-512/5Mb-file   2563834633
  59. /top-dir-1Mb-512/directory1/500thousand-file   3036538664
  60. /top-dir-1Mb-512/directory1/file-with-corrupt-crc   1984689737
  61. /top-dir-1Mb-512/directory1/file-with-no-crc   4004594475
  62. /top-dir-1Mb-512/directory1/zero1   0
  63. /top-dir-1Mb-512/zerolen   0
  64. overallCRC   1419480698