create-hadoop-image
上传用户:quxuerui
上传日期:2018-01-08
资源大小:41811k
文件大小:3k
源码类别:

网格计算

开发平台:

Java

  1. #!/usr/bin/env bash
  2. # Licensed to the Apache Software Foundation (ASF) under one or more
  3. # contributor license agreements.  See the NOTICE file distributed with
  4. # this work for additional information regarding copyright ownership.
  5. # The ASF licenses this file to You under the Apache License, Version 2.0
  6. # (the "License"); you may not use this file except in compliance with
  7. # the License.  You may obtain a copy of the License at
  8. #
  9. #     http://www.apache.org/licenses/LICENSE-2.0
  10. #
  11. # Unless required by applicable law or agreed to in writing, software
  12. # distributed under the License is distributed on an "AS IS" BASIS,
  13. # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  14. # See the License for the specific language governing permissions and
  15. # limitations under the License.
  16. # Create a Hadoop AMI.
  17. # Inspired by Jonathan Siegel's EC2 script (http://blogsiegel.blogspot.com/2006/08/sandboxing-amazon-ec2.html)
  18. # Import variables
  19. bin=`dirname "$0"`
  20. bin=`cd "$bin"; pwd`
  21. . "$bin"/hadoop-ec2-env.sh
  22. AMI_IMAGE=`ec2-describe-images -a | grep $S3_BUCKET | grep $HADOOP_VERSION | grep $ARCH | grep available | awk '{print $2}'`
  23. [ ! -z $AMI_IMAGE ] && echo "AMI already registered, use: ec2-deregister $AMI_IMAGE" && exit -1
  24. echo "Starting a AMI with ID $BASE_AMI_IMAGE."
  25. OUTPUT=`ec2-run-instances $BASE_AMI_IMAGE -k $KEY_NAME -t $INSTANCE_TYPE`
  26. BOOTING_INSTANCE=`echo $OUTPUT | awk '{print $6}'`
  27. echo "Instance is $BOOTING_INSTANCE."
  28. echo "Polling server status (ec2-describe-instances $BOOTING_INSTANCE)"
  29. while true; do
  30.   printf "."
  31.   HOSTNAME=`ec2-describe-instances $BOOTING_INSTANCE | grep running | awk '{print $4}'`
  32.   if [ ! -z $HOSTNAME ]; then
  33.     break;
  34.   fi
  35.   sleep 1
  36. done
  37. echo "The server is available at $HOSTNAME."
  38. while true; do
  39.   REPLY=`ssh $SSH_OPTS "root@$HOSTNAME" 'echo "hello"'`
  40.   if [ ! -z $REPLY ]; then
  41.    break;
  42.   fi
  43.   sleep 5
  44. done
  45. #read -p "Login first? [yes or no]: " answer
  46. if [ "$answer" == "yes" ]; then
  47.   ssh $SSH_OPTS "root@$HOSTNAME"
  48. fi
  49. echo "Copying scripts."
  50. # Copy setup scripts
  51. scp $SSH_OPTS "$bin"/hadoop-ec2-env.sh "root@$HOSTNAME:/mnt"
  52. scp $SSH_OPTS "$bin"/image/create-hadoop-image-remote "root@$HOSTNAME:/mnt"
  53. scp $SSH_OPTS "$bin"/image/ec2-run-user-data "root@$HOSTNAME:/etc/init.d"
  54. # Copy private key and certificate (for bundling image)
  55. scp $SSH_OPTS $EC2_KEYDIR/pk*.pem "root@$HOSTNAME:/mnt"
  56. scp $SSH_OPTS $EC2_KEYDIR/cert*.pem "root@$HOSTNAME:/mnt"
  57. # Connect to it
  58. ssh $SSH_OPTS "root@$HOSTNAME" '/mnt/create-hadoop-image-remote'
  59. # Register image
  60. ec2-register $S3_BUCKET/hadoop-$HADOOP_VERSION-$ARCH.manifest.xml
  61. echo "Terminate with: ec2-terminate-instances $BOOTING_INSTANCE"