欧美麻豆久久久久久中文_成年免费观看_男人天堂亚洲成人_中国一级片_动漫黄网站免费永久在线观看_国产精品自产av一区二区三区

中培偉業IT資訊頻道
您現在的位置:首頁 > IT資訊 > 大數據 > Hadoop集群部署(部署腳本,namenode高可用)

Hadoop集群部署(部署腳本,namenode高可用)

2015-11-06 10:50:31 | 來源:中培企業IT培訓網

【中培偉業】本文的所有部署都基于cloudera公司的CDH4,CDH4是cloudera公司包裝好的hadoop生態圈一系列yum包,把CDH4放到自己的yum倉庫中,能極大的提高hadoop環境部署的簡易性。
  前言
  折騰了一段時間hadoop的部署管理,寫下此系列博客記錄一下。
  為了避免各位做部署這種重復性的勞動,我已經把部署的步驟寫成腳本,各位只需要按著本文把腳本執行完,整個環境基本就部署完了。部署的腳本我放在了開源中國的git倉庫里。
  本文的所有部署都基于cloudera公司的CDH4,CDH4是cloudera公司包裝好的hadoop生態圈一系列yum包,把CDH4放到自己的yum倉庫中,能極大的提高hadoop環境部署的簡易性。
  本文的部署過程中涵蓋了namenode的HA實現,hadoop管理的解決方案(hadoop配置文件的同步,快速部署腳本等)。
  環境準備
  一共用5臺機器作為硬件環境,全都是centos 6.4
  namenode & resourcemanager 主服務器: 192.168.1.1
  namenode & resourcemanager 備服務器: 192.168.1.2
  datanode & nodemanager 服務器: 192.168.1.100 192.168.1.101 192.168.1.102
  zookeeper 服務器集群(用于namenode 高可用的自動切換): 192.168.1.100 192.168.1.101
  jobhistory 服務器(用于記錄mapreduce的日志): 192.168.1.1
  用于namenode HA的NFS: 192.168.1.100
  環境部署
  一、加入CDH4的YUM倉庫
  1.最好的辦法是把cdh4的包放到自建的yum倉庫中,如何自建yum倉庫請看 自建YUM倉庫
  2.如果不想自建yum倉庫,在所有的hadoop機器執行以下操作加入cdn4的yum倉庫
  wget http://archive.cloudera.com/cdh4/one-click-install/redhat/6/x86_64/cloudera-cdh-4-0.x86_64.rpm
  sudo yum --nogpgcheck localinstall cloudera-cdh-4-0.x86_64.rpm
  二、創建用于namenode HA的NFS服務器
  1.登錄192.168.1.100,執行以下腳本createNFS.sh
  #!/bin/bash
       yum -y install rpc-bind nfs-utils
  mkdir -p /data/nn_ha/
  echo "/data/nn_ha  *(rw,root_squash,all_squash,sync)" >> /etc/exports
  /etc/init.d/rpcbind start
  /etc/init.d/nfs  start
  chkconfig  --level 234 rpcbind   on
  chkconfig  -level 234 nfs  on
  三、Hadoop Namenode & resourcemanager 主服務器 環境部署
  1.登錄192.168.1.1,創建腳本目錄,把腳本從git倉庫復制下來
  yum –y install git
  mkdir –p /opt/
  cd /opt/
  git clone http://git.oschina.net/snake1361222/hadoop_scripts.git
  /etc/init.d/iptables stop
  2.修改hostname
  sh /opt/hadoop_scripts/deploy/AddHostname.sh
  3.修改部署腳本的配置文件
  vim /opt/kingsoft/hadoop_scripts/deploy/config
  #添加master服務器的地址,也就是namenode主服務器
  master="192.168.1.1"
  #添加nfs服務器地址
  nfsserver="192.168.1.100"
  4.編輯hosts文件(此文件會同步到hadoop集群所有機器)
  vim /opt/hadoop_scripts/share_data/resolv_host
  127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
  ::1    localhost localhost.localdomain localhost6 localhost6.localdomain6
  192.168.1.1 nn.dg.hadoop.cn
  192.168.1.2 nn2.dg.hadoop.cn
  192.168.1.100 dn100.dg.hadoop.cn
  192.168.1.101 dn101.dg.hadoop.cn
  192.168.1.102 dn102.dg.hadoop.cn
  5.執行部署腳本CreateNamenode.sh
  sh /opt/hadoop_scripts/deploy/CreateNamenode.sh
  6.搭建saltstack master
  PS:類似于puppet的服務器管理開源工具,比較輕量,在這里用于管理hadoop集群,調度datanode,關于saltstack的詳細請看 SaltStack部署與使用
  a.安裝
  yum -y install salt salt-master
  b.修改配置文件`/etc/salt/master`,下面標志的是需要修改的項
  修改監聽IP:
  interface: 0.0.0.0
  多線程池:
  worker_threads: 5
  開啟任務緩存:(官方描敘開啟緩存能承載5000minion)
  job_cache
  開啟自動認證:
  auto_accept: True
  c.開啟服務
  /etc/init.d/salt-master start
  chkconfig  salt-master on
  7.部署過程中已經把我的sample配置復制過去了,所以只需要修改部分配置文件
  a. /etc/hadoop/conf/hdfs-site.xml (其實就是按實際修改主機名地址)
  <property>
  <name>dfs.namenode.rpc-address.mycluster.ns1</name>
  <value>nn.dg.hadoop.cn:8020</value>
  <description>定義ns1的rpc地址</description>
  </property>
  <property>
  <name>dfs.namenode.rpc-address.mycluster.ns2</name>
  <value>nn2.dg.hadoop.cn:8020</value>
  <description>定義ns2的rpc地址</description>
  </property>
  <property>
  <name>ha.zookeeper.quorum</name>
  <value>dn100.dg.hadoop.cn:2181,dn101.dg.hadoop.cn:2181,dn102.dg.hadoop.cn:2181,</value>
  <description>指定用于HA的ZooKeeper集群機器列表</description>
  </property>
  b. mapred-site.xml
  <property>
  <name>mapreduce.jobhistory.address</name>
  <value>nn.dg.hadoop.cn:10020</value>
  </property>
  <property>
  <name>mapreduce.jobhistory.webapp.address</name>
  <value>nn.dg.hadoop.cn:19888</value>
  </property>
  c. yarn-site.xml
  property>
  <name>yarn.resourcemanager.resource-tracker.address</name>
  <value>nn.dg.hadoop.cn:8031</value>
  </property>
  <property>
  <name>yarn.resourcemanager.address</name>
  <value>nn.dg.hadoop.cn:8032</value>
  </property>
  <property>
  <name>yarn.resourcemanager.scheduler.address</name>
  <value>nn.dg.hadoop.cn:8030</value>
  </property>
  <property>
  <name>yarn.resourcemanager.admin.address</name>
  <value>nn.dg.hadoop.cn:8033</value>
  </property>
  三、Hadoop Namenode & resourcemanager 備服務器 環境部署
  1.登錄192.168.1.2,創建腳本目錄,從主服務器把腳本同步過來
  /etc/init.d/iptables stop
  mkdir &ndash;p /opt/hadoop_scripts
  rsync &ndash;avz 192.168.1.1::hadoop_s   /opt/hadoop_scripts
  2.執行部署腳本CreateNamenode.sh
  sh /opt/hadoop_scripts/deploy/CreateNamenode.sh
  3.同步hadoop配置文件
  rsync &ndash;avz 192.168.1.1::hadoop_conf  /etc/hadoop/conf
  4.部署saltstack客戶端
  sh /opt/hadoop_scripts/deploy/salt_minion.sh
  四、zookeeper服務器集群部署
  zookeeper是一個開源分布式服務,在這里用于namenode 的auto fail over功能。
  1.安裝
  yum install zookeeper zookeeper-server
  2.修改配置文件/etc/zookeeper/conf/zoo.cfg
  maxClientCnxns=50
  # The number of milliseconds of each tick
  tickTime=2000
  # The number of ticks that the initial
  # synchronization phase can take
  initLimit=10
  # The number of ticks that can pass between
  # sending a request and getting an acknowledgement
  syncLimit=5
  # the directory where the snapshot is stored.
  dataDir=/var/lib/zookeeper
  # the port at which the clients will connect
  clientPort=2181
  #這里指定zookeeper集群內的所有機器,此配置集群內機器都是一樣的
  server.1=dn100.dg.hadoop.cn :2888:3888
  server.2=dn101.dg.hadoop.cn:2888:3888
  3.指定當前機器的id,并開啟服務
  #譬如當前機器是192.168.1.100(dn100.dg.hadoop.cn),它是server.1,id是1,SO:
  echo "1" >  /var/lib/zookeeper/myid
  chown -R zookeeper.zookeeper /var/lib/zookeeper/
  service zookeeper-server init
  /etc/init.d/zookeeper-server start
  chkconfig zookeeper-server on
  #如此類推,部署192.168.1.101
  五、datanode & nodemanager 服務器部署
  1.登錄datanode機器,創建腳本目錄,從主服務器把腳本同步過來
  /etc/init.d/iptables stop
  mkdir &ndash;p /opt/hadoop_scripts
  rsync &ndash;avz 192.168.1.1::hadoop_s   /opt/hadoop_scripts
  2.修改hostname,執行部署腳本 CreateDatanode.sh
  sh /opt/hadoop_scripts/deploy/AddHostname.sh
  sh /opt/hadoop_scripts/deploy/CreateDatanode.sh
  集群初始化
  到這里,hadoop集群的環境已部署完畢,現在開始初始化集群
  一、namenode的HA高可用初始化
  1.在namenode主服務器(192.168.1.1)執行zookeeper的failover功能格式化
  sudo &ndash;u hdfs hdfs zkfc &ndash;formatZK
  2.把zookeeper集群服務啟動(192.168.1.100  192.168.1.101 )
  /etc/init.d/zookeeper-server start
  3.把namenode主備服務器的zkfc服務起來(192.168.1.1  192.168.1.2)
  /etc/init.d/hadoop-hdfs-zkfc start
  4.在namenode主服務器(192.168.1.1)格式化hdfs
  #確保是用hdfs用戶格式化
  sudo -u hdfs hadoop namenode &ndash;format
  5.第一次搭建namenode高可用,需要把name.dir下面的數據復制到namenode備服務器(此坑花了好多時間)
  a.在主服務器(192.168.1.1)執行
  tar -zcvPf /tmp/namedir.tar.gz /data/hadoop/dfs/name/
  nc -l 9999 < /tmp/namedir.tar.gz
  b.在備服務器(192.168.1.2)執行
  wget 192.168.1.1:9999 -O /tmp/namedir.tar.gz
  tar -zxvPf /tmp/namedir.tar.gz
  6.主從服務都啟動
  /etc/init.d/hadoop-hdfs-namenode start
  /etc/init.d/hadoop-yarn-resourcemanager start
  7.查看hdfs的web界面
  http://192.168.1.1:9080
  http://192.168.1.2:9080
  #如果在web界面看到兩個namenode都是backup狀態,那就是auto fail over配置不成功
  #查看zkfc日志(/var/log/hadoop-hdfs/hadoop-hdfs-zkfc-nn.dg.s.kingsoft.net.log)
  #查看zookeeper集群的日志(/var/log/zookeeper/zookeeper.log)
  8.現在可以嘗試關閉namenode主服務,看是否能主從切換
  二、hdfs集群開啟
  到這里,所有hadoop部署已完成,現在開始把集群啟動,驗證效果
  1.把所有datanode服務器啟動
  #還記得之前搭建的saltstack管理工具不,現在開始發揮它的作用,登錄saltstack master(192.168.1.1)執行
  salt -v "dn*" cmd.run "/etc/init.d/hadoop-hdfs-datanode start"
  2.查看hdfs web界面,看是否都成為live nodes
  3.如果沒有問題,現在可以嘗試hdfs操作
  #創建一個tmp目錄
  sudo -u hdfs hdfs dfs -mkdir /tmp
  #創建一個10G大小的空文件,計算它的MD5值,并放入hdfs
  dd if=/dev/zero of=/data/test_10G_file bs=1G count=10
  md5sum /data/test_10G_file
  sudo -u hdfs hdfs dfs -put /data/test_10G_file  /tmp
  sudo -u hdfs hdfs dfs -ls /tmp
  #現在可以嘗試關閉一臺datanode,然后把剛才的測試文件拉取出來,再算一次MD5看是否一樣
  sudo -u hdfs hdfs dfs -get /tmp/test_10G_file /tmp/
  md5sum /tmp/test_10G_file
  三、yarn集群開啟
  hadoop除了hdfs用于大數據的分布式存儲,還有更重要的組件,分布式計算(mapreduce)。現在我們來把mapreducev2 yarn集群啟動
  1.在主服務器把resourcemanager服務起來(192.168.1.1)
  /etc/init.d/hadoop-yarn-resourcemanager start
  2.把所有nodemanager服務啟動
  #還是登陸saltstack master,執行
  salt -v "dn*" cmd.run "/etc/init.d/hadoop-yarn-nodemanager start"
  3.查看yarn 任務追蹤界面(http://192.168.1.1:9081/),看是否所有nodes都已加入
  4.hadoop自帶有基準測試的mapreduce實例,我們利用它來測試yarn環境是否正常
  #TestDFSIO測試HDFS的讀寫性能,寫10個文件,每個文件1G.
  su hdfs -
  hadoop jar /usr/lib/hadoop-mapreduce/hadoop-mapreduce-client-jobclient-2.0.0-cdh4.2.1-tests.jar TestDFSIO  -write -nrFiles 10 -fileSize 1000
  #Sort測試MapReduce
  ##向random-data目錄輸出數據
  hadoop jar /usr/lib/hadoop-mapreduce/hadoop-mapreduce-examples.jar randomwriter  random-data
  ##運行sort程序
  hadoop jar /usr/lib/hadoop-mapreduce/hadoop-mapreduce-examples.jar sort random-data sorted-data
  ##驗證sorted-data 文件是否排好序
  hadoop jar /usr/lib/hadoop-mapreduce/hadoop-mapreduce-client-jobclient-2.0.0-cdh4.2.1-tests.jar testmapredsort -sortInput random-data
  -sortOutput sorted-data
  總結
  在折騰hadoop集群的部署是還是遇到了很多坑,打算下篇寫自己所遭遇的問題。通過本文部署遇到問題的可以聯系一下我,互相交流一下。當然也歡迎大家一起修改部署的腳本。

標簽: hadoop
主站蜘蛛池模板: 2020久久天天躁狠狠躁夜夜 | 日韩欧美五区 | 四虎影视久久久免费 | 亚洲人成网站观看在线播放 | av国产传媒精品免费 | 一本加勒比hezyo无码专区 | 中文字幕精品久久一二三区红杏 | 99热精国产这里只有精品 | 两个人看的www高清免费视频中文 | 久久久久亚洲AV无码尤物 | 欧洲女人牲交性开放视频 | yyyyyy高清成人观看免费 | 含着她的花蒂啃到高潮在线观看 | 成人网站国产99 | 狠狠色狠狠爱综合蜜芽五月 | 久草综合在线视频 | 亚洲成AV人片一区二区密柚 | 娇软高h哭宫交双性怀孕攻失忆 | 久久精品天天中文字幕人妻 | 涩涩爱97 | 中文日产无乱码av在线观 | 久久久久无码专区亚洲AV | 少妇寂寞找男按摩师性M | 婷婷成人基地 | 日韩久久网 | 少妇高潮不断出白浆AV | 人与物videos另类 | 日韩AV一国产AV一中文字慕 | 国产精品日本亚洲欧美 | 国产特黄级AAAAA片免 | 色欲AV亚洲A片永久无码精品 | 免费A级毛片无码蜜芽欣赏网 | 亚洲VA在线VA天堂VA欧美VA | 国内a级毛片免费观看品善网 | 日韩人妻无码精品无码中文字幕 | 日韩一区二区视频在线 | video喷出白浆 | 亚洲欧美中文日韩v在线观看不卡 | 91黄色片免费看 | 欧美精品XXXX | 少妇激情艳情综合小视频 |