hadoop0.20.2集群配置.doc

  1. 1、本文档共9页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
hadoop0.20.2集群配置

搭建一个hadoop集群包括: 1个namenode个datanonde vi /etc/sysconfig/network 添加内容: NETWORKING yes HOSTNAME master 85配置 vi /etc/sysconfig/network 添加内容: NETWORKING yes HOSTNAME slaves1 86配置 vi /etc/sysconfig/network 添加内容: NETWORKING yes HOSTNAME slaves2 vi /etc/hosts 要将文件的前两行注释掉 注释当前主机的信息 并在文件中添加所有hadoop集群的主机信息 把hosts文件copy到其余2台服务器 scp /etc/hosts?root@85:/etc/ 然后分别执行 /bin/hostsname hostsname 例如:master上执行 /bin/hostsname master,使之生效。 配置无密码ssh各服务器 在执行操作: ssh-keygen?-t?rsa,然后一直回车 在//.ssh/目录下生成了两个文件?id_rsa?和?id_rsa.pub cp?id_rsa.pub?authorized_keys 先所有authorized_keys合并 cat?~/.ssh/authorized_keys?|?ssh?root@67?cat? ?~/.ssh/authorized_keys 然后复制分发到其他服务器(若没有.ssh文件夹需要自行创建)scp?authorized_keys?root@85:/root/.ssh/ 验证能否无密码ssh,在master服务器上执行操作:注意:第一次可能会提示输入yes?or?no,之后就可以直接ssh到其他主机上去了。 rpm -qa|grep jdk 卸载jdk:rpm -e --nodeps java-1.6.0-openjdk-javadoc--3.0.el6.x86_64 安装JDK(三台机器都要安装) 安装在同一位置/opt/java/jdk1.7.0_72 下载JDK 解压JDK : tar -zxvf /opt/java/jdk-7u72-linux-x64.gz 配置环境变量: 编辑profile文件:vi /etc/profile 在profile文件末尾添加以下代码: export JAVA_HOME /opt/java/jdk1.7.0_72 export JRE_HOME $JAVA_HOME/jre export PATH $JAVA_HOME/bin:$PATH export CLASSPATH .:$JAVA_HOME/lib:$JRE_HOME/lib 使得刚才编辑的文件生效:source /etc/profile 测试是否安装成功:java –version 安装hadoop 在master主机上配置hadoop 配置的位置:/opt/hadoop/hadoop-0.20.2 下载hadoop 解压hadoop:tar -zxvf /opt/hadoop/hadoop-0.20.2.tar.gz 配置配置文件hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xmlslaves、masters在hadoop-0.20.2/conf目录下,具体配置如下 hadoop-env.sh文件中加上jdk路径export?JAVA_HOME /usr/java/jdk1.6.0_21 core-site.xml文件: hdfs-site.xml文件: mapred-site.xml文件: slaves 在该文件中添加 slaves slaves2 masters 在该文件中添加master 分发配置文件将主节点上配置好的程序文件,复制到分发到各个从节点上scp?-r?/opt/hadoop/hadoop-0.20.2?: /opt/hadoop/ scp?-r?/opt/hadoop/hadoop-0.20.2?slaves2: /opt/hadoop/ 配置环境变量:(所有主机) 编辑profile文件:vi /etc/profile 在profile文件末尾添加以下代码: export HADOOP_HOME /opt/hadoop/hadoop-0.20.2 export PATH $PATH:$HADOOP_HOME/bin 使得刚才编辑的文件生效:source /etc/profile 启动hadoop 进入hadoop文件夹,用如下命令格式化:./bin/hadoop?namenode?-format 注意:上面只要出现“success

文档评论(0)

dfd7997 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档