共计 817 个字符,预计需要花费 3 分钟才能阅读完成。
这篇文章主要为大家展示了“Hadoop 怎么实现集群搭建”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让丸趣 TV 小编带领大家一起研究并学习一下“Hadoop 怎么实现集群搭建”这篇文章吧。
主要环境:
CentOS6.4
JDK 1.6
Hadoop 1.2.1
使用三台机器进行搭建。
Master(NameNode、SecondaryNameNode、JobTracker):10.0.0.13
Slave(DataNode、TaskTracker):10.0.0.15
Slave(DataNode、TaskTracker):10.0.0.16
1. 三台机器都配置 /etc/hosts 文件
2. 配置 ssh 免密码连接,在每台机器上均运行 ssh-keygen -t rsa , 之后将每台机器生成的
id_rsa.pub 合并为 authorized_keys, 并复制到每台机器上
3. 配置 hadoop 目录下的 conf/hadoop-env.sh 中的 java 环境变量
4. 修改 hdfs-site.xml 修改 hdfs 中数据块要复制多少份
5. 修改 mapred-site.xml 配置 jobtracker
6. 修改 core-site.xml 指定数据目录(使用 mkdir 创建 /usr/hadoop/tmp 目录)
7. 修改 masters 和 slaves
8. 使用 scp 命令将 hadoop 目录复制到各个节点
9. 并在每个节点配置 hadoop 环境变量(编辑 /etc/profile 立即生效 source /etc/profile)
10. 格式化
11. 启动 hadoop 运行 start-all.sh
12. 最后使用 jps 验证是否启动相应 java 进程
Master:
Slave:
以上是“Hadoop 怎么实现集群搭建”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注丸趣 TV 行业资讯频道!