Hadoop 2.x中怎么搭建伪分布式环境

70次阅读
没有评论

共计 3380 个字符,预计需要花费 9 分钟才能阅读完成。

这期内容当中丸趣 TV 小编将会给大家带来有关 Hadoop 2.x 中怎么搭建伪分布式环境,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。

1、修改 hadoop-env.sh、yarn-env.sh、mapred-env.sh

方法:使用 notepad++(beifeng 用户) 打开这三个文件

添加代码:export JAVA_HOME=/opt/modules/jdk1.7.0_67

2、修改 core-site.xml、hdfs-site.xml、yarn-site.xml、mapred-site.xml 配置文件

1)修改 core-site.xml

configuration 
 property 
 name fs.defaultFS /name 
 value hdfs://Hadoop-senior02.beifeng.com:8020 /value 
 /property 
 property 
 name hadoop.tmp.dir /name 
 value /opt/modules/hadoop-2.5.0/data /value 
 /property 
 /configuration

2)修改 hdfs-site.xml

configuration 
 property 
 name dfs.replication /name 
 value 1 /value 
 /property 
 property 
 name dfs.namenode.http-address /name 
 value Hadoop-senior02.beifeng.com:50070 /value 
 /property 
 /configuration

3)修改 yarn-site.xml

configuration 
 property 
 name yarn.nodemanager.aux-services /name 
 value mapreduce_shuffle /value 
 /property 
 property 
 name yarn.resourcemanager.hostname /name 
 value Hadoop-senior02.beifeng.com /value 
 /property 
 property 
 name yarn.log-aggregation-enable /name 
 value true /value 
 /property 
 property 
 name yarn.log-aggregation.retain-seconds /name 
 value 86400 /value 
 /property 
 /configuration

4)修改 mapred-site.xml

configuration 
 property 
 name mapreduce.framework.name /name 
 value yarn /value 
 /property 
 property 
 name mapreduce.jobhistory.webapp.address /name 
 value 0.0.0.0:19888 /value 
 /property 
 /configuration

3、启动 hdfs

1)格式化 namenode:$ bin/hdfs namenode -format

2)启动 namenode:$sbin/hadoop-daemon.sh start namenode

3)启动 datanode:$sbin/hadoop-daemon.sh start datanode

4)hdfs 监控 web 页面:http://hadoop-senior02.beifeng.com:50070

4、启动 yarn

1)启动 resourcemanager:$sbin/yarn-daemon.sh start resourcemanager

2)启动 nodemanager:sbin/yarn-daemon.sh start nodemanager

3)yarn 监控 web 页面:http://hadoop-senior02.beifeng.com:8088

5、测试 wordcount jar 包

1)定位路径:/opt/modules/hadoop-2.5.0

2)代码测试:bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /input/sort.txt /output6/

运行过程:

16/05/08 06:39:13 INFO client.RMProxy: Connecting to ResourceManager at Hadoop-senior02.beifeng.com/192.168.241.130:8032
16/05/08 06:39:15 INFO input.FileInputFormat: Total input paths to process : 1
16/05/08 06:39:15 INFO mapreduce.JobSubmitter: number of splits:1
16/05/08 06:39:15 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1462660542807_0001
16/05/08 06:39:16 INFO impl.YarnClientImpl: Submitted application application_1462660542807_0001
16/05/08 06:39:16 INFO mapreduce.Job: The url to track the job: http://Hadoop-senior02.beifeng.com:8088/proxy/application_1462660542807_0001/
16/05/08 06:39:16 INFO mapreduce.Job: Running job: job_1462660542807_0001
16/05/08 06:39:36 INFO mapreduce.Job: Job job_1462660542807_0001 running in uber mode : false
16/05/08 06:39:36 INFO mapreduce.Job: map 0% reduce 0%
16/05/08 06:39:48 INFO mapreduce.Job: map 100% reduce 0%
16/05/08 06:40:04 INFO mapreduce.Job: map 100% reduce 100%
16/05/08 06:40:04 INFO mapreduce.Job: Job job_1462660542807_0001 completed successfully
16/05/08 06:40:04 INFO mapreduce.Job: Counters: 49

3)结果查看:bin/hdfs dfs -text /output6/par*

运行结果:

hadoop 2
jps 1
mapreduce 2
yarn 1

6、MapReduce 历史服务器

1)启动:sbin/mr-jobhistory-daemon.sh start historyserver

2)web ui 界面:http://hadoop-senior02.beifeng.com:19888

7、hdfs、yarn、mapreduce 功能

1)hdfs:分布式文件系统,高容错性的文件系统,适合部署在廉价的机器上。

hdfs 是一个主从结构,分为 namenode 和 datanode,其中 namenode 是命名空间,datanode 是存储空间,datanode 以数据块的形式进行存储,每个数据块 128M

2)yarn:通用资源管理系统,为上层应用提供统一的资源管理和调度。

yarn 分为 resourcemanager 和 nodemanager,resourcemanager 负责资源调度和分配,nodemanager 负责数据处理和资源

3)mapreduce:MapReduce 是一种计算模型,分为 Map(映射)和 Reduce(归约)。

map 将每一行数据处理后,以键值对的形式出现,并传给 reduce;reduce 将 map 传过来的数据进行汇总和统计。

上述就是丸趣 TV 小编为大家分享的 Hadoop 2.x 中怎么搭建伪分布式环境了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注丸趣 TV 行业资讯频道。

正文完
 
丸趣
版权声明:本站原创文章,由 丸趣 2023-08-04发表,共计3380字。
转载说明:除特殊说明外本站除技术相关以外文章皆由网络搜集发布,转载请注明出处。
评论(没有评论)