如何搭建ubuntu版hadoop集群

60次阅读
没有评论

共计 4785 个字符,预计需要花费 12 分钟才能阅读完成。

本篇内容主要讲解“如何搭建 ubuntu 版 hadoop 集群”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让丸趣 TV 小编来带大家学习“如何搭建 ubuntu 版 hadoop 集群”吧!

用到的工具:vmware、hadoop-2.7.2.tar、jdk-8u65-linux-x64.tar、ubuntu-16.04-desktop-amd64.iso

1、  在 vmware 上安装 ubuntu-16.04-desktop-amd64.iso

单击“创建虚拟机”è选择“典型(推荐安装)”è单击“下一步”

è点击完成

修改 /etc/hostname

vim hostname

保存退出

修改 etc/hosts

127.0.0.1 localhost
192.168.1.100 s100
192.168.1.101 s101
192.168.1.102 s102
192.168.1.103 s103
192.168.1.104 s104
192.168.1.105 s105

配置 nat 网络

查看 window10 下的 ip 地址及网关

配置 /etc/network/interfaces

#interfaces(5) file used by ifup(8) and ifdown(8)
#the loopback network interface
auto lo
iface lo inet loopback
#iface eth0 inet static
iface eth0 inet static
address 192.168.1.105
netmask 255.255.255.0
gateway 192.168.1.2
dns-nameservers 192.168.1.2
auto eth0

也可以通过图形化界面配置

配置好后执行 ping www.baidu.com 看网络是不是已经起作用

当网络通了之后,要想客户机宿主机之前进行 ping 通,只需要做以下配置

修改宿主机 c:\windows\system32\drivers\etc\hosts 文件

文件内容

127.0.0.1 localhost
192.168.1.100 s100
192.168.1.101 s101
192.168.1.102 s102
192.168.1.103 s103
192.168.1.104 s104
192.168.1.105 s105

安装 ubuntu 163 14.04 源

$ cd /etc/apt/
$ gedit sources.list

切记在配置之前做好备份

deb http://mirrors.163.com/ubuntu/ trusty main restricted universe multiverse
deb http://mirrors.163.com/ubuntu/ trusty-security main restricted universe multiverse
deb http://mirrors.163.com/ubuntu/ trusty-updates main restricted universe multiverse
deb http://mirrors.163.com/ubuntu/ trusty-proposed main restricted universe multiverse
deb http://mirrors.163.com/ubuntu/ trusty-backports main restricted universe multiverse
deb-src http://mirrors.163.com/ubuntu/ trusty main restricted universe multiverse
deb-src http://mirrors.163.com/ubuntu/ trusty-security main restricted universe multiverse
deb-src http://mirrors.163.com/ubuntu/ trusty-updates main restricted universe multiverse
deb-src http://mirrors.163.com/ubuntu/ trusty-proposed main restricted universe multiverse
deb-src http://mirrors.163.com/ubuntu/ trusty-backports main restricted universe multiverse

更新

$ apt-get update

在家根目录下新建 soft 文件夹   mkdir soft

但是建立完成后,该文件属于 root 用户,修改权限   chown enmoedu:enmoedu soft/

安装共享文件夹

将该文件放到桌面,右键,点击“extract here”

切换到 enmoedu 用户的家目录,cd /desktop/vmware-tools-distrib

执行./vmware-install.pl 文件

enter 键执行  

安装完成

拷贝 hadoop-2.7.2.tar、jdk-8u65-linux-x64.tar 到 enmoedu 家目录下的 /downloads

$  sudo cp hadoop-2.7.2.tar.gz jdk-8u65-linux-x64.tar.gz ~/downloads/

分别解压 hadoop-2.7.2.tar、jdk-8u65-linux-x64.tar 到当前目录

$  tar -zxvf hadoop-2.7.2.tar.gz
$ tar -zxvf jdk-8u65-linux-x64.tar.gz
$ cp -r hadoop-2.7.2 /soft
$ cp -r jdk1.8.0_65/ /soft

建立链接文件

$ ln -s hadoop-2.7.2/ hadoop
$ ln -s jdk1.8.0_65/ jdk
$ ls -ll

配置环境变量

$ vim /etc/environment
java_home=/soft/jdk
hadoop_home=/soft/hadoop
path= /usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/soft/jdk/bin:/soft/hadoop/bin:/soft/hadoop/sbin

让环境变量生效

$ source environment

检验安装是否成功

$ java –version
$ hadoop version

配置 /soft/hadoop/etc/hadoop/  下的配置文件

[core-site.xml]

configuration 
  property 
  name fs.defaultfs /name 
  value hdfs://s100/ /value 
  /property 
  property 
  name hadoop.tmp.dir /name 
  value /home/enmoedu/hadoop /value 
  /property 
 /configuration

[hdfs-site.xml]

configuration 
  property 
  name dfs.replication /name 
  value 3 /value 
  /property 
  property 
  name dfs.namenode.secondary.http-address /name 
  value s104:50090 /value 
  description 
 the secondary namenode http server address and port.
  /description 
 /property 
 /configuration

[mapred-site.xml]

configuration 
  property 
  name mapreduce.framework.name /name 
  value yarn /value 
  /property 
 /configuration

[yarn-site.xml]

configuration 
  property 
  name yarn.resourcemanager.hostname /name 
  value s100 /value 
  /property 
  property 
  name yarn.nodemanager.aux-services /name 
  value mapreduce_shuffle /value 
  /property 
 /configuration

配置 ssh 无密码登录

安装 ssh

$ sudo apt-get install ssh

生成秘钥对

在 enmoedu 家目录下执行

$ ssh-keygen -t rsa -p   -f ~/.ssh/id_rsa

导入公钥数据到授权库中

cat ~/.ssh/id_rsa.pub   ~/.ssh/authorized_keys

测试 localhost 成功后,将 master 节点上的供钥拷贝到授权库中

其中 root 一样执行即可

$ ssh localhost

从 master 节点上测试是否成功。

修改 slaves 文件

[/soft/hadoop/etc/hadoop/slaves]

s101
s105

其余机器,通过克隆,修改 hostname 和网络配置即可

塔建完成后

格式化 hdfs 文件系统

$ hadoop namenode –format

启动所有进程

start-all.sh

自定义脚本 xsync(在集群中分发文件)

[/usr/local/bin]

循环复制文件到所有节点的相同目录下。

[usr/local/bin/xsync]

#!/bin/bash
pcount=$#
if (( pcount 1 ));then
 echo no args;
 exit;
p1=$1;
fname=`basename $p1`
#echo $fname=$fname;
pdir=`cd -p $(dirname $p1) ; pwd`
#echo pdir=$pdir
cuser=`whoami`
for (( host=101;host host=host+1 )); do
 echo ------------s$host----------------
 rsync -rvl $pdir/$fname $cuser@s$host:$pdir
done

测试

xsync hello.txt

自定义脚本 xcall(在所有主机上执行相同的命令)

[usr/local/bin]

#!/bin/bash
pcount=$#
if (( pcount 1 ));then
 echo no args;
 exit;
echo -----------localhost----------------
for (( host=101;host host=host+1 )); do
 echo ------------s$host-------------
 ssh s$host $@
done

测试 xcall rm –rf hello.txt

集群搭建完成后,测试次运行以下命令

touch a.txt
gedit a.txt
hadoop fs -mkdir -p /user/enmoedu/data
hadoop fs -put a.txt /user/enmoedu/data
hadoop fs -lsr /

也可以进入浏览器查看

到此,相信大家对“如何搭建 ubuntu 版 hadoop 集群”有了更深的了解,不妨来实际操作一番吧!这里是丸趣 TV 网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!

正文完
 
丸趣
版权声明:本站原创文章,由 丸趣 2023-07-15发表,共计4785字。
转载说明:除特殊说明外本站除技术相关以外文章皆由网络搜集发布,转载请注明出处。
评论(没有评论)