共计 4642 个字符,预计需要花费 12 分钟才能阅读完成。
这篇文章主要介绍了 Linux 如何安装 Hadoop 和 Hbase,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让丸趣 TV 小编带着大家一起了解一下。
三台 CentOS7 主机
192.168.122.101 hdfs1
192.168.122.102 hdfs2
192.168.122.103 hdfs3
其中 hdfs1
为主节点,其他为从节点。
安装配置三台都是一样的,做 ssh 免密码验证,如果只要在主节点 hdfs1
操作,只做 hdfs1
到其他节点信任即可。
如果三台都互相信任,这样子在哪台都可以操作是一样的。
修改内核参数
vim /etc/sysctl.conf
net.ipv4.tcp_syn_retries = 1 net.ipv4.tcp_synack_retries = 1 net.ipv4.tcp_keepalive_time = 600 net.ipv4.tcp_keepalive_probes = 3 net.ipv4.tcp_keepalive_intvl =15 net.ipv4.tcp_retries2 = 5 net.ipv4.tcp_fin_timeout = 2 net.ipv4.tcp_max_tw_buckets = 65536 net.ipv4.tcp_tw_recycle = 1 net.ipv4.tcp_tw_reuse = 1 net.ipv4.tcp_max_orphans = 32768 net.ipv4.tcp_syncookies = 1 net.ipv4.tcp_max_syn_backlog = 16384 net.ipv4.tcp_wmem = 8192 131072 16777216 net.ipv4.tcp_rmem = 32768 131072 16777216 net.ipv4.tcp_mem = 786432 1048576 1572864 net.ipv4.ip_local_port_range = 1024 65000 net.ipv4.ip_conntrack_max = 65536 net.ipv4.netfilter.ip_conntrack_max=65536 net.ipv4.netfilter.ip_conntrack_tcp_timeout_established=180 net.core.somaxconn = 16384 net.core.netdev_max_backlog = 16384 vm.max_map_count = 262144
修改句柄限制
vim /etc/security/limits.conf
* soft noproc 655360 * hard noproc 655360 * soft nofile 655360 * hard nofile 655360
设置主机名解析
在不同的节点,设置对应的主机名
hostnamectl set-hostname hdfs1
添加 hosts 记录,也可以使用 dns 进行解析,比较灵活。
vim /etc/hosts
192.168.122.101 hdfs1
192.168.122.102 hdfs2 192.168.122.103 hdfs3
创建用户和目录
useradd hadoop passwd hadoop mkdir -p /apps/ mkdir -pv /data/hdfs/hadoop mkdir -pv /data/hdfs/hbase chown hadoop.hadoop /data/hadoop /data/hbase
设置 ssh 免密码
su - hadoop ssh-keygen ssh-copy-id hadoop@hdfs1
ssh-copy-id hadoop@hdfs1
ssh-copy-id hadoop@hdfs1
ssh-keygen 产生密钥的时候一直回车就可以完成创建
ssh-copy-id 的时候需要输入 hadoop 的密码
下载 jdk
下载地址:
www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html
需要登陆之后才能下载
tar zxvf jdk-8u271-linux-x64.tar.gz mv jdk-8u271-linux-x64 /apps/ cd /apps/ ln -s jdk1.8.0_271 jdk cd - if grep # modify by script /etc/profile /dev/null 2 then echo alread set JAVA_HOME else cp /etc/profile /etc/profile_bak$(date +%Y%m%d%H%M%S) cat /etc/profile EOF # modify by script export JAVA_HOME=/apps/jdk
export PATH=\${JAVA_HOME}/bin:/apps/hadoop/bin:/apps/hbase/bin:\$PATH EOF fi
下载 hadoop 和 hbase
mirrors.aliyun.com/apache/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz
archive.apache.org/dist/hbase/1.3.5/hbase-1.3.5-bin.tar.gz
tar zxvf hadoop-2.7.7.tar.gz tar zxvf hbase-1.3.5-bin.tar.gz mv hadoop-2.7.7 hbase-1.3.5 /apps/ cd /apps ln -s hadoop-2.7.7 hadoop ln -s hbase-1.3.5 hbase cd -
配置 hadoop
1. 配置 namenod
vim /apps/hadoop/etc/hadoop/core-site.xml
添加内容
configuration property !-- 指定 namenode 通信地址 -- name fs.defaultFS /name value hdfs://hdfs1
:9000 /value /property !-- 指定 hadoop 运行时产生文件的存储路径 -- property name hadoop.tmp.dir /name value /data/hdfs/hadoop/tmp /value /property /configuration
2. 配置 namenode 和 datanode
vim /apps/hadoop/etc/hadoop/hdfs-site.xml
在文件后面添加内容
configuration !-- 设置 namenode 的 http 通讯地址 -- property name dfs.namenode.http-address /name value hdfs1
:50070 /value /property !-- 设置 secondarynamenode 的 http 通讯地址 -- property name dfs.namenode.secondary.http-address /name value hdfs2:50070 /value /property !-- 设置 namenode 存放的路径 -- property name dfs.namenode.name.dir /name value /data/hdfs/hadoop/name /value /property !-- 设置 hdfs 副本数量 -- property name dfs.replication /name value 2 /value /property !-- 设置 datanode 存放的路径 -- property name dfs.datanode.data.dir /name value /data/hdfs/hadoop/datanode /value /property property name dfs.permissions /name value false /value /property /configuration
3. 配置环境变量
vim /apps/hadoop/etc/hadoop/hadoo-env.sh
修改 JAVA_HOME
export JAVA_HOME=/apps/jdk
也可以根据具体的需求设置堆栈之类的参数
4. 设置主节点
vim /apps/hadoop/etc/hadoop/master
添加主节点,一般使用主机名
hdfs1
5. 设置从节点
vim /apps/hadoop/etc/hadoop/slave
添加从节点,一般使用主机名
hdfs1
hdfs2 hdfs3
配置 hbase
1. 配置环境变量
vim /apps/hbase/conf/hbase-env.sh
修改 JAVA_HOME 变量即可
export JAVA_HOME=/apps/jdk
也可以根据具体的需求设置堆栈之类的参数
2. 设置 hadoop 和 zookeeper 等信息
vim /apps/hbase/conf/hbase-site.xml
添加内容
configuration property name hbase.rootdir /name !-- hbase 存放数据目录 -- value hdfs://hdfs1
:9000/hbase/hbase_db /value !-- 端口要和 Hadoop 的 fs.defaultFS 端口一致 -- /property property name hbase.cluster.distributed /name !-- 是否分布式部署 -- value true /value /property property name hbase.zookeeper.quorum /name !-- zookooper 服务启动的节点,只能为奇数个 -- valuehdfs1
,hdfs2,hdfs3 /value /property property !--zookooper 配置、日志等的存储位置,必须为以存在 -- name hbase.zookeeper.property.dataDir /name value /data/hdfs/hbase/zookeeper /value /property property !--hbase web 端口 -- name hbase.master.info.port /name value 16610 /value /property /configuration
vim /apps/hbase/conf/regionservers
hdfs1
hdfs2 hdfs3
启动测试
su - hadoop /apps/hadoop/sbin/start-all.sh /apps/hbase/bin/start-hbase.sh
感谢你能够认真阅读完这篇文章,希望丸趣 TV 小编分享的“Linux 如何安装 Hadoop 和 Hbase”这篇文章对大家有帮助,同时也希望大家多多支持丸趣 TV,关注丸趣 TV 行业资讯频道,更多相关知识等着你来学习!