在Centos7系统上进行安装,采用hadoop3.2.1
环境准备
| IP | 名称 | 功能 | 
|---|---|---|
| 192.168.9.214 | node-1 | ResourceManager NameNode DataNode NodeManager  | 
| 192.168.9.215 | node-2 | SecondaryNameNode NodeManager DataNode  | 
| 192.168.9.216 | node-3 | NodeManager DataNode  | 
修改机器名
1  | hostnamectl set-hostname node-1/node-2/node-3  | 
设置HOSTS
1  | 192.168.9.214 node-1  | 
配置免密码登陆
1  | # 在node-1中:  | 
关闭防火墙、selinux
1  | systemctl stop firewalld  | 
安装JDK
1  | tar xvf jdk-8u221-linux-x64.tar.gz  | 
安装配置Hadoop
解压
1  | tar xvf hadoop-3.2.1.tar.gz  | 
修改配置
配置文件全部放在/usr/local/hadoop/etc/hadoop目录下
hadoop-env.sh
增加JDK路径
1  | export JAVA_HOME=/usr/local/jdk1.8.0_221  | 
core-site.xml
1  | <configuration>  | 
1  | # 其他机器也要创建  | 
hdfs-site.xml
1  | <configuration>  | 
1  | # 其他机器也要创建  | 
mapred-site.xml
1  | <configuration>  | 
yarn-site.xml
1  | <configuration>  | 
slaves
删除内容添加机器:
1  | node-1  | 
workers
删除内容添加机器, 这份配置是允许哪些机器启动data节点:
1  | node-1  | 
同步文件到其他服务器
1  | rsync -avzP /uar/local/hadoop root@node-2:/usr/local/  | 
启动集群
格式化dhfs
格式化只能在初始启动之前启动一次,是对文件系统进行一些初始化操作,因为此时hdfs还不存在;在初始化完成之后,集群启动,之后不能再进行初始化
1  | hdfs namenode -format  | 
启动服务
1  | cd /usr/local/hadoop  | 
检查服务
1  | [root@node-1 hadoop]# jps  | 
测试
1  | hdfs dfs -ls /  | 
备注
- ResourceManager页面:http://192.168.9.214:8088/
 - Hadoop HDFS文件操作:https://segmentfault.com/a/1190000002672666