在Centos7系统上进行安装,采用hadoop3.2.1
环境准备
IP | 名称 | 功能 |
---|---|---|
192.168.9.214 | node-1 | ResourceManager NameNode DataNode NodeManager |
192.168.9.215 | node-2 | SecondaryNameNode NodeManager DataNode |
192.168.9.216 | node-3 | NodeManager DataNode |
修改机器名
1 | hostnamectl set-hostname node-1/node-2/node-3 |
设置HOSTS
1 | 192.168.9.214 node-1 |
配置免密码登陆
1 | # 在node-1中: |
关闭防火墙、selinux
1 | systemctl stop firewalld |
安装JDK
1 | tar xvf jdk-8u221-linux-x64.tar.gz |
安装配置Hadoop
解压
1 | tar xvf hadoop-3.2.1.tar.gz |
修改配置
配置文件全部放在/usr/local/hadoop/etc/hadoop目录下
hadoop-env.sh
增加JDK路径
1 | export JAVA_HOME=/usr/local/jdk1.8.0_221 |
core-site.xml
1 | <configuration> |
1 | # 其他机器也要创建 |
hdfs-site.xml
1 | <configuration> |
1 | # 其他机器也要创建 |
mapred-site.xml
1 | <configuration> |
yarn-site.xml
1 | <configuration> |
slaves
删除内容添加机器:
1 | node-1 |
workers
删除内容添加机器, 这份配置是允许哪些机器启动data节点:
1 | node-1 |
同步文件到其他服务器
1 | rsync -avzP /uar/local/hadoop root@node-2:/usr/local/ |
启动集群
格式化dhfs
格式化只能在初始启动之前启动一次,是对文件系统进行一些初始化操作,因为此时hdfs还不存在;在初始化完成之后,集群启动,之后不能再进行初始化
1 | hdfs namenode -format |
启动服务
1 | cd /usr/local/hadoop |
检查服务
1 | [root@node-1 hadoop]# jps |
测试
1 | hdfs dfs -ls / |
备注
- ResourceManager页面:http://192.168.9.214:8088/
- Hadoop HDFS文件操作:https://segmentfault.com/a/1190000002672666