@
目录
- 单点启动
- 群起集群
- 查看是否启动成功
- 集群启动/停止方式总结
单点启动
1、 如果集群是第一次启动,需要格式化NameNode
hadoop namenode -format
1、 在某一台机器上启动NameNode
节点
hadoop-daemon.sh start namenode
1、 在其他机器上启动DataNode
节点
hadoop-daemon.sh start datanode
漫长的启动时间…………
思考:每次都一个一个节点启动,如果节点数增加到1000个怎么办?
早上来了开始一个一个节点启动,到晚上下班刚好完成,下班?
群起集群
1、 先配置各个节点之间的SSH免密登陆,请看我之前的文章:
SSH实现免密登陆
2、 配置slaves
文件路径:$HADOOP_HOME/etc/hadoop/slaves
在文件中增加以下内容:
hadoop101
hadoop102
hadoop103
这些名称是我的三台机器的主机名,各位请改成自己的主机名!
注意:该文件中添加的内容结尾不允许有空格,文件中不允许有空行。
1、 如果集群是第一次启动,需要格式化NameNode
,这里使用的命令是hdfs
,不是单点启动时的hadoop
hdfs namenode -format
1、 启动HDFS
start-dfs.sh
1、 启动YARN
start-yarn.sh
查看是否启动成功
web端查看SecondaryNameNode
浏览器中输入:http://主机名或IP地址:50090/status.html
集群启动/停止方式总结
1、 各个服务组件逐一启动/停止
- 分别启动/停止HDFS组件
hadoop-daemon.sh start / stop namenode / datanode / secondarynamenode
- 启动/停止YARN
yarn-daemon.sh start / stop resourcemanager / nodemanager
1、 各个模块分开启动/停止(配置ssh是前提)常用
- 整体启动/停止HDFS
start-dfs.sh / stop-dfs.sh
- 整体启动/停止YARN
start-yarn.sh / stop-yarn.sh
1、 HDFS、YARN同时启动、停止
start-all.sh / stop-all.sh