Hadoop 集群启动、初体验


1. 启动方式

要启动 Hadoop 集群,需要启动 HDFS 和 YARN 两个集群。

注意: 首次启动 HDFS 时,必须对其进行格式化操作。 本质上是一些清理和准备工作,因为此时的 HDFS 在物理上还是不存在的。

hdfs namenode–format 
或者 
hadoop namenode –format

1.1. 单节点逐个启动

在主节点上使用以下命令启动 HDFS NameNode:

hadoop-daemon.sh start namenode

在每个从节点上使用以下命令启动 HDFS DataNode:

hadoop-daemon.sh start datanode
hadoop-daemons.sh start datanode 结合 slaves 文件启动所有 DataNode。

在主节点上使用以下命令启动 YARN ResourceManager:

yarn-daemon.sh start resourcemanager

在每个从节点上使用以下命令启动 YARN nodemanager:

yarn-daemon.sh start nodemanager
yarn-daemons.sh start nodemanager 结合 slaves 启动所有 nodemanager。

以上脚本位于$HADOOP_PREFIX/sbin/目录下。

如果想要停止某个节点上某个角色,只需要把命令中的 start 改为 stop 即可。

1.2. 脚本一键启动

如果配置了 etc/hadoop/slaves 和 ssh 免密登录,则可以使用程序脚本启动所有 Hadoop 两个集群的相关进程,在主节点所设定的机器上执行。

hdfs: $HADOOP_PREFIX/sbin/start-dfs.sh
yarn: $HADOOP_PREFIX/sbin/start-yarn.sh

停止集群:

stop-dfs.sh、 stop-yarn.sh

2. 集群 web-ui

一旦 Hadoop 集群启动并运行, 可以通过 web-ui 进行集群查看,如下所述:

NameNode http://nn_host:port/ 默认 50070.
ResourceManager http://rm_host:port/ 默认 8088.

1.png
2.png

Hadoop 初体验

3.1. HDFS 使用

从 Linux 本地上传一个文本文件到 hdfs 的/test/input 目录下

hadoop fs -mkdir -p /wordcount/input
hadoop fs -put /root/somewords.txt /test/input

3.2. 运行 mapreduce 程序

在 Hadoop 安装包的 hadoop-2.7.4/share/hadoop/mapreduce 下有官方自带的 mapreduce 程序。 我们可以使用如下的命令进行运行测试。

示例程序 jar:

hadoop-mapreduce-examples-2.7.4.jar

计算圆周率:

 hadoop jar hadoop-mapreduce-examples-2.7.4.jar pi 20 50

关于圆周率的估算,感兴趣的可以查询资料 Monte Carlo 方法来计算 Pi 值。

友情提醒 : 如果电脑的cpu比较差的话,可以将后面的两个数字适当的改小一点,否则的话会报connect refused异常

标签: none

相关文章推荐

添加新评论,含*的栏目为必填