Hadoop3.1.4分布式搭建
在搭建Hadoop 3.1.4的分布式环境时,需要遵循以下步骤:
- 准备环境:确保所有节点上安装了Java环境,并配置好SSH免密登录。
配置集群:
- 配置
core-site.xml
- 配置
hdfs-site.xml
- 配置
mapred-site.xml
(如果使用MapReduce) - 配置
yarn-site.xml
- 配置
workers
文件(包含所有DataNode节点)
- 配置
- 分发配置到所有节点。
- 格式化NameNode:
hdfs namenode -format
启动HDFS和YARN:
- 启动NameNode:
hadoop-daemon.sh start namenode
- 启动DataNode:
hadoop-daemon.sh start datanode
- 启动SecondaryNameNode:
hadoop-daemon.sh start secondarynamenode
- 启动ResourceManager:
yarn-daemon.sh start resourcemanager
- 启动NodeManager:
yarn-daemon.sh start nodemanager
- 启动NameNode:
以下是一个基本的配置示例:
core-site.xml
:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://mycluster</value>
</property>
</configuration>
hdfs-site.xml
:
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>mycluster-nn-secondary:50090</value>
</property>
</configuration>
mapred-site.xml
(如果使用MapReduce):
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
yarn-site.xml
:
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
workers
:
mycluster-datanode1
mycluster-datanode2
mycluster-datanode3
确保替换上述配置中的mycluster
, mycluster-nn-secondary
, mycluster-datanode1
, mycluster-datanode2
, mycluster-datanode3
为实际的集群名称和节点名称。
这些是基本的配置,具体配置可能需要根据实际网络环境、安全设置和性能要求进行调整。
评论已关闭