C语言字符串拼接

FPGA | 基本数字逻辑单元Verilog HDL描述(一)

  返回  

关于hadoop(hdfs)高可用(ha)的配置步骤

2021/8/20 18:34:08 浏览:

hadoop3.0以后,支持搭建多个namenode,而hadoop2.0版本只支持2个namenode,搭建步骤总结如下:

1.配置core-site.xml

<configuration>

<!-- 把多个NameNode的地址组装成一个集群mycluster  集群名可以随意起,要跟hdfs-site.xml对应上-->

  <property>

    <name>fs.defaultFS</name>

    <value>hdfs://mycluster</value>

  </property>

<!-- 指定hadoop运行时产生文件的存储目录 -->

  <property>

    <name>hadoop.tmp.dir</name>

    <value>/opt/ha/hadoop-3.1.3/data</value>

  </property>

</configuration>

2.配置hdfs-site.xml 

<!-- NameNode数据存储目录 -->

  <property>

    <name>dfs.namenode.name.dir</name>

    <value>file://${hadoop.tmp.dir}/name</value>

  </property>

<!-- DataNode数据存储目录 -->

  <property>

    <name>dfs.datanode.data.dir</name>

    <value>file://${hadoop.tmp.dir}/data</value>

  </property>

<!-- JournalNode数据存储目录 -->

  <property>

    <name>dfs.journalnode.edits.dir</name>

    <value>${hadoop.tmp.dir}/jn</value>

  </property>

<!-- 完全分布式集群名称 与core-site.xml中的集群名一样 -->

  <property>

    <name>dfs.nameservices</name>

    <value>mycluster</value>

  </property>

<!-- 集群中NameNode节点都有哪些 -->

  <property>

    <name>dfs.ha.namenodes.mycluster</name>

    <value>nn1,nn2,nn3</value>

  </property>

<!-- NameNode的RPC通信地址 8020是namenode默认端口号-->

  <property>

    <name>dfs.namenode.rpc-address.mycluster.nn1</name>

    <value>hadoop102:8020</value>

  </property>

  <property>

    <name>dfs.namenode.rpc-address.mycluster.nn2</name>

    <value>hadoop103:8020</value>

  </property>

  <property>

    <name>dfs.namenode.rpc-address.mycluster.nn3</name>

    <value>hadoop104:8020</value>

  </property>

<!-- NameNode的http通信地址 -->

  <property>

    <name>dfs.namenode.http-address.mycluster.nn1</name>

    <value>hadoop102:9870</value>

  </property>

  <property>

    <name>dfs.namenode.http-address.mycluster.nn2</name>

    <value>hadoop103:9870</value>

  </property>

  <property>

    <name>dfs.namenode.http-address.mycluster.nn3</name>

    <value>hadoop104:9870</value>

  </property>

<!-- 指定NameNode元数据在JournalNode上的存放位置 -->

  <property>

<name>dfs.namenode.shared.edits.dir</name>

<value>qjournal://hadoop102:8485;hadoop103:8485;hadoop104:8485/mycluster</value>

  </property>

<!-- 访问代理类:client用于确定哪个NameNode为Active -->

  <property>

    <name>dfs.client.failover.proxy.provider.mycluster</name>

    <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

  </property>

<!-- 配置隔离机制,即同一时刻只能有一台服务器对外响应 -->

  <property>

    <name>dfs.ha.fencing.methods</name>

    <value>sshfence</value>

  </property>

<!-- 使用隔离机制时需要ssh秘钥登录-->

  <property>

    <name>dfs.ha.fencing.ssh.private-key-files</name>

    <value>/home/atguigu/.ssh/id_rsa</value>

  </property>

</configuration>

3.配置zookeeper,主要使用zookeeper里的临时文件夹,确保多个namenode中的active,防止脑裂,当一个namenode获得active会对上个active执行kill -9(zookeeper只需要集群配置为hadoop相同即可)

4.在随机一台namenode的节点上进行格式化 hdfs namenode -format

5.同步到其他的namenode的节点上hdfs namenode -bootstrapStandby

6.启动zookeeper集群

7.使用start-dfs.sh启动hdfs

hdfs的高可以到这里就配置好了

联系我们

如果您对我们的服务有兴趣,请及时和我们联系!

服务热线:18288888888
座机:18288888888
传真:
邮箱:888888@qq.com
地址:郑州市文化路红专路93号