#### 相关命令 - hadoop-daemon.sh start journalnode 或 hdfs --daemon start journalnode - hadoop-daemon.sh start namenode 或 hdfs --daemon start namenode - hdfs namenode -format 第一个namenode格式化 - hdfs namenode -bootstrapStandby 第二、三个namenode格式化 - hdfs zkfc -formatZK 格式化zkfc ,仅在nn1执行 - hdfs --daemon start zkfc 在 nn1、nn2、nn3执行 >`core-site.xml` ```xml fs.defaultFS hdfs://ns1 默认文件服务的协议和NS逻辑名称,和hdfs-site.xml里的对应此配置替代了1.0里的fs.default.name hadoop.tmp.dir /data/tmp 数据存储目录 hadoop.proxyuser.root.groups hadoop hdfs dfsadmin –refreshSuperUserGroupsConfiguration, yarn rmadmin –refreshSuperUserGroupsConfiguration 使用这两个命令不用重启就能刷新 hadoop.proxyuser.root.hosts localhost 本地代理 ha.zookeeper.quorum nn1:2181,nn2:2181,nn3:2181 HA使用的zookeeper地址 ``` >`hdfs-site.xml` ```xml dfs.namenode.name.dir /data/namenode namenode本地文件存放地址 dfs.nameservices ns1 提供服务的NS逻辑名称,与core-site.xml里的对应 dfs.ha.namenodes.ns1 nn1,nn2,nn3 列出该逻辑名称下的NameNode逻辑名称 dfs.namenode.rpc-address.ns1.nn1 nn1:9000 指定NameNode的RPC位置 dfs.namenode.http-address.ns1.nn1 nn1:50070 指定NameNode的Web Server位置 dfs.namenode.rpc-address.ns1.nn2 nn2:9000 指定NameNode的RPC位置 dfs.namenode.http-address.ns1.nn2 nn2:50070 指定NameNode的Web Server位置 dfs.namenode.rpc-address.ns1.nn3 nn3:9000 指定NameNode的RPC位置 dfs.namenode.http-address.ns1.nn3 nn3:50070 指定NameNode的Web Server位置 dfs.namenode.handler.count 77 namenode的工作线程数 dfs.namenode.shared.edits.dir qjournal://nn1:8485;nn2:8485;nn3:8485/ns1 指定用于HA存放edits的共享存储,通常是namenode的所在机器 dfs.journalnode.edits.dir /data/journaldata/ journaldata服务存放文件的地址 ipc.client.connect.max.retries 10 namenode和journalnode的链接重试次数10次 ipc.client.connect.retry.interval 10000 重试的间隔时间10s dfs.ha.fencing.methods sshfence 指定HA做隔离的方法,缺省是ssh,可设为shell,稍后详述 dfs.ha.fencing.ssh.private-key-files /home/hadoop/.ssh/id_rsa 杀死命令脚本的免密配置秘钥 dfs.client.failover.proxy.provider.ns1 org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider 指定客户端用于HA切换的代理类,不同的NS可以用不同的代理类以上示例为Hadoop 2.0自带的缺省代理类 dfs.client.failover.proxy.provider.auto-ha org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider dfs.ha.automatic-failover.enabled true dfs.datanode.data.dir /data/datanode datanode本地文件存放地址 dfs.replication 3 文件复本数 dfs.namenode.datanode.registration.ip-hostname-check false dfs.client.use.datanode.hostname true dfs.datanode.use.datanode.hostname true ```