#### 相关命令
- hadoop-daemon.sh start journalnode 或 hdfs --daemon start journalnode
- hadoop-daemon.sh start namenode 或 hdfs --daemon start namenode
- hdfs namenode -format 第一个namenode格式化
- hdfs namenode -bootstrapStandby 第二、三个namenode格式化
- hdfs zkfc -formatZK 格式化zkfc ,仅在nn1执行
- hdfs --daemon start zkfc 在 nn1、nn2、nn3执行
>`core-site.xml`
```xml
fs.defaultFS
hdfs://ns1
默认文件服务的协议和NS逻辑名称,和hdfs-site.xml里的对应此配置替代了1.0里的fs.default.name
hadoop.tmp.dir
/data/tmp
数据存储目录
hadoop.proxyuser.root.groups
hadoop
hdfs dfsadmin –refreshSuperUserGroupsConfiguration,
yarn rmadmin –refreshSuperUserGroupsConfiguration
使用这两个命令不用重启就能刷新
hadoop.proxyuser.root.hosts
localhost
本地代理
ha.zookeeper.quorum
nn1:2181,nn2:2181,nn3:2181
HA使用的zookeeper地址
```
>`hdfs-site.xml`
```xml
dfs.namenode.name.dir
/data/namenode
namenode本地文件存放地址
dfs.nameservices
ns1
提供服务的NS逻辑名称,与core-site.xml里的对应
dfs.ha.namenodes.ns1
nn1,nn2,nn3
列出该逻辑名称下的NameNode逻辑名称
dfs.namenode.rpc-address.ns1.nn1
nn1:9000
指定NameNode的RPC位置
dfs.namenode.http-address.ns1.nn1
nn1:50070
指定NameNode的Web Server位置
dfs.namenode.rpc-address.ns1.nn2
nn2:9000
指定NameNode的RPC位置
dfs.namenode.http-address.ns1.nn2
nn2:50070
指定NameNode的Web Server位置
dfs.namenode.rpc-address.ns1.nn3
nn3:9000
指定NameNode的RPC位置
dfs.namenode.http-address.ns1.nn3
nn3:50070
指定NameNode的Web Server位置
dfs.namenode.handler.count
77
namenode的工作线程数
dfs.namenode.shared.edits.dir
qjournal://nn1:8485;nn2:8485;nn3:8485/ns1
指定用于HA存放edits的共享存储,通常是namenode的所在机器
dfs.journalnode.edits.dir
/data/journaldata/
journaldata服务存放文件的地址
ipc.client.connect.max.retries
10
namenode和journalnode的链接重试次数10次
ipc.client.connect.retry.interval
10000
重试的间隔时间10s
dfs.ha.fencing.methods
sshfence
指定HA做隔离的方法,缺省是ssh,可设为shell,稍后详述
dfs.ha.fencing.ssh.private-key-files
/home/hadoop/.ssh/id_rsa
杀死命令脚本的免密配置秘钥
dfs.client.failover.proxy.provider.ns1
org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
指定客户端用于HA切换的代理类,不同的NS可以用不同的代理类以上示例为Hadoop 2.0自带的缺省代理类
dfs.client.failover.proxy.provider.auto-ha
org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
dfs.ha.automatic-failover.enabled
true
dfs.datanode.data.dir
/data/datanode
datanode本地文件存放地址
dfs.replication
3
文件复本数
dfs.namenode.datanode.registration.ip-hostname-check
false
dfs.client.use.datanode.hostname
true
dfs.datanode.use.datanode.hostname
true
```