五、DataNode工作机制

匿名 (未验证) 提交于 2019-12-02 23:04:29

DataNode工作机制

  • 1)一个数据块在datanode上以文件形式存储在磁盘上,包括两个文件,一个是数据本身,一个是元数据包括数据块的长度,块数据的校验和,以及时间戳。
  • 2)DataNode启动后向namenode注册,通过后,周期性(1小时)的向namenode上报所有的块信息。
  • 3)心跳是每3秒一次,心跳返回结果带有namenode给该datanode的命令如复制块数据到另一台机器,或删除某个数据块。如果超过10分钟没有收到某个datanode的心跳,则认为该节点不可用。
  • 4)集群运行中可以安全加入和退出一些机器

数据完整性

  • 1)当DataNode读取block的时候,它会计算checksum
  • 2)如果计算后的checksum,与block创建时值不一样,说明block已经损坏。
  • 3)client读取其他DataNode上的block.
  • 4)datanode在其文件创建后周期验证checksum

掉线时限参数设置

  • datanode进程死亡或者网络故障造成datanode无法与namenode通信,namenode不会立即把该节点判定为死亡,要经过一段时间,这段时间暂称作超时时长。HDFS默认的超时时长为10分钟+30秒。如果定义超时时间为timeout,则超时时长的计算公式为:
  • timeout = 2 * dfs.namenode.heartbeat.recheck-interval + 10 * dfs.heartbeat.interval。
  • 而默认的dfs.namenode.heartbeat.recheck-interval 大小为5分钟,dfs.heartbeat.interval默认为3秒。
  • 需要注意的是hdfs-site.xml 配置文件中的heartbeat.recheck.interval的单位为毫秒,dfs.heartbeat.interval的单位为秒。
<property>     <name>dfs.namenode.heartbeat.recheck-interval</name>     <value>300000</value> </property> <property>     <name> dfs.heartbeat.interval </name>     <value>3</value> </property> 

DataNode的目录结构

  • 和namenode不同的是,datanode的存储目录是初始阶段自动创建的,不需要额外格式化。
1)在/opt/module/hadoop-2.7.2/data/tmp/dfs/data/current这个目录下查看版本号
[hadoop@cslave0 tmp]$ pwd /opt/module/hadoop-2.7.2/data/tmp [hadoop@cslave0 tmp]$ cd dfs/data/current/ [hadoop@cslave0 current]$ pwd /opt/module/hadoop-2.7.2/data/tmp/dfs/data/current [hadoop@cslave0 current]$ ll total 8 drwx------ 4 hadoop hadoop 4096 Dec 27 11:32 BP-2037347169-192.168.1.101-1545339010401 -rw-rw-r-- 1 hadoop hadoop  229 Dec 27 11:32 VERSION [hadoop@cslave0 current]$ cat VERSION  #Thu Dec 27 11:32:35 CST 2018 storageID=DS-11fbdfbf-65f0-4d1c-9be6-0c8dc4cc7657 clusterID=CID-66e15935-299b-440a-8ae0-30380a092ee1 cTime=0 datanodeUuid=9ac8a83b-51e9-42b9-86b4-4041383fd754 storageType=DATA_NODE layoutVersion=-56 
  • (1)storageID:存储id号
  • (2)clusterID集群id,全局唯一
  • (3)cTime属性标记了datanode存储系统的创建时间,对于刚刚格式化的存储系统,这个属性为0;但是在文件系统升级之后,该值会更新到新的时间戳。
  • (4)datanodeUuid:datanode的唯一识别码
  • (5)storageType:存储类型
  • (6)layoutVersion是一个负整数。通常只有HDFS增加新特性时才会更新这个版本号。
2)在/opt/module/hadoop-2.7.2/data/tmp/dfs/data/current/BP-97847618-192.168.10.102-1493726072779/current这个目录下查看该数据块的版本号
[hadoop@cslave0 current]$ pwd /opt/module/hadoop-2.7.2/data/tmp/dfs/data/current [hadoop@cslave0 current]$ cd BP-2037347169-192.168.1.101-1545339010401/current/ [hadoop@cslave0 current]$ ll total 16 -rw-rw-r-- 1 hadoop hadoop   20 Dec 27 06:07 dfsUsed drwxrwxr-x 3 hadoop hadoop 4096 Dec 21 08:00 finalized drwxrwxr-x 2 hadoop hadoop 4096 Dec 27 05:39 rbw -rw-rw-r-- 1 hadoop hadoop  132 Dec 27 11:32 VERSION [hadoop@cslave0 current]$ cat VERSION  #Thu Dec 27 11:32:36 CST 2018 namespaceID=413226071 cTime=0 blockpoolID=BP-2037347169-192.168.1.101-1545339010401 layoutVersion=-56 
  • (1)namespaceID:是datanode首次访问namenode的时候从namenode处获取的storageID对每个datanode来说是唯一的(但对于单个datanode中所有存储目录来说则是相同的,也就是说namenode可能不只一个),namenode可用这个属性来区分不同datanode。
  • (2)cTime属性标记了datanode存储系统的创建时间,对于刚刚格式化的存储系统,这个属性为0;但是在文件系统升级之后,该值会更新到新的时间戳。
  • (3)blockpoolID:一个block pool id标识一个block pool,并且是跨集群的全局唯一。当一个新的Namespace被创建的时候(format过程的一部分)会创建并持久化一个唯一ID。在创建过程构建全局唯一的BlockPoolID比人为的配置更可靠一些。NN将BlockPoolID持久化到磁盘中,在后续的启动过程中,会再次load并使用。
  • (4)layoutVersion是一个负整数。通常只有HDFS增加新特性时才会更新这个版本号。
3)在/opt/module/hadoop-2.7.2/data/tmp/dfs/data/current/BP-2037347169-192.168.1.101-1545339010401/current/finalized/subdir0/subdir0这个目录下查看数据块
[hadoop@cslave0 subdir0]$ pwd /opt/module/hadoop-2.7.2/data/tmp/dfs/data/current/BP-2037347169-192.168.1.101-1545339010401/current/finalized/subdir0/subdir0 [hadoop@cslave0 subdir0]$ ll total 224 -rw-rw-r-- 1 hadoop hadoop     46 Dec 21 08:00 blk_1073741825 -rw-rw-r-- 1 hadoop hadoop     11 Dec 21 08:00 blk_1073741825_1001.meta -rw-rw-r-- 1 hadoop hadoop     48 Dec 21 08:03 blk_1073741832 -rw-rw-r-- 1 hadoop hadoop     11 Dec 21 08:03 blk_1073741832_1008.meta ... ... [hadoop@cslave0 subdir0]$ cat blk_1073741825 hadoop yarn hadoop mapreduce  zhangsh zhangyu 

Datanode多目录配置

  • 1)datanode也可以配置成多个目录,每个目录存储的数据不一样。即:数据不是副本
  • 2)具体配置如下:hdfs-site.xml
<property>     <name>dfs.datanode.data.dir</name>     <value>file:///${hadoop.tmp.dir}/dfs/data1,file:///${hadoop.tmp.dir}/dfs/data2</value> </property> 
标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!