docker搭建hadoop,【轉】hadoop機架感知

 2023-10-15 阅读 28 评论 0

摘要:原文鏈接 http://www.cnblogs.com/ggjucheng/archive/2013/01/03/2843015.html docker搭建hadoop、背景 ??? 分布式的集群通常包含非常多的機器,由于受到機架槽位和交換機網口的限制,通常大型的分布式集群都會跨好幾個機架,由多個機架上的機器共同組成一

原文鏈接 http://www.cnblogs.com/ggjucheng/archive/2013/01/03/2843015.html

docker搭建hadoop、背景

??? 分布式的集群通常包含非常多的機器,由于受到機架槽位和交換機網口的限制,通常大型的分布式集群都會跨好幾個機架,由多個機架上的機器共同組成一個分布式集群。機架內的機器之間的網絡速度通常都會高于跨機架機器之間的網絡速度,并且機架之間機器的網絡通信通常受到上層交換機間網絡帶寬的限制。

??? 具體到Hadoop集群,由于hadoop的HDFS對數據文件的分布式存放是按照分塊block存儲,每個block會有多個副本(默認為3),并且為了數據的安全和高效,所以hadoop默認對3個副本的存放策略為:

第一個block副本放在和client所在的node里(如果client不在集群范圍內,則這第一個node是隨機選取的)。

第二個副本放置在與第一個節點不同的機架中的node中(隨機選擇)。

第三個副本似乎放置在與第一個副本所在節點同一機架的另一個節點上

如果還有更多的副本就隨機放在集群的node里。

?

這樣的策略可以保證對該block所屬文件的訪問能夠優先在本rack下找到,如果整個rack發生了異常,也可以在另外的rack上找到該block的副本。這樣足夠的高效,并且同時做到了數據的容錯。

但是,hadoop對機架的感知并非是自適應的,亦即,hadoop集群分辨某臺slave機器是屬于哪個rack并非是只能的感知的,而是需要hadoop的管理者人為的告知hadoop哪臺機器屬于哪個rack,這樣在hadoop的namenode啟動初始化時,會將這些機器與rack的對應信息保存在內存中,用來作為對接下來所有的HDFS的寫塊操作分配datanode列表時(比如3個block對應三臺datanode)的選擇datanode策略,做到hadoop allocate block的策略:盡量將三個副本分布到不同的rack。 ??? 接下來的問題就是:通過什么方式能夠告知hadoop namenode哪些slaves機器屬于哪個rack?以下是配置步驟。

?

配置

??? 默認情況下,hadoop的機架感知是沒有被啟用的。所以,在通常情況下,hadoop集群的HDFS在選機器的時候,是隨機選擇的,也就是說,很有可能在寫數據時,hadoop將第一塊數據block1寫到了rack1上,然后隨機的選擇下將block2寫入到了rack2下,此時兩個rack之間產生了數據傳輸的流量,再接下來,在隨機的情況下,又將block3重新又寫回了rack1,此時,兩個rack之間又產生了一次數據流量。在job處理的數據量非常的大,或者往hadoop推送的數據量非常大的時候,這種情況會造成rack之間的網絡流量成倍的上升,成為性能的瓶頸,進而影響作業的性能以至于整個集群的服務。 ??? 要將hadoop機架感知的功能啟用,配置非常簡單,在namenode所在機器的hadoop-site.xml配置文件中配置一個選項:

<property><name>topology.script.file.name</name><value>/path/to/RackAware.py</value>
</property

這個配置選項的value指定為一個可執行程序,通常為一個腳本,該腳本接受一個參數,輸出一個值。接受的參數通常為某臺datanode機器的ip地址,而輸出的值通常為該ip地址對應的datanode所在的rack,例如”/rack1”。Namenode啟動時,會判斷該配置選項是否為空,如果非空,則表示已經用機架感知的配置,此時namenode會根據配置尋找該腳本,并在接收到每一個datanode的heartbeat時,將該datanode的ip地址作為參數傳給該腳本運行,并將得到的輸出作為該datanode所屬的機架,保存到內存的一個map中。

??? 至于腳本的編寫,就需要將真實的網絡拓樸和機架信息了解清楚后,通過該腳本能夠將機器的ip地址正確的映射到相應的機架上去。一個簡單的實現如下:

復制代碼
#!/usr/bin/python  
#-*-coding:UTF-8 -*-  
import sys  rack = {"hadoopnode-176.tj":"rack1",  "hadoopnode-178.tj":"rack1",  "hadoopnode-179.tj":"rack1",  "hadoopnode-180.tj":"rack1",  "hadoopnode-186.tj":"rack2",  "hadoopnode-187.tj":"rack2",  "hadoopnode-188.tj":"rack2",  "hadoopnode-190.tj":"rack2",  "192.168.1.15":"rack1",  "192.168.1.17":"rack1",  "192.168.1.18":"rack1",  "192.168.1.19":"rack1",  "192.168.1.25":"rack2",  "192.168.1.26":"rack2",  "192.168.1.27":"rack2",  "192.168.1.29":"rack2",  }  if __name__=="__main__":  print "/" + rack.get(sys.argv[1],"rack0")  
復制代碼

由于沒有找到確切的文檔說明 到底是主機名還是ip地址會被傳入到腳本,所以在腳本中最好兼容主機名和ip地址,如果機房架構比較復雜的話,腳本可以返回如:/dc1/rack1 類似的字符串。

執行命令:chmod +x RackAware.py

重啟namenode,如果配置成功,namenode啟動日志中會輸出:

2011-12-21 14:28:44,495 INFO org.apache.hadoop.net.NetworkTopology: Adding a new node: /rack1/192.168.1.15:50010  

?

網絡拓撲機器之間的距離

這里基于一個網絡拓撲案例,介紹在復雜的網絡拓撲中hadoop集群每臺機器之間的距離

?

?

有了機架感知,NameNode就可以畫出上圖所示的datanode網絡拓撲圖。D1,R1都是交換機,最底層是datanode。則H1的rackid=/D1/R1/H1,H1的parent是R1,R1的是D1。這些rackid信息可以通過topology.script.file.name配置。有了這些rackid信息就可以計算出任意兩臺datanode之間的距離。

distance(/D1/R1/H1,/D1/R1/H1)=0  相同的datanode
distance(/D1/R1/H1,/D1/R1/H2)=2  同一rack下的不同datanode
distance(/D1/R1/H1,/D1/R1/H4)=4  同一IDC下的不同datanode
distance(/D1/R1/H1,/D2/R3/H7)=6  不同IDC下的datanode

?

參考 https://issues.apache.org/jira/secure/attachment/12345251/Rack_aware_HDFS_proposal.pdf

?????? http://blog.csdn.net/hjwang1/article/details/6592714

?????? http://blog.csdn.net/azhao_dn/article/details/7091258

轉載于:https://www.cnblogs.com/ihongyan/p/4853274.html

版权声明:本站所有资料均为网友推荐收集整理而来,仅供学习和研究交流使用。

原文链接:https://hbdhgg.com/4/139135.html

发表评论:

本站为非赢利网站,部分文章来源或改编自互联网及其他公众平台,主要目的在于分享信息,版权归原作者所有,内容仅供读者参考,如有侵权请联系我们删除!

Copyright © 2022 匯編語言學習筆記 Inc. 保留所有权利。

底部版权信息