Spark及Hadoop环境装配(2)-网络配置

如果有条件的同学,请使用自己部署的DNS服务,如无,则配置/etc/hosts文件,并不影响使用实际效果。

    1. 核心网络节点
      hdfs-namenode
      spark-master
      mr-master
      yarn-master
    2. 子网络节点为各个节点进行命名,并配置hosts。

      各个的hosts应当一致并分发到各个节点上

    3.  Master到各个节点之间的免密登录配置,注意第一次登录时需要输入ssh指纹

 

 


知识共享许可协议
只要你遵守许可协议条款,
你就可以在任何媒介以任何形式复制、发行本作品:
1. 您必须标注:附带链接到原文的声明转自RebieKong’s Blog。
2. 您不得将本作品用于商业目的。
3. 您不得基于本文进行创作任何衍生作品。