1. nn1 서버 hosts 파일 편집 (nn1에서만 실행)
- nn1 서버로 접속해서 hosts 파일에 각 서버의 Private IP와 hostname을 등록한다.
ssh nn1
# hosts 파일 편집
sudo vim /etc/hosts
# 아래 내용으로 추가 후 저장 (!!!!!PRIVATE IP!!!!!)
172.31.41.239 nn1
172.31.47.45 nn2
172.31.46.222 dn1
172.31.35.24 dn2
172.31.32.75 dn3
2. 각 인스턴스 서버의 호스트 이름 설정
sudo hostnamectl set-hostname nn1
# ssh 접속
ssh nn2
sudo hostnamectl set-hostname nn2
exit
ssh dn1
sudo hostnamectl set-hostname dn1
exit
ssh dn2
sudo hostnamectl set-hostname dn2
exit
ssh dn3
sudo hostnamectl set-hostname dn3
3. 모든 인스턴스에 Hosts 파일 복제 (nn1에서만 실행)
# 복제
cat /etc/hosts | ssh nn2 "sudo sh -c 'cat >/etc/hosts'"
cat /etc/hosts | ssh dn1 "sudo sh -c 'cat >/etc/hosts'"
cat /etc/hosts | ssh dn2 "sudo sh -c 'cat >/etc/hosts'"
cat /etc/hosts | ssh dn3 "sudo sh -c 'cat >/etc/hosts'"
4. nn1에서만 실행
# 복제
cat $HADOOP_HOME/etc/hadoop/hdfs-site.xml | ssh nn2 "sudo sh -c 'cat >$HADOOP_HOME/etc/hadoop/hdfs-site.xml'"
'빅데이터 분석 환경 구축' 카테고리의 다른 글
09. Hadoop, Yarn 클러스터 실행 (0) | 2022.04.25 |
---|---|
08. Zookeeper 클러스터 실행 (0) | 2022.04.25 |
06. AMI 생성 및 인스턴스 복제 (0) | 2022.04.25 |
05. Ubuntu에서 Zookeeper 설치 및 환경설정 (0) | 2022.04.25 |
04. Ubuntu에서 Spark 설치 및 환경설정 (0) | 2022.04.25 |