01.集群規劃
版本
jdk 1.8
hadoop 2.7.1
centos7
02.機器準備(每臺機器都得做對應操作)
修改主機名
hostnamectl set-hostname hadoop01
配置映射關係
vim /etc/hosts
在下面添加三臺機器的的ip 主機名
關閉防火牆
systemctl stop firewalld (臨時關閉)
systemctl disable firewalld (永久關閉)
03.配置免登錄
在每臺機器執行命令ssh-keygen -t rsa,然後連續按4下回車鍵
NameNode和ResourceManager免登錄每臺機器,每臺機器免登自己
使用命令ssh-copy-id主機名
在hadoop01上執行:
ssh-copy-id hadoop01
ssh-copy-id hadoop02
ssh-copy-id hadoop03
在hadoop02上執行:
ssh-copy-id hadoop01
ssh-copy-id hadoop02
ssh-copy-id hadoop03
在hadoop03上執行:
ssh-copy-id hadoop03
04.上傳並解壓安裝包
使用rz命令或者其他工具上傳,如果沒有rz命令先安裝 yum install lrzsz -y
安裝包:上一篇文章分享了
安裝目錄:/opt
tar -zxvf jdk-8u171-linux-x64.tar.gz
tar -zxvf hadoop-2.7.1.tar.gz
解壓後刪除安裝包
rm -rf jdk-8u171-linux-x64.tar.gz hadoop-2.7.1.tar.gz
修改文件夾名字
mv hadoop-2.7.1/ hadoop
mv jdk1.8.0_171/ jdk
05.配置hadoop的配置文件
cd /opt/hadoop/etc/hadoop
vim hadoop-env.sh
修改JAVA_HOME為自己的jdk的路徑,如果環境變量配置在/etc/profile.d文件夾下直接改為$JAVA_HOME,如果環境變量配置在/etc/profile,那麼就寫成安裝jdk的絕對路徑
vim core-site.xml
vim hdfs-site.xml
mv mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
vim yarn-site.xml
編輯節點配置
vim slaves
06.配置環境變量
vim /etc/profile.d/env.sh
pid的目錄默認是/tmp,pid可能會被刪除,到時候Hadoop的一些關閉服務命令就無法使用了,所以配置成自己的目錄
ssh hadoop01
敲hadoop fs 命令驗證是否配置成功
07.發給其他機器
scp -r /opt/jdk 其他機器主機名:/opt
scp -r /opt/hadoop 其他機器主機名:/opt
scp -r /etc/profile.d/env.sh 其他機器主機名:/etc/profile.d
08.格式化
在NameNode節點執行 hadoop namenode -format
注意執行過程有沒有報錯,如果報錯根據錯誤修改
09.啟動服務
在NameNode節點執行start-dfs.sh
在ResourceManger節點執行start-yarn.sh
啟動歷史日誌mr-jobhistory-daemon.sh start historyserver
jps查看服務
10.測試
上傳文件到hdfs
執行mapreduce
結果都不報錯就成功了。
這只是初步搭建,後面會根據需求繼續添加配置和優化。