在centos上整合hdfs(hadoop分布式文件系統)與yarn(資源調度器)通常需要遵循以下步驟:
第一步:安裝Hadoop
首先,在centos中安裝Hadoop。以下是基礎安裝流程:
下載Hadoop
wget https://archive.apache.org/dist/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz tar -xzvf hadoop-3.3.1.tar.gz -C /usr/local/
設置環境變量
編輯/etc/profile.d/hadoop.sh文件,加入如下內容:
export HADOOP_HOME=/usr/local/hadoop-3.3.1 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
之后使配置生效:
source /etc/profile.d/hadoop.sh
配置Hadoop
修改$HADOOP_HOME/etc/hadoop/hadoop-env.sh文件,指定Java路徑:
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk
調整$HADOOP_HOME/etc/hadoop/core-site.xml文件,配置HDFS:
<configuration><property><name>fs.defaultFS</name><value>hdfs://localhost:9000</value></property></configuration>
更新$HADOOP_HOME/etc/hadoop/hdfs-site.xml文件,設定HDFS副本數量等參數:
<configuration><property><name>dfs.replication</name><value>1</value></property></configuration>
編輯$HADOOP_HOME/etc/hadoop/yarn-site.xml文件,配置YARN:
<configuration><property><name>yarn.resourcemanager.hostname</name><value>localhost</value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property></configuration>
修改$HADOOP_HOME/etc/hadoop/mapred-site.xml文件,配置MapReduce:
<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property></configuration>
第二步:格式化HDFS
初次啟動HDFS前,需執行格式化操作:
hdfs namenode -format
第三步:啟動Hadoop集群
開啟HDFS和YARN服務:
start-dfs.sh start-yarn.sh
第四步:確認集群狀態
查看HDFS和YARN的狀態:
jps
理想情況下,你將看到這些進程:
- NameNode
- DataNode
- SecondaryNameNode
- ResourceManager
- NodeManager
第五步:瀏覽Web界面
利用瀏覽器訪問HDFS和YARN的Web界面以確認集群運行狀況:
- HDFS: https://www.php.cn/link/b9d0cdbab65a298d077a7b9794f97cd5
- YARN: https://www.php.cn/link/0d88763f1847f6cefc78c651ecc42cdf
第六步:運行簡單MapReduce任務
可以執行以下命令運行一個基礎的MapReduce任務來檢測集成效果:
hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.1.jar wordcount /input /output
保證/input目錄已存在且包含一些文本文件。
按照上述步驟,你應該能在CentOS上順利完成HDFS與YARN的集成。如遇問題,可查閱日志文件獲取詳細信息。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
THE END