hadoop学习系列--环境安装

07-21 1621阅读

先说踩的坑:刚开始学习,使用mac本安装单机hadoop,遭遇mac自身安全限制,到时dfs启动报错,解决后又出现新的问题,部分所需端口无法申请到,导致hadoop启动时报。

hadoop学习系列--环境安装
(图片来源网络,侵删)

最终决定,使用虚拟机,在centos7下安装单机hadoop。

记录下踩得的:在解压hadoop包时所用的用户,和后续操作使用的用户最好使用一个,否则会报权限相关问题。

先要安装java环境,并配置环境变量:/etc/profile。配置完后一定要重新加载环境变量:source /etc/profile。

接下里将解压的hadoop所存放的根目录配置在环境变量中。

然后配置 hadoop/etc/hadoop/hdfs-site.xml、core-site.xml、yarn-site.xml和mapre-site.xml.个文件配置分别如下:

hdfs-site.xml

                fs.defaultFS

                hdfs://127.0.0.1:9000              //如果其他主机也要访问,那就将127.0.0.1:9000改为:你的网卡IP:9000,或者改为0.0.0.0:9000

       

       

                hadoop.tmp.dir

               

                /usr/local/hadoop/hadoop-3.3.4/hadoopdata

       

       

                hadoop.native.lib

                

                false

       

hdfs-site.xml

   
       dfs.replication
       1
   

yarn-site.xml

               yarn.resourcemanager.hostname
               127.0.0.1
       
       
               yarn.resourcemanager.webapp.address
               
               0.0.0.0:8088
       
       
               yarn.nodemanager.aux-services
               
               mapreduce_shuffle
       

etc/hadoop/hadoop-env.sh

# 将当前用户 root 赋给下面这些变量

export HDFS_NAMENODE_USER=root

export HDFS_DATANODE_USER=root

export HDFS_SECONDARYNAMENODE_USER=root

export YARN_RESOURCEMANAGER_USER=root

export YARN_NODEMANAGER_USER=root

# JAVA的绝对路径,可以使用whereis java查看

export JAVA_HOME=/usr/local/java/jdk1.8.0_341

# Hadoop的安装路径下的etc/hadoop的绝对路径

export HADOOP_CONF_DIR=/usr/local/hadoop/hadoop-3.3.4/etc/hadoop

详细操作参考:Centos7.X安装单机Hadoop(3.3.4版本) - 粉色纽扣 - 博客园 (cnblogs.com)

VPS购买请点击我

文章版权声明:除非注明,否则均为主机测评原创文章,转载或复制请以超链接形式并注明出处。

目录[+]