CentOS7安装配置Hadoop2.7.3

2026-03-20 19:43:10

1、准备Linux环境

     查看本地主机名:hostname

     更改主机名:hostname 新名

     如:hostname localhost

2、关闭防火墙

#1、关闭防火墙:

#1、关闭防火墙:

sudo systemctl stop firewalld.service

#2、关闭开机启动:

sudo systemctl disable firewalld.service

3、安装JDK和Hadoop

1、在/usr/local/目录下创建两个文件夹hadoop/java,里面用于存放jdk和hadoop解压文件(结构如图所示)2、解压(可以用FlashFXP解压好上传)

解压指令:

tar -xzvf file.tar.gz

CentOS7安装配置Hadoop2.7.3

1、将JDK和hadoop添加到环境变量(重要):

2、打开:vim /etc/profile

注意:如果没装vim可以安装一下(指令:# yum -y install vim*)

export JAVA_HOME=/usr/local/java/2、掌握在单机上运行Hadoop的方法。

export HADOOP_HOME=/usr/local/hadoop/

export JAVA_BIN=$JAVA_HOME/bin

export JAVA_LIB=$JAVA_HOME/lib

export CLASSPATH=.:$JAVA_LIB/tools.jar:$JAVA_LIB/dt.jar

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

///////////////////////////////////分割线//////////////////////////////

保存完后记得执行指令是之生效

source /etc/profile

3、检查环境变量是否正确

输入指令:JAVAC

              hadoop

显示结果如下:

CentOS7安装配置Hadoop2.7.3

1、集群、单节点模式都需要用到 SSH免密 登陆(类似于远程登陆,你可以登录某台 Linux 主机,并且在上面运行命令)所以需要配置SSH

2、#安装vim

yum -y install vim*

# 安装openssh-server

yum install -y openssl openssh-server

ssh localhost

exit                           # 退出刚才的 ssh localhost

cd ~/.ssh/                     # 若没有该目录,请先执行一次ssh localhost

ssh-keygen -t rsa              # 会有提示,都按回车就可以

cat ./id_rsa.pub >> ./authorized_keys  # 加入授权

CentOS7安装配置Hadoop2.7.3

3、到此单机模式hadoop已经配置完毕!!!

1、修改:core-site.xml

vim ./etc/hadoop/core-site.xml

<configuration>

        <property>

             <name>hadoop.tmp.dir</name>

             <value>file:/usr/local/hadoop/tmp</value>

             <description>Abase for other temporary directories.</description>

        </property>

        <property>

             <name>fs.defaultFS</name>

             <value>hdfs://localhost:9000</value>

        </property>

</configuration>

2、修改:hdfs-site.xml

vim ./etc/hadoop/hdfs-site.xml

<configuration>

        <property>

             <name>dfs.replication</name>

             <value>1</value>

        </property>

        <property>

             <name>dfs.namenode.name.dir</name>

             <value>file:/usr/local/hadoop/tmp/dfs/name</value>

        </property>

        <property>

             <name>dfs.datanode.data.dir</name>

             <value>file:/usr/local/hadoop/tmp/dfs/data</value>

        </property>

</configuration>

3、#配置完成后,执行 NameNode 的格式化:

./bin/hdfs namenode -format

#接着开启 NameNode 和 DataNode 守护进程。

./sbin/start-dfs.sh

CentOS7安装配置Hadoop2.7.3

CentOS7安装配置Hadoop2.7.3

1、新建两个文件(1.text、2.text)

          1.txt     //输入的是hello hadoop

          2.txt     //这里输入的是hello hadoop hello mapreduce

2、#运行Hadoop自带wordcount程序

./bin/hdfs dfs -mkdir -p /user/hadoop   //在hdfs上创建文件目录

./bin/hdfs dfs -mkdir /input            //创建文件夹input作为HDFS的输入文件夹

./bin/hdfs dfs -put /usr/local/hadoop/input/*.txt /input    //将本地文件上传到hdfs

(可以使用./bin/hdfs dfs -ls /input查看input里的文件)

./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-3.0.0-alpha2.jar wordcount input output   //运行自带的wordcount程序

./bin/hdfs dfs -cat output /* 

CentOS7安装配置Hadoop2.7.3

CentOS7安装配置Hadoop2.7.3

3、到此,Hadoop伪分布式配置完毕!

猜你喜欢