1、上传Hadoop安装包至linux并解压
tar -zxvf hadoop-2.6.0-cdh5.15.2.tar.gz
安装包:
链接:https://pan.baidu.com/s/1u59OLTJctKmm9YVWr_F-Cg
提取码:0pfj
2、配置免密码登录
生成秘钥:
ssh-keygen -t rsa -P ''
将秘钥写入认证文件:
cd ~/.ssh
cat id_rsa.pub >> ~/.ssh/authorized_keys
修改认证文件权限:
chmod 600 ~/.ssh/authorized_keys
3、配置环境变量
将
Hadoop
加入环境变量
/etc/profile
:
vi /etc/profile
4、修改Hadoop配置文件
1
) 修改hadoop-env.sh
文件
vi /usr/local/hadoop-2.6.0-cdh5.15.2/etc/hadoop/hadoop-env.sh
修改
JAVA_HOME
:(这里要改成你自己linux中的jdk路径)
export JAVA_HOME=/usr/local/jdk1.8.0_181
2
)修改
core-site.xml
文件
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://lcc:9090</value>
</property>
</configuration>
3) 修改
hdfs-site.xml
文件
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop-2.6.0-cdh5.15.2/tmp</value>
</property>
</configuration>
4) 修改mapred-site.xml文件
cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
5
)修改
slaves
文件
vi slaves
改成上面的
lcc(这里就是你的一个主机名,注意要在hosts文件中配置好 ip地址 主机名)
这里配置的是单节点, 指向本机主机名称。
6)修改yarn-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
5、启动Hadoop服务
进入到sbin目录
cd /usr/local/hadoop-2.6.0-cdh5.15.2/sbin/
执行启动脚本
./start-all.sh
上传一个文件, 用于测试:
hdfs dfs -put /usr/local/hadoop-2.6.0-cdh5.15.2/etc/hadoop/hadoop-env.sh /
如果遇到如下报错:
请执行以下命令解决
再次重新执行hdfs上传即可
6、访问验证
至此Hadoop单机版安装完毕