======================================================
基础环境设置,以centos7为例:
1.配置/etc/sysconfig/network-scripts/ifcfg-ens33 绑定ip
2.配置主机名ip解析,编辑 /etc/hosts
3.修改主机名,编辑/etc/sysconfig/network ,添加一行
4.关闭iptables,selinux,firewalld
5.安装jdk,配置$java_home
6.解压hadoop2.x 至/opt/app下,配置$hadoop_home
7.所有主机之间设置ssh免验证登陆,包括本机自己ssh也要配置 (3台机器都有同一个用户,beifeng)
========================================================
hadoop 2.x 分布式部署方案
hostname ipaddr hdfs yarn mapreduce
hadoop-master 192.168.1.129 namenode,datanode nodemanager job_history_server
hadoop-slave1 192.168.1.130 datanode resourcemanager,nodemanager
hadoop-slave2 192.168.1.131 secondarynamenode,datanode nodemanager
==========================================================
hadoop 2.x 各守护进程相关配置文件
hdfs:
yarn:
mapreduce:
===============================================================
在hadoop-master节点配置hdfs、yarn及mapreduce
1.配置hdfs
(一般配置好javahome不用再配置hadoop-env.sh)
a.$hadoop_home/etc/hadoop/core-site.xml
b.$hadoop_home/etc/hadoop/hdfs-site.xml
dfs.namenode.secondary.http-address
<a href="http://hadoop-slave2:50090">http://hadoop-slave2:50090</a>
c.$hadoop_home/etc/hadoop/slaves
2.配置yarn
a.yarn-site.xml
3.配置mapreduce
a.mapred-site.xml
======================================================================
拷贝hadoop到hadoop-slave1,slave2
========================================================================
启动hadoop 集群
1.在hadoop-master上首次初始格式化namenode节点
2.启动hdfs集群
3.启动yarn集群
4.启动job-history server
5.各节点查看运行状态
===================================================================
end