hadoop-3.2.1
hive-3.1.2
jdk1.8.0_211
一、Hadoop部署
1.JDK
下载并解压jdk1.8.0_211 到/usr/local/jdk1.8.0_211
配置/etc/profile 添加 export JAVA_HOME=/usr/local/jdk1.8.0_211
export PATH=$PATH:$JAVA_HOME/bin
source /etc/profile 配置文件生效
java -version验证是否成功
2.Hadoop
下载hadoop-3.2.1 http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-3.2.1/hadoop-3.2.1.tar.gz
上传到/home/data/hadoop
解压tar -zxvf hadoop-3.2.1.tar.gz
vi /etc/profile 添加export HADOOP_HOME=/home/data/hadoop/hadoop-3.2.1
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile 配置文件生效
hadoop version验证
配置:
cd /home/data/hadoop/hadoop-3.2.1/etc/hadoop
vi core-site.xml添加
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.2.111:9000</value> <!-- 这里填的是你自己的ip,端口默认是9000,但需要查看是否有冲突-->
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/data/hadoop/hadoop-3.2.1/tmp</value><!-- 这里填的是你自定义的hadoop工作的目录,端口默认-->
</property>
<property>
<name>hadoop.native.lib</name>
<value>false</value>
</property>
vi hadoop-env.sh
修改 export JAVA_HOME=/usr/local/jdk1.8.0_211
vi hdfs-site.xml添加
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.secondary.http.address</name>
<value>192.168.2.111:50090</value> <!--这里是你自己的ip,端口默认-->
</property>
vi mapred-site.xml添加
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
vi yarn-site.xml 添加
<property>
<name>yarn.resourcemanager.hostname</name>
<value>192.168.2.111</value><!-- 自己的ip端口默认 -->
</property>
<!-- reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
切换到sbin目录下
格式化hadoop文件格式,执行命令 hadoop namenode -format
然后启动 ./start-all.sh
验证jps 查看是否有NodeManager ResourceManager SecondaryNameNode DataNode NameNode
参考 https://blog.csdn.net/lu1171901273/article/details/86518494
启动时候报错
ERROR: Attempting to operate on hdfs namenode as root
ERROR: but there is no HDFS_NAMENODE_USER defined. Aborting operation.....
参考https://blog.csdn.net/oschina_41140683/article/details/93976752,增加配置,然后成功
二、Hive部署
1.常见空数据库,用于存放hive的元数据 create database hive;
2.下载Hive https://mirrors.cnnic.cn/apache/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz
上传到/home/data/hive
解压 tar -zxvf apache-hive-3.1.2-bin.tar.gz
下载数据库驱动包mysql-connector-java-8.0.16.jar,放到 /home/data/hive/apache-hive-3.1.2-bin/lib
修改配置文件:vi conf/hive-site.xml
<property>
<name>hive.metastore.local</name>
<value>true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://192.168.1.111:3306/hive?useSSL=false</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.cj.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>mysql用户名</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>mysql密码</value>
</property>
数据库初始化 schematool -dbType mysql -initSchema
验证 hive
参考https://blog.csdn.net/weixin_37548740/article/details/88973400
遇到的问题 java.lang.NoSuchMethodError: com.google.common.base.Preconditions.checkArgument(ZLjava/lang/String;Ljava/lang/Object;)
原因:guava版本冲突,找到hadoop下的guava-27.0-jre.jar替换hive/lib下的guava包,注意,hive下原有的包要删除
参考https://www.cnblogs.com/zxgCoding/p/13071488.html