百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术教程 > 正文

Hadoop集群搭建及Hive的安装与使用

csdh11 2025-03-03 18:10 1 浏览

1、集群安装与配置

以centos为例,首先创建4台虚拟机,分别命名为hp001、hp002、hp003、hp004。

安装成功后,然后分别修改主机名(hp002、hp003、hp004同hp001)。

vim /etc/sysconfig/network # 编辑network文件修改

hostname hadoop1

cat /etc/sysconfig/network

cat /etc/sysconfig/network

NETWORKING=yes

HOSTNAME=hp001

再修改/etc/hosts文件(hp002、hp003、hp004同hp001),本机IP对应主机名。

2、 shell脚本编写

1、 配置ssh

注意在root账号下创建,否则没有权限。

1)安装ssh

yum apt-get install ssh

2)生成密钥对

ssh-keygen –t rsa –P '' –f ~/.ssh/

cd ~/.ssh

3)导入公钥数据到授权库中

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

scp /root/.ssh/* hp002@:/root/.ssh/

scp /root/.ssh/* hp003@:/root/.ssh/

scp /root/.ssh/* hp004@:/root/.ssh/

4)登录其他机器:

ssh hp002

Ifconfig

2、scp

3、rsync 远程同步工具 主要备份和镜像支持链接,设备。

rsync –rvl /soft/* hadoop@hp002:/soft

4、自定义脚本xsync,在集群上分发文件,循环复制文件到所以节点的相同目录下,

在hp001主机上/usr/loca/bin下创建xsync文件

然后 vi xsync编写如下代码保存

#!/bin/bash

pcount=$#

if(( pcount<1 )) ; then

echo no args;

exit;

fi

#获取文件名称

p1=$1;

fname=`basename $p1`;

dname=`cd -P $(dirname $p1) ; pwd`

curse=`whoami`;

for(( host=2 ; host<5; host=host+1 )) ; do

echo ===================== copy to hp00$host ============

rsync -rvl $dname/$fname $curse@hp00$host:$dname;

done

echo ========================== end =====================

4、编写/usr/local/bin/xcall脚本,在所有主机上执行相同的命令。

例如:xcall rm –rf /soft/jdk

在hp001主机上/usr/loca/bin下创建xcall文件

然后 vi xcall编写如下代码保存

#!/bin/bash

pcount=$#

if(( pcount<1 )) ; then

echo no args;

exit;

fi

#

echo =========== localhost =========

$@

for(( host=2 ; host<5; host=host+1 )) ; do

echo ===================== exe hp00$host ============

ssh hp00$host $@

done

echo ========================== end =====================

3、 各主机jdk安装

1、 下载jdk上传到hp001上

jdk_1.8.0_131.tar.gz

tar -zxvf jdk_1.8.0_131.tar.gz到/usr/local/jdk目录下

然后用xsync命令分别在hp002、hp003、hp004创建/usr/local/jdk目录,用xcall

命令分别复制到hp002、hp003、hp004。

2、 配置jdk环境变量,etc/profile文件中

export JAVA_HOME=/usr/local/jdk

export PATH=.:$JAVA_HOME/bin:$PATH

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export JRE_HOME=$JAVA_HOME/jre

用xcall命令分别复制到hp002、hp003、hp004的etc/profile文件中。

3、 验证安装是否成功

4、 Hadoop集群搭建

1、本机集群机器:四台对应hadoop1、hadoop2、hadoop3、hadoop4

hadoop1 node1作为名称节点

hadoop2 node2作为辅助名称节点

hadoop3 node3作为数据节点

hadoop4 node4作为数据节点

2、 安装hadoop

创建目录/home/hadoop/bigdata/,下载hadoop-2.7.2.tar.gz,上传解压tar -zxvf hadoop-2.7.2.tar.gz。用xcall命令分别复制到hp002、hp003、hp004。

3、配置环境变量etc/profile文件中

export HADOOP_HOME=/home/hadoop/bigdata/hadoop-2.7.2

export PATH=.:$HADOOP_HOME/sbin:$HADOOP_HOME/bin:$PATH

用xcall命令分别复制到hp002、hp003、hp004的etc/profile文件中。

4、 验证安装成功

hadoop version

5、 hadoop集群配置

完全分布式配置方式:配置文件
/home/hadoop/bigdata/hadoop-2.7.2/etc/hadoop/下的四个xml文件。

core-site.xml

fs.defaultFS

hdfs://hp001

hadoop.tmp.dir

/home/hadoop/bigdata

hdfs-site.xml

dfs.replication

3

dfs.namenode.secondary.http-address

hp002:50090

mapred-site.xml

mapreduce.framework.name

yarn

yarn-site.xml

yarn.resourcemanager.hostname

hp001

yarn.nodemanager.aux-services

mapreduce_shuffle


/home/hadoop/bigdata/hadoop-2.7.2/etc/hadoop/slaves文件修改为

hp003

hp004

在集群上分发以上5个文件

cd /home/hadoop/bigdata/hadoop-2.7.2/etc/hadoop

xsync core-site.xml

xsync hdfs-site.xml

xsync mapred-site.xml

xsync yarn-site.xml

xsync slaves

6、首次启动hadoop

1)格式化文件系统

$>hadoop namenode -format

2)启动所有进程

$>start-all.sh

3)查询进程

$>xcall jps

4)停止所有进程

$>stop-all.sh

5)查看文件系统

$hadoop fs -ls

6)创建文件系统

$>hadoop fs –mkdir –p /user/Ubuntu/data

$>hadoop fs –ls –R /

7、Hadoop包含三个模块

1)Hadoop common:

支持其他模块的工具模块

2)Hadoop Distributed File System (HDFS)

分布式文件系统,提供了对应用程序数据的高吞吐量访问。

进程:

NameNode 名称节点 NN

DataNode 数据节点 DN

SecondaryNamenode 辅助名称节点 2ndNN

3)Hadoop YARN:

作业调度与集群资源管理的框架。

进程

ResourceManager 资源管理 — RM

NodeManager 节点管理器—NM

4)Hadoop MapReduce:

基于yarn系统的对大数据集进行并行处理技术。

8、使用webui访问hadoop hdfs

1) hdfs http:/hp001:50070

2) dataNode http://hp003:50075

3) 2nn http://hp002:50090

五、hive安装与使用

1、下载hive

下载apache hive -2.3.4.bin.tar.gz

2、安装hive

cd /home/hadoop/bigdata/

tar -zxvf Apache Hive -2.3.4.bin.tar.gz

ln -s apache hive -2.3.4.bin apache hive

3、配置环境变量etc/profile文件中

export HIVE_HOME=/home/hadoop/bigdata/apache-hive

export PATH=.:$HIVE_HOME/bin:$PATH

4、查看是否安装成功

hive --version

6、 配置hive

修改
/home/hadoop/bigdata/apache-hive/conf/hive-env.sh文件指定hadoop目录


/home/hadoop/bigdata/apache-hive/conf/hive-default.xml.template 默认配置文件不要修改

创建hive-site.xml:
/home/hadoop/bigdata/apache-hive/conf/hive-site.xml,替换hive-site.xml中${system:java.io.temp.dir}=
/home/hadoop/bigdata/apache-hive。

7、配置Hive元数据库

Hive使用rdbms存储元数据,内置derby数据库。在
/home/hadoop/bigdata/apache-hive/bin/目录下初始化schema库,要启动hadoop集群:

Schematool --initSchema -dbType derby

8、 hive启动

1、 进入hive shell

$hive启动后如下图。

2、 Hive元数据库mysql使用及常用命令

Hive配置

Hive常见命令类似于mysql,本例子用mysql作为hive元数据库,首先配置hive-sxit.xml的mysql数据库驱动信息。

javax.jdo.option.ConnectionURL

jdbc:mysql://192.168.0.100:3306/hivedb

JDBC connect string for a JDBC metastore.

To use SSL to encrypt/authenticate the connection, provide database-specific SSL flag in the connection URL.

For example, jdbc:postgresql://myhost/db?ssl=true for postgres database.

javax.jdo.option.ConnectionDriverName

com.mysql.jdbc.Driver

Driver class name for a JDBC metastore

javax.jdo.option.ConnectionUserName

root

Username to use against metastore database

javax.jdo.option.ConnectionPassword

123456789

password to use against metastore database

Mysql数据库配置

1)创建数据库hivedb

2)赋予hive连接mysql用户的权限

GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY '123456789' WITH GRANT OPTION

3) 将mysql的驱动包放到hive下

放在
/home/hadoop/bigdata/apache-hive/lib/下

4)使用schematool初始化元数据。

schematool --initSchema -dbType mysql

HDFS存储位置配置

Hive配置文件里要用到HDFS的一些路径,需要先手动创建。

hadoop fs -mkdir -p /soft/hive/warehouse

hdfs dfs -mkdir -p /soft/hive/tmp

hdfs dfs -mkdir -p /soft/hive/log

hdfs dfs -chmod g+w /soft/hive/warehouse

hdfs dfs -chmod g+w /soft/hive/tmp

hdfs dfs -chmod g+w /soft/hive/log

3、 java连接hive

1)启动hive服务


/home/hadoop/bigdata/apache-hive/bin目录下执行命令$hive --service hiveserver2 start。

2) java代码连接hive到mysql中查询数据

Hive.server2.enable.doAs =false;

Hive.meatstroe.saslenabled=false;

Hive.server2.authentication=none

6、 关于电脑配置

电脑配置低了带不动啊!12GB内存都快用满了。

电脑配置如下都还可以,但是至少比下图中的要高才行。

相关推荐

万字硬核解析!RocketMQ集群环境搭建

一、RocketMQ集群架构通过之前安装单台RocketMQ,并演示了消息的收发,已经基本了解了RocketMQ是怎么样工作的,下面就来搭建一个集群...

推荐一款单机10W+的可用即时通讯工具

今天给大家推荐一款单机10W+的可用即时通讯工具,她就是:courier-信使。她是一款简洁轻量的即时通讯工具。?展示截图...

tar、gzip、zip、jar是什么,怎么查看?

...

建议收藏!深入理解Java虚拟机:JVM垃圾回收算法+垃圾收集器

02JVM垃圾回收算法2.1什么是垃圾回收?...

Spring boot——Actuator 详解

一、什么是ActuatorSpringBootActuator模块提供了生产级别的功能,比如健康检查,审计,指标收集,HTTP跟踪等,帮助我们监控和管理SpringBoot应用。...

JVM 参数调优

时至今日,生产环境中依旧是JDK8占据主流,因此,本文将围绕JDK8常用的CMS和G1进行相关参数的讲解。...

Java开发工程师进阶篇- 扫盲Java中的各种锁,你学会了吗?

-Java中锁的概念...

Linux入门手册

Linux是一个基于POSIX和Unix的多用户、多任务、支持多线程和多CPU的性能稳定的操作系统,可免费使用并自由传播。Linux是众多操作系统之一,目前流行的服务器和PC端操作系统有Li...

java:Cassandra入门与实战——下

Cassandra入门与实战——上...

带你来搭建虚拟机和Redis集群,记得收藏

来源于公众号Java爱好者社区,作者东升的思考1、前言我们看到分析Redis使用或原理的文章不少,但是完整搭建一套独立的Redis集群环境的介绍,并不是很多或者说还不够详细。那么,本文会手把...

做开发这么久了,还不会搭建服务器Maven私有仓库?这也太Low了吧

大家好,我是冰河~~...

JDK 17 之 JVM调优 史诗级 教程

JDK17之JVM调优史诗级教程文章目录...

带你认识JDK8中超nice的Native Memory Tracking

本文分享自华为云社区《NativeMemoryTracking详解(1):基础介绍》,作者:毕昇小助手。0.引言我们经常会好奇,我启动了一个JVM,他到底会占据多大的内存?他的内存都消耗在哪...

JVM 堆外内存泄漏排查

现象:operation服务持续内存增长不释放导致超过80%阈值告警,通过观察内存不会下降,而且占用内存为14G超过了jvm参数-Xmx10G的限制...

Spring Boot整合MybatisPlus和Druid

在Java中,我比较ORM...