千锋教育-做有情怀、有良心、有品质的职业教育机构

手机站
千锋教育

千锋学习站 | 随时随地免费学

千锋教育

扫一扫进入千锋手机站

领取全套视频
千锋教育

关注千锋学习站小程序
随时随地免费学习课程

首页 视频教程 培训课程 师资团队 技术干货 常见问题 面试题 职场就业 零基础学大数据 行业资讯
【热点话题】 大数据技术干货 大数据学习教程 大数据学习笔记 大数据面试题 大数据培训问答 大数据培训机构哪些好 大数据职场就业
当前位置:大数据培训  >  大数据技术干货  >  大数据Hadoop集群安装教程之环境配置

大数据Hadoop集群安装教程之环境配置

来源:千锋教育
发布人:小千
时间: 2021-05-12 15:16:00 1620803760

      大数据Hadoop是非常常用的开发环境,但有不少同学在环境配置上面出现了问题,下面小千就来带大家顺一遍环境配置的方法。

大数据

      安装Hadoop集群时要确保以下几个方面, 参考下面检查工程

      1. 本机与虚拟机之间是否可以通信

      1.1 本机防火墙关闭(开启情况是本机可以ping虚拟机,虚拟机不能ping本机)

      1.2 虚拟机是克隆的情况(按照Linux文档中,修改ip地址等方法)

      1.3 虚拟机设置--网卡是否是仅主机模式或者桥接模式:仅主机模式需要检查VMware1网卡设置与虚拟机网卡设置是否匹配。桥接模式是为了让虚拟机可以连接外网,只需要改该虚拟机网卡信息即可(网关)

      2. 虚拟机之间是否可以通信

      具体的一些命令操作

      2.1关闭本机网络管理

      /etc/init.d/NetworkManager stop

      chkconfig NetworkManager off

      2.2关闭防火墙

      chkconfig iptables off

      service iptables save

      3. 更改主机名称

      vi /etc/sysconfig/network

      4. 更改主机与ip映射

      vi /etc/hosts

      5. 安装JDK和hadoop

      5.1 安装

      tar -zxvf jdk-7u79-linux-x64.tar.gz –C /usr/local

      tar -zxvf hadoop-2.7.1.tar.gz -C /usr/local/

      5.2 重新设置hadoop,jdk的所属组,所属人

      chown root:root hadoop-2.7.1 javajdk

      5.3 hadoop的目录理解

      1)bin:hadoop最基本的管理脚本和使用脚本所在目录,这些脚本是sbin目录下管理脚本的基础实现,用户可以直接使用这些脚本管理和使用hadoop

      2)etc:hadoop配置文件所在的目录,包括core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.mxl等文件

      3)include:对外提供的编程库头文件(具体动态库和静态库在lib目录中),这些头文件均是用c++定义的,通常用于c++程序访问hdfs或者编写mapreduce程序

      4)lib:该目录包含了hadoop对外提供的编程动态库和静态库,与include目录中的头文件结合使用

      5)libexec:各个服务对应的shell配置文件所在目录,可用于配置日志输出目录,启动参数(比如JVM参数)等基本信息

      6)sbin:hadoop脚本管理所在目录,主要包含hdfs,yarn中各类服务的启动/关闭脚本

      7)share:hadoop各个模块编译后的jar包所在目录

      6. 修改系统环境变量

      6.1 到/etc/profile下进行修改

      export JAVA_HOME=/usr/local /java/

      export HADOOP_HOME=/usr/local /hadoop-2.7.1/

      export HIVE_HOME=/usr/local/hive/

      export ZOOKEEPER_HOME=/usr/local /zookeeper/

      export

      PATH=$PATH:$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$ZOOKEEPER_HOME/conf:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin:

      6.2 使修改后的系统生效

      source /etc/profile

      6.3 测试

      java –version

      hadoop version

      7. 克隆

      主机台数:3台

      名字:master slave1 slave2

      8. 设置免密登录

      8.1 方式一 选其一

      进入cd /root/.ssh 执行

      ssh-keygen -t rsa

      ssh-copy-id master@root 自己对自己免密

      ssh-copy-id slave1@root

      ssh-copy-id slave2@root

      8.2 方式二 选其一

      解释:-t 是要生成的密钥类型 -p 是原来的旧密码,没有就写'' -f是密钥生成后保存文件的位置 (这些都可以不写,取默认的)

      ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

      cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

      scp ~/.ssh/authorized_keys slave1:/root/.ssh/

      scp ~/.ssh/authorized_keys slave2:/root/.ssh/

      最后如果你对大数据开发感兴趣的,不妨来千锋大数据培训班了解一下我们的大数据学习课程,全程名师面授,现在还有免费大数据学习资料可以领取,赶紧来看一下吧。

声明:本站稿件版权均属千锋教育所有,未经许可不得擅自转载。

猜你喜欢LIKE

最新文章NEW

相关推荐HOT

更多>>