分享

干货-零基础安装Hadoop开发环境

 0璇玑玉衡0 2017-09-23

当接触大数据时,首先碰到的就是hadoop的学习,安装 Hadoop 往往会成为新手的一道门槛。尽管安装其实很简单,书上有写到,官方网站也有 Hadoop 安装配置教程,但由于刚接触对 Linux 环境不熟悉。加上网上不少教程比较乱,导致新手折腾老几天愣是没装好,很是打击学习热情。本文主要介绍hadoop2.6版本的安装,步骤详细,辅以适当说明,相信按照步骤来,都能顺利安装并运行Hadoop环境。


干货-零基础安装Hadoop开发环境

一、下载安装

(1).到hadoop下载相应的版本

本文下载的是hadoop-2.6.0.tar.gz

(2).解压

tar –zxvf hadoop-2.6.0.tar.gz

(3).创建目录

#mkdir /opt/media/hadoop-2.6.0/tmp

#mkdir/opt/media/hadoop-2.6.0/dfs

#mkdir /opt/media/hadoop-2.6.0/dfs/name

#mkdir /opt/media/hadoop-2.6.0/dfs/data

(4).配置环境变量

vi /etc/profile

export HADOOP_HOME=/opt/media/hadoop-2.6.0/hadoop-2.6.0

export PATH=$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

source /etc/profile

二、配置文件

(1).配置 hadoop-env.sh文件

PS:配置jdk路径

# The java implementation to use.

export JAVA_HOME=/home/bigdata/media/jdk1.7.0_79

干货-零基础安装Hadoop开发环境

(2).配置 core-site.xml文件

PS:增加hadoop核心配置(hdfs文件端口是9000)core-site.xml文件中包含的信息,如使用Hadoop实例分配给文件系统的存储器,用于存储数据的内存限制的端口号,以及读/写缓冲器的大小

fs.defaultFS

hdfs://bigdata:9000

io.file.buffer.size

131072

hadoop.tmp.dir

file:/opt/media/hadoop-2.6.0/tmp

Abasefor other temporary directories.

hadoop.proxyuser.spark.hosts

*

hadoop.proxyuser.spark.groups

*

干货-零基础安装Hadoop开发环境

(3).配置 hdfs-site.xml 文件

PS:增加hdfs配置信息(namenode、datanode端口和目录位置)hdfs-site.xml 文件中包含的信息,如复制数据的值,名称节点的路径,本地文件系统的数据节点的路径。

dfs.namenode.secondary.http-address

bigdata:9001

dfs.namenode.name.dir

file:/opt/media/hadoop-2.6.0/dfs/name

dfs.datanode.data.dir

file:/opt/media/hadoop-2.6.0/dfs/data

dfs.replication

3

dfs.webhdfs.enabled

true

dfs.permissions

false

If 'true', enable permission checking in HDFS.

If 'false', permission checking is turned off,

but all other behavior is unchanged.

Switching from one parameter value to the other does not change the mode,

owner or group of files or directories.

干货-零基础安装Hadoop开发环境

(4).配置mapred-site.xml 文件

PS:增加mapreduce配置(使用yarn框架、jobhistory使用地址以及web地址)

mapreduce.framework.name

yarn

mapreduce.jobhistory.address

bigdata:10020

mapreduce.jobhistory.webapp.address

bigdata:19888

干货-零基础安装Hadoop开发环境

(5).配置yarn-site.xml 文件

PS:增加yarn功能

yarn.nodemanager.aux-services

mapreduce_shuffle

yarn.nodemanager.aux-services.mapreduce.shuffle.class

org.apache.hadoop.mapred.ShuffleHandler

yarn.resourcemanager.address

bigdata:8032

yarn.resourcemanager.scheduler.address

bigdata:8030

yarn.resourcemanager.resource-tracker.address

bigdata:8035

yarn.resourcemanager.admin.address

bigdata:8033

yarn.resourcemanager.webapp.address

bigdata:8088

干货-零基础安装Hadoop开发环境

三、格式化

(1).格式化namenode

$ ./bin/hdfs namenode -format

四、免密码登录

$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

cd .ssh/

$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

五、启动hadoop

(1).启动

./start-all.sh

干货-零基础安装Hadoop开发环境

(2).验证是否启动成功

干货-零基础安装Hadoop开发环境

(3)浏览

http://192.168.101.109:50070/dfshealth.html#tab-overview

干货-零基础安装Hadoop开发环境

六、总结

如果大家有大数据技术类的问题,欢迎在评论里面留言,我会一一回复,希望跟大家共同努力,共同进步

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多