分享

Spark升级2.0.1版本安装部署教程

 昵称16883405 2016-11-05

Spark升级2.0.1版本安装部署教程

 


 

 

0.集群当前环境

Hadoop版本:2.7.1

JDK版本:jdk1.7.0_79

Hbase版本:1.1.2

Spark版本:1.5.0

Scala版本:2.10.4

1.Spark安装

a)   在官网(http://spark./downloads.html)上下载与当前hadoop版本适合的Spark版本包。


b)   下载后解压到你要放置的安装目录。我是先解压再重命名移动到指定的文件夹下面。



c)   修改Spark配置文件。由于spark1.5.0版本和spark2.0.1版本的配置文件基本相同,故拷贝了原来的配置文件。


具体其中配置如下:

slaves文件配置子节点hostname(我这边在etc/hosts/中针对每个子节点的ip地址做了解析,所以只写域名)。


spark-defaults.conf配置一些jar包的引用。(注意:spark2.0.1版本不再有lib文件夹,只有jars文件夹,所以需要加上这个jars文件路径)


spark-env.sh配置spark的运行环境(注意,JAK版本至少要是1.7以上,SCALA版本也要控制2.11版本以上,scala路径就是后面你要安装的路径)


至此,Spark安装完成

2.Scala安装

a)   由于spark2.0.1版本只支持2.11版本以上的scala版本,所以需要重装新版本的Scala。在Scala官网下载2.11版本以上的scala安装包。(我安装的是2.11.8版本,http://www./download/2.11.8.html)


根据集群的操作系统选择对应的jar包。

下载到指定文件夹后,进行解压缩。


此时注意!要放到/usr/local/文件夹下,必须使用root账号。再拷贝到对应文件夹下。


至此Scala安装完成。

3.修改配置文件

a)   若此时Spark服务正在运行,建议先关闭Spark服务。再修改配置文件。


b)   修改每个账号下面的.bashrc文件


c)   修改完毕之后,source 下.bashrc文件,使之生效。

4.同步文件到子节点

a)   Spark文件夹,Scala文件夹及.bashrc文件到各个子节点,注意:source下.bashrc文件,使之生效。

5.验证是否安装成功

a)   验证scala是否安装成功

输入scala -version


b)   启动Spark服务。进入sbin文件夹下,执行bash -x start-all.sh

c)   使用jps查看进程是否启动成功。


d)   查看Spark页面


e)   执行Spark样例(./bin/run-example SparkPi | grep "Pi is roughly")


f)   测试Spark-shell能否正常使用(spark-shell --executor-memory 1G --total-executor-cores 10)


g)   查看8080页面


至此,Spark新版本升级完成

 

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多