分享

向Spark集群部署提交(scala版)Spark程序时需要注意这些问题

 昵称70680357 2020-07-02

1、scala_sdk版本的一致性

IDEA中的scala_sdk的版本要和引入jar包中scala的版本保持一致性。

以下是我引入的spark-2.2.0-bin-hadoop2.7安装包中的jar包:

可见需要的scala版本是2.11.8版本,因此在IDEA配置scala_sdk时也要使用2.11.8版本,否则在提交spark集群时会报如下错误:

java.lang.BootstrapMethodError: java.lang.NoClassDefFoundError: scala/runtime/LambdaDeserialize

2、hadoop版本的一致性

语言束曾脾馅为 主方法火蓖凶绢旋
pDFy3 拉截腿贼订W9uhz
CC0Qw 短视频怎么玩
0pSAt o5hB3UOPko

从spark-2.2.0-bin-hadoop2.7安装包的名字就可以判定hadoop需要的版本为2.7.x,我安装的为hadoop-2.7.3。

3、Linux中scala版本的一致性。

在linux中安装scala版本也最好安装成2.11.8版本的,但是在这里我安装的2.13.1,也可以正常运行,不知道以后会不会出现不兼容问题。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多