分享

3000门徒内部训练绝密视频(泄密版)第9课:彻底实战详解使用IntelliJ IDEA下的Spark程序开发

 看风景D人 2019-02-24

彻底实战详解使用IntelliJ IDEA下的Spark程序开发

1、下载安装包(Windows)
2、本地java8和Scala 2.10.4软件套件的安装
3、为IDEA安装Scala,这个过程是IDEA的自动化的插件管理,所以点击后会自动下载
4、指定JDK1.8.x和Scala2.10.4
5、File->Project Structure 来设置工程的Libraries核心是添加Spark的jar依赖
6、添加Spark的jar依赖

为什么不能再IDE中直接发布Spark程序到Spark集群中
1、内存和core的限制,默认情况下Spark程序的Driver会在提交Spark的机器上,所以如果在IDE中提交程序的话,那IDE机器就必须非常强大
2、driver要指挥集群中的worker运行,并频繁地发生通信,如果开发环境IDEA和Spark集群不在同一个网络下,就会出现任务丢失,运行缓慢等多种不必要的问题
3、这是不安全的

打包:
File->Project Structure-> Artifacts -> 加号 -> jar -> From module with dependencies

注意要把Spark和Scala的jar去掉

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多