Spark开发环境配置及流程
之前已经将集配置完成(详见Hadoop2.6.0搭建过程.doc和Spark1.2搭建过程.doc文档),开发环境中的JDK,Scala部分就不介绍了,下面直接介绍我们用的开发工具Interlij IDEA。为什么选择Intellij IDEA?因为它更好的支持Scala 项目,目前Spark开发团队使用它作为开发环境。
鳕鱼怎么做好吃1.下载
直接到下载页面下载(www.jetbrains/idea/download/)。
有收费的完整版,也有免费的基本版本,收费的网上也有破解方案。
2.解压
梦见相亲对象解压到/usr/local,这是因为之前的Scala和Spark都放这里,也可以根据自己喜好。
[hadoop@lenovo0 Downloads]$ sudo tar -vxzf ideaIC-14. -C /usr/local/ 改个名字,然后授权给hadoop用户。
[hadoop@lenovo0 local]$ cd /usr/local/
幼儿园卡通
[hadoop@lenovo0 local]$ sudo mv ideaIC-14.1 ideaIC14
[hadoop@lenovo0 local]$ sudo chown -R hadoop:hadoop ideaIC14/
3.启动meat怎么读
在解压的文件夹下有个文件介绍怎么打开应用,还有一些设置信息,大家可以看一看:
山西的名人
通过cat命令可以查看,我只截了一些关键的:
根据提示,我们直接进入到文件夹bin目录下执行./idea.sh即可启动:
之后便可以根据UI提示界面创建快捷方式,方便下次启动。
4.在IDEA中安装Scala插件
在IDEA的设置里面,直接搜索“plugins”,在右边的展开中搜索“scala”,点击相应的按钮添加插件即可:
5.配置Spark应用开发环境蜂蜜经销
这里以SparkPi程序为例子。
5.1创建Scala Project,设置名称,JDK和Scala路径:
5.2选择菜单中的“File”→“project structure”→“Libraries”,然后点击“+”导入spark-assembly-1.2.0-hadoop2.4.0.jar。
这个jar包包含Spark的所有依赖包和Spark源码。一开始我们下载的Spark版本是预编译版本的(见《Spark on yarn搭建过程》),所以这个包可以在解压的Spark目录下lib目录里到,假如说下载的没有编译的,需要通过sbt/sbt assembly命令打包。
同样的,假如IDEA不能识别Scala库,也是用这种方法,路径是Scala的安装路
径。
5.3现在可以开发Scala程序。右键新建一个scala类,就可以写程序了。我们直接复制SparkPi的代码,这个代码在Spark文件example目录下可以到源码:
源码实际上是行不通的,要加上我红框标出来的两句话。第一句设置master的ip和端口,第二句调用addJar方法将我们压缩好的jar包提交到Spark集(压缩方法在后面介绍)。
6.运行Spark程序
像上面我们编写完代码,有两种方法运行我们的程序,一个是IDEA中的run方法,另一个是将我们的程序打包成jar包,在Spark集上用命令行执行。