欢迎访问 生活随笔!

生活随笔

当前位置: 首页 > 编程资源 > 编程问答 >内容正文

编程问答

配置Spark

发布时间:2025/4/14 编程问答 37 豆豆
生活随笔 收集整理的这篇文章主要介绍了 配置Spark 小编觉得挺不错的,现在分享给大家,帮大家做个参考.

 

参考《深入理解Spark:核心思想与源码分析》

  Spark使用Scala进行编写,而Scala又是基于JVM运行,所以需要先安装JDK,这个不再赘述。

1.安装Scala

  安装获取Scala:

wget http://download.typesafe.com/scala/2.11.5/scala-2.11.5.tgz

   将下载的文件移动到自家想要放置的目录。

  修改压缩文件的权限为755(所有者读写执行,同组成员读和执行,其他成员读和执行)

chmod 755 scala-2.11.5.tgz

   解压缩:

tar -xzvf scala-2.11.5.tgz

   打开/etc/profile,添加scala的环境变量

vim /etc/profile

   

  查看scala是否安装成功:

scala

   

 2.安装完scala后,就要安装spark了

  只接从网站上下载了spark安装包:

  http://spark.apache.org/downloads.html

  将安装包移动到自己指定的位置,解压缩。

  配置环境变量:

  vim /etc/profile

   添加spark环境变量

  

  使环境变量生效:

  source /etc/profile

   进入spark的conf文件目录,

  cd /home/hadoop/spark/spark-2.1.0-bin-hadoop2.7/confcp spark-env.sh.template spark-env.sh

   在spark-env.sh目录中添加java hadoop scala的环境变量

  

  启动spark:

  cd /home/hadoop/spark/spark-2.1.0-bin-hadoop2.7/sbin./start-all.sh

   打开浏览器,输入http://localhost:8080

  

   可见Spark已经运行了。

http://blog.csdn.net/wuliu_forever/article/details/52605198这个博客写的很好

转载于:https://www.cnblogs.com/qj4d/p/7110972.html

总结

以上是生活随笔为你收集整理的配置Spark的全部内容,希望文章能够帮你解决所遇到的问题。

如果觉得生活随笔网站内容还不错,欢迎将生活随笔推荐给好友。