spark-1.5.2集群安装
2019独角兽企业重金招聘Python工程师标准>>>
Spark版本:Spark1.5.2
Scala版本:2.11.7
Spark安装路径:/home/hadoop
Scala安装路径:/home/hadoop
1. 解压安装包
[hadoop@hd1 ~]#tar zxvf scala-2.11.7.tgz
[hadoop@hd1 ~]#tar zxvf spark-1.5.2-bin-hadoop2.6.tgz
2. 配置环境变量
[root@hd1 ~]#vim /etc/profile
加上以下对应内容:
export JAVA_HOME=/home/yy/jdk1.8
export SCALA_HOME=/home/yy/scala
export SPARK_HOME=/home/yy/spark-1.5.2-bin-hadoop2.6
export PATH=$PATH:$JAVA_HOME/bin:$SCALA_HOME/bin:$SPARK_HOME/bin:$SPARK_HOME/sbin
执行source /etc/profile使配置生效
3.修改spark配置
[hadoop@hd1 ~]cd spark-1.5.2-bin-hadoop2.6/conf
3.1复制模板文:
[hadoop@hd1 conf]#cp spark-env.sh.template spark-env.sh
[hadoop@hd1 conf]#cp slaves.template slaves
3.2编辑spark-env.sh
export JAVA_HOME=/usr/java/jdk1.7.0_79
export SCALA_HOME=/home/hadoop/scala
export SPARK_MASTER_IP=open1
export SPARK_WORKER_INSTANCES=2
export SPARK_WORKER_MEMORY=6g
export master=spark://hd1:7077
export HADOOP_CONF_DIR=/home/hadoop/hadoop-2.6.0/etc/hadoop
export SPARK_HOME=/home/hadoop/spark-1.5.2
export HADOOP_HOME=/home/hadoop/hadoop-2.6.0
export SPARK_CLASSPATH=/home/hadoop/test/aliopen01/mysql-connector-java-5.1.40-bin.jar:$SPARK_HOME/lib/hbase-client-0.98.22-hadoop2.jar:$SPARK_HOME/lib/hbase-common-0.98.22-hadoop2.jar:$SPARK_HOME/lib/hbase-protocol-0.98.22-hadoop2.jar:$SPARK_HOME/lib/hbase-server-0.98.22-hadoop2.jar:$SPARK_HOME/lib/htrace-core-2.04.jar:$SPARK_HOME/lib/protobuf-java-2.5.0.jar:$SPARK_HOME/lib/guava-12.0.1.jar:$SPARK_HOME/lib/hive-hbase-handler-1.2.1.jar:$SPARK_CLASSPATH
export SPARK_YARN_USER_ENV="CLASSPATH=/home/hadoop/hadoop-2.6.0/etc/hadoop"
ps:
spark-shell 后面的参数释义
--executor-memory 默认1GB 是每个executor占用的内存
--driver-memory driver占用的内存,(Driver: 一个Spark作业运行时包括一个Driver进程,也是作业的主进程,负责作业的解析、生成Stage并调度Task到Executor上。包括DAGScheduler,TaskScheduler。)
--total-executor-cores 全部executor占用的总CPU核数
--num-executors 这个spark-shell 总共开启多少个executor(Executor:即真正执行作业的地方,一个集群一般包含多个Executor,每个Executor接收Driver的命令Launch Task,一个Executor可以执行一到多个Task。)
--executor-cores 每个executor使用的cpu核数
3.3编辑slaves
添加上你的对应信息,所有的集群的机器:
hd2
hd3
hd4
hd5
进入spark-1.5.2-bin-hadoop2.6/sbin/目录,执行:./start-all.sh
(如果没有设置ssh免密码登陆,会要求输入密码)
这时候jps查看多了个master和worker
表示安装成功
转载于:https://my.oschina.net/gywbest/blog/780338
总结
以上是生活随笔为你收集整理的spark-1.5.2集群安装的全部内容,希望文章能够帮你解决所遇到的问题。
- 上一篇: alias提升效率工具
- 下一篇: 2016 ACM/ICPC Asia R