使用aconda3-5.1.0(Python3.6.4) 搭建pyspark远程部署
生活随笔
收集整理的这篇文章主要介绍了
使用aconda3-5.1.0(Python3.6.4) 搭建pyspark远程部署
小编觉得挺不错的,现在分享给大家,帮大家做个参考.
参考:http://ihoge.cn/2018/anacondaPyspark.html
前言
首次安装的环境搭配是这样的:
jdk8
hadoop2.6.5
spark2.1
scala2.12.4
Anaconda3-5.1.0
一连串的报错让人惊喜无限,尽管反复调整配置始终无法解决。
坑了一整天后最后最终发现是版本不兼容!!再次提醒自己一定要重视各组件版本的问题。这里最主要的是spark和Anaconda版本的兼容问题,为了兼容python3尽量用新版的spark。最终解决方案的版本搭配如下:
jdk8
hadoop2.7.5
spark2.3.0
scala2.11.12
Anaconda3-5.1.0
一、VM安装Ubuntu16.04虚拟机
sudo apt-get update sudo apt-get install vim sudo apt-get install openssh-server# 配置ssh免密登陆 ssh localhost ssh-keygen -t rsa //一路回车 cat id_rsa.pub >> authorized_keyssudo vi /etc/hosts //添加各个节点ip 192.168.221.132 master 192.168.221.133 slave1 192.168.221.134 slave2# sudo vi /etc/hostname master二、配置profile环境变量
#Java export JAVA_HOME=/home/hadoop/jdk1.8.0_161 export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jar #Hadoop export HADOOP_HOME=/home/hadoop/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin #Scala export SCALA_HOME=/home/hadoop/scala export PATH=$PATH:$SCALA_HOME/bin #Anaconda export PATH=/home/hadoop/anaconda3/bin:$PATH export PYSPARK_DRIVER_PYTHON=/home/hadoop/anaconda3/bin/jupyter export PYSPARK_DRIVER_PYTHON_OPTS="notebook" export PYSPARK_PYTHON=/home/hadoop/anaconda3/bin/python #Spark export SPARK_HOME=/home/hadoop/spark export PATH=$PATH:$SPARK_HOME/bin三、hadoop 六个配置文件
# hadoop-env.sh export JAVA_HOME=/home/hadoop/hadoop/jdk1.8.0_161# core-site.xml <configuration><property><name>hadoop.tmp.dir</name><value>file:/home/hadoop/hadoop/tmp</value><description>Abase for other temporary directories.</description></property><property><name>fs.defaultFS</name><value>hdfs://master:9000</value></property> </configuration># hdfs-site.xml <configuration><property><name>dfs.namenode.secondary.http-address</name><value>master:50090</value></property><property><name>dfs.replication</name><value>3</value></property><property><name>dfs.namenode.name.dir</name><value>file:/home/hadoop/hadoop/tmp/dfs/name</value></property><property><name>dfs.datanode.data.dir</name><value>file:/home/hadoop/hadoop/tmp/dfs/data</value></property> </configuration># mapred-site.xml <configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property><property><name>mapreduce.jobhistory.address</name><value>master:10020</value></property><property><name>mapreduce.jobhistory.webapp.address</name><value>master:19888</value></property> </configuration># yarn-site.xml <configuration><property><name>yarn.resourcemanager.hostname</name><value>master</value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property> </configuration># slaves slave1 slave2三、spark两个配置文件
# spark-env.sh #java export JAVA_HOME=/home/hadoop/jdk1.8.0_161 #scala export SCALA_HOME=/home/hadoop/scala #hadoop export HADOOP_HOME=/home/hadoop/hadoop export HADOOP_CONF_DIR=/home/hadoop/hadoop/etc/hadoop export YARN_CONF_DIR=/home/hadoop/hadoop/etc/hadoop #spark export SPARK_HOME=/home/hadoop/spark export SPARK_LOCAL_DIRS=/home/hadoop/spark export SPARK_DIST_CLASSPATH=$(/home/hadoop/hadoop/bin/hadoop classpath) export SPARK_WORKER_CORES=1 export SPARK_WORKER_INSTANCES=1 export SPARK_WORKER_MEMORY=1g export SPARK_MASTER_IP=master export SPARK_LIBRARY_PATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$HADOOP_HOME/lib/native# slaves slave1 slave2四、解压缩文件
scp jdk-8u161-linux-x64.tar hadoop@master:~ scp Anaconda3-5.1.0-Linux-x86_64.sh hadoop@master:~ scp -r hadoop/ hadoop@master:~ scp -r scala/ hadoop@master:~ scp -r spark/ hadoop@master:~tar -xvf jdk-8u161-linux-x64.tar -C ./source ~/.profile 分别查看jdk版本、hadoop版本、scala版本# 集群模式启动spark查看jps spark-shell --master spark://master:7077 --executor-memory 512m --total-executor-cores 2五、安装Anaconda
bash Anaconda3-5.1.0-Linux-x86_64.sh -b# 创建配置jupyter_notebook_config.py jupyter notebook --generate-config vim ~/.jupyter/jupyter_notebook_config.pyc = get_config() c.IPKernelApp.pylab = 'inline' c.NotebookApp.ip = '*' c.NotebookApp.open.browser = False c.NotebookApp.password = u'' c.NotebookApp.port = 8888六、关机后克隆出两个新节点并配置相关内容
sudo vi /etc/hostnamesudo vi /etc/hosts七、远程测试pyspark集群
# 服务器端启动集群 start-all.sh spark/sbin/start-all.sh# hadoop和spark的进程都显示正常后开始启动pyspark 1、local模式运行 pyspark2、Stand Alone运行模式 MASTER=spark://master:7077 pyspark --num-executors 1 --total-executor-cores 3 --executor-memory 512m然后在远程Web端输入192.168.221.132:8888
页面打开后需要输入验证信息(第一次验证即可):
输入上图token后面的字符串和用户密码
输入sc测试
至此,aconda3-5.1.0(Python3.6.4) 搭建pyspark远程服务器部署成功。
参考:http://ihoge.cn/2018/anacondaPyspark.html
总结
以上是生活随笔为你收集整理的使用aconda3-5.1.0(Python3.6.4) 搭建pyspark远程部署的全部内容,希望文章能够帮你解决所遇到的问题。
- 上一篇: PCA主成分分析+SVM实现人脸识别
- 下一篇: 《Pyflink》Flink集群安装,P