自己启动spark集群的实验记录
生活随笔
收集整理的这篇文章主要介绍了
自己启动spark集群的实验记录
小编觉得挺不错的,现在分享给大家,帮大家做个参考.
第一步、将master和slave电脑重启
第二、查看jps命令,结果如下:
master
slave
第三、启动hadoop集群,准确的使用目录./等来保证执行的命令为hadoop目录 下的start-all.sh
主机:
slave
第四、hadoop namenode -format
master
slave
第五步、启动spark,命令如下:
master
slave
master上面多了master;slave上面多少worker
总结
以上是生活随笔为你收集整理的自己启动spark集群的实验记录的全部内容,希望文章能够帮你解决所遇到的问题。
- 上一篇: namenode与datanode
- 下一篇: 成功解决slave无datanode问题