欢迎访问 生活随笔!

生活随笔

当前位置: 首页 > 编程资源 > 编程问答 >内容正文

编程问答

我们并没有觉得MapReduce速度慢,直到Spark出现

发布时间:2024/7/5 编程问答 49 豆豆
生活随笔 收集整理的这篇文章主要介绍了 我们并没有觉得MapReduce速度慢,直到Spark出现 小编觉得挺不错的,现在分享给大家,帮大家做个参考.

learn from 从0开始学大数据(极客时间)

Spark 拥有更快的执行速度
更友好的编程接口
迅速抢占 MapReduce 的市场份额,成为主流的大数据计算框架

val textFile = sc.textFile("hdfs://...") // 根据 HDFS 路径生成一个输入数据 RDD val counts = textFile.flatMap(line => line.split(" "))// 每一行文本用空格拆分成单词.map(word => (word, 1))// 每个单词进行转换,word => (word, 1),生成 <Key, Value> 的结构.reduceByKey(_ + _)// 相同的 Key 进行统计,统计方式是对 Value 求和,(_ + _) counts.saveAsTextFile("hdfs://...") // 将这个 RDD 保存到 HDFS

RDD 是 Spark 的核心概念,是弹性数据集(Resilient Distributed Datasets)的缩写

MapReduce 面向过程的大数据计算

Spark 将大规模数据集合抽象成一个 RDD 对象,然后在这个 RDD 上进行各种计算处理,得到一个新的 RDD,继续计算处理,直到得到最后的结果数据。

Spark 可以理解成是面向对象的大数据计算。
在进行 Spark 编程的时候,思考的是一个 RDD 对象需要经过什么样的操作,转换成另一个 RDD 对象

RDD 上定义的函数分两种

  • 转换(transformation)函数,返回值还是 RDD
  • 执行(action)函数,不再返回 RDD

总结

以上是生活随笔为你收集整理的我们并没有觉得MapReduce速度慢,直到Spark出现的全部内容,希望文章能够帮你解决所遇到的问题。

如果觉得生活随笔网站内容还不错,欢迎将生活随笔推荐给好友。