(单选)Spark 和 MapReduce 都是 Hadoop 中最基础的分布式计算框架,关于两者共同点的描述,以下哪一项是正确的?
(A)都提供了Map和Reduce数据操作方法
(B)都需要依赖HDFS存储中间结果数据
(C)都是用来处理非SQL类的批处理作业
(D)都可以用于复杂数据挖掘和机器学习场景
参考答案
继续答题:下一题
(A)都提供了Map和Reduce数据操作方法
(B)都需要依赖HDFS存储中间结果数据
(C)都是用来处理非SQL类的批处理作业
(D)都可以用于复杂数据挖掘和机器学习场景