登录  注册

首页->华为HCIE

(单选)Spark 和 MapReduce 都是 Hadoop 中最基础的分布式计算框架,关于两者共同点的描述,以下哪一项是正确的?

(A)都提供了Map和Reduce数据操作方法

(B)都需要依赖HDFS存储中间结果数据

(C)都是用来处理非SQL类的批处理作业

(D)都可以用于复杂数据挖掘和机器学习场景

参考答案
继续答题:下一题
微考学堂微考学社

更多华为HCIE试题

考试