[多选题]Spark采用RDD以后能够实现高效计算的原因主要在于?
江开题库
|
2023-10-02 10:09:04
|
23
[多选题]Spark采用RDD以后能够实现高效计算的原因主要在于?

A.高效的容错性
B.中间结果持久化到内存,避免了不必要的读写磁盘开销
C.存放的数据可以是Java对象,避免了不必要的对象序列化和反序列化
D.采用数据复制实现容错
查看答案

江苏开放大学

大数据库管理

您可能感兴趣的试题
TOP