- 博客(1)
- 收藏
- 关注
原创 Linux环境安装Spark及Jupyter配置记录
Apache Spark(简称Spark)是一个开源的统一分析引擎,专为大规模数据处理设计。它最初由加利福尼亚大学伯克利分校的AMPLab开发,旨在克服Hadoop MapReduce的局限性。Spark能够进行内存中的数据处理,这使得它在处理迭代算法和交互式数据分析时,比传统的MapReduce要快得多() ()。
2024-07-23 22:45:12 921 1
空空如也
宝塔面板配置wordpress404页面问题
2024-07-12
TA创建的收藏夹 TA关注的收藏夹
TA关注的人