- 博客(2)
- 资源 (4)
- 收藏
- 关注
转载 Spark环境安装部署教程
Apache Spark 是一个新兴的大数据处理通用引擎,提供了分布式的内存抽象。Spark 正如其名,最大的特点就是快(Lightning-fast),可比 Hadoop MapReduce 的处理速度快 100 倍。此外,Spark 提供了简单易用的 API,几行代码就能实现 WordCount。本教程主要参考官网快速入门教程,介绍了 Spark 的安装,Spark shell 、RD
2017-12-05 09:57:44 795
原创 在互联网行业干数据分析师,都需要掌握哪些技能?编程语言?软件工具?
在互联网行业做数据分析师,不仅需要具备扎实的统计学理论基础,同时对于编程的要求也很高,因为互联网与传统行业不同的是数据完全依赖与系统产生,无论是客户信息、用户行为还是整个业务流程的各个环节都来自于对应的软件系统,包括app、web客户端或者后台的客户关系管理、数据仓库、系统日志等等。
2017-12-04 11:31:09 6679 1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人