【注意:本课程只包含pyspark系列课程的基础入门部分】
Python版本的pyspark是学习Python的人的福音,为广大的Python开发人员提供了一个使用Python调用Spark接口处理大数据的有力工具。本课程提供细致详尽的Spark API的讲解,以实战的方式帮助广大Python开发人员,使用Spark这一强有力的工具进行数据分析。
本课程会提供基于Docker的Hadoop及Spark的环境搭建,使用Docker制作Hadoop,Spark镜像一键启动Spark集群。镜像制作简单,并且一次制作,随时随地都能使用镜像一键启动集群。
通过本课程的学习,能够对Spark的部署及运行原理有非常深刻的了解,并且学习Docker中最基本的命令及使用技巧。这门课程是pyspark大数据系列课程中的基础课程,SparkSQL,SparkStreaming,Spark机器学习的内容在单独课程中发布,后续会陆续的发布新的课程。由浅到深的带大家深入学习大数据领域最火的项目Spark。帮助大家进入大数据领域,抓住大数据浪潮的尾巴。
软件版本:Hadoop2.7.3
Spark2.3.0
Scala2.11.8
Python2.7.12
Jdk-8u101-linux-x64
Docker 1.12.6
Apache-hive-2.3.2-bin
Mysql-5.5.45-linux2.6-x86_64
Mysql-connector-java-5.1.37-bin
内容涉及:pyspark 基础模块
中间还会涉及到云计算中的docker容器技术,课程的学习环境就是使用Docker三个容器搭建的分布式环境
学以致用,一键起飞!