- 博客(2)
- 资源 (2)
- 收藏
- 关注
原创 spark使用
一、基础概念: RDD对象: spark的核心对象, 文件等加载均转化为RDD对象(SparkContext.textFile(input_file) ) RDD对象属性、方法:map、reduce、flatmap、reducebykey二、使用1.声明:from pyspark import SparkContext, Spark
2016-05-31 10:36:04 3875
原创 github使用(linux)
一、基本准备1.github注册2.本地服务器链接到github(提交秘钥)二、开发1. 基于主干的开发基本概念: 远端(orgin): github上的数据仓库(此处是主干,分支模式下自己所负责的分支) 本地(开发所在的服务器): master:本地代码仓库 当前开发目录:当前开发所在的目录处理流程:a.拷贝代
2016-05-21 14:26:46 318
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人