- 博客(1)
- 资源 (14)
- 收藏
- 关注
原创 spark算子的类型
spark 分为三种算子 第一种为key-value型的transform类型的算子为lazy型 ,只有出发action时才能提交job 第二种为value型的transform类型的算子为lazy型。。。 第三种为action的算子 ...
2017-07-28 08:28:10 904
疝气病数据集逻辑回归
机器学习实战数据集def loadDataSet():
3 dataMat = [] ; labelMat = []
4 fr = open('testSet.txt')
5 for line in fr.readlines(): # 对文件的数据进行按行遍历
6 lineArr = line.strip().split()
7 dataMat.append([1.0, float(lineArr [0]), float(lineArr[1])])
8 labelMat.append(int(lineArr[2])) # 数据的类别号列表丰富
2018-07-18
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人