机器学习算法应用中常用技巧

1 取样

数据量很大的时候,想要先选取少量数据来观察一下细节。

indices = [100,200,300]# 把sample原来的序号去掉重新分配samples = pd.DataFrame(data.loc[indices], columns = data.keys()).reset_index(drop = True)print "Chosen samples:"display(samples)

2 Split数据

用 sklearn.cross_validation.train_test_split 将数据分为 train 和 test 集。
sklearn

from sklearn import cross_validation
X = new_data
y = data['Milk']
X_train, X_test, y_train, y_test = cross_validation.train_test_split(X, y, test_size = 0.25, random_state = 0)print len(X_train), len(X_test), len(y_train), len(y_test)

分离出 Features & Label

有时候原始数据并不指出谁是label,自己判断

# Store the 'Survived' feature in a new variable and remove it from the datasetoutcomes = full_data['Survived'] 
data = full_data.drop('Survived', axis=1)

3. 用 train 来训练模型,用 test 来检验

用 Decision Tree 来做个例子
sklearn

from sklearn import tree 
regressor = tree.DecisionTreeRegressor()
regressor = regressor.fit(X_train, y_train)
score = regressor.score(X_test, y_test)

4. 判断 feature 间的关联程度

pd.scatter_matrix(data, alpha = 0.3, figsize = (14, 8), diagonal = 'kde');

5. scaling

当数据不符合正态分布的时候,需要做 scaling 的处理。常用的方法是取log。

pd.scatter_matrix(log_data, alpha = 0.3, figsize = (14,8), diagonal = 'kde');

scaling前后对比图:



6. Outliers

方法之一是 Tukey 方法,小于 Q1 – (1.5 × IQR) 或者大于 Q3 + (1.5 × IQR) 就被看作是outlier。

先把各个 feature 的 outlier 列出来并排好序:

for feature in log_data.keys(): 
   Q1 = np.percentile(log_data[feature], 25)
   Q3 = np.percentile(log_data[feature], 75)
   step = 1.5 * (Q3 - Q1)    print "Outliers for feature '{}':".format(feature)    print Q1, Q3, step
   display(log_data[~((log_data[feature]>=Q1-step) & (log_data[feature]<=Q3+step))].sort([feature]))

再配合 boxplot 观察,到底哪些 outlier 需要被移除:

plt.figure() 
plt.boxplot([log_data.Fresh, log_data.Milk, log_data.Grocery, log_data.Frozen, log_data.Detergents_Paper, log_data.Delicassen], 0, 'gD');


7. 降维-PCA

n_components为降到多少维,用原数据fit后,再用transform转换成降维后的数据。

from sklearn.decomposition import PCA 
pca = PCA(n_components = 6)
pca.fit(good_data)
reduced_data = pca.transform(good_data)
reduced_data = pd.DataFrame(reduced_data, columns = ['Dimension 1', 'Dimension 2'])

8. 聚类-选择类别数

用 silhouette coefficient 计算每个数据到中心点的距离,-1 (dissimilar) to 1 (similar) 根据这个系数来评价聚类算法的优劣。

from sklearn.cluster import KMeansfrom sklearn.metrics import silhouette_score 
cluster = KMeans(n_clusters=2, random_state=0).fit(reduced_data)
preds = cluster.predict(reduced_data)
score = silhouette_score(reduced_data, preds)

选择分数最大的个数作为聚类的类别数。


9. 恢复维度

例如数据,先经过 log,又经过 PCA降维, 要恢复回去,先用 pca.inverse_transform,再用 np.exp

log_centers = pca.inverse_transform(centers) 
true_centers = np.exp(log_centers)
true_centers = pd.DataFrame(np.round(true_centers), columns = data.keys())

数据变化:


10. 自定义accuracy

分类问题可以自己写accuracy的函数

def accuracy_score(truth, pred): 
   """ Return accuracy score for input truth and prediction"""

   if len(truth)==len(pred):        return "Accuracy for prediction: {:.2f}%.".format((truth==pred).mean()*100)    else:        return "Numbers do not match!"

END.

来源:http://www.jianshu.com/p/2dd24205c2f8&nbsp;


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值