自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(27)
  • 资源 (1)
  • 收藏
  • 关注

原创 2019cs224n-word2vec

其中的一种形式,中心词预测周围的词。m是两边的范围,上图中就是2。概率输出其实就是softmax

2019-06-05 08:52:49 153

原创 bert-tokenization-WordpieceTokenizer

class WordpieceTokenizer(object): """Runs WordPiece tokenziation.""" def __init__(self, vocab, unk_token="[UNK]", max_input_chars_per_word=200): self.vocab = vocab self.unk_token = unk_t...

2019-05-17 11:00:40 1388

翻译 svm loss

2019-03-27 09:36:21 229

转载 机器学习图

https://github.com/trekhleb/homemade-machine-learning/blob/master/images/machine-learning-map.png

2019-03-24 13:44:35 298

原创 吴恩达课后——Planar data classification with one hidden layer

主要涉及: 逻辑回归分类效果,单隐藏神经网络实现,包括前向传播与反向传播地址:逻辑回归的效果主要结构:主要传播公式(图片源自吴恩达):单隐藏层四个节点效果其他个数节点的效果...

2019-03-16 16:34:55 172

原创 吴恩达课后——Logistic Regression with a Neural Network mindset

主要涉及: sigmoid,初始化权重,手写公式推导与代码,cost迭代,预测,模型整合,实际测试。github放上自己的图片预测结果——无猫的图片放上自己的图片预测结果——有猫的图片...

2019-03-16 16:26:52 230

原创 加入l2以后的情况,有点意思

kernel_regularizer=keras.regularizers.l2(0.001)

2019-03-07 16:27:03 228

原创 随着Epochs的增大,同一数据,不同深度的模型,训练以及验证集的误差变化

2019-03-07 16:06:31 1492 4

翻译 逻辑回归的代价函数-数学推算

2019-03-04 09:10:50 224

翻译 少使用秩为1的数组,可以使用numpy中的reshape,进行转换

2019-03-04 09:09:44 504

翻译 激活函数sigmoid,tanh,relu,leaky relu图像

2019-03-04 09:07:49 1286

翻译 逻辑回归前后传播与求导

2019-03-04 09:06:01 230

翻译 tanh函数图像以及求导

2019-03-04 09:02:25 10070

翻译 neural network forward and backward propagation(前向传播和后向传播)

神经网络的前向传播和后向传播

2019-03-04 09:00:25 639

翻译 有关梯度下降--吴恩达机器学习

2019-02-07 19:26:45 148

原创 高偏差和高方差、欠拟合和过拟合——验证你模型的拟合情况

图片源自图片右下角:)可以验证你模型的拟合情况

2019-01-23 15:31:54 412

原创 loc、iloc区别

loc是以index及column的key作为索引对象的而iloc是以行列所在的整数索引作为对象(从0开始)

2019-01-09 10:00:17 1255

原创 缺失值填充,众数

features.loc[col, 'features'] = features['features'].median()features.loc[col, 'features'] = features['features'].mode()[0]

2019-01-02 14:55:26 3465

原创 seaborn之regplot

import seaborn as snsJupyter NoteBook 5.5.0python 3.6.5  

2018-12-17 20:41:37 925

原创 seaborn绘制heatmap,查看相关性

Jupyter NoteBook 5.5.0python 3.6.5 

2018-12-16 12:11:59 1964 1

原创 sort_values使用

Jupyter NoteBook 5.5.0python 3.6.5 

2018-12-16 11:39:23 638

原创 查看预测目标分布

Jupyter NoteBook 5.5.0python 3.6.5  

2018-12-16 11:24:38 365

原创 matplotlib之scatter的使用

Jupyter NoteBook 5.5.0python 3.6.5 

2018-12-15 19:04:53 201 1

原创 seaborn绘图:seaborn.displot查看变量分布

版本:Jupyter NoteBook 5.5.0  python 3.6.5例子:fig, axes = plt.subplots(nrows = 19, ncols = 2, figsize = (40, 200))for ax, column in zip(axes.flatten(), x_train.columns):    sns.distplot(x_train[colum...

2018-12-13 20:34:55 3728

翻译 机器学习-GridSearchCV scoring 参数设置!

分类情况:‘accuracy’ metrics.accuracy_score ‘average_precision’ metrics.average_precision_score ‘f1’ metrics.f1_score ‘f1_micro’ metrics.f1_score ‘f1_macro’ metrics.f1_score ‘f1_...

2018-12-12 21:12:04 24065 3

原创 机器学习:train_test_split()拆分的略微不足之处!

  把训练集train拆分成训练集 X_train, X_test, Y_train, Y_testd的时候,常常会用到这个方法——train_test_split  X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size = 0.1, random_state = 0)  但是这个方法有一点不妥之处。  ...

2018-12-12 16:30:56 3173

翻译 机器学习:LinearRegression().score返回的是决定系数R²-其中含义

              R² =(1-u/v)。      u=((y_true - y_pred) ** 2).sum()     v=((y_true - y_true.mean()) ** 2).sum()      其中y_pred已经在score方法中通过predict()方法得到,再与y_true进行比对。      所以y_true和y_pred越接近,u/v的值...

2018-12-12 11:23:14 13787

jd-gui-windows-1.4.1

java反编译工具1.4.1!

2019-03-21

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除