![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
Cost_X
这个作者很懒,什么都没留下…
展开
-
有关梯度下降--吴恩达机器学习
翻译 2019-02-07 19:26:45 · 150 阅读 · 0 评论 -
svm loss
翻译 2019-03-27 09:36:21 · 233 阅读 · 0 评论 -
吴恩达课后——Planar data classification with one hidden layer
主要涉及: 逻辑回归分类效果,单隐藏神经网络实现,包括前向传播与反向传播地址:逻辑回归的效果主要结构:主要传播公式(图片源自吴恩达):单隐藏层四个节点效果其他个数节点的效果...原创 2019-03-16 16:34:55 · 173 阅读 · 0 评论 -
吴恩达课后——Logistic Regression with a Neural Network mindset
主要涉及: sigmoid,初始化权重,手写公式推导与代码,cost迭代,预测,模型整合,实际测试。github放上自己的图片预测结果——无猫的图片放上自己的图片预测结果——有猫的图片...原创 2019-03-16 16:26:52 · 231 阅读 · 0 评论 -
加入l2以后的情况,有点意思
kernel_regularizer=keras.regularizers.l2(0.001)原创 2019-03-07 16:27:03 · 230 阅读 · 0 评论 -
随着Epochs的增大,同一数据,不同深度的模型,训练以及验证集的误差变化
原创 2019-03-07 16:06:31 · 1497 阅读 · 4 评论 -
逻辑回归的代价函数-数学推算
翻译 2019-03-04 09:10:50 · 225 阅读 · 0 评论 -
少使用秩为1的数组,可以使用numpy中的reshape,进行转换
翻译 2019-03-04 09:09:44 · 504 阅读 · 0 评论 -
激活函数sigmoid,tanh,relu,leaky relu图像
翻译 2019-03-04 09:07:49 · 1287 阅读 · 0 评论 -
逻辑回归前后传播与求导
翻译 2019-03-04 09:06:01 · 230 阅读 · 0 评论 -
tanh函数图像以及求导
翻译 2019-03-04 09:02:25 · 10128 阅读 · 0 评论 -
neural network forward and backward propagation(前向传播和后向传播)
神经网络的前向传播和后向传播翻译 2019-03-04 09:00:25 · 642 阅读 · 0 评论 -
机器学习图
https://github.com/trekhleb/homemade-machine-learning/blob/master/images/machine-learning-map.png转载 2019-03-24 13:44:35 · 299 阅读 · 0 评论