- 博客(90)
- 资源 (7)
- 收藏
- 关注
转载 敏感性与特异性理解笔记
https://blog.csdn.net/weixin_30420305/article/details/101995594?utm_medium=distribute.pc_relevant_t0.none-task-blog-OPENSEARCH-1.nonecase&depth_1-utm_source=distribute.pc_relevant_t0.none-task-blog-OPENSEARCH-1.nonecase
2020-05-28 23:23:43 512
转载 图片增强来解决图片不足问题
https://blog.keras.io/building-powerful-image-classification-models-using-very-little-data.html
2020-05-28 13:03:26 151
转载 图片增强深度学习deep learning keras
https://machinelearningmastery.com/image-augmentation-deep-learning-keras/
2020-05-28 13:02:06 149
转载 keras各种模型大全
https://s3.amazonaws.com/assets.datacamp.com/blog_assets/Keras_Cheat_Sheet_Python.pdf
2020-05-28 07:54:54 655
转载 取整函数(ceil、floor、round)
ceil:在英文中,是天花板的意思,有向上的意思,所以,此函数是向上取整,它返回的是大于或等于函数参数,并且与之最接近的整数https://blog.csdn.net/aouixh/article/details/53483556?utm_medium=distribute.pc_relevant_t0.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase&depth_1-utm_source=distribute.pc_rel.
2020-05-27 07:32:02 992
转载 keras回调监控函数
在训练过程中,你可以使用很多回调(例如 ModelCheckpoint)来监控你的模型。你可以参阅此处的详情内容。建议你先详细了解 EarlyStopping 回调。如果你想查看另一个 ModelCheckpoint 代码示例,请参阅这篇博文。https://keras.io/api/callbacks/modelcheckpointhttps://machinelearningmastery.com/check-point-deep-learning-models-keras/...
2020-05-25 23:40:24 119
转载 keras扁平化 激活函数 避免过拟合技巧
keras扁平化https://keras.io/api/layers/core_layers/lambda/了解激活函数https://cs231n.github.io/neural-networks-1/#actfun避免过拟合技巧https://www.cs.toronto.edu/~hinton/absps/JMLRdropout.pdf
2020-05-25 22:57:20 195
转载 BP后向算法
https://medium.com/@karpathy/yes-you-should-understand-backprop-e2f06eab496b#.vt3ax2kg9
2020-05-25 15:51:08 275
转载 可汗学院向量入门 矩阵入门
向量入门https://www.khanacademy.org/math/linear-algebra/vectors-and-spaces/vectors/v/vector-introduction-linear-algebra矩阵入门https://www.khanacademy.org/math/precalculus-2018/precalc-matrices
2020-05-23 17:04:27 220
转载 ndarray维度认识及np.concatenate函数详解
https://blog.csdn.net/kealennieh/article/details/82464665
2020-05-22 12:00:00 256
转载 keras如何解决局部最小问题
keras如何解决局部最小问题https://ruder.io/optimizing-gradient-descent/index.html#rmspropkeras如何解决局部最小问题 APIhttps://keras.io/api/optimizers/
2020-05-21 17:33:59 247
转载 过拟合曲线与早期停止法
从EPOCH20开始出现了过拟合曲线,表征是此时测试集的误差达到了最低,再往后的训练导致训练集的误差虽然进一步减小,但是测试集合的误差却持续走高,这就是过拟合的明显特征https://classroom.udacity.com/nanodegrees/nd009-cn-advanced/parts/5f4d630c-d15a-412c-aaeb-b57ad61cd03c/modules/3aa9e812-62cd-4ae3-8fc4-593538f08455/lessons/2f907351-...
2020-05-21 15:48:15 508
转载 keras.utils.to_categorical用法
https://blog.csdn.net/Arthur_Holmes/article/details/90400946?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase
2020-05-20 17:17:01 368
原创 keras使用总结
构建一个简单的多层前向反馈神经网络以解决 XOR 问题。将第一层设为Dense()层,并将节点数设为8,且input_dim设为 2。 在第二层之后使用 softmax 激活函数。 将输出层节点设为 2,因为输出只有 2 个类别。 在输出层之后使用 softmax 激活函数。 对模型运行 10 个 epoch。...
2020-05-20 16:16:31 198
转载 keras 等深度学习官网文档 API
https://keras.io/https://www.tensorflow.org/http://caffe.berkeleyvision.org/http://deeplearning.net/software/theano/https://scikit-learn.org/stable/
2020-05-20 16:08:09 106
转载 pandas loc iloc(self index location 即按照行索引来获取数据)
https://blog.csdn.net/w_weiying/article/details/81411257
2020-05-20 13:01:14 857
转载 pandas_getdummies()
https://blog.csdn.net/u010712012/article/details/83002388
2020-05-20 12:11:41 200
原创 计算 sigmoid 函数的导数
计算 sigmoid 函数的导数回想一下,sigmoid 函数有一个完美的导数,我们可以在下面的计算中看到。这将使我们的反向传播步骤更加简洁。
2020-05-19 22:57:14 607
转载 unsupported operand type(s) for + NoneType and int
这个错误多半是你函数设置的判断语句存在一个都不符合的,函数没有返回值,默认返回None
2020-05-18 13:03:38 2072
转载 numpy常用函数之random.normal函数
numpy常用函数之random.normal函数4、np.random.normal(loc=0.0, scale=1.0, size=None)作用: 生成高斯分布的概率密度随机数loc:float 此概率分布的均值(对应着整个分布的中心centre)scale:float 此概率分布的标准差(对应于分布的宽度,scale越大越矮胖,scale越小,越瘦高)size:int or tuple of ints 输出的shape,默认为None,只..
2020-05-18 12:33:51 1521
转载 条件随机场
https://www.cnblogs.com/kerwins-AC/p/9584862.htmlhttps://zhuanlan.zhihu.com/p/34261803
2020-05-17 21:26:10 82
transfer dense121迁移学习模型模板参数不变只训练classifier这一层的参数.py
2020-06-17
PARTIONMAGIC
2011-05-04
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人