机器学习
计算机视觉,机器学习,神经网络相关代码
AkagiSenpai
哼 ~ 哼 啊啊啊啊啊啊啊啊啊
▃▆█▇▄▖
▟◤▖ ◥█▎
◢◤ ▐ ▐▉
▗◤ ▂ ▗▖ ▕█▎
◤ ▗▅▖◥▄ ▀◣ █▊
▐ ▕▎◥▖◣◤ ◢██
█◣ ◥▅█▀ ▐██◤
▐█▙▂ ◢██◤
◥██◣ ◢▄◤
▀██▅▇▀
展开
-
Keras简单实现自定义损失函数
keras大家都用过,可是想要自定义一个简单的损失函数,可不是一件简单的事情,今天介绍一种笨比方法来自定义keras的函数,无需修改keras底层代码我们把神经网络比作黑箱子,我们提供输入和答案,它就会自己学习啦(是不是很像小学生?),我们想自定义损失函数,可是keras底层错综复杂,但是可以通过提供模块化的损失函数封装来解决这个问题(不用修改keras源码)目 录大致流程代码实现步骤代码实现-sin函数的拟合普通的keras实现自定义损失的实现大致流程因为【提供输入和答案就能自动学习】的特性,我原创 2020-05-24 22:33:18 · 7645 阅读 · 3 评论 -
Softmax层 输出&梯度推导及Python实现
Softmax层 输出&梯度推导及Python实现详细代码在这里,存在于Layer.py中的Softmax类里面推导太长不看 下面有结论及代码结论约定:Input = I 输入,Output = O 输出Softmax层的前向传播非常简单,就是输入向量的每个分量取指数,再除以所有分量的指数和即可反向传播需要计算输出向量对输入向量的导数,输出向量i分量(Oi)对输...原创 2020-01-23 16:54:44 · 1170 阅读 · 0 评论 -
均方差损失函数求误差及梯度
均方差损失函数求误差及梯度完整源码可戳:https://github.com/AKGWSB/Convolution-Neural-Network-Frame-only-based-on-Numpy-/blob/master/Loss.py损失函数表达式即 输出减去目标的平方再乘以二分之一MSE = 1/2 * (output - target)^2求梯度均方差损失函数的求导相对简单...原创 2020-01-15 17:05:06 · 3221 阅读 · 0 评论 -
Numpy实现神经网络全连接层
Numpy实现神经网络全连接层详细源码戳:https://github.com/AKGWSB/Convolution-Neural-Network-Frame-only-based-on-Numpy-(位于 Layer.py 文件中 的 Dense 类 的 FP 函数中)Part 1 前向传播首先假设一个这样的全连接层(不带偏置项)输入是一个(3, 1)的矩阵,输出是一个(2, 1)的...原创 2020-01-14 14:58:03 · 2730 阅读 · 0 评论