![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Machine Learning
八点博客(钏)
专注分享技术交流
展开
-
keras 使用dropout 正则化 解决过拟合问题
import keras from keras.datasets import mnist from keras.utils import np_utils from keras.layers import Dense from keras.layers import Dropout from keras.regularizers import l2#正则化 from keras.models...原创 2020-04-22 16:44:33 · 448 阅读 · 0 评论 -
keras 交叉熵 过拟合 dropout
交叉熵:crossentropy。交叉熵可在神经网络(机器学习)中作为损失函数,p表示真实标记的分布,q则为训练后的模型的预测标记分布,交叉熵损失函数可以衡量p与q的相似性。交叉熵作为损失函数还有一个好处是使用sigmoid函数在梯度下降时能避免均方误差损失函数学习速率降低的问题,因为学习速率可以被输出的误差所控制。 过拟合:overfit。训练样本的得到的输出和期望输出基本一致,但是测试样本输...原创 2020-04-22 16:27:52 · 503 阅读 · 0 评论 -
mnist 数据集
基础概念 one-hot:独热编码 。将类别变量转换为机器学习算法易于利用的一种形式的过程。这个向量只有一个特征是不为0的,其他都是0,特别稀疏keras中用to_categorical实现独热编码 from keras.utils.np_utils import to_categorical int_labels = [1,2,9,4] labels = ["1","8"] categor...原创 2020-04-22 13:07:15 · 313 阅读 · 0 评论 -
keras 实现非线性回归
import keras from keras.layers import Dense from keras.models import Sequential from keras.optimizers import SGD import numpy as np import matplotlib.pyplot as plt x_data = np.linspace(-0.5,0.5,200...原创 2020-04-21 22:57:16 · 266 阅读 · 0 评论 -
keras 实现线性回归
import keras from keras.layers import Dense from keras.models import Sequential import numpy as np import matplotlib.pyplot as plt x_data = np.random.rand(100) noise = np.random.normal(0,0.01,x_dat...原创 2020-04-21 22:12:54 · 186 阅读 · 0 评论