深度学习
文章平均质量分 79
小白tree
致力于成为图形学工程师的小白
展开
-
sklearn风格的keras接口KerasClassifier、KerasRegressor
from tensorflow.keras.wrappers.scikit_learn import KerasRegressor, KerasClassifierkeras有这样一个sklearn风格的接口,可以满足sklearn风格的写法。这里仅给出回归示例:def build_regresor_model(lr): """ 构建网络,并编译 """ model = Sequential() model.add(Dense(units=128, activ原创 2022-02-22 17:52:04 · 3640 阅读 · 2 评论 -
深度学习推荐系统的算法简单实现
一、数据集获取二、数据处理1、读取csv文件2、用户ID和图书ID的处理三、深度学习模型四、评估模型1、loss2、TSNE和PCA降维参考:《Building a book Recommendation System using Keras》《用 Keras 实现图书推荐系统》《新闻分类:多分类问题(Keras实现)》《Series.value_counts,pd.value_counts计算Series,DataFrame数据频率》...原创 2021-06-16 17:05:15 · 5161 阅读 · 7 评论 -
Kaggle猫狗大战升级版VGG16处理
读《Python深度学习》笔记其中的vgg16_weights_tf_dim_ordering_tf_kernels_notop.h5我放在这了链接:https://pan.baidu.com/s/1Zr2diB69xYRizz-JGS93gw提取码:i5lj'''使用VGG网络:但不使用数据增强的快速特征提取''''''将VGG16卷积实例化'''from keras.applic...原创 2019-08-18 12:00:59 · 933 阅读 · 0 评论 -
读Python深度学习笔记
加载Keras中的MNIST数据集原创 2019-08-18 11:59:23 · 155 阅读 · 0 评论 -
新闻分类:多分类问题(Keras实现)
可能大家对训练集(train_data, train_labels)、验证集(validation_data, validation_labels)和 测试集(test_data, test_labels)怎么区分的有些迷糊。可以看看这两篇博文:1.训练集、验证集和测试集这三个名词的区别2.验证集与测试集有什么区别?为什么要分训练集、验证集和测试集?'''使用路透社数据集处理多分类问题'...原创 2019-08-11 12:14:06 · 1198 阅读 · 0 评论 -
电影评论分类:二分类问题(Keras实现)
1.IMDB数据集IMDB数据集包含来自互联网电影数据库(IMDB)的50000条严重两极分化的评论。数据集被分为用于训练的25000条评论与用于测试的25000条评论,训练集和测试集都包含50%的正面评论和50%的负面评论。加载IMDB数据集from keras.datasets import imdb(train_data, train_labels), (test_data, tes...原创 2019-08-09 14:46:43 · 1999 阅读 · 0 评论 -
损失和精度的联系(损失增大为什么精度也提升?)
loss和accuracy之间并不是一定反相关有时候我们会在plot的图上发现损失增大了,但精度却也在提升,这是为什么呢?我们经常计算的损失其实是逐点(pointwise)损失值的平均值,但影响精度的是损失值的分布,而不是平均值,因为精度是模型预测的类别概率的二进制阈值。即使从平均损失中无法看出,但模型也仍然可能在改进。...原创 2019-08-14 01:13:24 · 3435 阅读 · 1 评论 -
Kaggle猫狗大战简单版处理
读《Python深度学习》下载Kaggle猫狗大战(cats-vs-dogs)数据集train_dir = r'G:\00_文件\数据集\kaggle数据集\dogs-vs-cats-small\train'validation_dir = r'G:\00_文件\数据集\kaggle数据集\dogs-vs-cats-small\validation'test_dir = r'G:\00_文...原创 2019-08-13 21:09:39 · 843 阅读 · 1 评论 -
tensorflow 2.0 (二)输出方式——relu\softmax\sigmoid\tanh
一般把没有用激活函数激活的结果叫 logits1.softmax =>用于将输出结果归一化,即输出各种结果的概率总和为1但是有个非线性的特点就是(如1.0对应的可能性是0.2, 2.0对应的可能性是0.7)2.sigmoid =>适用于分类跟relu函数一样都是激活函数,但是可以将单个输出结果的值归一化到[0,1](总的输出结果超过1)3.tanh =>...原创 2019-06-03 22:26:56 · 3778 阅读 · 0 评论 -
tensorflow 2.0 (三)损失函数——MSE\Entropy\Hinge Loss
计算预测值与正确解之间的误差是很重要的一步,一般有三种计算误差的方式1.MSE =>有以下两种表现形式来看看代码实现:import tensorflow as tfy = tf.constant([1,2,3,0,2])y = tf.one_hot(y, depth=4)y = tf.cast(y, dtype=tf.float32)out = tf.random.no...原创 2019-06-04 19:18:49 · 7036 阅读 · 1 评论 -
tensorflow 2.0 (八)池化与采样
outline(大纲)Pooling 下采样upsample 上采样ReLU一、Max/Avg pooling作用:与卷积中的窗口滑动一样,不过是窗口内的 多数据 => 单数据但是pooling不会改变 channel 通道如图,当步长stride = 2时,窗口实际上是在几个颜色块中分别运算...原创 2019-06-07 15:22:50 · 2133 阅读 · 0 评论 -
tensorflow2.0 在pycharm下提示问题
原地址:https://www.cnblogs.com/oldBook/p/10689032.htmltensorflow2.0 使用keras一般通过tensorflow.keras来使用,但是pycharm没有提示,原因是因为实际的keras路径放在tensorflow/python/keras,但是在程序中tensorflow有没有python这个目录,解决方法如下:try: i...转载 2019-05-20 14:43:19 · 2021 阅读 · 1 评论 -
卷积神经网络中padding后计算输出大小公式
假设输入大小为(H,W),滤波器大小为(FH,FW),输出大小为(OH,OW),填充为P,步幅为S。此时,输出大小公式:OH = H+2P−FHS\frac{H + 2P - FH} {S}SH+2P−FH + 1OW = W+2P−FWS\frac{W + 2P - FW}{S}SW+2P−FW+1举例:输入大小:(28,31);填充:2;步幅:3;滤波器大小:(5,5)O...原创 2019-04-16 16:57:52 · 3141 阅读 · 0 评论