深度学习
文章平均质量分 76
星辰同学wwq
每天进步一点点,让经验转化自我,让行动成就自己。
加油!加油!!加油!!!
展开
-
Python中pass、exit()的区别
pass:不做任何事情,只起到占位的作用exit():结束整个程序for i in "Python": if i == "y": pass else: print(i)print("#" * 10)for i in "Python": if i == "t": exit() else: print(i)print("#" * 10)for i in range(10): print(i原创 2021-05-17 15:33:50 · 313 阅读 · 2 评论 -
Tensorflow的训练流程和部署流程你知道吗?
训练流程 数据的处理:使用tf.data和TFRecord可以高效地构建和预处理数据集,构建训练数据流。同时可以使用TensorFlow Datasets快速载入常用的公开数据集。 模型的建立与调试:使用即时执行模式和著名的神经网络高层API框架Keras,结合可视化工具TensorBoard,简易、快速地建立和调试模型。也可以通过TensorFlow Hub方便地载入已有的成熟模型。 模型的训练:支持在CPU、GPU、TPU上训练模型,支持单机和多机集群并行训练模型,充分利用海量数据和计算资..原创 2021-05-13 11:20:37 · 745 阅读 · 3 评论 -
五、神经网络过拟合处理方法(二):手写数字识别(Mnist)数据集
神经网络过拟合处理方法手写数字识别(Mnist)数据集Mnist数据集是一个手写数字识别数据集,被称为深度学习界的“Hello World”。Mnist数据集包含:训练集:60,000张28×28灰度图测试集:10,000张28×28灰度图共有0~9这10个手写数字体类别。导入必要的模块import tensorflow as tffrom tensorflow.keras import datasets, regularizers, Input, Modelfrom te原创 2021-05-12 18:51:49 · 1460 阅读 · 2 评论 -
五、神经网络过拟合处理方法(一)
1. 什么是过拟合?过拟合(Overfitting):模型过于复杂(所包含的参数过多),以致于模型对训练集的拟合很好,但对未知数据预测很差的现象(泛化能力差)。过拟合可以通过观测训练集和验证集的loss变化判断:随着epoch或step的增加,训练集loss不断下降,而验证集loss先下降后抬升。2. 常见过拟合解决办法有哪些?(1)增加训练数据量(2)减少模型复杂度(3)添加正则项(4)提前终止(Early Stopping)训练的过程中,记录到目前为止最好的验证集原创 2021-05-12 14:29:12 · 12340 阅读 · 5 评论 -
四、深度学习基础:深度学习基础之手写Mnist数字识别
手写数字识别Mnist数据集是一个手写数字识别数据集,被称为深度学习界的“Hello World”。Mnist数据集包含:训练集:60,000张28×28灰度图测试集:10,000张28×28灰度图共有0~9这10个手写数字体类别。导入必要的模块import numpy as npimport pandas as pdimport matplotlib.pyplot as pltimport tensorflow as tffrom tensorflow.keras i原创 2021-05-12 14:00:47 · 495 阅读 · 6 评论 -
三、欠拟合和过拟合
多项式拟合实例导入必要的模块import numpy as npimport pandas as pdimport matplotlib.pyplot as pltfrom sklearn.preprocessing import StandardScalerfrom sklearn.preprocessing import PolynomialFeaturesfrom sklearn.linear_model import LinearRegression, Ridgefrom sklea原创 2021-05-10 12:14:42 · 461 阅读 · 5 评论 -
二、逻辑回归
logistic回归的keras实现导入必要的模块import numpy as npimport pandas as pdimport matplotlib.pyplot as pltfrom sklearn.model_selection import train_test_splitimport tensorflow as tffrom tensorflow.keras.models import Sequentialfrom tensorflow.keras.layers imp原创 2021-05-08 18:36:23 · 342 阅读 · 2 评论 -
YoloV2的改进
针对Yolov1,YoloV2主要有以下几点改进:(1)Batch NormalizationBatch Normalization可以提升模型收敛速度,而且可以起到一定正则化效果,降低模型的过拟合。在YOLOv2中,每个卷积层后面都添加了Batch Normalization层,并且不再使用dropout。使用Batch Normalization后,YOLOv2的mAP提升了2.4%。(2)High Resolution Classifier使用高分辨率的图片进行特征训练。YOLO2在采用 22原创 2021-05-08 14:39:17 · 1082 阅读 · 0 评论 -
一、线性回归的两种实现方式:(二)sklearn实现
线性回归的sklearn实现导入必要的模块import numpy as npimport pandas as pdimport matplotlib.pyplot as pltfrom sklearn.model_selection import train_test_splitfrom sklearn.linear_model import LinearRegressionfrom sklearn.metrics import mean_squared_error数据集x = np.原创 2021-05-07 17:27:38 · 252 阅读 · 0 评论 -
一、线性回归的两种实现方式:(一)keras实现
线性回归的两种实现方式:(一)keras实现原创 2021-05-07 14:34:45 · 713 阅读 · 4 评论 -
超参数设定及训练技巧
一、网络超参数的设定1.输入数据像素大小的设定:为便于GPU并行计算,一般将图像大小设置为到2的次幂。2.卷积层参数的设定:(1)卷积核大小一般使用1*1,3*3 或 5*5。(2)使用zero padding,可以充分利用边缘信息、使输入大小保持不变。(3)卷积核的个数通常设置为2的次幂,如64,128,256,512,1024等。3.池化层参数的设定:一般采用卷积核大小2*2,步长为2.4.全连接层参数的设定(可使用Global Average Pooling来代替)原创 2021-04-30 14:12:41 · 2007 阅读 · 0 评论 -
深度学习中epoch、batch、batch size和iterations详解
1.epoch在训练一个模型时所用到的全部数据;备注:一般在训练时都要使用多于一个的epoch,因为在神经网络中传递完整的数据集仅仅一次是不够的,只有将完整的数据集在同样的神经网络中传递多次,才会得到比较优秀的训练效果,当然也不行,容易过拟合,所以要根据实验选择自己最合适的。epochs:epochs被定义为向前和向后传播中所有批次的单次训练迭代。这意味着一个周期是整个数据的单次向前和向后传递。简单说,epochs指的就是训练过程中数据将被“轮”多少次,就这样。2.batchKera原创 2021-04-30 10:47:42 · 24660 阅读 · 7 评论