深度学习
竹林村的黄河学者
这个作者很懒,什么都没留下…
展开
-
Extracting Information from Encrypted Data using Deep Neural Networks
关键词cryptography密码学cryptanalysis密码分析Block Chaining密码区块链Plaintext明文throughout遍及encryption algorithms加密算法impenetrable高深莫测的arbitrary precision任意精度decrypt解密break down分解stack堆叠...原创 2020-11-20 07:33:07 · 168 阅读 · 0 评论 -
深度学习分享12:卷积神经网络(CNN)
前面用全连接神经网络对图像进行了识别,总觉得奇奇怪怪的,因为全连接的方法就是死记硬背,根本没有考虑图像的空间结构,它对待相距很远和相距很近的点的态度是一样的,比如说猫的眼睛跟鼻子的像素他们之间应该联系的更紧密一些,而眼睛跟鼻子的像素关联度要更远一些,而用卷积神经网络的方法很好的考虑了图像的内部关系和空间结构。...原创 2020-07-06 20:56:44 · 275 阅读 · 0 评论 -
论文精度:(LE-NET)gradient-based learning applied to document recognition
关键词heuristic启发式oversegmentation过度分割原创 2020-07-04 09:01:50 · 142 阅读 · 0 评论 -
论文精读:(Alex-Net)ImageNet Classification with Deep Convolutional Neural Networks
关键词high-resolution高分辨率non-saturating非饱和a variant of的变体make essential use of 基本使用要点1 网路层数更深,识别率取得突破性进展,一些卷积层后面采用最大池化的操作,采用非饱和神经元,用GPU处理卷积操作速度更快,采用弃权的方法减缓过拟合(实验证明这种方法很有效),...原创 2020-06-28 11:49:20 · 225 阅读 · 0 评论 -
从Google DeepMind成果看人工智能发展
从Google Deep Mind成果看人工智能发展(四川大学 电子信息学院)摘要:近几年,人工智能非常火热,几乎渗透到了社会的方方面面,但是人们只是看到了它光鲜的外表,殊不知它也曾经历了漫长的寒冬,未来之路任重而道远,生死存亡未可知。本文从谷歌公司旗下的Deep Mind公司成果出发,简要探讨它们背后的原理以及人工智能的发展历程。关键词:人工智能,机器学习,深度学习,强化学习引言:从未有过如此复杂的情绪,起初信心满满,然后如临深渊,再而震惊,再而怀疑,直至绝望。这是人类与机器的智慧比拼,这一次人原创 2020-07-13 19:10:23 · 729 阅读 · 0 评论 -
project2:各种衣物的分类识别
import tensorflow as tfimport matplotlib.pyplot as pltplt.rcParams['font.family']='SimHei'fashion=tf.keras.datasets.fashion_mnist(x_train,y_train),(x_test,y_test)=fashion.load_data()x_train,x_test=x_train/255.0,x_test/255.0#归一化,把输入的值变小更适合神经网络吸收plt.fi原创 2020-05-28 15:07:21 · 376 阅读 · 0 评论 -
project1:手写数字识别
import tensorflow as tfimport matplotlib.pyplot as pltmnist=tf.keras.datasets.mnist(x_train,y_train),(x_test,y_test)=mnist.load_data()x_train,x_test=x_train/255.0,x_test/255.0#归一化,把输入的值变小更适合神经网络吸收plt.figure()#看看训练集,没什么毛病for i in range(10): plt.su原创 2020-05-28 12:47:07 · 163 阅读 · 0 评论 -
深度学习分享11:缓解过拟合
第十一章欠拟合解决办法:1增加输入特征项2增加网络参数3减少正则化参数过拟合解决办法:1数据清洗2增大训练集3采用正则化4增大正则化参数原创 2020-05-27 10:54:22 · 179 阅读 · 0 评论 -
深度学习分享10:损失函数
第十章MSE(均方误差)CE(交叉熵损失)MSE(均方误差) 其中M是样本个数,y m 是经过网络的输出值,y m ^是标记值其中M是样本个数,y~m~是经过网络的输出值, \hat{y~m~}是标记值其中M是样本原创 2020-05-26 17:58:09 · 148 阅读 · 0 评论 -
深度学习分享9:激活函数
第九章sigmoid函数tanh函数relu函数sigmoid函数tf.nn.sigmoid(x)f(x)=1/(1+exp(-x))特点:容易造成梯度消失,输出非0均值,收敛慢,幂运算复杂,训练时间长深层神经网络一般不再使用sigmoid函数,因为它的导数处于0到0.25的区间,而深层神经网络的链式法则会导致多个这样的导数值相乘,从而出现一个极小的梯度,这就是梯度消失,使得参数无法继续更新tanh函数f(x)=[1-exp(-2x)]/[1+exp(-2x)]特点:输出是0均值,容易造成梯原创 2020-05-26 11:40:50 · 257 阅读 · 0 评论 -
深度学习分享8:tensorflow常用函数2
第八章tf.where(条件语句,真返回A,假返回B)np.vstack(数组1,数组2)tf.where(条件语句,真返回A,假返回B)a=tf.constant([1,2,3,1,4])b=tf.constant([1,1,2,5,6])c=tf.where(tf.greater(a,b),a,b)print(c)tf.Tensor([1 2 3 5 6], shape=(5,), dtype=int32)np.vstack(数组1,数组2)起到一个纵向叠加的作用import原创 2020-05-25 21:10:43 · 106 阅读 · 0 评论 -
深度学习分享7:tensorflow常用函数1(求导,独热码,柔性最大值,最大索引)
第七章#对函数求导import tensorflow as tfwith tf.GradientTape() as tape: w=tf.Variable(tf.constant(3.0)) loss=tf.pow(w,2)grad=tape.gradient(loss,w)print(grad)tf.Tensor(6.0, shape=(), dtype=float32)#独热码#tf.one_hot()将待转数据转换为独热码形式#tf.one_hot(待转化原创 2020-05-24 19:14:31 · 314 阅读 · 0 评论 -
深度学习分享6:张量的使用
第六章创建张量创建张量#创建一个张量import tensorflow as tfa=tf.constant([1,5],dtype=tf.int64)print(a)print(a.shape)print(a.dtype)tf.Tensor([1 5], shape=(2,), dtype=int64)(2,)<dtype: 'int64'>#讲numpy数据类型转换为tensor数据类型import tensorflow as tfimport num原创 2020-05-23 21:17:33 · 167 阅读 · 0 评论 -
深度学习分享5:Iris鸢尾花分类问题
第五章代码代码我现在数据可视化的能力还挺弱,所以很多图没画,以后再补吧import tensorflow as tfimport pandas as pdfrom sklearn import datasetsimport numpy as npx_train=datasets.load_iris().data#数据y_train=datasets.load_iris().target#标签np.random.seed(116)#同步随机种子np.random.shuffle(x_tra原创 2020-05-22 14:19:18 · 770 阅读 · 0 评论