深度学习
一一张xi
这个作者很懒,什么都没留下…
展开
-
【深度学习笔记】task 06循环神经网络
循环神经网络6.1 循环核6.2 循环核按时间展开6.3 循环计算层6.4 tf描述循环计算层 【北京大学】Tensorflow2.0 6.1 循环核 有些数据是和序列有关的,比如鱼离不开__,我们下意识的便会填入水,这种预测就是通过脑提取记忆体的过程,也就是“循环核” 循环核:具有记忆力,通过对参数时间共享,提取了时间信息,记忆体下面侧面上面有三种待训练参数 如下便是一个记忆体,可原创 2020-11-07 21:26:13 · 501 阅读 · 1 评论 -
【深度学习笔记】task 05卷积网络
深度学习5. 卷积神经网络5.1 卷积计算5.2 感受野 5. 卷积神经网络 5.1 卷积计算 实际项目的图片多是高分辨率的彩色图片,待优化参数过多,容易导致模型过拟合,为了减少待训练参数,我们在实际应用中会对原始图片进行特征提取,再把提取到的特征送给全连接网络 卷积计算是一种有效的特征提取方法 如果输入特征是单通道灰度图可以使用深度为1的单通道卷积核;如果输入特征是三通道彩色图,可以使用333的卷积核或者553的卷积核,总之卷积核的深度一定要和输入特征的深度(通道数)一致 卷积就是利用立体卷积核原创 2020-11-05 15:55:12 · 402 阅读 · 1 评论 -
【深度学习笔记】Task2 神经网络优化 2
深度学习笔记-神经网络优化2.1 预备知识2.2 复杂度学习率 2.1 预备知识 tf.where() 条件语句真返回A,条件语句假返回B tf.where(条件语句,真返回A,假返回B) import tensorflow as tf a=tf.constant([1,2,3,1,1]) b=tf.constant([0,1,3,4,5]) #如果a>b,返回a对应位置的元素,否则返回b对应位置的元素 c=tf.where(tf.greater(a,b),a,b) print('c:',c)原创 2020-10-22 10:08:55 · 413 阅读 · 0 评论 -
【深度学习笔记】Task1 神经网络计算
人工智能三学派 通过神经网络可以使计算机具有感性思维 基于连接主义的神经网络设计过程 随着我们成长,神经网络连线上的权重发生了变化,有些线上权重增加,有些线上权重减弱 准备数据-》搭建网络-》优化参数-》应用网络 鸢尾花分类问题 ...原创 2020-10-16 21:17:36 · 667 阅读 · 0 评论 -
【深度学习】 第二章TensorFlow入门
【深度学习】 第二章TensorFlow入门1. TensorFlow介绍2. 计算图session Tensor3. OP 矩阵 随机化 Variable3.1 OP3.2 tensorflow矩阵及运算3.3 随机化3.4 Variable4. 占位符Graph 用的tensorflow版本为2.0的所有有些代码有所改动 1. TensorFlow介绍 在生活中如google图像搜索、谷歌翻译等都使用了tensorflow tensorfolw中文网站:https://tensorflow.goog原创 2020-10-14 22:13:25 · 421 阅读 · 0 评论 -
【深度学习】第一章 预备内容
深度学习基于TensorFlow实现-第一章 预备内容01 入门指南+学习方法建议02 深度学习介绍03 代码版本控制和托管平台Github 一直想学习一下TensorFlow,加之神经网络理论部分还是弄得不太熟,在天池上看到有个免费教学视频感觉还可以,希望可以入门成功~ chrome上没有倍速功能,先安了个video speed controller,截图推荐Greenshot,截图及进行文字标注很方便,也可以用搜狗输入法自带的 学习视频:https://tianchi.aliyun.com/course原创 2020-09-10 22:02:30 · 161 阅读 · 0 评论