自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

coder_jyz的博客

共同学习分享知识。

  • 博客(12)
  • 收藏
  • 关注

原创 十、卷积神经网络

十、卷积神经网络内容参考来自https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book开源书籍《TensorFlow2深度学习》,这只是我做的简单的学习笔记,方便以后复习。1.全连接网络的问题问题就是全连接网络的参数量太过庞大,超过了当时计算机的内存容量,无法存储全部的参数。局部相关性:基于距离的重要性分布假设特性,它只关注和自己距离较近的部分节点,而忽略距离较远的节点。从局部相关性引出了权值共享的概念,即对于每个输出节点

2021-08-26 00:53:01 720

原创 九、过拟合

九、过拟合内容参考来自https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book开源书籍《TensorFlow2深度学习》,这只是我做的简单的学习笔记,方便以后复习1.模型的容量通俗地讲,模型的容量或表达能力,是指模型拟合复杂函数的能力。2.过拟合与欠拟合过拟合(Overfitting):当模型的容量过大时,网络模型除了学习到训练集数据的模态之外,还把额外的观测误差也学习进来,导致学习的模型在训练集上面表现较好,但是在未见

2021-08-23 22:29:38 178

原创 八、Keras 高层接口

八、Keras 高层接口内容参考来自https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book开源书籍《TensorFlow2深度学习》,这只是我做的简单的学习笔记,方便以后复习Keras 是一个主要由 Python 语言开发的开源神经网络计算库,最初由 François Chollet编写,它被设计为高度模块化和易扩展的高层神经网络接口,使得用户可以不需要过多的专业知识就可以简洁、快速地完成模型的搭建与训练。1.常见功能模块

2021-08-23 15:56:03 222

原创 七、反向传播算法

七、反向传播算法内容参考来自https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book开源书籍《TensorFlow2深度学习》,这只是我做的简单的学习笔记,方便以后复习。1.激活函数导数1.1Sigmoid 函数导数import numpy as np # 导入 numpy 库def sigmoid(x): # 实现 sigmoid 函数 return 1 / (1 + np.exp(-x))def derivat

2021-08-22 22:33:53 176

原创 六、神经网络

六、神经网络内容参考来自https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book开源书籍《TensorFlow2深度学习》,这只是我做的简单的学习笔记,方便以后复习1.感知机全连接层张量方式实现# 创建 W,b 张量x = tf.random.normal([2,784])w1 = tf.Variable(tf.random.truncated_normal([784, 256], stddev=0.1))b1 = t

2021-08-21 23:05:11 212

原创 五、TensorFlow 进阶

五、TensorFlow 进阶内容参考来自https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book开源书籍《TensorFlow2深度学习》,这只是我做的简单的学习笔记,方便以后复习1.合并与分割张量的合并可以使用拼接(Concatenate)和堆叠(Stack)操作实现,拼接操作并不会产生新的维度,仅在现有的维度上合并,而堆叠会创建新维度。选择使用拼接还是堆叠操作来合并张量,取决于具体的场景是否需要创建新维度。拼接tf.c

2021-08-20 18:21:53 141

原创 四、TensorFlow基础

四、TensorFlow基础内容参考来自https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book开源书籍《TensorFlow2深度学习》,这只是我做的简单的学习笔记,方便以后复习1.数据类型数值类型的张量是 TensorFlow 的主要数据载体,根据维度数来区分,可分为:标量(Scalar),向量(Vector),矩阵(Matrix),张量(Tensor)# tensor和Numpy相互转换import tensorfl

2021-08-20 00:19:44 86

原创 三、分类问题

三、分类问题内容参考来自https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book开源书籍《TensorFlow2深度学习》,这只是我做的简单的学习笔记,方便以后复习。1.加载minist数据集import osimport tensorflow as tf # 导入 TF 库from tensorflow import keras # 导入 TF 子库 kerasfrom tensorflow.keras import

2021-08-19 00:18:46 342

原创 二、回归问题

二、回归问题内容参考来自https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book开源书籍《TensorFlow2深度学习》,这只是我做的简单的学习笔记,方便以后复习。1. 数据生成import numpy as npimport pandas as pd# y = wx + bdata = []X = []Y = []for i in range(100): x = np.random.uniform(3

2021-08-17 22:06:34 249

原创 一、人工智能基础

一、人工智能基础内容参考来自https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book开源书籍《TensorFlow2深度学习》,这只是我做的简单的学习笔记,方便以后复习。1.人工智能的三起三落第一次兴盛期:1958 年,美国心理学家 Frank Rosenblatt 提出了第一个可以自动学习权重的神经元模型,一般认为 1943 年~1969 年为人工智能发展的第一次兴盛期。第一次寒冬:1969 年,美国科学家 Marvin

2021-08-17 10:12:49 1365

原创 循环神经网络PyTorch版

循环神经网络(RNN)申明:本书的理论和代码来自于开源书籍,TensorFlow深度学习地址:https://github.com/jiajunhua/dragen1860-Deep-Learning-with-TensorFlow-book1. Pytorch的RNN简单实现2.1. 单层RNNCell[s,b,n], s为句子长度,b为句子数量,n为词向量长度,h为状态长度import torchfrom torch import nnfrom torch import

2021-08-08 23:17:33 342

原创 循环神经网络_Tensorflow2实现

循环神经网络(RNN)申明:本书的理论和代码来自于开源书籍,TensorFlow深度学习地址:https://github.com/jiajunhua/dragen1860-Deep-Learning-with-TensorFlow-book1. TensorFlow2的RNN简单实现在 TensorFlow 中,RNN 表示通用意义上的循环神经网络,对于我们目前介绍的基础循环神经网络,它一般叫做 SimpleRNN。SimpleRNN 与 SimpleRNNCell 的区别在于,带 Cell 的

2021-08-07 15:18:48 594

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除