自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 RNN(循环神经网络)

1.全连接神经网络的局限性全连接神经网络虽然可以对一个事物进行预测,但是前一条数据的输入和后一条数据的输入是完全独立的,这就使得面对一些具有序列信息的数据无法处理。比如,我们说一句话,每个字在这句话中都扮演着不同的角色,你不可能单个拉出来理解。2.RNN的主要形式:在这个图中:x代表当前状态下的输入,y代表当前状态下的输出。h 代表接收到的上一个节点的输入,h'代表下一个节点的输入我们可以看到y的值取绝与h',x。这是一个单元,我们把它序列化就可以获得如下形式:

2022-03-20 21:05:05 7241 1

原创 解决过拟合(over-fitting)

在我们学习深度学习时,我们很有可能遇到过拟合问题,所谓过拟合,顾名思义就是我们所训练的网络过于“强大”。举个例子,我们生活中都想要变成一个骄傲的人,但是由于后来成长过猛,我们变成了一位自负的人。毋庸置疑这是一个坏的结果。在程序中的过拟合可以理解成如下的表现:黑色代表我们期望的训练结果。绿色则是过拟合的训练结果。那么问题来了过拟合到底有什么不好?其实过拟合会丢失很多数据特征。四种方法1. Dropout裁剪网络(用的较多)2.增加数据数加数据是解决过拟合中思想比较朴素的

2022-03-19 20:59:41 1884

原创 DNN(全连接神经网络)

一.DNN网络一般拥有三层1.输入层2.隐藏层3.输出层简单网络如下:二.正向传播从第二层开始,每一个神经元都会获得它上一层所有神经元的结果。即每一个 y = wx + b的值。具体分析如下:如此下去就会非常可能出现了一个问题------就是越靠后的神经元获得的y值会非常大,试想一下,如果这个数远远大于它前面神经元的值,前面神经元对整个网络的表达就显得毫无意义。所以我们在每创建一层网络时就要多“y”进行一次约束。我们有很多选择,但最好的方法就是运用Sig...

2022-03-16 21:43:34 34660 3

原创 到三清除列表数值的问题(python)

问题如下:假如有如此一个列表【0,1,2,3,4,5】从下标为0开始,每次统计到三,并把改数值从列表中清除。第一轮清除2,若达到列表的右边界,则重新从列表头部开始。直至列表中仅剩余一个元素。解题思路:该问题难点主要在如何在超出边界让下标重新从开头算起和每次走后所记忆的下标和更新集合的长度程序代码:data = input()lis = list(data)i = 3q = 3while len(lis) > 1: if i > len(lis):

2022-03-15 20:52:36 1082

原创 螺旋矩阵的python实现

【问题描述】对于一个 n 行 m 列的表格,我们可以使用螺旋的方式给表格依次填上正整数,我们称填好的表格为一个螺旋矩阵。例如,一个 4 行 5 列的螺旋矩阵如下:1 2 3 4 514 15 16 17 613 20 19 18 712 11 10 9 8执行代码:n, m = (int(x) for x in input().strip().split(' '))p = [[0]*n for _ in range(m)]left = 0down = m -1right = n

2022-03-14 20:58:57 2303 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除