- 博客(6)
- 资源 (1)
- 收藏
- 关注
原创 linux 查看文件开头几行、末尾几行、中间几行
查看整个文件cat [filename]例如:查看/home/user/test.txtcat /home/user/test.txt查看开头几行head -n [rows] [filename]例如:查看/home/user/test.txt的前20行head -n 20 /home/user/test.txt查看末尾几行tail -n [rows] [filename]例如:查看/home/user/test.txt的最后10行tail -n 10
2020-10-28 16:37:02 14165 2
原创 深度学习中的batch,iteration,epoch复习总结
这三个概念是在深度学习的优化中提到的,也就是BP。batch的概念就是一次训练所用到的数据,当batchsize=1,就类似于梯度下降中的SGD,称为online learning;当batchsize小于整体训练集的数量时成为mini-batch learning;当batchsize等于整体训练集的数量时,称为batch learning。online learning的优点是下降很快,缺点是很难在最优点处收敛,通常会在接近最优点处来回震荡。batch learning的缺点是下降太慢。mini-b
2020-10-27 20:36:35 532
原创 Python读取文件时出现UnicodeDecodeError: ‘gbk‘ codec can‘t decode byte 0x80 in position ...
with open(self.path, 'r') as test: for line in test: pass代码如上,出现错误:UnicodeDecodeError: 'gbk' codec can't decode byte 0x80 in position ...UnicodeDecodeError: 'gbk' codec can't decode byte 0x80 in position 9: ...或者是UnicodeDecodeErr..
2020-10-17 09:38:49 63001 14
原创 自然语言处理中的Attention机制
Attention机制的理解Attention机制也就是注意力机制,在自然语言处理中,就是对于一个语言序列的不同的部分给予不同的注意力,在数学上一般表现为权重,也就是对一个语言序列的各个元素加权。对Attention机制给一个通用的定义:给定一组向量集合values,以及一个向量query,attention机制是一种根据该query计算values的加权求和的机制。这个定义来源于cs224n。所谓attention就是这个value集和中的每个向量的权值的大小,attention机制就是用一种
2020-10-15 22:15:24 611
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人