自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 资源 (1)
  • 收藏
  • 关注

原创 linux 查看文件开头几行、末尾几行、中间几行

查看整个文件cat [filename]例如:查看/home/user/test.txtcat /home/user/test.txt查看开头几行head -n [rows] [filename]例如:查看/home/user/test.txt的前20行head -n 20 /home/user/test.txt查看末尾几行tail -n [rows] [filename]例如:查看/home/user/test.txt的最后10行tail -n 10

2020-10-28 16:37:02 14165 2

原创 putty 使用perm密钥文件登陆堡垒机

xshell收费了,所以,,,就还是用putty吧,,,

2020-10-28 13:54:40 646

原创 为什么交叉熵损失函数可以用作逻辑回归的损失函数?

什么是熵?什么是KL散度?什么是交叉熵?

2020-10-27 21:04:15 971

原创 深度学习中的batch,iteration,epoch复习总结

这三个概念是在深度学习的优化中提到的,也就是BP。batch的概念就是一次训练所用到的数据,当batchsize=1,就类似于梯度下降中的SGD,称为online learning;当batchsize小于整体训练集的数量时成为mini-batch learning;当batchsize等于整体训练集的数量时,称为batch learning。online learning的优点是下降很快,缺点是很难在最优点处收敛,通常会在接近最优点处来回震荡。batch learning的缺点是下降太慢。mini-b

2020-10-27 20:36:35 532

原创 Python读取文件时出现UnicodeDecodeError: ‘gbk‘ codec can‘t decode byte 0x80 in position ...

with open(self.path, 'r') as test: for line in test: pass代码如上,出现错误:UnicodeDecodeError: 'gbk' codec can't decode byte 0x80 in position ...UnicodeDecodeError: 'gbk' codec can't decode byte 0x80 in position 9: ...或者是UnicodeDecodeErr..

2020-10-17 09:38:49 63001 14

原创 自然语言处理中的Attention机制

Attention机制的理解Attention机制也就是注意力机制,在自然语言处理中,就是对于一个语言序列的不同的部分给予不同的注意力,在数学上一般表现为权重,也就是对一个语言序列的各个元素加权。对Attention机制给一个通用的定义:给定一组向量集合values,以及一个向量query,attention机制是一种根据该query计算values的加权求和的机制。这个定义来源于cs224n。所谓attention就是这个value集和中的每个向量的权值的大小,attention机制就是用一种

2020-10-15 22:15:24 611

java处理word,excel,所需最全poi包

在学习java处理word,excel时陆续下载的jar包,有的jar包比较难找,有的在官网可以下载到。

2018-12-21

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除