自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

转载 python 文件读写操作

读文件打开一个文件用open()方法(open()返回一个文件对象,它是可迭代的):>>> f = open('test.txt', 'r')r表示是文本文件,rb是二进制文件。(这个mode参数默认值就是r)如果文件不存在,open()函数就会抛出一个IOError的错误,并且给出错误码和详细的信息告诉你文件不存在:>>> f=open('test.txt', 'r')Traceback (most recent call last): File.

2021-07-07 09:29:54 841

转载 Python 怎样导入自己另外的py文件?

1.基本格式: from 文件名 import 类名 2.举个栗子: 文件PqxMplCanvas.py定义了名为PqxMplCanvas的类。 在另外一个文件中引用过来: from PqxMplCanvas import PqxMplCanvas #在同级目录下 3.进阶: 假设有目录如下: ├── sub_ui.py├── main.py├── test/│ └── test...

2021-07-07 09:16:19 2630

转载 文献阅读笔记:RoBERTa:A Robustly Optimized BERT Pretraining Approach

0. 背景 机构:Facebook & 华盛顿大学 作者:Yinhan Liu 、Myle Ott 发布地方:arxiv 论文地址:https://arxiv.org/abs/1907.11692 论文代码:https://github.com/pytorch/fairseq 1. 介绍 RoBERTa 模型是BERT ...

2021-06-30 09:15:31 392

转载 Python3.7 dataclass使用指南

作者:@apocelipes本文为作者原创,转载请注明出处:https://www.cnblogs.com/apocelipes/p/10284346.html本文将带你走进python3.7的新特性dataclass,通过本文你将学会dataclass的使用并避免踏入某些陷阱。 dataclass简介 dataclass的使用 定义一个dataclass 深入dataclass装饰器 数据类的基石——dataclass

2021-06-27 15:10:47 833

原创 论文笔记:Areas of Attention for Image Captioning

这篇论文建立了image regions, caption words 以及RNN state三者之间的相互联系。相较于之前的方法,这篇论文建立了image regions, caption words 之间的直接联系。通过三种不同的方式实现了区域注意,并对比了三者的性能Introduction引言部分先对先前的工作进行了一个简单的回顾,之后引出了论文的方法,并阐述了这篇论文的贡献。先前的...

2020-04-16 19:12:55 674 1

原创 论文笔记:Bottom-Up and Top-Down Attention for Image Captioning and Visual Question Answer

1. 引言在image captioning和VQA中为了生成搞质量的输出,需要精细的视觉处理甚至多步推导。所以,视觉注意机制被广泛的应用。两个定义:top-down:nonvisual or task-specific contextbottom-up:purely visual feed-forward attention mechanisms在image captioning...

2020-03-31 20:42:35 714

原创 卷积神经网络-ResNet

第一次写博客,算作一份笔记吧,如有不足请指正。更深层的网络训练不易,ResNet的提出降低了这种压力。ResNet在ImageNet 测试集上达到了3.57%的错误率,并获得了2ISVRC 2015的第一名。背景知识研究表明,特征的层次随着堆叠的层数(层深度)增加变得丰富。许多研究开始致力于加深层深度。随着层深度的重要性的突显,一个问题也被提出:Is learning better net...

2020-03-07 12:18:32 347

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除