自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(26)
  • 收藏
  • 关注

原创 联想win11出现wifi图标消失

联想win11系统出现wifi图标消失,在控制面板的硬件查看是说网卡驱动没安装,但是用联想管家进行驱动检测也没有问题(当没有网的时候,用手机数据线连接电脑开启热点,仅USB)。不要重启,直接关机,再开机即可,应该算是win11的一个bug吧。目前还遇到过win11死机黑屏的现象(win11号称不会死机),以及屏幕鼠标有时候无法控制(yoga 16s可触控屏),这个可能是联想自己的问题吧。...

2021-12-28 15:56:41 4621 6

原创 CodRED: A Cross-Document Relation Extraction Dataset for Acquiring Knowledge in the Wild

清华大学的研究团队又提出了一个新的任务:Cross document relation extraction。相应地,他们给出了任务的定义和数据集的构造、格式、说明等,也给出了两种baseline来进行跨文档关系抽取。期待能起到一个基石的作用。github链接:CodREDAbstract关系抽取是构建知识图谱、智能问答的基础任务,目前存在句子关系抽取(从单个句子抽取实体之间的关系)、文档级关系抽取(从一篇文章中抽取多个实体对之间的关系)这两种主流任务。但是现实生活中,往往需要从多个文档来推测关系。

2021-12-16 20:58:06 744 1

原创 生成项目的requirements编码报错

当需要生成某个项目所需要的包以及相应的版本,可以先cd到项目目录,然后输入:pipreqs ./报编码错误,如下:Traceback (most recent call last): File "f:\users\asus\anaconda3\lib\runpy.py", line 193, in _run_module_as_main "__main__", mod_spec) File "f:\users\asus\anaconda3\lib\runpy.py", line 85

2021-11-22 10:29:37 1218

原创 python中log和args模块

最近频繁使用到这两个模块,特别总结一下。log日志为什么使用如何使用使用环境注意事项args参数为什么使用如何使用使用环境注意事项

2021-09-04 20:33:48 1683

原创 batchsize对模型的影响

实际问题不小心把batch_size设置为1之后,发现模型在第一个epoch的时候就不收敛了,在一个不太理想的准确率(0.7)左右晃荡。然后更改为16之后,训练速度大大提升,准确率也开始收敛。查阅资料按理来说,batch_size为1是最好的,一次只处理一个样本,让模型可以学到的东西更加丰富。不过实际上调的时候,会出现batch_size太小导致网络收敛不稳定,最后结果比较差。这是因为线性神经元在均方误差代价函数的错误面是一个抛物面,横截面是椭圆。对于多层神经元,非线性网络,在局部依然近似是抛物面

2021-08-22 16:28:17 2205 1

原创 论文阅读Reasoning with Latent Structure Refinement for Document-Level Relation Extraction

Reasoning with Latent Structure Refinement for Document-Level Relation Extraction0. Summary对于文档级关系抽取,现存的方法通过语义树、共指消解或者启发式的方法创建静态文档图。本文提出了一种自动生成文档图的方法。并且增加了细化策略,可以增量式的聚合相关信息并进行多条推理。我们的模型是基于结构化注意力构建的。 使用矩阵树定理的变体,我们的模型能够生成特定于任务的依赖结构,用于捕获实体之间的非局部交互。 我们进一步开发了

2021-08-18 20:24:23 911

原创 论文阅读:Connecting the Dots Document-level Neural Relation Extraction with Edge-oriented Graphs

论文阅读:Connecting the Dots: Document-level Neural Relation Extraction with Edge-oriented Graphs0. Summary文档级关系提取是一个复杂的人工过程,需要逻辑推理来提取文本中命名实体之间的关系。现有的方法使用基于图的神经模型,将单词作为节点,边作为它们之间的关系,对句子之间的关系进行编码。这些模型是基于节点的,即它们仅基于两个目标节点表示形成成对表示。但是实体关系可以通过作为节点之间路径形成的唯一边表示更好地表达

2021-08-06 15:22:01 412

原创 pytorch实战代码架构

主要是学习了陈云老师对于ML/DL模型代码的组织架构。一个学习模型通常会涉及到不断调参,训练验证测试等步骤,如果不进行合理地封装和组织,代码跑起来会非常地麻烦,所以对代码进行整洁地组织是非常有必要的。陈云老师的pytorch实战的git链接:pytorch实战首先是文件组织:│ config.py│ main.py│ readme.md├─data│ dataset.py│ __init__.py│├─models│ AlexNet.py│

2021-07-07 20:47:15 331

原创 Python一些语法及应用

起因是最近写python代码,总是有些语法记不住需要查阅。所以特地总结,帮助记忆。列表删除一个元素有三种方法可以在列表中删除一个元素1.remove(m),删除第一个在list中与m匹配的数字,就地删除list_test = [2,1,3,5]list_test.remove(2)list_test>[1, 3, 5]2.del 函数,根据索引删除,就地删除list_test = [2,1,3,5]del list_test[1]list_test>[2, 3, 5]

2021-04-25 11:42:17 97 1

原创 LeetCode-下一个数组

题目描述实现获取 下一个排列 的函数,算法需要将给定数字序列重新排列成字典序中下一个更大的排列。如果不存在下一个更大的排列,则将数字重新排列成最小的排列(即升序排列)。必须 原地 修改,只允许使用额外常数空间。例子:输入:nums = [1,2,3]输出:[1,3,2]题目解析乍一看题目都不懂具体意思。一步一步来分析,首先是字典序列,就是1,3,4,5,6……9,a,b,c……z(该题目中只包含数字)。学过排列组合的同学都知道,1,2,3的全排列有:12313221323131

2021-04-19 20:57:59 91

原创 LeetCode 数组-盛最多水的容器

题目描述给你 n 个非负整数 a1,a2,…,an,每个数代表坐标中的一个点 (i, ai) 。在坐标内画 n 条垂直线,垂直线 i 的两个端点分别为 (i, ai) 和 (i, 0) 。找出其中的两条线,使得它们与 x 轴共同构成的容器可以容纳最多的水。说明:你不能倾斜容器。题目解析题目意思不难理解,最初的想法就是用暴力搜索,显然超时了,嘤。max_area = 0for i in range(len(height)): for j in range(i+1,len(h

2021-04-18 17:16:19 88

原创 LeetCode 电话号码的字母组合

题目描述给定一个仅包含数字 2-9 的字符串,返回所有它能表示的字母组合。答案可以按 任意顺序 返回。给出数字到字母的映射如下(与电话按键相同)。注意 1 不对应任何字母。题目解析看到这个题目感觉应该用动态规划做(其实也不用动归,回溯就行,但是回溯的写法已经忘得差不多了),所以我自己就用空间换时间的方法来做。代码如下#!/usr/bin/python3# -*- coding:utf-8 -*-# 电话号码的字母组合class Solution: def combine(self,l

2021-04-16 21:35:48 77

原创 Leetcode 打家劫舍

题目描述你是一个专业的小偷,计划偷窃沿街的房屋。每间房内都藏有一定的现金,影响你偷窃的唯一制约因素就是相邻的房屋装有相互连通的防盗系统,如果两间相邻的房屋在同一晚上被小偷闯入,系统会自动报警。给定一个代表每个房屋存放金额的非负整数数组,计算你 不触动警报装置的情况下 ,一夜之内能够偷窃到的最高金额题目解析一看题目就有动态规划那味儿了。对于动态规划,首先需要找出找出边界条件、分割子问题、写出动态规划方程式、敲成代码即可。首先是边界条件,当没有房子的时候,盗贼盗获0,当只有一间房子时,盗获

2021-04-15 16:36:37 51

原创 Leetcode 爬楼梯

题目描述假设你正在爬楼梯。需要 n 阶你才能到达楼顶。每次你可以爬 1 或 2 个台阶。你有多少种不同的方法可以爬到楼顶呢?注意:给定 n 是一个正整数。题目解析非常经典的递归算法,也即斐波那契额数列。最开始就想用递归来做:F(n) = F(n -1)+F(n-2),但是超时了。if n == 0: return 1 if n == 1: return 1 else: return self.c

2021-04-15 15:27:20 75

原创 Leetcode 最长公共前缀

题目描述编写一个函数来查找字符串数组中的最长公共前缀。如果不存在公共前缀,返回空字符串 “”。代码解答#!/usr/bin/python3# -*- coding:utf-8 -*-# 判断最长公共前缀class Solution: def longestCommonPrefix(self, strs): list_str = [] for item in strs: list_str.append(list(item))

2021-04-13 10:25:37 52

原创 LeetCode 括号匹配

括号匹配用python实现括号匹配,先自定义了一个栈类,包括入栈,出栈,取栈顶元素这四个步骤,其实也就是list的append,pop,stack[-1]这三个操作。代码#!/usr/bin/python3# -*- coding:utf-8 -*-# 判断有效括号class Stack(object): def __init__(self): self.stack = [] def push(self,data): self.stack.app

2021-04-12 17:33:52 159

原创 LeetCode 回文数

1.题目描述给你一个整数 x ,如果 x 是一个回文整数,返回 true ;否则,返回 false 。回文数是指正序(从左向右)和倒序(从右向左)读都是一样的整数。例如,121 是回文,而 123 不是。2.初始解法十分垃圾:先转为数组,然后比较数字是否相同class Solution: def isPalindrome(self, x: int) -> bool: flag = 1 x = str(x) x = list(x)

2021-04-01 21:40:15 74

原创 论文阅读:Span-based Joint Entity and Relation Extraction withTransformer Pre-training

论文阅读:Span-based Joint Entity and Relation Extraction with Transformer Pre-training0. Summary文章提出了SpERT,一种基于注意力机制的联合实体关系抽取模型。主要贡献有:基于bert embedding的轻量级推理(?),可以实现实体识别、过滤。通过局部,无标注的上下文表征,实现关系分类(无标注marker-free?)采用强句间负样本(?),提高模型效率在多个数据集上的联合实体关系抽取的F1得到了提高。

2021-03-27 17:23:00 1606

原创 论文阅读:EMPIRICAL ANALYSIS OF UNLABELED ENTITY PROBLEM IN NAMED ENTITY RECOGNITION

论文阅读:EMPIRICAL ANALYSIS OF UNLABELED ENTITY PROBLEM IN NAMED ENTITY RECOGNITION10. Summary由于人工打标的昂贵性和远程监督学习打标的不完整性,NER目前存在未标注实体这一问题。未标注实体指的是本应该有确定标签的比如(British B-MISC),在有些数据集中却将这些实体作为负样本,也即看做(British O)。数据的缺失给NER带来了两方面的影响,第一就是标注实体的减少,这个可以通过采用与训练模型来解决(为什么

2021-03-07 17:11:02 1478

原创 deep-learning-with-pytorch p1ch4 课后作业第二题

2.Select a relatively large file containing Python source code 选择一个比较大的python源码文件a. Build an index of all the words in the source file (feel free to make your tokenization as simple or as complex as you like; we suggest starting with replacing r"[^a-zA-Z0

2020-08-09 10:22:00 384

原创 deep-learning-with-pytorch p1ch4 课后作业第一题

第一题:Take several pictures of red, blue, and green items with your phone or other digital camera (or download some from the internet, if a camera isn’t available). 下载一些红蓝绿的照片,然后进行一些操作由于是用jupyter写的,所以格式不大好看,输入输出会有提示符。a. Load each image, and convert it to a

2020-08-08 23:27:06 302

原创 deep-learning-with-pytorch p1ch4.4

一些函数daily_bikes = bikes.view(-1,24,bikes.shape[1]),view与numpy中的resize函数作用差不多,将原始tensor改变形状。参数中的-1就代表这个位置由其他位置的数字来推断,只要在不致歧义的情况的下,view参数就可以推断出来。之前还以为要用到切片的方法来进行维度转化,切片更适合于一维序列切割。当涉及到2维以上可以用view方法。torch.cat((bikes[:24], weather_onehot), 1)[:1],cat函数为将两个t

2020-08-04 16:32:39 128 3

原创 deep-learning-with-pytorch p1ch4

一些函数np.loadtxt(wine_path, dtype = np.float32, delimiter = ';', skiprows = 1),numpy读取csv文件,skiprows跳过第一行。next(csv.reader(open(wine_path), delimiter = ';')),next() 返回迭代器的下一个项目,参数为可迭代对象,返回wine_path的第一行。data = wineq[:,:-1] ,去除最后一列数据(评分数据)target = [:,-1] ,

2020-08-03 11:23:07 159

原创 Deeplearning with pytorch p1ch3.1-3.4 pytorch的一些基本语法

tensor的含义在DL中,tensor指的是多维向量,例如 [ [ [1, 2], [3, 4], [5, 6] ] ]。该tensor的大小为[1, 3, 2]。与list,tuple这些数据结构不同的是,系统会给tensor分配一块连续的内存,而不是分散分配。创建一个tensor通过list创建:points = torch.tensor([[4.0,1.0],[2.0,1.0],[5.0,3.0]])通过torch.zeros创建,初始化全为0,后续可以自己赋值:points = to

2020-07-26 20:04:15 188

原创 Deeplearning with pytorch p1ch2.2

GAN gameGAN: generative adversarial network,生成对抗网络

2020-07-23 16:48:09 159

原创 Deeplearning with pytorch p1ch2

Deeplearning with pytorch p1ch2AlexNet & ResNetResNet & resnet101AlexNet & ResNetResNet & resnet101ResNet:residual networksresnet101多层神经网络结构,今天的主要收获如下更改jupyter默认文件路径;torchvision中的models,transforms模块;PIL的Image模块 ;torch中的max,nn.funct

2020-07-22 19:23:00 110

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除