自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(513)
  • 资源 (2)
  • 收藏
  • 关注

原创 线性代数的几何意义简单总结

以二维为例,如果某一条直线上的向量在经过矩阵变换后仍然在这条直线上(仅发生了放缩),那么这条直线上的向量就称为特征向量,且这些变量放缩后的长度与放缩前有固定倍数关系,这个倍数称为特征值。矩阵而言,它有两个基向量,每个基向量是三维的,可见,原来空间中的全部向量可以由两个基向量表示,变换后的基向量需要三个坐标信息描述,显然实现了从二维到三维的变换;矩阵而言,最初有两个基向量,描述二维空间,该矩阵表示的是变换后的基向量坐标,每个基向量都是一维表示的,说明基向量变换为一维坐标了,实现了从二维到一维的变换。

2024-02-21 20:34:57 1988

原创 LaTex 使用说明

CSDN 支持 KaTex,而 Typora 支持 LaTex,所以有所区别。

2024-02-21 20:23:41 1337

原创 【多模态】ALBEF

作者认为之前的模型存在三个问题:① 使用预训练好的目标检测器(object detector)对图像目标识别的结果作为图像的单模态特征,与来自文本编码器的文本特征的对齐程度很低,因为目标检测器没有与文本特征一同进行端到端的训练,用于捕获两个模态交互信息的模块无法很好地将来自两个独立语义空间的特征进行融合。另外,推理阶段的目标检测器需要接收高分辨率的图像,计算量较大,时间开销较大;② 直接使用来自视觉编码器和文本编码器的单模态特征对多模态交互信息进行建模是非常困难,且效果不佳;

2024-01-06 21:09:16 1703

原创 【自然语言处理】Transformer-XL 讲解

语言模型 Trm 的改进

2024-01-06 21:03:38 1621

原创 【Java】实验七

因为我用的是idea,默认编码为UTF-8,所以获取的二进制的编码应为UTF-8,同时记事本在win10系统中默认好像就是UTF-8,因此可以直接复制粘贴;点击“打开”按钮后,将选中的文件显示在记事本的文本区,并将该文件复制到同一目录下的“copy.txt“文件中。GBK编码扩展自ANSI,小于127的字符的意义与原来相同,两个大于127的字符合成一个汉字,这样就实现了汉字的编码。语句设置选择文件的窗口位于显示屏中间且更改确认按键的内容为“打开“后,此窗口的标题位置也会显示相同的内容即”打开“。

2024-01-05 17:51:08 1016

原创 【Java】实验六

最终选择了单独定义一个类,自定义构造函数的参数为tank类很好的解决了爆炸位置的问题,这样就完全可取代在tank类中定义尘缘变量的方法,且若在tank类中实现爆炸需要将绘制爆炸有关的代码写在tank类的draw()函数中,而当tank对象的draw()每隔50ms就会调用,即实现对坦克对象和爆炸效果的绘制,这显然不合适,因此排除此方式;函数通过循环遍历每颗敌方子弹和己方子弹,判断每颗敌方子弹的位置与己方坦克的位置,和己方子弹与敌方坦克的位置,到达一定范围内,认为发生碰撞,返回不同的值。

2024-01-05 17:47:42 1199

原创 【Java】实验五

重写的run()方法中每次刷新时都要调用checkDash()方法判断是否存在子弹与坦克相撞的情况,若己方坦克被射中,则显示失败界面,主界面保持隐藏,待睡眠3s结束后,主页面显示同时重新初始化部分变量以保证返回到主界面后“NEW”和“CONTINUE”被点击后不会出现异常和意料之外的情况,若敌方坦克被射中类似。之所以单独写个函数返回设置的位置,是因为若直接将坦克的位置坐标作为子弹的构造函数参数,会导致子弹的显示偏离坦克的中线,所以调用这两个函数根据子弹的方向设置子弹的x和y;这应该与坦克运动的函数有关;

2024-01-03 10:17:51 996

原创 【Java】实验四

其中包含四个临时变量,分别为up,down,left,right,分别表示四个方向行驶的权重,调用unequalProbabilityRandom()方法根据权重生成方向对应的随机数,再调用Random类创建的random对象中的nextInt()方法产生行驶距离随机数存储在step中;类实现了Runnable接口,重写run()方法,其内部死循环调用sleep()函数,每隔50ms调用一次repaint()方法以刷新窗口,同时调用敌方坦克的Move()方法以实现敌方坦克的随机行驶。

2024-01-03 10:01:05 800

原创 【现代信息检索】国科大何苯老师现代信息检索课程作业 —— 第三次作业

基于神经网络的检索模型主要分为基于学习文本的分布式表示的模型(representation based model)和基于文本匹配函数的模型(matching function model)。通过在特定任务上进行少量的有标签数据训练,BERT可以适应不同的任务,如文本分类、命名实体识别、问答等。在微调过程中,通常会在BERT模型的顶部添加一个任务特定的输出层,用于任务特定的预测。最大的 MAP,即最大的 AP,对应的返回相关文档的位置序列为。最小的 MAP,即最小的 AP,对应的返回相关文档的位置序列为。

2024-01-01 19:13:50 1086

原创 【现代信息检索】国科大何苯老师现代信息检索课程作业 —— 第二次作业

字典(按字典序)为 {“Ariolimax”, “banana”, “Campus”, “columbianus”, “Cruz”, “Mascot”, “mountains”, “Santa”, “slug”},总共 9 个单词。对于这里的“词项频率”有些疑惑,是指“频次”还是“频率”?括号中明确表示“不包括长度归一化因子”,所以我倾向于这里指的是“频次”,以防万一,下面将两种理解都写出来了。对于本题而言,总共 18 个单词,其中 to 和 of 各两个,其余单词均一个,字典大小为 16。

2024-01-01 19:12:16 868

原创 【现代信息检索】国科大何苯老师现代信息检索课程作业 —— 第一次作业

查询词项的权重计算采用:查询中出现的词项权重为 1,否则为 0。计算查询 “bord” 与图中每个包含 2-gram “or” 的词项之间的 2-gram Jaccard 系数, 并写出计算过程。考虑表 1 中的 3 篇文档 Doc1、Doc2、Doc3 中几个词项的 tf 情况,表 2 为词项在所有文档中的 idf 值。试计算采用欧氏归一化方式处理后的文档向量,其中每个向量有 4 维,每维对应一个词项。以 “bord” 的 3-gram 为例,添加特殊标记后变为“<S。画出文档集对应的词项-文档矩阵。

2023-12-10 19:33:17 1155

原创 【数据挖掘】国科大苏桂平老师数据库新技术课程作业 —— 第四次作业

云数据库是在 SaaS(software-as-a-service:软件即服务)成为应用趋势的大背景下发展起来的云计算技术,它极大地增强了数据库的存储能力,消除了人员、硬件、软件的重复配置,让软、硬件升级变得更加容易,同时也虚拟化了许多后端功能。云数据库具有高可扩展性、高可用性、采用多租形式和支持资源有效分发等特点。如图111所示,在云数据库应用中,客户端不需要了解云数据库的底层细节,所有的底层硬件都已经被虚拟化,对客户端而言是透明的。

2023-12-10 19:11:18 1338

原创 【数据挖掘】国科大苏桂平老师数据库新技术课程作业 —— 第三次作业

根据描述内容创建 student 表、course 表、department 表、selectcourse 表、teacher 表、teach 表,分别如图。表 9 somestucent 表中学生所选的所有课程名、成绩查询结果。表 4 selectcourse 关系表。表 11 somescourse 关系表。表 8 somestudent 关系表。表 3 department 关系表。表 1 student 关系表。表 2 course 关系表。

2023-12-09 20:10:25 1318

原创 【数据挖掘】国科大苏桂平老师数据库新技术课程作业 —— 第二次作业

,但是不满足传递依赖的定义,所以不存在传递依赖,故。当分解只包括两个关系模式时,可以使用定理”分解。指出下列关系模式是第几范式,并说明理由。注意区别”传递律“与”传递函数依赖“。具有无损连接性“判断是否为无损连接。注意,传递依赖的定义:设关系模式。1NF:如果一个关系模式。的属性子集,若函数依赖。的域值都是原子的,即。属于第一范式,简记为。

2023-12-09 20:02:58 975

原创 【数据挖掘】国科大苏桂平老师数据库新技术课程作业 —— 第一次作业

首先,目标属性是“学生号码”和“学生姓名”,除法运算后需要保留“学生号码”和”学生姓名“,这么看起来仿佛被除数关系应该是 Student 关系,因为只有 Student 关系中同时包含这两个属性,但从查询语句的语义中理解可以发现,被查询的关系应该为 SC 关系,本质上还是从选课关系中查找满足一定条件的学生。首先,目标属性是“学生号码”,所以经过除法运算后保留的属性应该是“学生号码”。作为被除数的关系应该包括“学生号码”和“课程号码”,作为除数的关系应该只包括“课程号码”,这样除后的关系只剩“学生号码”。

2023-12-06 23:13:06 480

原创 【Java】实验三

1、C是清除键,功能是将之前输入的数字、计算结果等信息全部归零。2、CE也是清除键,但只是清除当前输入的数据或符号。3、单击MS存储当前的显示值。比如计算“Sqrt(3)/2”,得出结果0.8660254037844,后面的计算中又会用到它,这时我们就可以按一下MS按钮存起它。4、单击MC用于清除存储区中的数值。5、单击MR可以将存储区中的数调出到显示栏中,存储区中数值不变。先按一下清除键,清除显示栏中数据,再单击“MR”按钮,刚才存储的数据就又显示出来了。

2023-12-06 13:58:13 775

原创 jupyter notebook 添加环境与删除环境

ipykernel 的作用是,对于不同环境的内核,如果您希望为不同的虚拟机或 CONDA 环境设置多个 IPython 内核,则需要为 KelnScript 指定唯一的名称。打开 jupyter notebook,创建 ipynb 文件。即可删除 jupyter notebook 中的。为待添加至 jupyter 中的环境。

2023-11-30 10:08:33 4599 2

原创 【数据挖掘】国科大刘莹老师数据挖掘课程作业 —— 第三次作业

c 的条件模式基为 {{e,a,b:1}, {e,a,d:1}, {e,b:1}, {d:1}, {a,b:1}},统计基于其条件模式基的候选一项集:{a:3,b:3,e:3,d:2}。综上所述,根据 FP-Growth 算法确定的频繁项集为 {a},{b},{c},{d},{e},{ab},{ad},{ae},{be},{de},{ade}。建立 ba 条件 FP 树,需要从图。可以看出,频繁项集有 {a},{b},{c},{d},{e},{ab},{ad},{ae},{be},{de},{ade}。

2023-11-29 16:45:20 1337

原创 【数据挖掘】国科大刘莹老师数据挖掘课程作业 —— 第二次作业

Written Part1. 给定包含属性{Height, Hair, Eye}和两个类别{C1, C2}的数据集。构建基于信息增益(info gain)的决策树。 Height Hair Eye Class 1 Tall Blond Brown C1 2 Ta

2023-11-29 16:39:57 2013

原创 【数据挖掘】国科大刘莹老师数据挖掘课程作业 —— 第一次作业

经过测试,无需修正。所示,gender 取值为 ”male“ 和 ”female“,marital_status 取值为 ”unmarried“,”married“ 和 ”divorce“,二者对应的 bitmap index 分别如表。,排序后的序列为 {16,16,17,18,19,20,20,20,21,21,22,22,23,23,24,24,25,26,26,27}。,可以想象到,离散粒度过大(粗),本质不同的区间可能被划分为同一类,离散粒度过小(细),划分的区间数过多,index 表出现。

2023-11-29 16:26:24 1445

原创 【计算机视觉】MoCo v3 讲解

标题:An Empirical Study of Training Self-Supervised Vision Transformers作者:Xinlei Chen, Saining Xie, Kaiming He期刊:ICCV 2021主题:计算机视觉、对比学习、MoCoarXiv:[

2023-10-24 20:52:33 1096

原创 【计算机视觉】SimSiam 讲解

标题:Exploring Simple Siamese Representation Learning作者:Xinlei Chen, Kaiming He期刊:CVPR 2021主题:计算机视觉、对比学习、孪生网络、EM 算法arXiv:[

2023-10-24 20:40:08 745

原创 【自然语言处理】关系抽取 —— SIEF 概述

SIEF 是一种通过随机删除文档中的与关系预测无关的语句(区别于 DocRE 数据集中人工标注的证据语句/非证据语句)来提升 DocRE 模型健壮性的训练方法。作者发现(当时)现存的 DocRE 模型存在健壮性问题,即模型针对完整文档可以正确预测关系,但是删除与预测无关的语句后却出现错误,这显然与直觉(人类的思考方式)不同,人类只需要在少量的与预测有关的语句上便可以正确推断,而不关注无关语句。以图111。

2023-10-01 09:25:55 763

原创 【Java】实验二

子类一旦隐藏了继承的成员变量,那么子类创建的对象就不再拥有该变量,该变量将归关键字super所拥有,同样子类一旦重写了继承的方法,就覆盖(隐藏)了继承的方法,那么子类创建的对象就不能调用被覆盖(隐藏)的方法,该方法的调用由关键字super负责。因此,如果在子类中想使用被子类隐藏的成员变量或覆盖的方法就需要使用关键字super。比如super.x就是访问和调用被子类隐藏的成员变量x和方法play()。

2023-09-26 22:00:33 189

原创 【自然语言处理】关系抽取 —— SpeechRE

口语理解(Spoken Language Understanding,SLU)的目的是从话语中提取关键信息,它被广泛应用于语音搜索和会议总结。SLU 主要包括意图检测(intent detection)和槽位填充(slot filling),而语音关系抽取(Speech Relation Extraction,SpeechRE)是一项新的**同时包含实体识别(NER)和关系提取(RE)**的口语理解任务,它以语音作为输入,以关系三元组作为输出。

2023-09-25 23:12:06 541

原创 【计算机视觉】BYOL 讲解

标题:Bootstrap your own latent: A new approach to self-supervised Learning作者:Jean-Bastien Grill期刊:NeurIPS 2020主题:计算机视觉、对比学习arXiv:[

2023-09-20 14:29:01 527

原创 【自然语言处理】关系抽取 —— CoIn 讲解

CoIn 模型通过掩码策略获得轮次内、间和说话人内、外的一致性特征,分别解决了由于说话人频繁切换导致的共指问题和主题(论点)转换问题。另外,CoIn 模型通过将2-hop 关系的推断作为训练任务,学习到了更强的逻辑推理能力,缓解了预测出的关系类型(集合)存在矛盾的问题。更具体地,CoIn 凭借掩码机制从全局对话特征中分别提炼出与轮次相关的特征(utterance-aware representation)(包括轮次内视图,以及与之互补的轮次间视图)和与说话人相关的特征。

2023-09-19 22:39:54 379

原创 【自然语言处理】关系抽取 —— SOLS 讲解

作者从分析 Sentence-level RE、Document-level RE 和 Dialogue-based RE 的难点差异入手,认为 Document-level RE 相比于 Sentence-level RE 的主要困难在于决定关系的信息跨越语句。然而,在对话场景中,多个说话人发言顺序的混乱造成的逻辑混乱(entangled logic)问题,导致模型难以确定用于判断关系的关键线索(key clue);另外,自然对话存在大量与关系判断无关的信息,少量的有关信息往往散布在整段对话中,即。

2023-09-16 22:21:45 489

原创 【数据结构】基于不同策略的英文单词的词频统计和检索系统实验报告

基于不同策略的英文单词的词频统计和检索 一篇英文文章存储在一个文本文件中,分别基于线性表、二叉排序树和哈希表不同的存储结构,实现单词词频的统计和单词的检索功能。同时计算不同检索策略下的ASL,通过比较ASL的大小,对不同检索策略的时间性能做出相应的比较分析。具体内容如下。一篇包括标点符号的英文文章存储在文本文件Infile.txt中,假设文件中单词的个数最多不超过5000个。从该文件中读取英文单词,过滤掉所有的标点。分别基于线性表、二叉排序树和哈希表不同的存储结构,实现单词词频的统计和单词的检索功能。

2023-09-11 22:08:32 1056 1

原创 【自然语言处理】关系抽取 —— MPDD 讲解

要设计能够理解用户感受的对话系统,一个带有用户心理状态标签的数据集是必不可少的;除了关注用户的情绪外,说话人与聆听者的关系也非常重要,可以想象,人们与朋友交谈时的措辞和与陌生人交谈时相比大有不同。出于这样的思考,作者构建了 MPDD 数据集。MPDD 是带有情感(emotion)和关系(interpersonal relationship)标签的中文对话数据集。

2023-09-11 21:47:21 671

原创 【自然语言处理】关系抽取 —— GDPNet 讲解

GDPNet 是由 BERT、图处理模块和 Softmax 分类器三大模块构成的、用于长文本或对话场景关系抽取的模型。GDPNet 最核心的部件是图处理模块,它的出现避免了引入用于获取句法依存关系的外部解析器,进而阻止了错误解析带来的误差在图卷积过程中传播。

2023-09-02 21:28:44 1229

原创 【自然语言处理】关系抽取 —— PMGAN讲解

标题:Position Enhanced Mention Graph Attention Network for Dialogue Relation Extraction作者:Xinwei Long期刊:SIGIR 2021 short paper主题:自然语言处理、关系抽取、对话场景、BERT、GCN、Attention。

2023-08-31 19:26:32 622

原创 【自然语言处理】关系抽取 —— DialogRE 讲解

DialogRE 对话 relation extraction 关系抽取 BERT Augment pair Trigger 自然语言处理 Dialogue-Based Relation Extraction BERT 感知说话人 实体 sentence PER ORG subject object 主体 客体 F1 精度 召回 Majority CLS 实时性

2023-08-24 21:12:37 1409

原创 【自然语言处理】关系抽取 —— SimpleRE 讲解

SimpleRE 关系抽取 对话场景 Dialogue Relation Extraction BERT 自然语言处理 BRS RRG DialogRE TACREV TACRED

2023-08-17 16:26:27 860

原创 【计算机视觉】SimCLR v2 讲解

SimCLR MoCo 预训练 微调 pretrain finetuning KD 知识蒸馏 knowledge distillation Teacher Student projection predictor traget soft label 软标签 软损失 SK selective kernel Memory bank

2023-08-16 15:07:34 648

原创 【计算机视觉】MoCo v2 讲解

SimCLR v1 MoCo v2 对比学习 MLP 非线性映射 数据增强 NT-Xent 正则化 半监督 温度 ImageNet 动量 编码器

2023-08-09 16:54:06 1228

原创 【计算机视觉】SimCLR 讲解

SimCLR v1 MoCo 对比学习 A Simple Framework for Contrastive Learning of Visual Representations MLP 非线性映射 数据增强 NT-Xent 正则化 半监督 温度 ImageNet

2023-07-21 07:45:05 392

原创 【计算机视觉】CMC 讲解

CMC instDis Memory bank infoNCE 对比学习 视图 图像分类 动作识别 视频识别 互信息

2023-07-16 10:53:09 678

原创 【计算机视觉】CPC 讲解

对比预测编码 Contrastove Predictive Coding CPC 对比学习 无监督 未来信息 语音 图像 文本 强化学习 infoNCE NCE Phone Classification 音素分类 PixelRNN Row LSTM GRU skip-thought vector

2023-06-28 21:05:43 462

原创 【计算机视觉】PixelRNN 讲解

PixelRNN Diagonal BiLSTM Row LSTM Multi-Scale PixelRNN PixelCNN gated conditional MASK 生成图像 串行 并行 state_to_state input_to_state 感知野 MINST、CIFAR-10 ImageNet 残差 Residual skip Softmax

2023-06-21 22:54:26 288

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除