- 博客(84)
- 资源 (1)
- 问答 (1)
- 收藏
- 关注
原创 Spring Boot集成PageHelper分页插件详解---补充
那实际上PageHelper就是先解析原本的sql语句,然后根据你提供的pageNum和pageSize去拼接sql语句串,所以如果你的sql语句写了。上面的两篇文章还有下面这一篇文章都提到了一个注意事项,实际上也是PageHelper的使用原理。就是你不能在你的sql语句后面写上分号。原本看了这两篇文章,觉得写的其实挺好的。但是发现两篇文章里面,对于方法的使用,都是最普通的。然后我就发现其实跟我实际项目中的使用是不一样的,我的使用。,这也是官方支持的一种方式。方法的时候,可以不用传入。
2024-10-24 16:08:01 485
原创 Java根据word 模板,生成自定义内容的word 文件
主要是项目中需要定制化一个word,也就是有一部分是固定的,就是有一个底子,框架,里面的内容是需要填充的。然后填充的内容很多,包括文本框、图片、文本、前端传过来的富文本、表格的设计。我最开始用的是EasyPoi的方法进行导入的,也就是网上比较常见的下面这样的方法进行填充word模版,如果你只比较简单的数据,那使用EasyPoi就够了。但是我涉及到了富文本的转换,就是我要把富文本渲染成docx支持的格式,所以我换了种方法。我这里是在静态资源里的模版,你也可以读取自己的其他目录下的文件,主要是只要是。
2024-10-18 18:45:22 1097
原创 Linux环境Font font = new Font(“宋体“, Font.BOLD, 16);Graphics.drawString()中文乱码
检查linux服务器上是否存在您设定的中文字体(若有则可正常显示):切换到"/usr/share/fonts“目录,我这这个下面是还有一层。准备好中文字体:然后因为我需要的是仿宋字体,我运行命令的时候发现字体是不一样,然后一开始也没注意这些细节。后来发现字体不在这里,在C:\Windows\Fonts下,这个是只读的,然后仿宋是里面的。扫描字体目录并生成字体信息的缓存,然后应用程序就可以"立即"使用这些新安装的字体;后来我想把我电脑的字体直接放到linux下去运行,然后去我的windows下目录。
2024-10-12 11:13:01 412
原创 javamail 发送邮件报错:Could not connect to SMTP host: smtp.163.com, port: 25 ,问题解决
报错内容其实代码没啥问题,主要就是两个步骤。
2024-01-08 07:44:08 2255 1
原创 论文笔记:AugGPT: Leveraging ChatGPT for Text Data Augmentation
文本数据增强是克服许多自然语言处理(NLP)任务中样本量有限的挑战的有效策略。这一挑战在小样本学习场景中尤为突出,其中目标域中的数据通常更加稀缺且质量较低。缓解此类挑战的一种自然且广泛使用的策略是执行数据增强,以更好地捕获数据不变性并增加样本量。然而,当前的文本数据增强方法要么无法确保生成的数据的正确标记(缺乏忠实性),要么无法确保生成的数据足够的多样性(缺乏紧凑性),或者两者兼而有之。
2023-07-14 17:18:31 2451 4
原创 maven进阶总结
1. maven之间可以互相导包2. maven的依赖是具有传递性的4. 继承与聚合4.1聚合4.2 继承5. 属性的配置与使用6. 版本管理8. 多环境开发和跳过测试(了解)
2023-02-28 01:47:39 460 1
原创 SpringMVC中的mybatis
没有必要在 Spring 的 XML 配置文件中注册所有的映射器。这个类可以让你直接注入数据映射器接口到你的 service 层 bean 中。当使用映射器时,你仅仅如调 用你的 DAO 一样调用它们就可以了,但是你不需要编写任何 DAO 实现的代码,因为 MyBatis-Spring 将会为你创建代理。首先,Mybatis中的有一段配置非常方便,省去我们去写DaoImpl(Dao层实现类)的时间,这个配置就是包扫描。映射过去对应的POJO封装对象。
2023-02-23 22:00:00 534
原创 Spring的IOC,注入问题,包括自动注入的条件和前提
Spring的核心技术IOC(Intorol of Converse控制反转)的实现途径是DI(dependency Insert依赖注入)。而依赖注入(DI)的实现方式又有两种,xml方式和注解方式。属性注入就是在实例化对象时,同时向对象中的属性进行相应的赋值。即,通俗点说,属性注入就是给类中的属性赋值。
2023-02-19 12:38:17 642
原创 AOP总结
切入点表达式标准格式:动作关键字( 访问修饰符 返回值 包名类/接口名方法名(参数异常名)表示模块名,例如UserService的匹配描述为。表示名词,例如getById匹配描述为getBy*5.方法名书写保留动词,例如get,使用。6.参数根据实际情况灵活调整。2查询操作的返回值建议使用。切入点表达式描述通配符。切入点表达式书写技巧。
2023-02-16 21:14:37 286
原创 论文笔记:Cross-Lingual Cross-Modal Consolidation for Effective Multilingual Video Corpus Moment Retrieva
现有的多语言视频语料库矩检索(mVCMR)方法主要基于双流结构。视觉流利用视频中的视觉内容来估计查询视觉相似性,而字幕流利用查询字幕相似性。最后的查询视频相似性集合了来自两个流的相似性。在我们的工作中,我们提出了一种简单有效的策略,称为跨语言跨模态整合(C3),以提高mVCMR的准确性。我们采用整体相似性作为教师来指导每个流的训练,从而产生更强大的整体相似性。同时,我们使用特定语言的教师来指导学生使用另一种语言,以开发不同语言之间的互补知识。在mTVR数据集上的大量实验证明了我们的C3方法的有效性。
2023-01-06 02:43:54 408
原创 ffmpeg压缩视频
然后又用ffmpeg来压缩,先设置视频的帧率为为 20fps,然后再设置视频的码率为1Mb/s,最后发现视频也被压缩到80M,但是效果要好很多,清晰度也比较高。
2022-11-14 21:34:09 11713
原创 MyBatis流程以及套路
构建 SqlSessionFactory官方文档给出的有两种方法,一种是从 XML 中构建 SqlSessionFactory,另一种是不使用 XML 构建 SqlSessionFactory,我学习的就是从 XML 中构建 SqlSessionFactory,所以另一种方法也不多解释。但现在有了一种更简洁的方式——使用和指定语句的参数和返回值相匹配的接口(比如 BlogMapper.class),现在你的代码不仅更清晰,更加类型安全,还不用担心可能出错的字符串字面值以及强制类型转换。...
2022-08-16 12:22:26 945
原创 论文笔记:DeBERTa: Decoding-enhanced BERT with Disentangled Attention
DeBERTa:具有分离注意力的解码增强型 BERT摘要介绍2 背景2.1 TRANSFORMER2.2 MASKED LANGUAGE MODEL(屏蔽语言模型)3 THE DEBERTA ARCHITECTURE3.1 DISENTANGLED ATTENTION: A TWO-VECTOR APPROACH TO CONTENT AND POSITION EMBEDDING(解开注意力:内容和位置嵌入的双向量方法)摘要预训练神经语言模型的最新进展显着提高了许多自然语言处理 (NLP) 任务的性能
2022-07-15 19:49:36 1368
原创 论文笔记:Cross-View Language Modeling: Towards Unified Cross-Lingual Cross-Modal Pre-training
本文介绍了一种简单有效的语言模型预训练框架Cross-ViewLanguageModeling,该框架将跨语言跨模态预训练与共享的架构和目标相结合。我们的方法受到一个关键观察的启发,即跨语言和跨模式的预训练具有相同的目标,即将同一对象的两个不同视图对齐到一个共同的语义空间中。为此,跨视图语言建模框架将多模态数据(即图像-字幕对)和多语言数据(即并行句子对)视为同一对象的两个不同视图,并通过条件掩码语言建模和对比学习来训练模型以最大化它们之间的相互信息来对齐两个视图。两个开创性的工作,M3PM3。...
2022-07-15 19:48:55 1300
原创 为什么测试的时候不需要batch normalization 和dropout?
转载自:Batch NormalizationBN,Batch Normalization,就是在深度神经网络训练过程中使得每一层神经网络的输入保持相近的分布。BN训练和测试时的参数是一样的嘛?对于BN,在训练时,是对每一批的训练数据进行归一化,也即用每一批数据的均值和方差。而在测试时,比如进行一个样本的预测,就并没有batch的概念,因此,这个时候用的均值和方差是全量训练数据的均值和方差BN训练时为什么不用全量训练集的均值和方差呢?因为在训练的第一个完整epoch过程中是无法得到输入层之外其他层全量训练
2022-07-05 17:06:39 959
原创 论文笔记:A CLIP-Hitchhiker’s Guide to Long Video Retrieval
本文的目标是将图文模型应用于长视频检索。最近的研究表明,通过采用CLIP,视频检索具有最先进的性能,有效地搭乘了视频任务的图文表示。然而,在学习时间聚合方面取得的成功有限,其性能优于平均池化由 CLIP 每帧提取的图像级表示。我们发现,通过查询评分的帧嵌入加权平均值的简单而有效的基线是比所有先前的时间建模尝试和均值池化的显着改进。通过这样做,我们提供了一个改进的基准,以供其他人进行比较,并在一套长视频检索基准上演示这一简单基准的最新性能。 预先训练的视觉语言模型正变得越来越普遍,因为它们在一系列下游任
2022-06-29 11:09:10 403
原创 论文笔记:Composable Sparse Fine-Tuning for Cross-Lingual Transfer
用于跨语言传输的可组合稀疏微调Abstract1 简介2 Background7 Conclusion and Future WorkAbstract对大型预训练模型的整个参数进行微调已成为迁移学习的主流方法。为了提高效率并防止灾难性的遗忘和干扰,已经开发了适配器和稀疏微调等技术。适配器是模块化的,因为它们可以组合以使模型适应知识的不同方面(例如,专用语言和/或任务适配器)。(每一个模块负责一个功能,然后组合起来)。稀疏微调具有表现力,因为它控制所有模型组件的行为。在这项工作中,我们介绍了一种具有这两
2022-06-07 21:32:02 888
原创 论文笔记:Multi-Source Cross-Lingual Model Transfer: Learning What to Share
多源跨语言模式迁移:学习分享什么摘要二级目录三级目录摘要利用神经网络模型,现代NLP应用已经享受了巨大的推动。然而,由于缺乏各种NLP任务的标注训练数据,这种深度神经模型不适用于大多数人类语言。跨语言迁移学习(CLTL)是一种通过利用来自其他(源)语言的标记数据来为低资源目标语言建立NLP模型的可行方法。在这项工作中,我们将重点放在多语言转换设置上,利用多种源语言的训练数据来进一步提高目标语言的性能。二级目录三级目录...
2022-05-11 21:56:53 949
原创 论文笔记:Cross-Lingual Ability of Multilingual BERT: An Empirical Study
多语种BERT跨语言能力的实证研究摘要介绍2 BACKGROUND2.1 BERT摘要最近的研究展示了多语言BERT(M-BERT)令人惊讶的跨语言能力-令人惊讶的是,它的训练没有任何跨语言目标,也没有对齐的数据。在这项工作中,我们对M-BERT中不同成分对其跨语言能力的贡献进行了全面的研究。我们研究了语言的语言属性、模型的体系结构和学习目标的影响。这项实验研究是在三种不同类型的语言-西班牙语、印地语和俄语-的背景下进行的,并使用了两种概念上不同的自然语言处理任务:文本蕴涵和命名实体识别。我们的主要结论
2022-04-29 16:12:06 813
原创 论文笔记:WORD TRANSLATION WITHOUT PARALLEL DATA
没有平行数据的单词翻译摘要1 介绍摘要学习跨语言词嵌入的最先进方法依赖于双语词典或平行语料库。最近的研究表明,使用字符级信息可以减轻对平行数据监督的需求(再看看)。虽然这些方法显示了令人鼓舞的结果,但它们与受监督的方法相比并不相同,并且仅限于共享一个公共字母表的语言对。在这项工作中,我们表明,我们可以在不使用任何平行语料库的情况下,通过以无监督的方式对齐单语单词嵌入空间来建立两种语言之间的双语词典。在不使用任何字符信息的情况下,我们的模型在一些语言对的跨语言任务上甚至优于现有的监督方法。我们的实验表明,
2022-04-27 01:05:51 570
原创 论文笔记:Cross-Lingual Semantic Role Labeling with High-Quality Translated Training Corpus
基于高质量翻译训练语料库的跨语言语义角色标注摘要摘要许多研究工作致力于语义角色标记(SRL),这对于自然语言理解至关重要。当大规模语料库可用于资源丰富的语言(如英语)时,监督方法取得了令人印象深刻的表现。而对于没有注释 SRL 数据集的低资源语言,获得有竞争力的性能仍然具有挑战性。跨语言 SRL 是解决该问题的一种很有前途的方法,它在模型转移和注释投影的帮助下取得了很大进展。在本文中,我们提出了一种基于语料库翻译的新替代方案,从源黄金标准 SRL 注释构建目标语言的高质量训练数据集。在 Universa
2022-04-17 14:21:45 351 1
原创 论文笔记:Cross-lingual Dependency Parsing with Unlabeled Auxiliary Languages
使用未标记辅助语言的跨语言依存句法分析摘要摘要跨语言迁移学习已成为对抗低资源语言注释资源不可用的重要武器。跨语言迁移的基本技术之一是以词嵌入或上下文编码的形式学习与语言无关的表示。在这项工作中,我们建议利用来自辅助语言的未注释句子来帮助学习与语言无关的表示。具体来说,我们探索了用于学习上下文编码器的对抗性训练,这些编码器产生跨语言的不变表示,以促进跨语言迁移。我们对跨语言依赖解析进行了实验,我们在源语言上训练依赖解析器并将其转换为广泛的目标语言。对 28 种目标语言的实验表明,对抗训练在几种不同的设置下
2022-04-14 01:50:55 1121
原创 论文笔记:UC2: Universal Cross-lingual Cross-modal Vision-and-Language Pre-training
视觉和语言预训练在学习视觉和语言之间的多模态表示方面取得了令人瞩目的成功。 为了将这种成功推广到非英语语言,我们介绍了 UC2,这是第一个用于跨语言跨模态表示学习的机器翻译增强框架。 为了解决图像数据集多语言字幕的稀缺问题,我们首先通过机器翻译 (MT) 将现有的仅英语数据集与其他语言进行扩充。 然后,我们将标准 Masked Language Modeling 和 Image-Text Matching 训练目标扩展到多语言设置,其中通过共享视觉上下文(即使用图像作为枢轴)捕获不同语言之间的对齐。 为了促
2022-03-21 10:57:58 4896 1
原创 李宏毅 Transformer(Decoder部分)
Transformer P2_DecoderDecoder – Autoregressive (AT)Autoregressive (AT )😗 利用前期若干时刻的随机变量的线性组合来描述以后某时刻随机变量的线性回归模型。即已知N个数据,可由模型推出第N点前面或后面的数据(设推出P点)
2022-03-10 00:53:30 4465
原创 在Ubuntu20.0.4安装cuda11.4遇到的nvidia-smi和nvcc-V 版本不一致的问题
去官网下载cuda.deb 文件wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/cuda-ubuntu2004.pinsudo mv cuda-ubuntu2004.pin /etc/apt/preferences.d/cuda-repository-pin-600wget https://developer.download.nvidia.com/compute/cuda/11.4.4/l
2022-03-09 23:09:12 1419
原创 linux下ubantu20.0.4安装CUDA 11.4.0的流程
NVIDIA官网全部的cuda版本查询CUDA 11.4.0 版本的下载具体页面linux查看cuda版本1.cat /usr/local/cuda/version.txt2.或者 nvcc -v如果1不行,那就把txt改成改成json流程官网介绍的流程步骤,但是很繁琐,想看的可以看一下安装步骤:0、检查是否安装显卡驱动cat /proc/driver/nvidia/version显示:NVRM version: NVIDIA UNIX x86_64 Kernel Module
2022-03-09 19:19:51 2030
原创 李宏毅 Transformer(介绍 + Encoder部分)
Transformer就是一个,Sequence-to-sequence的model,他的缩写,我们会写做Seq2seq,那Sequence-to-sequence的model,又是什麼呢我们之前在讲input a sequence的,case的时候,我们说input是一个sequence,那output有几种可能一种是input跟output的长度一样我们不知道应该要output多长,由机器自己决定output的长度,即Seq2seq举例来说,Seq2seq一个很好的应用就是 语音辨识
2022-03-08 01:14:25 7737
原创 论文笔记 :Multi30K: Multilingual English-German Image Descriptions
多语言英德图像描述 摘要1 介绍2 Multi30K数据集2.1翻译2.2独立描述2.3翻译VS独立的描述2.4 English vs. German3 讨论3.1 Multi30K for Image Description (没用)3.2 Multi30K for Machine Translation(没用)4 结论摘要我们引入Multi30K数据集来刺激多语言多模态研究。图像描述的最新进展几乎完全在英语语言数据集上得到证实,但图像描述不应局限于英语。该数据集扩展了Flickr30K数据集,其中
2022-03-04 23:29:08 4188
原创 论文笔记:Towards Zero-shot Cross-lingual Image Retrieval and Tagging
面向零镜头跨语言图像检索与标注摘要导言三级目录摘要最近,人们对多模态语言和视觉问题的兴趣激增。在语言方面,大多数模型主要关注英语,因为大多数多模态数据集都是单语的。我们试图通过在文本侧使用跨语言预训练来学习多模态表征的零镜头方法来弥合这一差距。我们提出了一种简单而实用的方法来构建跨语言图像检索模型,该模型在单语训练数据集上进行训练,但可以在推理过程中以零拍跨语言方式使用。我们还引入了一个新的目标函数,该函数通过将不同的文本相互推离来收紧文本嵌入簇。为了进行评估,我们引入了一个新的1K多语言MSCOCO
2022-03-02 18:01:22 2375
原创 论文笔记:M3P: Learning Universal Representations via Multitask Multilingual Multimodal Pre-training
M3P:通过多任务多语言多模态预训练学习通用表征摘要1.导言摘要我们提出了多任务多语言多模式预训练模型M3P,该模型通过多任务预训练将多语言预训练和多模式预训练结合到一个统一的框架中。我们的目标是学习通用表示法,将以不同方式出现的对象或以不同语言表达的文本映射到一个共同的语义空间。此外,为了明确鼓励图像和非英语语言之间的细粒度对齐,我们还提出了多模态代码切换训练(MCT),通过代码切换策略将单语预训练和多模态预训练结合起来。在MSCOCO和Multi30K两个基准数据集上对多语言图像检索任务进行了实验。
2022-02-14 10:25:03 1681
原创 李宏毅 self-attention
解决的问题:输入的长度不固定怎么表示么?one-hot向量法word-enbedding一整个输入,一堆输出一整个输入,一个输出请看作业五 seq2seq
2022-02-07 22:09:29 859
原创 李宏毅 bert 讲解
bert就是transformer的encoder输入seq,输出seq先决定盖哪几个,再决定怎么盖然后输出输出的就是一个向量,里面就是词典所有的单词的概率(是吗)然后跟我那个真实值,最小化,(就是一个分类问题),训练的时候,bert里面的参数和我们那个liner的参数一起训练。除了上述的mask之外,还会预测下一个句子这个输出的yes或者or,意思就是我这两个句子是不是相接的,后来说这个方法其实没有什么用。 然后就是bert其实它的作用就是填空,但是他却可以使用在其他的任务上,这些
2022-01-28 02:45:17 1420
原创 三篇助你理解Transformer 中的 Query、Key 与 Value
如何理解 Transformer 中的 Query、Key 与 Value这一篇主要是帮助你用比喻的手法来了解一下attention机制中的query,key,value的概念解释这一篇帮你用图来了解过程如何理解 Transformer 中的 Query、Key 与 Value这一篇总结收尾就是Query*Key其实就是计算相关度或叫依赖度,然后经过softmax转为权重,针对可能的y计算加权和就得到最终的结果了。其实就是用你Query*Key算出来一个权重,然后再跟value计算一下子,出
2022-01-20 23:41:50 6936 1
转载 VSCode输出框中文乱码问题
问题在输出框打印中文的时候乱码。佛了,强迫症真的忍不了。找教程emmm莫名找到的都是些说代码本身中出现乱码的。直到我在知乎上找到一个哥们的链接解答。https://www.jianshu.com/p/e634bff989f2解决方法添加系统全局变量PYTHONIOENCODING,值设置为UTF8然后再重启VSCode就好了附上全局变量设置方式教程诶担心新手们抛弃了VSCode这么好用的东西。右键我的电脑,点属性高级系统设置3.环境变量点新建变量名PY
2022-01-06 18:01:56 259
原创 论文笔记:Multilingual Multimodal Pre-training for Zero-Shot Cross-Lingual Transfer of Vision-Language Mo
视觉-语言模型零镜头跨语言迁移的多语种多模态预训练摘要介绍方法Multilingual Multimodal Transformers摘要本文研究视觉-语言模型的零镜头跨语言迁移。具体来说,我们关注于多语言文本到视频的搜索,并提出了一个基于Transformer-based的模型来学习语境化的多语言多模态嵌入。在零镜头设置下,我们的经验表明,当我们使用非英语句子查询多语言文本-视频模型时,性能会显著下降。为了解决这一问题,我们引入了一种多语言多模态的预训练策略,并收集了一个新的多语言教学视频数据集(Mu
2022-01-01 14:44:52 2607
原创 论文笔记:COCO-CN for Cross-Lingual Image Tagging, Captioning, and Retrieval
COCO-CN用于跨语言图像标记、标题和检索摘要介绍摘要本文从数据和基线方法两方面对跨语言图像标注和检索做出了贡献。我们提出了一种新的中文句子和标记丰富MS-COCO的数据集coco - cn。为了有效的标注获取,我们开发了一个推荐辅助的集体标注系统,自动为标注者提供与图片内容相关的几个标签和句子。COCO-CN拥有20 342幅图像,27 218个中文句子,70 993个标签,是目前最大的汉英图像标注数据库,为跨语言图像标注、字幕标注和检索提供了统一的、具有挑战性的平台。我们从跨语言资源中开发概念简单
2021-12-21 13:16:26 3041 2
原创 论文笔记:COOKIE: Contrastive Cross-Modal Knowledge Sharing Pre-training for Vision-Language Representati
面向视觉语言表示的跨模态知识共享预训练摘要介绍预训练整体结构跨模态对比学习结论摘要最近,人们对跨模态预培训的兴趣激增。然而,现有的方法预先训练一个单流模型来学习联合视觉语言表示,这在进行跨模态检索时会受到计算爆炸的影响。在这项工作中,我们提出了对比跨模态知识共享预训练(COOKIE)方法来学习通用文本图像表示。其中有两个关键设计,一个是视觉和文本编码器上的权重共享transformer ,用于对齐文本和图像语义,另一个是三种对比学习,用于在不同模式之间共享知识。跨模态知识共享极大地促进了单峰表示的学习
2021-12-10 17:24:34 2758 1
原创 论文笔记:Frozen in Time: A Joint Video and Image Encoder for End-to-End Retrieval
冻结时间:一种用于端到端检索的视频图像联合编码器摘要介绍方法模型架构培训策略结论摘要我们在这项工作中的目标是视频文本检索——特别是一种联合嵌入,使高效的文本到视频检索成为可能。这一领域的挑战包括视觉体系结构的设计和训练数据的性质,因为可用的大规模视频文本训练数据集(如HowTo100M)是有噪声的,但是只有通过大量计算才能在规模上实现有竞争力的性能。我们在本文中解决了这两个挑战。我们提出了一种端到端的可训练模型,旨在利用大规模图像和视频字幕数据集。我们的模型是对最近的ViT and Timesform
2021-12-08 23:27:34 1118
TA创建的收藏夹 TA关注的收藏夹
TA关注的人