- 博客(75)
- 资源 (1)
- 收藏
- 关注
原创 vue入门四-pinia
它有三个概念,state、getter 和 action,我们可以假设这些概念相当于组件中的 data、 computed 和 methods。actions:不能使用箭头函数,一定要使用普通函数。Store (如 Pinia) 是一个保存。
2024-10-16 15:24:45
389
原创 vue入门三-Vue Router
这使得 vue Router 可以在不重新加载页面的情况下更改 URL,处理 URL 的生成以及编码。在User.vue中可以使用defineProps获取id;而在Sidebar.vue使用defineProps获取不到id。beforeRouteEnter 守卫 不能 访问 this,因为守卫在导航确认前被调用,因此即将登场的新组件还没被创建。它的"to"属性指向路由,根据index配置的路由表,对应要展示的组件。404页面,匹配上述路径外的所有路径。两者区别:一个有“#”号,一个没有。
2024-10-10 10:17:27
495
原创 vue 入门二
将值封装在一个对象中,看似没有必要,但为了保持 JavaScript 中不同数据类型的行为统一,这是必须的。setup函数会在beforeCreated和created之前执行,写在beforeCreated和created中的也可以写在setup函数中!第二个参数是提供的值,值可以是任意类型,包括响应式的状态。props 因父组件的更新而变化,自然地将新的状态向下流往子组件,而不会逆向传递。一个组件可以多次调用 provide(),使用不同的注入名,注入不同的依赖值。$emit自定义触发事件。
2024-10-09 18:15:11
1069
原创 vue 入门一
为了给 Vue 一个提示,以 便它可以跟踪每个节点的标识,从而重用和重新排序现有的元素,需要为每个元素对应的块提供一个唯一的。:只有后面为false,对应的元素以及子元素都不会被渲染,控制dom元素的创建和销毁,运行时条件很少改变,一次性的。(3): splice(1,2,5,6) 在数组索引为1的下标开始的2个元素替换为5和6。(2): splice(1,0,5,6) 在数组索引为1的下标开始添加2个元素5和6。(1): splice(1,2) 在数组索引为1的下标开始删除2个元素。
2024-09-20 17:26:36
1156
原创 深度学习基本功2:网络训练小技巧之使用预训练权重、冻结训练和断点恢复
https://codeleading.com/article/48036475915/
2023-09-26 18:42:46
269
原创 linux
Linux是一个类似Unix的操作系统,继承了Unix以网络为核心的设计思想,是一个支持多用户、多任务、多线程和多CPU的操作系统。关机、单机用户模式、字符界面的多用户模式(不支持网络)、字符界面的多用户模式、图形界面的多用户模式、未分配使用、重启。用户空间和内核空间是程序执行的两种不同状态,可以通过系统调用和硬件中断完成用户空间到内核空间的转移。1.现代CPU实现了不同的工作模式,不同模式下CPU可以执行的指令和访问的寄存器不同。2.Linux从CPU的角度出发,为了保护内核的安全,把系统分为了两部分。
2023-04-14 11:53:36
416
原创 SQL基础教程
1.数据库的相关概念1.1 数据1.2 数据库1.3 数据库管理系统1.4 数据库系统1.5 SQL1.6 数据模型1.6.1 定义数据模型是对现实世界数据特征的抽象,也就是说数据模型是用来描述数据、组织数据和对数据进行操作的。数据模型是数据库系统的核心和基础。1.6.2数据模型的三个要求和两大类三个要求:一是能比较真实的模拟现实世界;二是容易为人所理解;三是便以在计算机上实现两大类概念模型,也称信息模型,它是按照数据的观点来对数据和信息进行建模,主要用于数据库设计。逻辑模
2023-02-15 01:10:41
658
原创 Multi-Level Matching and Aggregation Network for Few-Shot Relation Classification
本文提出了一种用于少样本关系分类的多级匹配和聚合网络(MLMAN)。 先前关于该主题的研究采用原型网络,它独立计算查询实例的嵌入向量和每个支持集的原型向量。 相比之下,我们提出的 MLMAN 模型通过在本地和实例级别考虑它们的匹配信息,以交互方式对查询实例和每个支持集进行编码。 每个支持集的最终类原型是通过对其支持实例的表示进行注意聚合(attentive aggregation)获得的,其中权重是使用查询实例计算的。 实验结果证明了我们提出的方法的有效性,在 FewRel 数据集上实现了新的最先进的性能。
2022-06-16 17:48:03
649
原创 Hierarchical Attention Prototypical Networks for Few-Shot Text Classification
Abstract目前文本分类任务的有效方法大多基于大规模的标注数据和大量的参数,但当监督训练数据少且难以收集时,这些模型就无法使用。 在本文中,我们提出了一种用于少样本文本分类的分层注意原型网络(HAPN)。 我们为我们的模型设计了特征级别、词级别和实例级别的多交叉注意力,以增强语义空间的表达能力。 我们在两个标准的基准小样本文本分类数据集——FewRel 和 CSID 上验证了我们的模型的有效性,并实现了最先进的性能。 分层注意层的可视化表明我们的模型可以分别捕获更重要的特征、单词和实例。 此外,我们的
2022-05-25 16:36:34
1073
原创 Diverse Few-Shot Text Classification with Multiple Metrics
Abstract我们研究自然语言领域的小样本学习。 与将基于度量或基于优化的元学习应用于具有低任务间方差的图像域的许多现有工作相比,我们考虑了一个更现实的设置,其中任务是多样化的。 然而,它给现有最先进的基于度量的算法带来了巨大的困难,因为单个度量不足以捕捉自然语言域中的复杂任务变化。 为了缓解这个问题,我们提出了一种自适应度量学习方法,该方法自动从一组从元训练任务中获得的度量中确定最佳加权组合,用于新出现的少样本任务。 对现实世界情感分析和对话意图分类数据集的广泛定量评估表明,所提出的方法在预测准确性方
2022-05-24 22:32:49
418
原创 早期关系分类
基于双向LSTM及注意力机制的关系分类Awesome Relation Classification Paper(关系分类)(PART I)Awesome Relation Classification Paper(关系分类)(PART II)2019年各大顶会神经关系抽取(NRE)优质论文整理分享...
2022-05-08 12:08:57
245
原创 Hybrid Attention-Based Prototypical Networks
Hybrid Attention-Based Prototypical NetworksFeature-level Attention对support set中的随机选取的每个类别的所有instance做多层卷积处理得到最终的z。不就类似attention based muti-instance RE么,support set中每个类别的所有句子,就是一个小型bag,所谓feature-level attention就是类似sentence-level attention(Lin et al.,2016
2022-03-29 20:35:45
753
原创 数据稀疏or特征稀疏
稀疏性的优点什么是稀疏特征(Sparse Features)?稀疏表示特征选择与稀疏学习机器学习中特征选择与稀疏学习的一些知识特征选择与稀疏学习(Feature Selection and Sparse Learning)机器学习之特征学习与稀疏学习...
2022-03-26 21:01:30
3596
原创 BN Dropout
Dropout和BN(层归一化)详解如何通过方差偏移理解批归一化与Dropout之间的冲突批归一化和Dropout不能共存?这篇研究说可以
2022-03-26 20:56:01
451
原创 我如何在bert预训练模型中获得最后一个transformer编码器的所有输出,而不仅仅是cls令牌输出?
我如何在bert预训练模型中获得最后一个transformer编码器的所有输出,而不仅仅是cls令牌输出?
2022-03-23 21:40:42
701
原创 feature disentangle(语者转换)
https://arxiv.org/abs/1904.05742https://arxiv.org/abs/1804.02812https://arxiv.org/abs/1905.05879
2022-03-21 19:50:33
355
原创 Learning to Decouple Relations: FewShot RC with Entity-Guided Attention and Confusion-Aware Training
Yingyao Wang1∗, Junwei Bao2, Guangyi Liu3, Youzheng Wu2,Xiaodong He2, Bowen Zhou2, Tiejun Zhao11Harbin Institute of Technology, Harbin, China2JD AI Research, Beijing, China3The Chinese University of Hong Kong, Shenzhen, China{baojunwei,wuyouzheng1,xia
2022-03-16 21:01:37
469
原创 lda算法
在这里插入代码片对类内:方差对类间:类别中心的距离参考:https://blog.csdn.net/weixin_44167798/article/details/120236629https://www.bilibili.com/video/BV123411s7eZ?spm_id_from=333.1007.top_right_bar_window_history.content.click...
2022-03-01 21:11:00
107
原创 Augmenting Few-Shot Learning With Supervised Contrastive Learning
When Deep Learning Meets Metric Learning: Remote Sensing Image Scene Classification via Learning Discriminative CNNs
2022-02-22 16:57:56
737
原创 LEARNING TO MATCH TRANSIENT SOUND EVENTS USING ATTENTIONAL SIMILARITY FOR FEW-SHOT SOUND RECOGNITION
4. CONCLUSION我们引入了一个简单的注意力相似性模块,用于小样本声音识别,以生成输入的注意力表示。 它允许模型在匹配相对短的声音事件时忽略不相关的背景噪声。 大量实验表明,注意力相似性不断提高各种现有方法在无噪声或有噪声剪辑数据集上的性能。 未来,我们计划扩展模型以采用多标签学习设置进行少量声音识别。2. APPROACH2.1. Few-shot sound recognition在我们的工作中,我们使用简单而强大的 ConvNet 架构作为我们的特征学习模型 fcnn(·)。 该模型可
2022-02-15 11:48:53
1753
原创 深度学习框架中的Ranking Loss
深度学习框架中的Ranking LossCaffeConstrastive Loss Layer. 限于 Pairwise Ranking Loss 计算. 例如,可以用于训练 Siamese 网络。PyCaffe Triplet Ranking Loss Layer. 用来训练 triplet 网络,by David Lu。PyTorchCosineEmbeddingLoss. 使用余弦相似度的 Pairwise Loss。输入是一对二元组,标签标记它是一个正样本对还是负样本对,以及边距 mar
2022-02-08 21:51:40
1790
原创 Modified Logistic Regression: An Approximation to SVM and Its Applications in Large-Scale Text Categ
Jian Zhang jian.zhang@cs.cmu.eduRong Jin rong@cs.cmu.eduYiming Yang yiming@cs.cmu.eduAlex G. Hauptmann alex@cs.cmu.eduSchool of Computer Science, Carnegie Mellon University, 5000 Forbes Avenue, Pittsburgh, PA 15213 USAAbstract
2022-01-09 11:47:20
617
原创 Large-Margin Regularized Softmax Cross-Entropy Loss
XIAOXU LI , DONGLIANG CHANG, TAO TIAN, AND JIE CAOSchool of Computer and Communication, Lanzhou University of Technology, Lanzhou 730050, ChinaCorresponding author: Jie Cao (caoj@lut.edu.cn)ABSTRACT机器学习和神经网络社区普遍采用带有 L2 正则化的 Softmax 交叉熵损失。考虑到传统的 softmax
2022-01-07 15:17:34
1795
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人