自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 资源 (2)
  • 收藏
  • 关注

原创 Maven中pom.xml下scope属性provided失效问题

问题:依赖导入后,将servlet-api和jsp-api设置为provided后想部署后自动使用tomcat的包。部署运行之后发现在lib目录下依旧有servlet-api和jsp-api。可以看到这两个jar包的选项为Compile选项,但是我设置的是Provided选项。选择重新构建项目(右击项目–》maven–》Reload project)target编译文件中没有servlet-api和jsp-api。回到代码中,发现设置的是Provided选项。

2023-03-17 15:03:24 759

原创 Siamese+LSTM+Distance(abs)

孪生网络首先要理解什么是孪生网络模块,我们在词嵌入和编码(LSTM)过程中使用的是相同的参数,比如说我下面的代码中,在编码阶段,对于两个句子的输入,我都使用了相同的LSTM,这也就是Siamese+LSTM。疑问不过我有个疑问,我在某些文章中看到用LSTM来判断句子相似度,它不是Siamese+LSTM,在文章中对比的两种方法,一种是Siamese+LSTM,还有一种是LSTM。我也不清楚这个单独的LSTM是什么意思,后来我思考了一下,可能是在对两个句子进行编码的时候,使用了两个不同的LSTM结构(我猜是

2022-06-30 16:56:26 675

原创 文本相似度(pytorch版本) Bi-Lstm+Attention

最近在学习文本相似度方向的知识,顺便做了个实验,摸索了好长时间网络结构是Bi-LSTM(hidden=128)+Attention+FC导入相关包定义网络结构训练部分训练结果网络结构是Bi-LSTM(hidden=128)+Attention+FC导入相关包import numpy as npimport torchimport torch.nn as nnimport torch.optim as optimimport torch.nn.functional as Ffrom word2

2022-03-11 10:15:58 2900 9

原创 Pytorch中Embedding之后怎么做?

作品为原创,转载请标明出处我在csdn中看了很多文章,虽然我了解了Embedding的含义,但是在后续的使用过程中,很不顺畅,最终我还是自己把它给摸透了Pytorch中的Embeddingembedding= nn.Embedding(dict_len,Embedding_dim)dict_len:代表的是你的训练集组成词典的总长度Embedding_dim:就是把[4,1,2,3]中的一个item化为Embedding_dim长度的向量可以这样想有个长方形**(1,4)想象成长方体的一个面,

2021-10-26 17:00:50 866

原创 蓝桥杯:特别数的和

小明对数位中含有 2、0、1、9 的数字很感兴趣(不包括前导 0),在 1 到 40 中这样的数包括 1、2、9、10 至 32、39 和 40,共 28 个,他们的和是 574。 请问,在 1 到 n 中,所有这样的数的和是多少?输入一行包含一个整数 n。输出一行,包含一个整数,表示满足条件的数的和。x =eval(input(""))list="2019"sum =0for i in range(1,x+1): if len(set(str(i))&set(list))

2021-10-23 22:48:03 71

原创 pytroch中的SGD优化器

在pytorch中,有一个优化器(Optimizer)的概念,包名为torch.optim,优化算法有SGD, Momentum,AdaGrad,RMSProp,AdamSGDSGD是常用的优化方法,但是其收敛的过程很慢,Momentum方法可以加速收敛class torch.optim.SGD(param,lr=<objectobject>,momentum=0,dampening=0,weight_decay=0,nesterov=False)params:用于优化迭代的参.

2021-10-23 22:08:15 3202

原创 pytorch中的Embedding

S1=“你是个栽娃”,S2=“我是中国人”L1=[“你”,“是”,“个”,“栽”,“娃”],L2=[“我”,“是”,“中”,“国”,“人”]L_total=[“你”,“是”,“个”,“栽”,“娃”,“我”,“中”,“国”,“人”]对L_total进行编号放到一个字典中dict={“你”:0,“是”:1,“个”:2,“栽”:3,“娃”:4,“我”:5,“中”:6,“国”:7,“人”:8}有这样一个新的句子"我是栽娃"对应的编号组成向量[4,1,2,3](正常情况下会有个固定的向量长度..

2021-10-23 21:29:52 2442 4

原创 随机梯度下降

使用整个训练集的优化算法称为批量算法,因为它们会在一个大批量中同时处理所有样本。每次只使用单个样本的优化算法称为随机梯度算法。批量梯度下降每次学习都使用整个训练集,其优点在于每次更新都会朝着正确的方向进行,最后能够保证收敛于极值点,这样其收敛速度快、迭代次数少。但是其缺点在于每次梯度更新需要遍历整个数据集,需要计算量大,消耗内存多,特别是在数据集比较大的时候,同时还不利于分布式训练。随机梯度下降算法每次只随机选择一个样本来更新模型参数,因此每次的学习是非常快速的。随机梯度下降最大的缺点在于每..

2021-10-23 21:00:28 359

原创 单层神经网络的实现:

单层神经网络的实现,数据集为sklean.datasets.load_iris()from sklearn.datasets import load_iris #数据集import torch.nn as nn #继承Module类import torch.nn.functional as F #激活函数和损失函数from torch.optim import Adam,SGD #优化器准备数据集,并保存为tensor格式iris = load_iris()x = iris["data"

2021-10-23 20:44:47 180

原创 TF-IDF详解

TF-IDF=TF*IDFTF: Term Frequency 词频IDF: Inverse Document Frequency 逆文本频率指数(1)假如一片文章有 1000 个词,"中国” 这个词出现了 20 次,"梦想" 这个词出现了 10 次,"我" 这个词出现了 50次那么:TF(“中国”)=20/1000=0.02TF(“梦想”)=10/1000=0.01TF(“我”)=50/1000=0.05(2)有一个文件库,它是用来求IDF用的,文件库包含了5000个文档在

2021-10-23 16:33:37 1464

原创 蓝桥杯:数列求值

‘’’给定数列 1, 1, 1, 3, 5, 9, 17, …,从第 4 项开始,每项都是前 3 项的和。求第 20190324 项的最后 4 位数字。‘’’本来想用列表的append,一个一个加到里面去的,试了一下,电脑直接卡了然后我测试了一下到100的时候,这个数字已经大的不行了,更别说20190324了a,b,c=1,1,1count =4while count<=20190324: if a<10000 and b<10000 and c<10000:

2021-10-22 23:48:10 128

原创 蓝桥杯:年号匹配

‘’’小明用字母A 对应数字1,B 对应2,以此类推,用Z 对应26。对于27以上的数字,小明用两位或更长位的字符串来对应,例如AA 对应27,AB 对应28,AZ 对应52,LQ 对应329。请问2019 对应的字符串是什么?‘’’start =27str_2019=""alpha = ["A","B","C","D",'E','F','G','H','I','J','K','L','M','N','O','P','Q','R','S','T','U','V','W','X','Y','Z

2021-10-22 23:17:29 120

原创 蓝桥杯:不同字串

一个字符串的非空子串是指字符串中长度至少为1的连续的一段字符组成的串。例如,字符串aaab有非空子串a, b, aa, ab, aaa, aab, aaab,一共7个。 注意在计算时,只算本质不同的串的个数。请问,字符串0100110001010001有多少个不同的非空子串?str1='0100110001010001'list_word=[]for i in range(1,len(str1)+1):#控制字符长度 for j in range(len(str1)): #控制从哪个地方开始

2021-10-22 22:56:57 123

原创 Anconda安装jupyter notebook

Anaconda安装老版本的TensorFlow(1) 进入Anaconda官网下载Anaconda(2)然后点击Get Started(3)点击此处进入下载这是最新的Anaconda安装包(4)要下载老版本的Anaconda可将此页面下拉点击红色箭头地方,进入老版本Anaconda的下载(这里不是老版本的TensorFlow,等待Anaconda安装完成才进入到TensorFlow的安装)(5)自行选取老版本的Anaconda版本。(6)进入安装(7)安装路径自己设置,除了下

2021-05-19 23:24:48 963

原创 Anaconda安装老版本tensorflow

Anaconda安装老版本的TensorFlow(1) 进入Anaconda官网下载Anaconda(2)然后点击Get Started(3)点击此处进入下载这是最新的Anaconda安装包(4)要下载老版本的Anaconda可将此页面下拉 点击红色箭头地方,进入老版本Anaconda的下载(这里不是老版本的TensorFlow,等待Anaconda安装完成才进入到TensorFlow的安装)(5)自行选取老版本的Anaconda版本。(6)进入安装(7)安装路径自己设置,除了下

2021-05-19 23:05:13 2432

转载 Running setup.py install for numpy ... error

转自:[https://blog.csdn.net/weixin_43100127/article/details/103978990]安装mxnet时报错Running setup.py install for numpy … error可以先尝试升级pip和setuptoolspip install --upgrade pippip install --upgrade setuptools再安装低版本的mxnetpip install -i https://pypi.tuna.tsing

2021-04-29 20:09:04 4414

原创 Eclipse中Java代码自动补全

Eclipse中Java代码自动补全点击Window下面的Preference根据上图将Auto activation triggers for Java后面的方框换成.ABCDEFGHIJKLMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz完成就可以了...

2019-09-24 19:49:08 638

操作系统第五版费祥林-课后习题答案参考.pdf

答案中包含的是操作系统中应用题的答案,不包含前面思考题的答案,因为网上下载的时候就没有思考题的答案,思考题大家可以找课本,本答案只包含应用题答案。

2019-06-03

求串中最长重复子串。

通过C++方法实现串中最大重复子串 初始设子串起始位置index=0,最长重复子串长度length=0。设S=“s1s2…sn”,扫描串S,对于当前字符s_i,判定其后是否有相同字符,若有记为s_j,再判定s_(i+1)是否等于s_(j+1),…,依次比较下去,即找到一个重复子串,把其下标index1与长度length1记下来,保留较长字串的index和length。再从s_(i+length1)之后找重复子串,然后对于s_(i+1)之后的字符采用相同的方法,最后的index与length即记录下最长重复子串的下表与长度。

2018-12-12

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除