![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
研一
研一学习内容
向上Claire
这个作者很懒,什么都没留下…
展开
-
寻找失物信
Dear Thomas,I have returned safely to my home in Shanghai , and wish to thank you for everything you did for me . I really enjoyed my stay in the US.However, I regret to tell you that upon my arrival in Shanghai I suddenly discovered that I had left my _原创 2023-02-27 21:03:08 · 90 阅读 · 0 评论 -
avoid plagiarism
(5)如果你希望每篇参考文献引用多个研究,也就是说,如果多个作者得出了相同的结论或独立研究了同一个问题,你可以将他们放在同一个括号中,并用分号分隔他们的名字。按照惯例,这些引用是按时间顺序列出的。(1)总结或转述作者的思想,并在句末的括号中写上作者的姓氏和出版日期。(2)在文章中直接引用作者,并在括号中注明出版日期。(3)在文章中直接引用作者,并在括号中注明出版日期。(4)在文章中直接引用作者,并在括号中注明出版日期。原创 2023-02-27 21:01:09 · 110 阅读 · 0 评论 -
英语写作作文-Reference
The reference section should begin on a new page. ( F )Generally, the subtitles References/ Works Cited/Bibliography will be put at the beginning of the left margin, while occasionally in the center.( T )Do not number the entries.( T )Begin the fi原创 2023-02-27 21:00:35 · 125 阅读 · 0 评论 -
数值分析卷子分析
插值型求积公式的节点是高斯点的充分必要条件是以这些节点为零点的多项式与任何次数不超过n的多项式p(x)带权p(x)正交。就是插值,x减去不是自己的,之后带入减去不是自己的。4、n个节点的插值型求积公式的代数精度至少为n-1。有三个求积节点,所以代数精度为2,之后进行对比。一3 n+1互异节点 最高 2n+1 最少 n。(1)证明是以节点为求积节点的插值型求积公式。6、求什么的近似值,之后牛顿迭代公式为。注意前面的是b-a /6 中间的是4。A0是求积之后插值,之后进行对比。(1)拉格朗日插值多项式,余项。原创 2023-02-24 23:10:21 · 112 阅读 · 0 评论 -
基于词嵌入和矩阵分解的词汇义素预测
人工构造义原麻烦==》基于词嵌入编码的词的语义自动预测预测词汇义原的方法利用矩阵分解来学习==》来预测义原与词语之间的语义关系该方法对现有噪声义原知识库的标注验证和新单词短语的标注建议具有重要的应用价值。原创 2023-01-28 20:49:30 · 139 阅读 · 0 评论 -
基于《知网》的词汇语义相似度计算 Word Similarity Computing Based on How-net
所有同类的语义项构成一个树状结构,要计算语义项之间的距离,只要计算树状结构中相应结点的距离《知网》中词汇语义相似度的计算存在以下的问题:2、KDML。原创 2023-01-28 19:59:47 · 259 阅读 · 0 评论 -
Improved Word Representation Learning with Sememes
单词义素信息可以改善单词表示学习(WRL),它将单词映射到低维语义空间,并作为许多NLP任务的基本步骤。原创 2023-01-28 18:43:31 · 112 阅读 · 0 评论 -
Convolutional LSTM Network: A Machine Learning Approach for Precipitation Nowcasting
扩展全连接LSTM(FC-LSTM),使其再输入到状态和状态的转换中都具有卷积结构,我们提出了卷积LSTM(ConvLSTM)原创 2023-01-22 20:14:09 · 456 阅读 · 0 评论 -
LSTM2
【代码】LSTM2。原创 2023-01-22 12:02:04 · 153 阅读 · 0 评论 -
LSTM2
【代码】LSTM2。原创 2023-01-21 23:31:39 · 69 阅读 · 0 评论 -
python学习
split{}或者.set()不允许使用key值得下标索引lenmaxmin右键时才为true。原创 2023-01-17 17:42:27 · 60 阅读 · 0 评论 -
面向语义检索的中医理论知识库构建方法的研究+基于HowNet的航空术语语义知识库的构建
1、语义角色={义原}语义角色=”具体词“2、{KaTeX parse error: Expected 'EOF', got '}' at position 1: }̲表示的是被的意思,可以被保存3、怎么说呢,对我并不是很有意义。义原表:99个义原构成的描述义原间上下位关系的树状结构,然后通过给定的理论中知识的关系类别树状给网状KDML的知识表示特定的标识符实现义原的组合构成语义表达式。原创 2023-01-10 11:27:58 · 125 阅读 · 0 评论 -
LSTM模型介绍
根据反向传播的算法和链式法则soigmoid的导数值域是固定的,在[0,0,25]之间,一旦w小于1,那么梯度会非常非常小,梯度消失w大于1,之后连乘可能会造成梯度过大,就是梯度爆炸当前时间步输入x(t)与上一个时间步隐含状态h(t-1)拼接,得到[x(t),h(t-1)],通过一个全连接层做变换,最后通过sigmoid函数进行激活得到f(t)拼接,全连接层,sigmoid双向LSTM,将LSTM应用两次且方向不同,再将两次得到的LSTM结果进行拼接作为最终输出GRU内部结构分析。原创 2023-01-08 22:59:00 · 3058 阅读 · 0 评论 -
分词+数据增强方法
在一个batchsize中随机取两个随机的句子,之后填充相同的长度,之后按比例混合,之后新的mix-up word embeddings。在文本中加入注入噪声,来生成新的文本,最后使得训练的模型对扰动具有鲁棒性。词典:[“我们”,“经常”,“有”,“有意见”,“意见”,“分歧”]去替换原始文本中某一部分,而不改变句子本身的意思。随机去一个单词,将其替换为对应的同义词。概率p随机删除句子中的每个单词。句子的embedding的混合。让我匹配到的单词是越长越好的。给定一个条件,生成一个句子。原创 2023-01-07 16:10:14 · 130 阅读 · 0 评论 -
Seq2Seq
把最后那个时刻的隐层状态传给解码器,这个状态包括了整个源码句子的信息,这个东西可以是双向的,双向的不能做语言模型,但双向可以做翻译,decoder要预测,encoder不需要。encoder可以看到整个句子,所以可以正向看一下,反向看一下,双向RNN经常会用在Encoder里面。隐藏状态过来,给原句子的隐层状态之后给一个输出开始翻译,把上一个刻的翻译是下一刻的输入。encoder是给一个句子,比如Hello Word,然后要翻译成法语的句子。上一层的翻译做下一层的输出,得到整个原句子的输出。原创 2023-01-04 23:24:24 · 156 阅读 · 0 评论 -
【科研】Pyside6
1、展示第三包2、下载pyside6时 ,可以不用区分大小写这就好了。原创 2023-01-04 16:30:44 · 870 阅读 · 0 评论 -
transformer下
针对数字序列进行学习,学习的最终目标时使输出与输入的序列相同,如输入p。原创 2023-01-01 23:35:17 · 280 阅读 · 0 评论 -
transformer中
学习了什么是前馈全连接层在transformer中前馈全连接层就是具有两层线性层的全连接网络考虑注意力机制可能对复杂过程的拟合程度不够,通过增加两层网络来增强模型的能力学习并实现了前馈全连接层的类:PositionwiseFeedForward它的实例化参数为d_model,d_ff,dropout分别代表词嵌入维度,线性变换维度,和置零比率它的输入参数x,表示上层的输出它的输出是经过2层线性网络变换的特征表现。原创 2022-12-29 23:04:58 · 166 阅读 · 0 评论 -
卷积神经网络
能够将提取到的特征集合在一起,给出图片可能是某个事物的概率。训练,根据已有的图片,数字来自动的确定已有的数字。CNN中,存在着一个个填充数字的正方形小格子。拥有5个卷积层的AlexNet为例。特征图:这层的输出也是下层的输入。CNN非常擅长处理图像。原创 2022-12-24 10:14:23 · 85 阅读 · 0 评论 -
k-nearest neighbor classification(KNN)
k-nearest neighbor classification(KNN)原创 2022-12-22 11:04:23 · 79 阅读 · 0 评论 -
KNN学习
并不是KNN 是k-Nearest NeighborsK 近邻算法 是机器学习中常见的分类算法要判断一个新数据的类别就要看他的邻居都是谁KNN 中的K指的是【K个】邻居eg: K=3 就是通过离得最近得3个样本,来判断新数据的类别大小、颜色是数据的特征苹果和梨是数据的【标签】欧式距离:两点之间的直线距离坐标轴距离的绝对值的和:曼哈顿距离K的值太小,会受到个别因素的影响K的值太大,又会受距离较远的特殊数据影响K的取值受问题自身和数据集大小决定。原创 2022-12-17 19:11:26 · 241 阅读 · 0 评论 -
沈航数值统计-16-17A+B
沈航数值统计-16-17A+B原创 2022-12-17 10:25:43 · 91 阅读 · 0 评论 -
沈航-数理统计-17-18B-有答案
沈航-数理统计-17-18B原创 2022-12-17 10:21:58 · 81 阅读 · 0 评论 -
沈航数值-17-18年A-有答案
沈航数值-17-18年A-有答案原创 2022-12-17 10:16:20 · 93 阅读 · 0 评论